aCércate a la ciencia y la tecnología #2

Page 1



Universidad Autónoma de la Ciudad de México Rectora Esther Orozco Orozco Coordinadora Académica Minerva Camacho Nuez Encargado de la Coordinación del Colegio de Ciencia y Tecnología Jesús Eduardo Fandiño Armas Coordinador de Publicaciones Eduardo Mosches Acércate a la Ciencia y la Tecnología Dirección Catalina Trevilla Román Edición Catalina Trevilla Román Aída Suárez Reynaga Omar Zamora Sánchez Consejo Editorial Rosa Margarita Álvarez González Adolfo H. Escalona Buendía Luis Olivares Quiroz Rosa Elvira Páez Murillo Aída Araceli Suárez Reynosa Catalina Trevilla Román Gonzalo Vázquez Palacios Rodrigo Vidal Tamayo Ramírez Omar Zamora Sánchez Corrección de estilo César Enrique Fuentes Hernández Gabriela Bayona Trejo Diseño y dirección de arte Leonel Sagahón Formación y producción gráfica Laboratorio de comunicación gráfica de la uacm (lab) Servicio social lab Nabil Gualito Campos Cristian Cedillo Rodríguez Difusión y distribución Equipo Acércate

CONTENIDO 04

eL ejército rojo

ACÉRCATE, revista semestral Otoño 2011. Editor responsable: Aída Araceli Suárez Reynaga. Número de Certificado de Reserva otorgado por el Instituto Nacional del Derecho de Autor: 04-2010-032315104400-102. Número de Certificado de Licitud de Título y Contenido: 15216. Domicilio de la Publicación: División del Norte No. 906, Colonia Narvarte Poniente, Delegación Benito Juárez, C. P. 03020, México D. F. Imprenta: Universidad Autónoma de la Ciudad de México. San Lorenzo 290 Col. Del Valle Sur C. P. 03100, México, D. F. Distribuidor: Universidad Autónoma de la Ciudad de México, División del Norte No. 906, Colonia Narvarte Poniente, Delegación Benito Juárez, C. P. 03020, México D. F. ACÉRCATE, Año 1, No. 02, Otoño 2011, es una publicación semestral editada por la Universidad Autónoma de la Ciudad de México. Av. División del Norte No. 906, Col. Narvarte Poniente, Delegación Benito Juárez, C.P. 03020, México D. F. Tel. 1107-0280, www.uacm.edu.mx, acercate@uacm.edu.mx, acercate.uacm@gmail.com. Editor responsable: Aída Araceli Suárez Reynaga. Reserva de Derechos al Uso Exclusivo No. 04-2010-032315104400-102, ISSN en trámite, ambos otorgados por el Instituto Nacional del Derecho de Autor, Licitud de Título y Contenido No. 15216, otorgado por la Comisión Calificadora de Publicaciones y Revistas Ilustradas de la Secretaría de Gobernación. Impresa por la Universidad Autónoma de la Ciudad de México, San Lorenzo 290 Col. Del Valle Sur C. P. 03100, México, D. F., este número se terminó de imprimir el 30 de noviembre de 2011. Con un tiraje de 7,000 ejemplares. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Queda estrictamente prohibida la reproducción total o parcial de los contenidos e imágenes de la publicación sin previa autorización de la Universidad Autónoma de la Ciudad de México. Cualquier contenido de esta publicación puede ser reproducido siempre que se cite el lugar de procedencia. Los artículos son responsabilidad de sus respectivos autores. Las citas, reproducciones gráficas y fotográficas, trabajos de diseño y demás material incluido en el presente texto, están libres de pago de derechos de autor, según la Ley Federal de Derechos de Autor, publicada en el Diario Oficial de la Federación del 31 de diciembre de 1956, reformada según decreto del 4 de noviembre de 1963, publicado en el Diario Oficial de Federación el 21 de diciembre de 1963. El artículo 18 de dicha Ley, dice, al pie de la letra: “Artículo 18. El derecho de autor no ampara los siguientes casos: c) La publicación de obras de arte o arquitectura que sean visibles desde lugares públicos. d) La traducción o reproducción, por cualquier medio, de breves fragmentos de obras científicas, literarias o artísticas, en publicaciones hechas con fines didácticos…, etcétera”. Esta edición está destinada a servir de texto en las instituciones que la publican, que están dedicadas exclusivamente a funciones educativas, y que al hacerse responsables de esta publicación, declaran que no se persigue con ello ningún propósito lucrativo.

¿No más viruela?

06

Alzheimer

15

La ciencia de los superhéroes

26

10

DR. JOSÉ ALFREDO AMOR Y MONTAÑO

16

A 30 AÑOS DE LA IBM PC

El ejército rojo, ¡ayuda a los agricultores! 04 ¿No más viruela? 06 Dr. José Alfredo Amor y Montaño, disciplinado y dulce profesor de Lógica Matemática 10 Alzheimer, el mal del olvido 14 A 30 años de la ibm pc 16 Biodiversidad ¡Somos ricos! 24 La ciencia de los superhéroes (1a parte) 26 Einstein y mi cámara digital 29 Ilustración hecha por José Galaviz Casas. Basada en la obra “El hijo del hombre” de René Magritte (1964).En la pintura original una manzana cubre el rostro del hombre del bombín, ahora ocupado por una computadora en un proceso recursivo. Los avances en ciencias de la computación han hecho posible modelar en tan sólo segundos, diferentes fenómenos que hace unas décadas se llevaban a cabo en horas, días o simplemente era imposible su implementación. Sin embargo, quien investiga, innova, quien es capaz de inventar un acertado dispositivo tecnológico o crear una maravillosa obra de arte es el ser humano en su inmensa creatividad, ingenio y sensibilidad. A c é r c at e 0 2 Oto ñ o 2011

Replicación de virus: inyección mortal 32 El mide, más que un museo de Push- Botton 36 Un truco matemático, ¿Qué misterios encierran los números 21, 11, 3 y 7? 38 Solución a T- Reto 01 39 Contáctanos en:

www.uacm.edu.mx/acercate

acercate@uacm.edu.mx

acercate.uacm@gmail.com 1


Editorial

Compartir, enriquece Cuando nació el proyecto aCér-

Sin duda aCércate se ha enriquecido con el

cate pensamos que su historia

placer de compartir. Pensar en aCércate como un

se desarrollaría en los diferentes

espacio de reflexión y conocimiento nos motiva

espacios de la Universidad Autó-

para realizar nuestro trabajo con entusiasmo; a

noma de la Ciudad de México,

seguir compartiendo y sembrar semillas de curio-

llegaría a manos de los estudiantes y demás miem-

sidad fuera de las aulas. Por eso, para contar con

bros de la comunidad universitaria. Sin embargo,

un mayor número de ejemplares para nuestros

a tan sólo unos días de haber publicado el primer

lectores, a partir de este número contamos con la

número, decidimos que la mejor forma de com-

colaboración del icytdf.

partir esta revista de divulgación de la ciencia era llevándola también más allá de la Universidad.

del control biológico de plagas, labor que realiza el

En la presentación del primer número tuvi-

singular “ejército rojo” y sobre una realidad poco

mos el honor de contar con la presencia de desta-

conocida de nuestra “biodiversidad” así como la

cados investigadores y divulgadores de la ciencia,

responsabilidad que esto atañe. Pondremos en tus

quienes señalaron la importancia de contar con

manos la forma en que la Física estudia los meca-

diferentes medios que coadyuven a fomentar la

nismos de la “replicación de los virus”, así como la

cultura científica en nuestro país y con sus en-

polémica sobre destruir o conservar las últimas se-

riquecedores comentarios, le dieron una grata

pas del “virus de la viruela”, con las posibles reper-

bienvenida a este nuevo proyecto editorial. Agra-

cusiones en la investigación científica y uso bélico.

decemos la presencia de José de la Herrán, Con-

En Únete nos comparten un proyecto de investiga-

cha Ruiz, Tomás Granados, Eduardo Santillán,

ción sobre la “enfermedad de Alzheimer” e invita a

Orlando Guzmán, Omar Cabrera. Así como de

los lectores a la concientización de las personas que

las autoridades de la uacm que nos acompañaron

conviven con quienes padecen esta enfermedad.

en cada presentación, en especial, Esther Orozco,

En un marco de total originalidad, se recapi-

Rectora de nuestra Universidad y Minerva Cama-

tula la historia de la “ibm pc” a 30 años de su

cho, Coordinadora Académica.

creación. Y si piensas que los cómics son literatura

En septiembre de 2011, fuimos invitados al programa permanente “La ciencia en las calles”,

2

En esta segunda entrega podrás conocer acerca

barata, te invitamos a conocer “la ciencia de los superhéroes”.

que organiza el icytdf y en noviembre, a las “Jor-

En este número también te presentamos

nadas Astronómicas” organizadas por el mutec,

una entrañable semblanza del “Dr. José Alfredo

cfe con un público igual de variado.

Amor”, reconocido en el campo de la Lógica Ma-

La respuesta que tuvimos en los diferentes

temática. Sabrás cómo elegir una cámara fotográ-

eventos fue por demás gratificante. Compartimos

fica después de conocer sobre los “sensores de las

aCércate al: “xviii Congreso Nacional de Divulga-

cámaras digitales” que existen. Encontrarás una

ción de la Ciencia y la Técnica” de la somedicyt

recomendación para visitar el “mide”, un museo

en Morelia, Mich.; “xliv Congreso Nacional de

interactivo de economía, donde la tecnología

la Sociedad Matemática Mexicana” en San Luis

coadyuva a cumplir sus objetivos. Finalmente, te

Potosí, slp; “xxvi Encuentro Nacional de Divul-

compartimos el reto de este número: un intere-

gación Científica” y “liv Congreso Nacional de

sante “truco matemático” con cartas con el que

Física” de la smf, en Mérida, Yuc.; “liv Congreso

podrás divertirte con tus amigos.

Nacional de Ciencias Fisiológicas” en León, Gto;

Disfruta de este segundo encuentro con aCér-

“V Seminario Nacional de Tecnología Compu-

cate. Gracias por ser parte de esta labor. Sigamos

tacional en la Enseñanza y el Aprendizaje de las

creciendo juntos con el placer de compartir esta

Matemáticas 2011” en Querétaro, Qro.

gran aventura de la ciencia A c é r c at e 02 Oto ñ o 2011


A c é r c at e 0 2 Oto ñ o 2011

3


El ejÉrcito rojo

¡Ayuda a los agricultores! Ek Del Val de Gortari

El gusto por los insectos y similares es un placer que perdemos temprano en la vida. Por lo general, nos resultan criaturas que dan terror y ocasionan un asco incontrolable. Sin embargo, podemos seguir maravillándonos con estos seres al conocer un poco más sobre su vida y los grandes beneficios que aportan a la nuestra.

T

odos los años se tienen pérdidas millonarias en la agricultura de­ bido a los insectos plaga que cada día son más frecuentes. Las plagas se vuelven más comunes debido a que los campos agrícolas son homogéneos (en­ contramos un solo cultivo por hectáreas y hectáreas), y a que los depredado­ res naturales de las plagas (escarabajos carnívoros, arañas, avispas, hormigas, mantis, etcétera) han desaparecido por el uso indiscriminado de pesticidas y porque su hábitat natural se ha perdi­ do (bosques y matorrales aledaños a los campos de cultivo). Obviamente los insecticidas usados contra las plagas no están encaminados a terminar con los depredadores, pero debido a que se uti­ lizan pesticidas de amplio espectro, que matan a todo tipo de bichos, también acaban con ellos. Debido a que los insecticidas tam­ bién tienen repercusiones nefastas para la salud humana, se ha desarrollado una mejor estrategia para controlar las plagas. Ésta implica el dejar de usar sustancias químicas y promueve dejar extensiones de hábitats naturales, inter­ calados entre las tierras de cultivo para permitir la existencia de especies de in­ sectos que son muy benéficas y eficien­ tes para controlar plagas, ya que funcio­ nan como depredadores de los insectos plaga. Este tipo de estrategias forman parte del famoso control biológico, que generalmente requiere de la reproduc­ ción de insectos depredadores de plagas en cautiverio para liberarlos en el am­ biente y mantener así las poblaciones de herbívoros a raya. Uno de los insectos más utilizados como depredadores de plagas son las catarinas, también conocidas como mariquitas. Las catarinas son los escaraba­ jos consentidos de todas las personas; tienen forma de tanque y son muy ca­ 4

rismáticas por sus brillantes élitros rojos con puntos negros (alas duras en forma de estuche o coraza). Su carisma nos lle­ varía a pensar que son animales tiernos y dulces. Sin embargo, las catarinas son voraces depredadoras de insectos y su comida favorita son los pulgones. Las catarinas están agrupadas en la familia Coccinellidae y se conocen alrededor de 6,000 especies a nivel mundial, su tamaño varía entre 0.2 y 1 cm y son abundantes en casi todos los ecosiste­ mas: viven en los bosques, en las selvas e inclusive en los desiertos. Las especi­ es de catarina más comunes se pueden diferenciar por el número de puntos que tienen en la coraza. Por ejemplo, la Coccinella septempunctata se caracteriza por ser roja y tener 7 puntos negros en el caparazón, mientras la Anatis labiculata es color vino pero tiene quince puntos negros en el caparazón. Es interesante saber que en algunas especies los colo­ res de los élitros pueden cambiar. Por ejemplo, la Adalia bipunctata general­ mente es roja con dos puntos negros en el caparazón, pero también hay indivi­ duos negros con puntos rojos, y ambas pertenecen a la misma especie. ¿Sabías que México tiene el 10% de las especies de catarinas que existen en el mundo? Dado que son tan voraces, los científicos han comenzado a utilizarlas como parte del control biológico de plagas en cultivos agrícolas y ornamentales. En México se están utilizando como controladoras de plagas en los cultivos de jitomate, pepino, chile y en flores de ornato, entre otros. En particular, son muy usadas en Sinaloa y hay prácticas experimentales en varios estados como Oaxaca y Michoacán. En lugar de usar pesticidas nocivos para la salud humana y el cuidado de los ecosis­

temas, se utilizan huevecillos de catarina. Éstos se esparcen en un campo de cultivo afectado por algún insecto plaga, como el pulgón. De manera que cuando na­ cen las larvas comienzan a alimentarse vorazmente de los insectos y acaban con las plagas, lo cual ayuda a que los da­ ños a las plantas cultivadas sean mucho menores. Otra ventaja es que no hay que volver a comprar catarinas, porque estos escarabajos tienen una tasa de reproduc­ ción muy alta; es decir, tienen muchos hijos y generalmente siguen reproducién­ dose en el campo donde fueron utiliza­ das. Así, una población grande de cata­ rinas permanece en el cultivo por tiempo indefinido, asegurando que si reaparecen los insectos plaga, las catarinas vuelvan a acabar con ellos. Estas poblaciones de catarinas constituyen un ejército rojo que está del lado de los agricultores y que tie­ ne efectos positivos en el ambiente. Al parecer, las catarinas pertenecen al grupo de bichos que siempre han es­ tado vinculados con el ser humano. Se tienen registros de que las catarinas han formado parte de las tradiciones cultu­ rales alrededor del mundo por mucho tiempo. Curiosamente el nombre que se le da en varios idiomas tiene que ver con la Virgen María de la tradición ca­ tólica; en español “Mariquita”; en inglés “Ladybird”; en alemán “Marienkafer”. La relación radica en que el color rojo de los élitros es comparado con el man­ to de la virgen y los 7 puntos negros con sus 7 alegrías y sus 7 dolores. En muchos lugares se dice que cuan­ do ves una catarina tendrás buena suerte por el día. Entonces, si encuentran una catarina obsérvenla y déjenla vivir, para que continúe haciendo su trabajo como buen soldado del ejército rojo que pro­ tege a los agricultores Ek Del Val de Gortari. Investigadora del Centro de Investigaciones en Ecosistemas, unam, Morelia. A c é r c at e 02 Oto ñ o 2011


Recomendaciones •

Bravo Mosqueda, E. (2002, julio-diciembre). Uso reducido de insecticidas y control biológico de plagas del jitomate en Oaxaca. Agricultura Técnica en México. Consultada 12 de octubre de 2011, http://redalyc.uaemex. mx/src/inicio/ArtPdfRed.jsp?iCve=60828204

Sánchez-Ruiz, M., Fontal-Cazalla, F., Sánchez-Ruiz, A. y López-Colón, J. (1997). Uso de insectos depredadores en el control biológico aplicado.Boletín de la S. E. A. No. 20. Consultada 12 de octubre de 2011, http://www.sea-entomologia.org/PDF/ BOLETIN_20/B20-011-141.pdf

Flores- Mejía, S. y Salas-Araiza, M. (2004, mayo-agosto) Coccinélidos (Coleoptera: coccinellidae) del Estado de Guanajuato. Consultada 12 de octubre de 2011, http:// redalyc.uaemex.mx/pdf/416/41614202.pdf

Guédez, C., Castillo, C., Cañizales, L. y Olivar, R. (2008, julio). Control biológico: una herramienta para el desarrollo sustentable y sostenible. Consultada 12 de octubre de 2011, en http://www.saber.ula.ve/ bitstream/123456789/29752/1/articulo5.pdf

Sociedad Mexicana de Control Biológico. http://www.controlbiologico.org.mx/

A c é r c at e 0 2 Oto ñ o 2011

5


Fotografía de 1967 que muestra a un niño nigeriano en el momento de ser vacunado por miembros del equipo de la Campaña de erradicación de la viruela. (Fuente: Dr. William Foege, CDC Public Health Image Library No. 13251)

6

A c é r c at e 02 Oto ñ o 2011


¿no más viruela? Martha Yocupicio y Selene Zárate

La viruela ha sido una de las enfermedades más devastadoras en la historia de la humanidad, y la búsqueda de procesos que previnieran su contagio dio origen a las vacunas modernas. La viruela es la única enfermedad que ha podido ser erradicada y se ha generado un debate en torno a la destrucción de las últimas muestras del virus y las consecuencias prácticas y éticas que esto acarrearía. ¿Se destruirán? ¿Qué tan conveniente sería? Descúbrelo en este artículo.

divulgación

Generalidades de la enfermedad

La viruela es una enfermedad infecciosa en la que se presentan síntomas como fiebre alta, dolor de huesos y espalda, con erupciones cutáneas planas de color claro que gradualmente se enrojecen y evolucionan formando vesículas y des­ pués pústulas de 4 a 6 mm de diámetro, las cuales aparecen primero en las ex­ tremidades, luego en el tronco y dejan devastadoras cicatrices de por vida. El agente infeccioso que ocasiona la enfermedad es el virus de la viruela que se transmite de humano a humano mediante secreciones de la boca y la fa­ ringe como gotitas de saliva y aerosoles, así como mediante el contacto con su­ perficies contaminadas. La infección con el virus de la vir uela puede presentarse como diversas entida­ des clínicas, son dos las principales for­ mas de la enfermedad: la viruela mayor, en la que se presentan los síntomas des­ critos previamente, ocurre en la inmensa mayoría de las personas infectadas y al­ canza una mortalidad del 30%. Por otro lado la viruela menor, es menos severa, baja el número de erupciones cutáneas al igual que la mortalidad, alrededor del 1%. Las restantes tienen grados de seve­ ridad distintos desde la más grave con síntomas hemorrágicos hasta la más be­ nigna o asintomática. El virus de la viruela entra en contac­­ to con las membranas mucosas del trac­ to respiratorio para después disemi­narse a los nódulos linfáticos locales permi­ tiendo su paso al torrente sanguíneo, A c é r c at e 0 2 Oto ñ o 2011

fenómeno conocido como viremia, y posteriormente darse la producción de grandes cantidades de virus en la muco­ sa orofaríngea, así como en la dermis, lo cual permite la aparición y progresión de las lesiones cutáneas. El periodo de incubación de la enfermedad es de 7 a 17 días y la fase infecciosa se ha re­ gistrado principalmente de 7 a 10 días después de que iniciaron las manifesta­ ciones cutáneas. Con respecto al tratamiento, no existe ningún antiviral específico para la infección con el virus de la viruela y se sugiere la vacunación en el caso de encontrarse en estadios tempranos. Sin embargo, se administran antibióticos para evitar infecciones bacterianas de las lesiones de la piel. Aspectos históricos

La viruela es una enfermedad de la que se tienen registros muy antiguos en la historia de la humanidad. Existen evi­ dencias de enfermedades con caracterís­ ticas semejantes a las de la viruela desde 1580 a. c. derivadas de la observación de momias egipcias en las que se han do­ cumentado lesiones en la piel que seme­ jan las cicatrices dejadas por las pústulas producidas por el virus de la viruela, por ejemplo las observadas en la momia del faraón Ramses v. Además se tienen escri­ tos provenientes de India y China en los cuales se describe una enfermedad cuyas características coinciden con la viruela. La primera epidemia de la que se tie­ nen registros ocurrió en Arabia en el si­

glo vi, de la cual se cree que se diseminó a los continentes africano y europeo du­ rante los siglos vi al viii. En el siglo xvi se documentó la aparición de la enfer­ medad en Inglaterra y fue en ese mismo siglo cuando se diseminó el virus de la viruela a América. A raíz de esto los azte­ cas sufrieron el embate de la enfermedad a la llegada de los conquistadores, razón por la cual murieron millones de perso­ nas. De la misma manera se diseminó entre los nativos de Perú y Brasil. El virus de la viruela fue usado como arma biológica en 1754-1767 cuando las fuerzas británicas repartieron a la po­­ bla­­­ción india americana sábanas previa­ mente utilizadas por personas infectadas con el virus. Esto resultó en la adquisi­ ción de la infección por dicha población, que nunca antes había estado expuesta a esta enfermedad, aumentando en gran medida los índices de mortalidad de un gran número de sus tribus. Se ha estimado que sólo en Europa, en el siglo xviii, la viruela acabó con la vida de 400 mil personas anualmente, además de haber sido la causa de más del 30% de los casos de ceguera. Como una medida para frenar las consecuencias catastróficas de esta en­ fermedad en la antigüedad se practicó la variolación, y uno de los primeros lu­ gares en los que se empleó a gran escala fue China, pues desde el año 1280 a. c. administraban las costras pulverizadas provenientes de las pústulas por vía intranasal. En Persia se utilizó un método de variolación alternativo en el que se 7


Centros de Control de Enfermedades (cdc) Atlanta, eua, y en Novosibirsk, Rusia.

tomaba el líquido pustular que se depo­ sitaba en una pequeña herida en la piel producida con una aguja. En Europa el Dr. Manuel Timoni y el Dr. Jacob Pytarini escribieron acerca de la variolación que se llevaba a cabo en Constantinopla, en donde la observaron y practicaron. Esto ayudó a la introduc­ ción de esta práctica médica en Europa, especialmente en Inglaterra en donde el Dr. James Jurin concluyó que de 1723 a 1727 la variolación disminuyó la morta­ lidad por dicha infección a 1 en 60 ca­ sos, comparado con una mortalidad de 1 en 6 casos en personas no varioladas. Los síntomas eran fiebre y aparición de pústulas, sin embargo, para realizar el procedimiento la mayoría de médicos recomendaba años de preparación que incluían sangrados, purgación y dieta especial con el propósito de desintoxi­ car el organismo. A pesar de que la variolación confe­ ría un grado de protección ante la in­ fección por el virus de la viruela, existía aún mucho escepticismo por parte de la comunidad médica europea en su aplicación. Uno de los médicos que no estaba totalmente convencido de su uso era el Dr. Edward Jenner, médico inglés, quien se dio a la tarea de probar de ma­ nera sistemática el conocimiento empí­ rico de que la infección con el virus de la viruela bovina protegía a las personas contra la viruela. De este modo, para poder probar su teoría el Dr. Jenner realizó la primera va­ cunación en 1796 en un niño de 8 años de edad llamado James Phipps, a quien se le administró el líquido purulento 8

producido en las pústulas de una per­ sona que sufría viruela bovina. Después de seis semanas el niño fue variolado, es decir inoculado con el virus de la viruela y, como suponía Jenner, dicha exposición ante el virus no provocó la enfermedad en el infante. Posteriormente, se lleva­ ron a cabo procedimientos similares en más de 25 personas logrando, en gene­ ral, comprobar su teoría. Así, después de tales demostraciones la comunidad médica adoptó la vacunación como una medida indispensable para la protec­ ción en contra de la viruela; y desde el año 1800 ha sido la medida preventiva de elección. Programa de erradicación de la viruela

El virus causante de la viruela es el único agente infeccioso que ha sido erradicado. Varias de sus características contribuye­ ron a que esto fuera posible. En primer lugar este virus sólo infecta a los seres humanos, por lo que no existe la posi­ bilidad de que la infección sea re-intro­ ducida a la población por un proceso de zoonosis (una transmisión de un agente infeccioso de un animal a un humano). Por otro lado, el diagnóstico es sencillo y se pueden tomar medidas para el ais­ lamiento de los individuos con viruela. Finalmente, se contaba con una vacuna cuyo efecto duraba varios años y que podía ser transportada sin necesidad de refrigeración. Las razones anteriores, junto con la tasa de mortalidad de esta enfermedad, sirvieron de base para que en 1967 se ini­ ciara el Programa de Erradicación Global Intensivo de la Organización Mundial de

la Salud. Este programa tuvo por obje­ tivo asegurar la vacunación intensiva en todos los países del mundo. Así como mantener una vigilancia epidemiológi­ ca estricta, sobre todo en los países en los que la enfermedad se consideraba endémica. Este esfuerzo mundial resul­ tó en que el último caso detectado de viruela debido a una infección natural se diera en 1977 en Somalia y que en 1980 se declarara la erradicación de esta enfermedad. Controversia sobre la destrucción del virus de la viruela

Después de que la Organización Mun­ dial de la Salud (oms) certificara la erra­ dicación de este virus en 1980, todas las muestras fueron destruidas o destinadas a una de dos instituciones designadas por la oms para su confinamiento; ac­ tualmente dichos lugares son los Centros de Control de Enfermedades (cdc) en Atlanta, eua, y el laboratorio Vector en Novosibirsk, Rusia. Un comité de la oms vigila esos re­ positorios y autoriza las investigaciones que se pueden realizar utilizando este virus, especificando los proyectos que pueden llevarse a cabo y la duración de los mismos. La destrucción de los aislados virales restantes ha desatado controversia entre los que están a favor y en contra. Uno de los argumentos más empleados para defender la destrucción de los aislados de viruela es que con este hecho se evi­ taría la re-introducción del virus a la población humana, ya sea por accidente o en un ataque deliberado. Este argu­ A c é r c at e 02 Oto ñ o 2011


Glosario •

Pústulas: Lesiones superficiales de la piel llenas de pus.

Membranas mucosas del tracto respiratorio: Estrato superficial que recubre la tráquea y los bronquios.

Nódulos linfáticos: Son agregados de células del sistema inmunológico que se encuentran distribuidos en determinadas partes del cuerpo. Actúan como filtro para destruir virus y bacterias y propagar la respuesta inmune.

Mucosa orofaríngea: Estrato superficial que recubre la boca y la faringe.

Enfermedad Endémica: Enfermedad que se ha mantenido por mucho tiempo en una población o región geográfica.

Variolación: Técnica que consistía en realizar una incisión en la piel en un individuo sano, y colocar en la herida el pulverizado de las costras de viruela provenientes de un individuo enfermo, con el fin de prevenir el contagio posterior. Esta técnica fue

mento ha sido rebatido por quienes se oponen a la destrucción del virus, argu­ mentando que debido a que la destruc­ ción y el envío de los virus a los sitios designados por la oms se hizo de ma­ nera voluntaria, no se tiene la certeza de la existencia de más laboratorios que tengan muestras del virus. Entonces, la destrucción de los repositorios conoci­ dos sólo crearía un sentimiento de falsa seguridad. Por otro lado, los avances en biología molecular hacen posible que cualquier laboratorio de virología razo­ nablemente equipado, con los recursos y la motivación necesaria, sea capaz de producir el virus de la viruela de mane­ ra artificial. Otro argumento que esgrimen quie­ nes están a favor de la destrucción del virus de la viruela, es que una vez elimi­ nados los virus conocidos se puede te­ ner la autoridad moral para establecer una legislación que penalice su pose­ sión. Esta idea es rebatida por sus opo­ nentes al señalar que la oms no tiene la facultad de llevar a cabo inspecciones en todos los países para verificar que no tengan el virus, en consecuencia dicha ley no tendría impacto en controlar la existencia del virus de la viruela no re­ portados. Por otro lado, quienes están a favor de conservar el reservorio viral argu­ mentan que existen muchos aspectos de la biología del virus y del meca­ nismo por el que la vacunación es tan exitosa aún desconocidos, de ahí la importancia de realizar investigaciones con el fin de dilucidar aspectos de la biología molecular del virus de la virue­ A c é r c at e 0 2 Oto ñ o 2011

la, así como caracterizar la respuesta in­ mune contra este virus y contra el virus vacunal. De hecho se han autorizado investigaciones dirigidas a desarrollar fármacos antivirales con el fin de tener herramientas con las cuales contrarres­ tar los efectos de un posible ataque con este agente biológico. Sin embargo, quienes apoyan la destrucción del vi­ rus, señalan que las investigaciones se pueden realizar con otros virus de la misma familia para evitar el riesgo de manipular el virus de la viruela, de con­ servarlo y que sea sustraído ilegalmente de las instalaciones donde se encuentra confinado. El debate de la destrucción de la vi­ ruela se extiende más allá de las consi­ deraciones prácticas acerca de este caso en particular. Uno de los elementos a tomar en cuenta es que se trataría de la primera ocasión en que el ser humano decidiría eliminar deliberadamente un ente biológico, lo cual sentaría un pre­ cedente en cuanto a la extinción inten­ cional de organismos que se consideren dañinos para el ser humano. Este es un ejemplo de cómo una de­ cisión aparentemente circunscrita a un campo, podría tener consecuencias éticas y prácticas importantes. Es necesario un debate serio y establecer cuáles son los objetivos alcanzados al destruir el virus y si dichos objetivos serán cumplidos

reemplazada por la vacunación. •

Intranasal: Administración de un fármaco o material biológico a través de la nariz.

Referencias •

Behbehani, Abbas, M. (1983). The smallpox story: life and death of an old disease. Microbiological Reviews, Vol. 47, No. 4, pp. 455-509.

Breman, Joel G. y Henderson, Donald A. (2002). Diagnosis and management of smallpox. New England Journal of Medicine, Vol. 346, No. 17, pp. 1300-1308.

Henderson, Donald A., Inglesby, Thomas V., Bartlett, John G, et al. (1999). Smallpox as a biological weapon: medical and public health management. The Journal of the American Medical Association, Vol. 281, No. 22, pp. 2127-2137.

MacFadden, Grant. (2010). Killing a Killer: What is next for smallpox? PLOS Pathogens. Vol. 6: e1000727.

Schraeder, Terry L. y Campion, Edward W. (2003). Smallpox vaccination - The call to arms. New England Journal of Medicine, Vol. 348, No. 5, pp. 281-382.

Stern, Alexandra M. y Markel, Howard. (2005). The history of vaccines and immunization: familiar patterns, new challenges. Health Affairs, Vol. 24, No. 3, pp. 611-621.

Weinstein, Raymond S. (2011). Should remaining stockpiles of smallpox virus (Variola) be destroyed? Emerging Infectious Diseases, Vol. 17, No. 4, pp. 681-683.

Carillo, Ana M. (1999). Los difíciles caminos de la campaña antivariolosa en México. Ciencias, julio-diciembre, pp. 18-25.

Organización Mundial de la Salud: http://www.who.int/es/

Martha Yocupicio y Selene Zárate. Profesoras investigadoras del Posgrado en Ciencias Genómicas, uacm.

Centros para el control y prevención de enfermedades: http://www.cdc.gov/spanish/

9


Dr. José Alfredo Amor y Montaño disciplinado y dulce Profesor de Lógica Matemática Gabriela Campero Arena

Una mente brillante combinada con una gran calidad humana y disciplina, es algo sumamente difícil de encontrar. Ésta es mi visión de un importante matemático mexicano, querido y admirado por colegas, estudiantes y por todo aquél que tenía la fortuna de conocerlo.

E

l Dr. José Alfredo Amor fue mi profesor y colega, lo cual considero una gran fortuna, y la noticia de su fallecimiento el 9 de abril de 2011 me llenó de tristeza. En mi trabajo diario siguen sorprendiéndome pensamientos como “… ya sé, buscaré a José Alfredo para discutir esta idea y así aclararla y enriquecerla”. Lo conocí en 1995 cuando tomé el curso de Teoría de Conjuntos I en la Facultad de Ciencias de la unam. Él por supuesto era el profesor y llegó puntual, entusiasta y paciente a cada clase. Este curso cambió mi visión de las Matemáticas para siempre. Además, muchos de los que asistieron a esta clase se convirtieron en entrañables compañeros de vida. Eso pasa frecuentemente en esta Facultad, aquí encontramos a los más cercanos amigos, no sólo comencé a aprender las Matemáticas, a las que me dedicaría hasta ahora, sino también entablé amistades nuevas, interesantes y, más aún, permanentes. José Alfredo nos introdujo al famoso paraíso de Cantor (reconocido matemático considerado el padre de la Teoría de Conjuntos) con formalidad, pero con soltura. Era un maestro en ese arte de formalizar y al mismo tiempo dar las ideas intuitivas. Todavía recuerdo el famoso momento en que, después de habernos dado varias clases sobre la idea de von Neumann acerca de la definición de número natural, dejando muy claro cada detalle, llegó con unas hojas pegadas y dobladas (de hecho, creo que eran hojas para impresora de matriz de punto de ésas que venían pegadas con un delineado), y empezó a desdoblar una longitud enorme de hojas que, subido en una silla, 10

sem

blan

zas

pegó arriba del pizarrón. En ellas estaba la fórmula lógica de número natural, al ver esa magnitud de símbolos matemáticos quedé impresionada. Posteriormente seguí asistiendo a otros cursos donde era el profesor titular, y me percaté de lo que su colega Carlos Torres Alcaraz expresó tan nítidamente en el homenaje a José Alfredo realizado en la Facultad de Ciencias el pasado 13 de mayo: “Para él, el aprendizaje era algo más que la recepción pasiva de conocimientos. Desde mi punto de vista, su principal interés como profesor era mover al alumno a la reflexión, una tarea en la cual siempre estuvo dispuesto a intervenir […] En este modo de enseñar había un elemento central inconfundible, un sello personal, […]: una sorprendente serenidad. José Alfredo no sólo nos educó en Matemáticas. También nos enseñó a relajarnos, dejar a un lado la impaciencia, aceptar la incertidumbre, dejar la mente silenciosa y tranquila en una especie de inacción creativa. Con su actitud parecía decirnos: ‘…Si aceleras lo que no debes acelerar, si te precipitas, si renuncias a avanzar con cautela, pagarás un precio’. José Alfredo nos hizo comprender que la prisa nos hace pasar por las cosas sin entenderlas de verdad.” Comenzó su labor docente como ayudante de profesor en la Facultad de Ciencias de la unam en 1974. Se recibió como Matemático en 1976 y se incorporó como profesor de tiempo completo a partir de 1979. Desde esos tiempos y hasta apenas el semestre pasado,

José Alfredo ofreció muchísimos cursos (más de 150) de licenciatura, posgrado en esta Facultad, y en los posgrados de Filosofía de la Ciencia. Como el tema de Teoría de Conjuntos me seguía entusiasmando tanto, decidí hacer la tesis de licenciatura bajo su asesoría. El tema lo apasionaba y recuerdo con mucho cariño nuestras reuniones semanales en su cubículo. Uno de esos días, se dio cuenta que yo no entendía bien la diferencia entre dos conceptos básicos de Lógica Matemática (el de equivalencia elemental y el de isomorfismo entre estructuras) y no le pareció nada bien. Con suficiente severidad me puso frente al pizarrón para que le escribiera con toda precisión la definición de ambos conceptos, y paso por paso demostrara que uno implicaba el otro, mas no a la inversa. Nunca se me han vuelto a olvidar esos conceptos, pero además salí de su cubículo con una sensación de satisfacción inusual para alguien que acaba de ser reprendido por sus fallas en algún conocimiento. Ése era otro de sus grandes dones: enseñar con disciplina, pero con dulzura. Uno creería que es difícil juntar el rigor con la dulzura, pero él lo lograba con gran pericia. Mario Alberto Cortez Rodríguez, uno de sus alumnos del posgrado en Filosofía de la Ciencia de la uam-i, expresa esta cualidad de la siguiente manera: “Cada clase con él era un auténtico placer intelectual. Se respiraba tal tensión mental en sus clases, pero maravillosamente combinada con una casi dulzura que lo difícil no era tanto no entenderlo, sino quedarse atrás”.1 José Alfredo dirigió más de 25 tesis de licenciatura y maestría, además de ser siA c é r c at e 02 Oto ñ o 2011


A c é r c at e 0 2 Oto ñ o 2011

11


José Alfredo Amor y Montaño, Arturo Pulido, Favio Miranda, Andrés Nava, Juan Jiménez Krassel, Gabriela Campero, Erik Schwarz.

nodal de más de 60, todas ellas en temas de Teoría de Conjuntos; Lógica Matemática; Didáctica de la Lógica; Lógica y Computación (demostración automática de teoremas); Lógicas en Inteligencia Artificial y Programación Lógica. También publicó diversos artículos de investigación y divulgación sobre estos temas. José Alfredo también participó en la integración y el diseño de la licenciatura en Ciencias de la Computación de la Facultad de Ciencias, unam. Además tradujo uno de los libros más importantes para el estudio de la Lógica Matemática (Una introducción matemática a la Lógica, H.B. Enderton, 2ª edición), y fue autor de tres libros utilizados frecuentemente para cursos en estas áreas en la Facultad de Ciencias.2 Yo fui coautora (junto con Favio Miranda) del último de estos libros e irónicamente salió de prensa la semana posterior a su fallecimiento. Nos tardamos varios años en escribirlo porque, como solíamos decir, tendíamos a “hacer lo urgente sobre lo importante”. Ése es uno de los aprendizajes que me llevo de lo que intentó José Alfredo en sus últimos años: decir “no” a los compromisos poco placenteros o poco útiles para tener más tiempo de escuchar a los alumnos entusiastas exponer algún tema en el pizarrón del 12

cubículo, de reescribir con calma una demostración poco clara, de leer una tesis interesante, de pensar otra vez en cómo presentar tal concepto que tiende a costarles trabajo a los alumnos que lo ven por primera, segunda o tercera vez, de analizar cuáles ejercicios son adecuados para lograr los objetivos buscados en alguna tarea, de percibir la cara de un estudiante cuando por fin le ve el sentido a una definición. José Alfredo consideraba que uno de sus mayores logros académicos fue la realización de su doctorado que comenzó a los 53 años y concluyó con éxito. Fue el primer doctor recibido en el programa del posgrado de Filosofía de la Ciencia de la unam, bajo la asesoría de la Dra. Atocha Aliseda Llera. Obtuvo el Premio Norman Sverdlin a la mejor tesis doctoral 2001, otorgado por la Facultad de Filosofía y Letras de la unam y la Medalla Alfonso Caso 1999-2001 del Doctorado en Filosofía de la Ciencia. Además, fue un gran entusiasta de las reuniones académicas, asistió y organizó varios congresos tanto nacionales como internacionales. Así, otro de los reconocimientos que obtuvo fue ser electo Vicepresidente de la Academia Mexicana de Lógica de 2007 a 2009 y posteriormente Presidente de

esta Academia de 2009 a 2011. El otro logro importantísimo en su carrera fue recibir, muy merecidamente, el Premio Universidad Nacional en el área de Docencia en Ciencias Exactas 2008. José Alfredo, hasta hace pocos meses, me recibía siempre con una sonrisa suspirada preguntándome qué se me ofrecía. Hasta el último de sus días fue dulce, riguroso, intuitivo y detallado en sus explicaciones o discusiones. En resumen, fue un merecido galardonado del Premio Universidad Nacional en Docencia, pues, como también dijo su colega Carlos Torres en su homenaje: “…nuestra Universidad tuvo la gloria de contar con alguien que de sobra mereció el título de Profesor con ‘P’ mayúscula” 1 Tomado de las Memorias del 2er Encuentro Estatal de Profesores de Lógica realizado en Morelia, Michoacán del 18 al 20 de mayo de 2010. 2 Amor, J.A. (2005). Teoría de Conjuntos par Estudiantes de Ciencias (2a. ed. ). México: Las prensas de Ciencias, ISBN: 968-36-6582-9. José Alfredo Amor Montaño, Compacidad en la Lógica de Primer Orden y su relación con el Teorema de Completud, 2a edición, 2006, Las Prensas de Ciencias, ISBM 968-367540-9. José Alfredo Amor Montaño, Gabriela Campero Arena y Favio Ezquiel Miranda Parea, Teoría de Conjuntos, Curso intermedio, 2011, Las Prensas de Ciencias, ISBN 978-60702-2101-9.

Gabriela Campero Arena. Profesora de la Facultad de Ciencias, unam. A c é r c at e 02 Oto ñ o 2011


A c é r c at e 0 2 Oto ñ o 2011

13


NETE

Alzheimer

El mal del olvido Antonio Calderón Colín

No tener memoria es como no tener historia. La memoria y la conciencia de nuestra propia historia son parte muy importante de lo que nos hace humanos.

L

a pérdida de la memoria de corto plazo es uno de los síntomas más icónicos de la vejez. Esta pérdida de la memoria, junto con otros trastornos mentales fue denominada demencia senil por el psiquiatra francés Phillipe Pinel en 1798. Más tarde, en los inicios del Siglo xx, el neuropsiquiatra alemán Alois Alzheimer reportó que al examinar el cerebro de una paciente víctima de demencia senil encontró el depósito de una sustancia viscosa de tipo proteico, llamada proteína beta amiloide (βA), acumulada en forma de lo que nombró placas seniles; y también un enmarañamiento de fibrillas de una proteína (proteína tau), llamado ovillos neurofibrilares. La proteína tau asociada a los microtúbulos de las neuronas forma parte importante en el transporte de sustancias y en el mantenimiento de la estructura dentro de las neuronas. Actualmente conocemos como Enfermedad de Alzheimer (ea) a la condición en la cual, además de la pérdida de la memoria de corto plazo y la presencia de placas seniles y ovillos neurofibrilares, se presenta un cuadro clínico caracterizado por la pérdida de la capacidad de la persona para controlar sus emociones, reconocer sus errores, seguir pautas de conducta y coordinar sus movimientos. En la etapa más avanzada de la enfermedad todas las funciones intelectuales están afectadas y se agregan problemas de movilidad, la persona se aísla mentalmente y depende de familiares y cuidadores para subsistir. La postración, la mala alimentación y la falta de higiene hacen que la persona sea vulnerable a infecciones oportunistas. Estos factores son la principal causa de muerte en las personas con ea . La enfermedad de Alzheimer es un proceso deshumanizante para quienes la padecen y desgastante para las personas cercanas al enfermo. Cualquier progreso en retrasar, detectar oportunamente o prevenir su avance, sería de gran ayuda para todos los involucrados. En el proyecto “Estudio mecanístico del proceso de defosforilación de pro14

teínas mediante mimética enzimática” pretendemos colaborar en el entendimiento de algunos procesos implicados directamente en la neurodegeneración en etapas avanzadas de la ea. Los últimos estudios sobre su mecanismo molecular demuestran que la unión excesivamente abundante de grupos fosfato en la proteína tau es el detonante de la formación de los ovillos neurofibrilares. La unión de grupos fosfato (fosforilación) a proteínas es uno de los mecanismos de regulación de mayor importancia de las funciones celulares. Por lo general, el grupo fosfato proviene de una molécula de atp (Adenosín Trifosfato), la cual se transforma en adp (Adenosín Difosfato) al perder este grupo. A la eliminación de grupos, como el fosfato, se le llama hidrólisis cuando ocurre con la ruptura de una molécula de agua, como en este caso. En los organismos vivos, tanto la fosforilación como la hidrólisis del grupo fosfato en proteínas son facilitadas por enzimas, que reciben el nombre de cinasas y fosfatasas respectivamente. En el citoplasma, la proteína tau está normalmente fosforilada en aminoácidos específicos. Los filamentos están compuestos por agregados de proteína que llevan unidos tres grupos fosfato. ATP

ADP Fosforilación

Proteína

Proteína con grupo fosfato

Hidrólisis del grupo fosfato

P

P

La proteína tau anormal contiene un número elevado de éstos, aproximadamente nueve, por lo cual se dice que se halla hiperfosforilada. Creemos importante estudiar los mecanismos de los procesos de fosforilación y defosforilación de proteínas, para evaluar qué factores los promueven, y con esta información impulsar el

diseño de estrategias para la síntesis de fármacos, tratamientos o incluso estrategias que involucren al estilo de vida de las personas. Una enzima encargada de eliminar por hidrólisis al grupo fosfato está directamente relacionada con la regulación de la fosforilación de la proteína tau es la proteína fosfatasa 2A (pp2a). En este proyecto estamos utilizando un modelo para simular al lugar de la enzima en donde se lleva a cabo esta reacción, es decir, al sitio activo de pp2a, y estamos haciendo pruebas para determinar cómo depende la velocidad de la reacción de hidrólisis del grupo fosfato de péptidos con respecto a diferentes parámetros: acidez del medio, presencia de distintos cationes metálicos y la concentración de las especies involucradas. Esta parte del proyecto es experimental y se está realizando entre la uacm y la unam. Se trata de poner el modelo del sitio activo de pp2a en diversas condiciones e identificar cómo cambia la concentración del producto de la hidrólisis (péptido fosforilado) con el tiempo. Por medio de la técnica analítica llamada cromatografía de líquidos de alta eficiencia (hplc, por sus siglas en inglés) se determina la cantidad de péptido que se ha defosforilado y la cantidad de producto que ha aparecido a diferentes tiempos. Con estos datos se pretende describir qué factores alteran la actividad de pp2a y posteriormente evaluar si es posible que esto suceda en condiciones fisiológicas. Por otro lado, estamos interesados en analizar los tratamientos, terapias y programas que hay para las personas con ea. Esta parte del proyecto incluye una extensa revisión bibliográfica y el análisis de la información obtenida desde los diferentes modelos de promoción de la salud. Nuestra intención es hacer propuestas no sólo en el aspecto médico-biológico, sino que también impacten en la integración familiar y social del individuo, además de facilitar la interacción paAntonio Calderón Colín. Profesor investigador de la Academia de Química, uacm. A c é r c at e 02 Oto ñ o 2011


Sobre los participantes en el proyecto Profesores investigadores: Dr. Antonio Calderón Colín. Licenciatura y doctorado en la Facultad de Química de la unam. Principal línea de investigación: estudio de diseño de nucleasas artificiales. Áreas de interés: Química Inorgánica, Química Bioinorgánica y Cinética Química. Profesor investigador de la Academia de Química de la uacm. tognocc@gmail.com, antonio.calderon@uacm.edu.mx A c é r c at e 0 2 Oto ñ o 2011

Dra. Claudia Paola Gómez-Tagle Chávez. Licenciatura en Química en la Universidad de Guanajuato. Maestría y doctorado Facultad de Química de la unam. Posdoctorado en la Universidad de Austin, Texas, eua. Principales líneas de investigación: diseño, estudio y aplicación de modelos de metaloenzimas hidrolíticas; reconocimiento molecular de sustratos potenciales. Profesora de la Facultad de Química, unam. pao@unam.mx

Tesistas: Lizbeth Ruiz Martínez y Oscar Daniel Prado Vega, de la carrera Promoción de la Salud de la uacm. Servicio social: Adriana Saldívar Saldívar, de la carrera Químico Farmacobiólogo de la Facultad de Química de la unam.

15


A 30 Años de la ibm pc José Galaviz Casas

En agosto de 1981 la compañía ibm lanzó al mercado la computadora personal que mayor impacto ha tenido en el mundo, y cuyas repercusiones son aún perceptibles hoy. Luego de 30 años, es provechoso hacer un recuento contextualizado, que nos permita observar el fenómeno tecnológico desde un punto de vista más general y sus efectos en nuestra cotidianidad.

divulgación

E

l primero de agosto de 1981 inició sus transmisiones mtv, el primer canal de televisión dedicado a video clips musicales, el primero en ser transmitido fue Video killed the radio star del grupo británico The Buggles. Se estaba haciendo una apuesta más que un pronóstico, se estaba suponiendo que el video clip al incluir lo visual en una experiencia, hasta ese entonces puramente auditiva, podía ser rentable, podía colocarse en el gusto de un impredecible público para hacer negocio. Once días más tarde International Business Machines (ibm), la compañía más grande del mundo dedicada a la fabricación de sistemas de cómputo, hacía su propia apuesta. Con la intención de insertarse y participar en un incierto sector del mercado, que por lo pronto y desde hacía algunos años redituaba generosas ganancias a otras compañías, presentaba al público su primera computadora personal de bajo costo: la ibm pc. Con los años, la pc constituiría un estándar de facto en la industria de computadoras. Generaría jugosas ganancias para ibm y muchas más para otras compañías que fabricaban clones de ella o, como solía decirse, computadoras ibm pc Compatibles. Llegaría a lugares insospechados, sería utilizada para cosas inimaginables en aquel entonces y por personas que nunca se hubieran considerado sus usuarios potenciales. Pero esa historia empezó mucho tiempo atrás… 16

1975: Show Me The Way

En 1975 en México estábamos en la recta final del sexenio que Luis Echeverría iniciara con el lema “Arriba y adelante”, en la cúspide de lo que se ha llamado “la guerra sucia”. Ese año seríamos sede de los juegos panamericanos, así como de la primera conferencia internacional de la mujer, coincidiendo con el primer ascenso femenino al Everest. En España muere Franco, con lo que una dictadura terminaría, aunque al año siguiente otra comenzaría en Argentina. En Estados Unidos continúa el escándalo Watergate que había obligado a renunciar a Nixon el año anterior y a Gerald Ford a ocupar el puesto. En enero, la revista Popular Electronics exhibe en su portada el panel frontal de una microcomputadora, la primera de la historia que puede ser adquirida como un kit para ser armada por el lector o ya ensamblada. La computadora recibía el nombre de Altair 8800 y estaba basada en un microprocesador de Intel: el 8080. Ed Roberts y Bill Yates, de la compañía Micro Instrumentation and Technology (mits), quienes desarrollaron la computadora, creían que se podrían vender unas 800 durante el año, pero recibieron miles de pedidos en los priUn microprocesador es lo que podríamos llamar el “cerebro” de una computadora, lo que técnicamente se llama Unidad Central de Proceso (cpu), en un solo circuito integrado (chip).

meros meses. Nunca sospecharon que una microcomputadora pudiera tener tanto éxito. Y es que realmente se necesitaba tener una cierta afición extraña por la tecnología para desear tener una Altair. Se requería tener el perfil de lo que suele llamarse un nerd, palabra que usaremos aquí sin propósito peyorativo o elogioso, sólo como el término coloquial con el que se sintetiza un conjunto de características entre las que está un placer, que muchos considerarían desmesurado, cuando no obsesivo, por el cultivo de las ciencias exactas o la tecnología, en detrimento de actividades físicas o relaciones sociales. Los lectores más jóvenes probablemente prefieran el término posmoderno: geek. Por ser coloquiales, no existe una definición formal de ambos y por tanto una clara distinción. Como toda generalización que se pueda hacer a propósito de las personas y sus características psíquicas, estos términos son un esbozo burdo, incapaz de retratar sutilezas de carácter, pero por lo pronto útil para nuestros propósitos en este texto. En principio, la Altair por sí sola, era programable sólo en lenguaje de máquina a través de unos interruptores en el panel frontal y la ejecución del programa podía ser apreciada sólo a través de unos leds en el mismo panel, algo que dista mucho de ser práctico. Las cosas cambiaron cuando Roberts recibió una carta de un par de tipos en Boston que preguntaban si estaba interesado en adquirir un intérprete de baA c é r c at e 02 Oto ñ o 2011


30 A c é r c at e 0 2 Oto ñ o 2011

17


Intel es el acrónimo de Integrated Electronics. Es una compañía dedicada a la producción de circuitos. En 1971 produjo el primer microprocesador de la historia, el 4004, al que siguieron el 8008 y luego el 8080. Otras compañías dedicadas a la producción de microprocesadores, son: mos Technologies (mostech) y Motorola.

Panel frontal de la Altair 8800 (http://www.mr-gadget.de/personal-tech/2005-01-01/vor-30-jahren-der-artikel-der-die-welt-vernderte).

sic para la Altair. Roberts les llamó y concertaron una cita en Albuquerque, Nuevo México, donde estaban las oficinas de mits. Los remitentes eran dos nerds de nombres Paul Allen y William Gates iii. El primero era un programador de Honeywell y el segundo un estudiante de leyes de Harvard cuya verdadera pasión eran las computadoras. Allen viajó a Nuevo México con el intérprete elaborado por Gates y le mostró a Roberts cómo la Altair podía recibir y ejecutar instrucciones en basic. Allen y Gates fundaron en abril (al mismo tiempo que caía Saigón y terminaba con esto la guerra de Vietnam) la compañía Micro-Soft, que luego sería Microsoft, sin el guión En 1976, el año de los juegos olímpicos en Montreal, de la muerte de Mao, de la liberación violenta de 103 rehenes del aeropuerto de Entebbe, en Uganda y del primer vuelo del Concorde, cuando en el contexto de un grupo de entusiastas de las computadoras (sí, más nerds), llamado Homebrew Computer Club en Palo Alto California, un ingeniero de nombre Steve Wozniak, Toda computadora posee un lenguaje nativo, llamado lenguaje de máquina. Cuando alguien programa en algún lenguaje llamado de alto nivel, lo hace usando instrucciones entendibles para los seres humanos. Los programas escritos en lenguaje de alto nivel deben ser traducidos al lenguaje de máquina de la computadora que los ejecutará. basic es un lenguaje de alto nivel que fue muy conocido durante la década de los años 80. 18

empleado de Hewlett-Packard, diseña otra microcomputadora, esta vez basada en el 6502 de mosTech. De seguro, por alguna irrelevante razón, Wozniak la llamó Apple Computer y la mostró a sus compañeros del club. La Apple podía conectarse a un teclado y a una televisión convencional para observar los efectos de lo que uno hacía en ella. Steve Jobs, amigo de Wozniak que trabajaba como programador en la compañía de videojuegos Atari, sugirió la idea de comercializar la Apple y luego de algunas vicisitudes lograron construir, en el garaje de la casa de Jobs, el primer pedido de 50 máquinas. En abril de 1976 fundaron Apple Computer, al año siguiente lanzaría la Apple ii, una de las microcomputadoras más exitosas de la historia. En buena medida, el éxito obtenido por la Apple ii se debió a una aplicación. En 1979 surgió VisiCalc, un programa del tipo de los que hoy conocemos como hoja de cálculo. En el que uno puede introducir datos numéricos en las celdas de una malla bidimensional y se tiene la capacidad de calcular algunos de ellos con base en los valores de otros, de forma que al actualizar alguno de los datos, los efectos de la modificación se ven reflejados automáticamente. Este programa hizo de la Apple ii algo más que una curiosidad para nerds, la convertía en una herramienta razonablemente poderosa. Alrededor del 30% de las ventas de Apple, luego de VisiCalc se debían justo a esa aplicación. En la jerga de la industria a esto se le suele llamar una killer app. No es necesario un análisis acucioso de la historia del arte, de la ciencia y la tecnología para darse cuenta de que la transgresión es su mecanismo

natural de evolución. Todo el que innova transgrede de algún modo lo establecido. Planck tuvo que romper, a regañadientes, con la herencia newtoniana que lo sustentaba. Kepler se vio obligado a desdeñar con dolor la perfección de los círculos de Copérnico. Gluck y Haydn tuvieron que desembarazarse de las saturaciones de Bach. Monet tuvo que abandonar los crepúsculos de Millet, para poder captar la danza de la luz en el agua al amanecer. Quizás no sea fortuito que muchos de los protagonistas en nuestra historia, posean la naturaleza del transgresor. Jobs y Wozniak antes de hacer microcomputadoras hacían dispositivos para engañar al sistema telefónico para hacer llamadas gratuitas de larga distancia. En bachillerato, Gates y Allen violaron la seguridad de una pdp-10 para tener acceso a ella y luego usaron la de Harvard para propósitos no académicos. El estereotipo ideal es el del hacker, otra coloquial caricatura, ciertamente no el hacker mezquino y perjudicial, más bien el curioso, el del que anhela el reto intelectual y que en aras de vencerlo transgrede. No estoy seguro de que se hubiera podido hacer de otra forma, a veces se requiere de un espíritu transgresor para ver un camino donde otros no lo ven; para atreverse a transitar por él por primera vez y para que el camino sea evidente y otros puedan seguirlo. Ken Olsen, presidente y fundador de Digital Equipment Corporation (dec), la única empresa que durante años había sido el David frente al Goliath de ibm, declaró en 1977: “No hay una razón por la que alguien pudiera desear una computadora en su casa”. En 1975 Peter Frampton cantaba Show Me the Way. A c é r c at e 02 Oto ñ o 2011


La Apple II de 1977 (www.cs.columbia.edu).

1981: Winner Takes It All

En 1981 estábamos en las dos terceras partes del sexenio en el que “La solución somos todos”, pero aparentemente el problema es el Estado y sus decisiones; José López Portillo declaraba que defendería el valor de nuestra moneda “como un perro”, al año siguiente nacionalizaría la banca diciendo: “Ya no nos saquearán más”; su deseo de “administrar la riqueza” había sido puramente ilusorio, no porque ésta no hubiera existido, sino porque no fue administrada. Ronald Reagan se estrenaba como presidente de los Estados Unidos y dos meses después sufría un atentado fallido, como le sucedió ese mismo año a Juan Pablo ii. Unos meses antes, otro atentado había tenido éxito al segar la vida de John Lennon y uno más, tiempo después, la de Anwar Saddat, presidente de Egipto. Veríamos los primeros casos de sida, la boda de Lady Diana y el príncipe Carlos, el estallido de la guerra civil en El Salvador y un intento de golpe de Estado en la España que estrenaba democracia, recuperaba el Guernica de Picasso y escuchaba Hoy no me puedo levantar de Mecano. El 12 de agosto ibm hacía el lanzamiento comercial de su propia microcomputadora: la ibm pc. En 1979 el gigante azul se había percatado de que había un floreciente mercado de microcomputadoras que reportaba millones de dólares a varias compañías como Apple, por ejemplo. Así que decidió que quería participar de esto y hacerlo en grande, como siempre, pero sin correr muchos riesgos en un mercado tan impredecible. El reto era mayor porque había que hacerlo rápido, nadie sabía cuánto tiempo más iba a durar el interés del mercado por las microcomA c é r c at e 0 2 Oto ñ o 2011

La ibm pc 5150. El modelo de computadora personal introducido por ibm en 1981 (http://en.wikipedia.org/wiki/ibm_Personal_Computer).

putadoras y hacer algo rápido en una compañía del tamaño y con los protocolos de ibm, no es trivial y menos si se quiere que el resultado sea barato. En 1980 Philip (Don) Estridge, quedó a cargo del “Proyecto Ajedrez”, que consistía en diseñar, rápidamente, la arquitectura de una computadora personal de bajo costo. Para eso contó con un equipo de 12 personas y el poder de decisión necesario para llevar a cabo el proyecto en un año. Estridge no podía darse el lujo de diseñar una máquina que tuviera hardware y software ad-hoc, diseñado y producido por ibm, eso requería mucho tiempo y elevaría el costo muy por arriba de lo deseado. Optó entonces por una arquitectura abierta, utilizarían circuitos integrados elaborados por otras compañías, en particular un procesador diseñado por Intel, el 8088. El software debía también ser obtenido a la brevedad, así que lo mejor era usar software pre-existente en el mercado. Un intérprete de basic era fundamental, así que recurrieron al proveedor de mayor prestigio: Microsoft. Un sistema operativo era también clave, así que harían lo mismo, el de mayor aceptación en el mercado era uno llamado cp/m, producido originalmente para versiones mejoradas de Altair, por una compañía llamada Digital Research Inc. (dri), a cargo de un Doctor en Ciencias de la Computación llamado Gary Kildall, así que acudieron a él. Kildall, su esposa y su consultor legal se mostraron desconfiados cuando el equipo de abogados de ibm les solicitó la firma de un contrato de confidencialidad. Los de ibm terminaron desesperándose y acudieron a Gates (quien había recomendado a

Digital Equipment Corporation (dec) fue una compañía fabricante de equipo de cómputo que existió entre 1957 y 1998. Dos de las líneas más famosas de computadoras producidas por dec fueron las pdp y vax.

Kildall) para saber si Microsoft podría proveer el sistema operativo también y, claro, Gates accedió. En ese momento, Microsoft no tenía un sistema operativo, así que compró uno. Por 25,000 dólares adquirió un sistema producido por una compañía llamada Seattle Computer Products (scp), llamado Quick and Dirty Operating System (qdos). Luego de algunas adaptaciones, ibm obtuvo la licencia bajo el nombre pc dos y fue comercializado por Microsoft de manera independiente como ms-dos, donde la “D” ya no significaba Dirty (sucio), sino Disk. Finalmente, en un salón del Waldorf Astoria en Nueva York, Estridge convocó a una conferencia de prensa en la que presentó la ibm pc 5150 al mundo. El precio de introducción por el sistema básico (gabinete del cpu, teclado y mo-

Ya antes ibm había fabricado equipos pequeños. En 1975 había lanzado la ibm 5100 Portable Computer. La computadora portátil pesaba alrededor de 23 kilogramos y costaba casi 20,000 dólares. En contraste, una Altair costaba 650 dólares ensamblada y 400 dólares sin ensamblar y una Apple ii unos 2,000 dólares, un orden de magnitud por abajo. 19


Paul Allen (izquierda) y Bill Gates (derecha) en 1981, poco después de firmar el contrato que involucró a Microsoft en el proyecto de la IBM PC. © 2007 Microsoft Corporation. All rights reserved. Tomado del sitio oficial de Microsoft (http://www.microsoft.com/presspass/presskits/leadership/gallery.mspx).

nitor a color) fue de 1 565 dólares. Para Navidad ya había 100 mil órdenes de la pc, y 200 mil el primer año; ibm pensaba que para 1984 habría vendido 500 mil, realmente vendió 2 millones. Desde la presentación, consciente de que el éxito dependía, como se había visto en el caso de la Apple ii, de las aplicaciones que la máquina pudiera ejecutar, ibm anunciaba el establecimiento de un departamento de software que aceptaría aplicaciones elaboradas, tanto por empleados de ibm, como de otras compañías. Anunciaba también la posibilidad de ejecutar VisiCalc y en un futuro cercano cp/m. En 1981 abba cantaba Winner Takes It All. 1984: Rebel Yell

Un sistema operativo es un programa especial que se ejecuta en una computadora para proveer a sus usuarios de servicios elementales para poder utilizarla. El sistema operativo es el administrador general de los recursos con los que cuenta la máquina: memoria, disco, el procesador central, los adaptadores de comunicaciones, etcétera. 20

El Super Tazón de 1984 estuvo caracterizado por las sorprendentes carreras de Marcus Allen: 191 yardas y dos anotaciones que contribuyeron para que los Raiders (en ese entonces de Los Ángeles) ganaran 38 a 9 a los Redskins de Washington, a la sazón, los favoritos. Pero también estuvo caracterizado por un comercial. En el medio tiempo, los telespectadores pudieron ver el anuncio de lanzamiento de la Apple Macintosh, dirigido por Ridley Scott (Alien, Blade Runner, Gladiator), que hacía alusión a la novela de George Orwell 1984, El Gran Hermano pronuncia en una pantalla gigante, ante una enajenada audiencia, un discurso acerca de la unificación del pensamiento. Un “paraíso” en el que sólo existe un modo de hacer las cosas, en el que los trabajadores pueden desarrollarse sin el riesgo de peligrosas contradicciones y confusiones. Mientras habla, una atleta (1984 es año de los juegos olímpicos en Los Ángeles), una poderosa mujer que practica el lanzamiento de martillo, entra corriendo en el auditorio con su instrumento en la mano, perseguida por los guardianes del orden. Al tiempo que El Gran Hermano dicta que su sociedad prevalecerá, la mujer lanza un grito de esfuerzo mientras el martillo sale disparado hacia la pantalla, que al recibir el impacto

se rompe ante la expectante audiencia. Una voz en off dice: “El 24 de enero de 1984 Apple Computer introducirá Macintosh. Y tú verás por qué 1984 no será como 1984”. En México, estábamos en medio de la “Renovación moral” propuesta por Miguel de la Madrid, con una inflación cercana al 100% anual luego de la nacionalización de la banca hecha por José López Portillo dos años antes. Veríamos sorprendidos las explosiones de gas licuado en San Juan Ixhuatepec y el año siguiente el peor sismo de nuestra historia y la mayor incapacidad gubernamental para hacer frente a la catástrofe posterior. El mundo había pasado por la guerra de las Malvinas, invención de la dictadura argentina, siguiendo la vieja receta de buscar un enemigo externo para unir a los súbditos. Reagan era reelegido y Lech Walesa, el líder del único sindicato independiente en el bloque soviético, había ganado el Premio Nobel de la Paz. El año anterior, en su número de enero, la revista Time, como suele hacerlo, presentó en su portada a la personalidad más sobresaliente, a su juicio, en la escena internacional de 1982. La distinción no le perteneció en aquella ocasión a ninguna persona; la fotografía en la portada era la de una ibm pc y el A c é r c at e 02 Oto ñ o 2011


Steve Jobs (izquierda, 1955 - 2011) y Steve Wozniak (derecha) y con la primera Apple Computer en 1976. Fotografía tomada durante el lanzamiento de Apple iPad, enero de 2010. La original en los archivos históricos de Apple © Apple Computer Inc.

La Apple Macintosh de 1984 (Christoph Dernbach, www.mac-history.net).

título decía The Computer Moves In. En efecto, la ibm pc había alcanzado una popularidad sin precedentes. Contribuyeron a esto las aplicaciones que podían ejecutarse en la máquina. En 1982 se introdujeron dos procesadores de palabras que llegaron a ser muy populares: WordStar y WordPerfect, al año siguiente se introdujeron el Word de Microsoft y una hoja de cálculo llamada Lotus 123. Con esto, la ibm pc se había vuelto una computadora mucho más versátil que sus competidoras en general. Se insertó con éxito en el sector educativo y en el de las pequeñas y medianas empresas. Con este panorama en el mercado, Steve Jobs decidió que debía presentar un nuevo paradigma. El año previo, 1983, había lanzado Lisa, una micro computadora con interfaz gráfica. En esa época eso era algo innovador. Todos los sistemas operativos de entonces así como las aplicaciones, recibían órdenes desde lo que conocemos como línea de comandos. El mismo año del lanzamiento de Lisa, Jobs contrató a John Sculley, ex presidente de Pepsi, con la intención de delegar las labores administrativas en alguien capaz, para poder dedicarse de lleno a lo que en realidad le gustaba: desarrollar nuevas computadoras. Apple ya se había convertido en una enorme empresa demandante. Para desarrollar algo nuevo no bastaba con preguntarle a un buen amigo en el garaje qué opinaba. La camisa que Jobs había diseñado y confeccionado, ahora se sentía como una camisa de fuerza. Ya con Sculley en Apple y luego de haber producido Lisa, Jobs formó un equipo que, saliéndose de los cauces convencionales de la empresa y por encima de consejos, comités y ejecutivos, desarrolló la Macintosh. Un transgresor que transgrede su propia

gobernado por ibm, la guerra que El Gran Hermano había desatado, la iban a librar y a ganar otros.

A c é r c at e 0 2 Oto ñ o 2011

creación. Esto no le agradó al consejo de administración, Jobs y Sculley discutieron y Jobs terminó abandonando en 1985 la compañía creada en 1976. En el 1984 Stevie Wonder llamaba por teléfono para decir te amo y Cindy Lauper decía que las chicas sólo quieren divertirse; la actitud de Billy Idol, ex cantante de Punk, era menos complaciente y más parecida a la de Jobs; ese año colocó en las listas de popularidad Rebel Yell. La Mac fue, desde varios puntos de vista, algo similar: rompe con el estándar de la línea de comandos e introduce la interfaz gráfica sin la que hoy no sería concebible que muchas personas usen hábilmente una computadora. Se erige además en una opción, una propuesta contracultural opuesta al Mainstream establecido por El Gran Hermano de ibm, que era, en apariencia, el contrincante a vencer. Y finalmente, también señaló una rebelión de Jobs contra la rigidez de Apple, una especie de guerra civil en la que, también en apariencia, Jobs perdió. Justo en 1985, cuando Jobs abandonó Apple, esta compañía entabló una demanda legal contra Microsoft por plagio en las ideas fundamentales de la interfaz gráfica que se podía ver en la entonces primera versión de Windows. Los contrincantes se redefinen. ibm parecía más allá del bien y del mal, pero lo cierto es que la arquitectura abierta de la ibm pc estaba siendo copiada masivamente por otras compañías. En 1986, ibm produjo el último modelo de la línea pc (aunque seguiría produciendo equipos basados en Intel), el mercado prefería los clones de menor costo. En 1985, Tears for Fears cantaba Everybody Wants to Rule the World. Aparentemente el mundo escogería no ser

1990: Wind Of Change

Luego de casi 28 años de reclusión en tres diferentes prisiones, el 11 de febrero de 1990 Nelson Mandela pudo por fin recuperar su libertad. Cuatro años después sería presidente de Sudáfrica, el régimen del Apartheid cedía. En Polonia, Lech Walesa ganó las elecciones, Lituania se independiza de la urss, lo que iniciaría una desbandada de otras repúblicas. En 1991 Croacia, Macedonia y Eslovenia se independizan de Yugoslavia. En 1989 había caído el Muro de Berlín y se iniciaría la reunificación alemana. Las tropas soviéticas se habían por fin retirado de Afganistán donde habían combatido desde 1979 a los muyahidines, sin éxito. En agosto, Irak cometería el error de invadir a su vecino Kuwait, lo que desataría la primera guerra del Golfo el año siguiente. Durante los años 90 ocurriría la guerra de los Balcanes, moriría la princesa Diana y Bill Clinton se vería envuelto en un escándalo al estilo de los que sólo se veían en las revistas amarillistas de espectáculos. En México, estábamos en el primer tercio del sexenio en el que Carlos Salinas nos había dicho que debíamos hablar (“Que hable México”, fue su lema de campaña), había ocupado la presidencia en 1988 luego de una misteriosa “caída del sistema”, que la suspicacia popular atribuye más a la falta de ética que a una falla tecnológica. Todo el discurso gubernamental nos llevaba a pensar que estábamos en el umbral del primer mundo, pero la realidad nos cayó encima como un balde de agua 21


fría. En 1993, se le quitan tres ceros al peso, es asesinado el cardenal Posadas en Guadalajara y al año siguiente José Francisco Ruiz Massieu y Luis Donaldo Colosio, el candidato del partido oficial a la presidencia. En diciembre de ese mismo año, Ernesto Zedillo sufre lo que podríamos llamar una “novatada”: se cometen los “errores” que llevan la economía nacional a una de sus peores crisis, el “Bienestar para tu familia” se convierte en elemental supervivencia. En enero de 1994, el Ejército Zapatista de Liberación Nacional (ezln) se levanta en armas en Chiapas. En 1990 Microsoft introduce la versión 3 de Windows, el sistema de ventanas para ejecutarse en la plataforma de hardware compatible con ibm pc. Hoy en día parece difícil imaginar otra manera de interactuar con la computadora, en 1983 cuando Apple lo hizo con el modelo Lisa, o en 1985, cuando lo introdujo Microsoft, era revolucionario. Tanto que, como hemos mencionado, Apple demandó por plagio a Microsoft, demanda que en 1990 estaba aún en litigio. La versión 3 de Windows fue la primera con una notable penetración en el mercado: quienes estábamos acostumbrados a la interacción a través de la línea de comandos de ms-dos, renuentes, abríamos, dentro de Windows una ventana para teclear los comandos a la antigua, pero no pasó mucho tiempo antes de que la pereza nos guiara por el camino del ratón y los clics. Los que conocimos en aquellos tiempos las estaciones de trabajo, que reemplazarían a las minicomputadoras de los años 80, usamos x Window, el desarrollo del mit para unix que constituía, también, un sistema de ventanas. El mundo, en general, se movía hacia un mecanismo de interacción menos exigente que el teclear con precisión las instrucciones que serían interpretadas por el sistema operativo, un mecanismo que sería decisivo para cambiar el perfil del usuario típico de un sistema de cómputo. A su salida de Apple, Steve Jobs fundó dos compañías diferentes: next en 1985 y Pixar Animation Studios en 1986. La primera, una empresa dedicada a fabricar computadoras basadas en procesadores de Motorola, como la Mac. La segunda, como sabemos, dedicada a la elaboración de películas animadas por computadora. Las next, por supuesto poseían un sistema operativo dotado de una interfaz gráfica, llamado nextStep. Tim Berners-Lee 22

usaría en 1991 una next para desarrollar lo que hoy conocemos como la Web. A finales de 1996, next fue adquirida en 429 millones de dólares por Apple, con lo que Jobs regresaría a la compañía que había fundado 20 años antes. Para ese entonces Sculley ya no estaba a cargo de Apple, había salido en 1993 a petición del consejo de administración, por una serie de decisiones erróneas. En 1997, Apple estaba en crisis y aún con Jobs a cargo la situación no parecía poder revertirse a tiempo como para rescatar la compañía. Quien llegó al rescate fue, increíblemente, Microsoft. Gates ofreció invertir en Apple 150 millones de dólares a cambio de que ésta se desistiera de la demanda de 1985. Lo que Apple decidió es obvio. Dos años antes Microsoft había lanzado Windows 95, cuya penetración fue aún más notable que la de las versiones previas e incluía características que se denominaron plug and play, con lo que el usuario de la máquina ya poco tenía que saber del hardware que le conectaba. Windows ya no era algo montado sobre ms-dos, ahora era, por sí mismo, el sistema operativo. Durante los años 90 fuimos testigos también del vertiginoso crecimiento de internet, impulsado fundamentalmente por el hipertexto y la interacción gráfica. Los contenidos, los usuarios y la velocidad de conexión son hoy varios órdenes de magnitud superiores a los que había a principios de esta década. Para el lanzamiento de Windows 95, Microsoft realizó un comercial con la canción de 1981 Start Me Up de los Rolling Stones. En 1990, cuando la versión 3 ingresó al mercado, el grupo alemán de heavy metal Scorpions cantaba, muy a tono con lo que ocurriría en la década, Wind Of Change. Epílogo: I Still Haven´t Found What I´m

Una interfaz gráfica es un intermediario del sistema con sus usuarios. Recibe de éstos las solicitudes de servicios que requieren y muestra los resultados de estas peticiones. La interacción se da a través de estímulos visuales y mecanismos intuitivos, como el uso del ratón.

Looking For

En la primera década del siglo xxi veríamos los atentados del 11 de septiembre de 2001 a los centros de poder económico, militar y político de Estados Unidos, lo que traería como consecuencia la invasión norteamericana a Afganistán, misma que se traslapa en el tiempo con la nueva invasión de Irak. En el 2000, México terminaría la hegemonía del PRI luego de 70 años y sobrevendrían cambios, no tantos ni tan buenos como se esperaban, algunos bastante pobres o francamente deleznables. Decidir cuáles pertenecen a cada categoría, lo dejo a criterio del lector. En 2001, lastimosamente, tuve que adquirir un nuevo atlas geográfico y dar de baja el que me había mostrado el mundo casi toda mi vida, pues en el transcurso de unos años se había vuelto obsoleto. En el programa especial de MTV de la noche vieja de 1999, para amanecer el primer día del último año del milenio anterior, el grupo No Doubt cantó un cover de la canción de 1987 de R.E.M. It´s the End of the World as We Know It. En efecto, el mundo, tal como lo conocíamos se había terminado. Presenciamos luego la convergencia tecnológica: en 2000 Ericsson lanza el R380, primer teléfono calificado como Smartphone, que fusionaba los servicios que normalmente se asociaban con un Asistente Digital Personal (pda) con los de un teléfono celular convencional. En octubre de 2001, Apple presentó al mundo el iPod, y en 2007 el iPhone. Ahora el bolsillo de una persona podía contener un poder de cómputo mayor que el que había en una minicomputadora de la década de los años 70. En el 2006, Steve Jobs anuncia que Apple basará sus nuevas computadoras en procesadores de Intel, que en el 2005 había lanzado el Pentium D, el primer procesador de doble núcleo. Cuando Olsen, el presidente de dec, declaró en 1977 que no veía una razón para que alguien deseará una computadora en su casa, estaba en lo cierto, nadie quiere una computadora como las de los años 70 en su casa. Nadie quiere hacer cálculos de cromodinámica cuántica o predecir el clima, manejar una base de datos de empleados o procesar los resultados del último censo. Casi nada, si queda algo, existe hoy del linaje de las pdp y las vax que dec fabricaba. No es que Olsen haya estado ciego, fue demasiado sensato. Estamos en un mundo muy difeA c é r c at e 02 Oto ñ o 2011


Computadoras personales en uso en el mundo (millones de unidades)

2,500 2,200,000,000 2,000

1,500

1,000

500

0 1975

1980

1985

1990

1995

2000

2005

2010

2015

Años

Número estimado de computadoras personales en operación por año desde 1975. Actualmente debe haber cerca de 1,500 millones en uso y para 2015 serán 2,200 millones. Fuente: eTForecasts (www.etforecasts.com).

rente del de 1975 o 1981, pero vemos sus efectos todos los días. En el ámbito de la tecnología de cómputo, que es el tema en torno al que hemos orbitado, es imposible negarlo. En el fondo de un procesador multinúcleo de los que usan nuestras computadoras de hoy, yace disimulado un 8080. Los viejos programas que elaboré en los años 80 o 90, aún los puedo ejecutar en mi laptop. Aunque todavía existimos algunos necios que tecleamos comandos, las interfaces gráficas prevalecen y hacen la tecnología útil para millones de personas para las que de otro modo estaría vedada. El usuario típico de una computadora en los años 70 vestía una bata blanca o traje y corbata, era un ingeniero, un científico o un ejecutivo bancario o de una gran dependencia del sector público; hoy en día un usuario típico es una persona típica. En 2005, ibm terminó por vender su división de computadoras personales a Lenovo, una empresa surgida de la crecientemente poderosa economía china. Microsoft se convirtió en una enorme empresa global al igual que Intel. Apple se mantuvo presente todo el tiempo y ahora sobresale por sus dispositivos móviles. El lector puede juzgar por sí mismo quiénes resultaron ser los ganadores A c é r c at e 0 2 Oto ñ o 2011

en el ámbito comercial. Mientras escribo esto, mi hija de 12 años está a mi lado usando la MacBook de su madre. Mi hijo de 9 está un poco más allá usando una hp Pavillion de escritorio. Si en 1975 alguien hubiera dicho que esta escena era posible, se le hubiera tachado de loco. De alguna manera hacía falta la locura de unos nerds de espíritu transgresor para llegar a ella, de alguna manera la pudieron entrever. Durante el proceso de escritura del texto que el lector tiene ante sus ojos, falleció Steve Jobs víctima del cáncer. El presidente de Estados Unidos, Barack Obama, dijo de Jobs que fue “suficientemente valiente para pensar diferente, suficientemente audaz para creer que podía cambiar el mundo y suficientemente talentoso para hacerlo”. Yo no pretendo el panegírico, ni arriesgaré una interpretación moral de esta historia, sus personajes y sus efectos, pero ciertamente, limitándome a los hechos, les debemos la ubicuidad de la computadora en el mundo civilizado moderno. Al principio de esta historia, el estado de las cosas no parecía indicar el camino que seguirían. Lo que 1975 nos regaló fue una luz. Se hizo claro el camino a seguir: Light my Way, diría Bono

el vocalista de u2, un grupo que ha estado presente a lo largo de casi todo el tiempo comprendido por este relato. En 1981 el camino además se hizo ancho, transitable. Alan Kay, un reconocido científico de la computación, dijo: “La mejor manera de predecir el futuro es inventarlo”, Bono añadiría I Still Haven’t Found What I’m Looking for

José Galaviz Casas. Profesor de la Facultad de Ciencias, unam.

Recomendaciones •

Cringley, Robert X. (1996). Triumph of the Nerds, (serie televisiva documental), Public Broadcasting Service (PBS). Consultado en noviembre de 2011, disponible en Youtube: http://www.youtube.com.

Galaviz, J. (2003). Elogio de la Pereza: La Ciencia de la Computación en una Perspectiva Histórica. México: Facultad de Ciencias, unam.

Isaacson, W. (2011). Steve Jobs la biografía. eua: Editorial Debate.

Microsoft. History of Microsoft. Consultado en noviembre de 2011, disponible en Youtube: http://www.youtube.com.

wWurster, C. (2002). Computers: An Illustrated History. Germany: Taschen GmbH.

23


24

A c é r c at e 02 Oto ñ o 2011


biodiversidad ¡Somos ricos! Andrés F. Keiman

En México vive al menos el 10 por ciento de todas las especies del mundo, lo que nos hace responsables de una parte importante de la biodiversidad del planeta, sin embargo, conservar nuestros recursos naturales, no sólo nos beneficia económicamente, también contribuye a la supervivencia y bienestar de quienes lo habitamos.

Hay grandeza en esta visión de la vida, que con sus diferentes fuerzas, habiéndose originado de una o pocas formas; y que, mientras este planeta ha ido girando de acuerdo a la ley de la gravedad, desde un origen tan sencillo hayan evolucionado, y sigan haciéndolo, una infinidad de las formas más bellas y más maravillosas. Charles Darwin

E

n nuestros días es común oír palabras como biodiversidad o diversidad biológica no sólo en los círculos científicos, sino también en otros ámbitos de la vida. De manera cotidiana se emplean términos como desarrollo sustentable, conservación, ecoturismo, entre otros, y empezamos a tener una gran conciencia del peligro que corren las áreas naturales de nuestro país y del planeta en general, las cuales padecen una reducción en su extensión día con día. Por supuesto, cuando se habla de diversidad biológica pueden surgir muchos enfoques sobre su definición, pero en general, decimos que es el conjunto de todos los organismos de la Tierra (plantas, animales, hongos, microorganismos, etcétera) que determinan las características de la atmósfera, los climas y los suelos del planeta. En suma, la biodiversidad es el sustento principal para la vida en la Tierra. Por desgracia, las actividades humanas no favorecen la conservación de dicha diversidad, sino que en general la destruyen a pasos acelerados, llegando a desaparecer de una generación a otra, a miles o tal vez a millones de especies. Y quizá algunas nunca las conoceremos. Nuestro territorio es depositario de alrededor del 10 por ciento de la biodiversidad mundial, lo que le da una gran A c é r c at e 0 2 Oto ñ o 2011

responsabilidad en su conservación. De acuerdo con recientes estudios, no solamente tenemos el más alto número de especies, sino también tenemos un elevado índice de especies endémicas, es decir, organismos que sólo viven en el territorio de la República Mexicana. El país posee el más alto número de reptiles en el mundo (717 especies), ocupa el segundo lugar en mamíferos (449 especies) y el cuarto en anfibios (282 especies). Es refugio importante para muchas especies migratorias, entre las que se encuentran variedades de mariposas, ballenas, peces, murciélagos, tortugas y aves. Es cuna de más de 2 mil géneros de plantas, que se emplean como vivienda, medicina u ornamento entre otros múltiples usos. Esta riqueza biológica es producto de la compleja topografía o superficie del terreno, la diversidad de suelos y climas, la historia geológica y la privilegiada ubicación geográfica en el planeta. México es un paso importante de dos zonas biogeográficas relevantes: la neoártica (al norte) y la neotropical (al sur). En la actualidad, el problema en México no es la carencia de una ley o leyes que defiendan dicha diversidad biológica, pues ya existen, como: la Ley General del Equilibrio Ecológico y Protección al Ambiente, la Ley de Pesca, la Ley Forestal, la Ley Federal de Caza, por mencionar algunas. El problema radica en el alto precio que se debe pagar por el desarrollo económico, desgraciadamente no tenemos el desarrollo suficiente para conservar la mayor diversidad posible. Es claro que los países con mayores recursos económicos deben apoyar planes más moderados de explotación que en los países de menores recursos como México y de esta forma mantener una relación más ecuánime. Realmente po-

demos sentirnos orgullosos de vivir en un país como México, donde existe una gran cantidad de especies, pero se hace imperativa la necesidad de conservarlas, en general a todos nuestros recursos naturales. No solamente como un factor económico, sino también como una condición indispensable para la supervivencia, el bienestar de todos, y como un elemento clave para el posterior desarrollo de las generaciones futuras Andrés F. Keiman. Profesor investigador de la Academia de Biología, uacm.

Recomendaciones •

Conabio (2009). Biodiversidad mexicana. Comisión Nacional para el Conocimiento y Uso de la Biodiversidad. Consultada el 4 de noviembre de 2011, http://www. biodiversidad.gob.mx.

Conabio (2006). Capital natural y bienestar social. Comisión Nacional para el Conocimiento y Uso de la Biodiversidad, México. Consultada el 4 de noviembre de 2011, http://www.biodiversidad.gob.mx/ pais/capitalNatMex.html.

Conanp (2011, 19 de mayo). Sistema Nacional de Áreas Protegidas. Comisión Nacional de Áreas Naturales Protegidas. Consultada el 4 de noviembre de 2011, http://www.conanp. gob.mx/que_hacemos/sinap.php.

ine (2010, 3 de agosto). Dirección de

Conservación de Ecosistemas. Instituto Nacional de Ecología. Consultada el 4 de noviembre de 2011, http://www.ine.gob.mx/ con-eco. •

ine (2011, 29 de junio). Dirección General

de Investigación en Política y Economía Ambiental. Instituto Nacional de Ecología. Consultada el 4 de noviembre de 2011, http://www.ine.gob.mx/areas/dgipea/975indice-biodiversidad.

25


La ciencia de los superhéroes (1ª parte) Rodrígo Vidal Tamayo Ramírez

Aunque por mucho tiempo se le consideró “Literatura barata”, en tiempos recientes el cómic se ha reivindicado como medio de comunicación y género artístico. Con este texo se pretende mostrar que la ciencia es tan interesante como los cómics y pueden utilizarse pra aprender. Además, que los cientificos no estamos (tan) locos o por lo menos no pretendemos conquistar el mundo.

¿C

iencia y cómics? La relación no es tan rara si consideramos que ambos conceptos culturales son producto de la imaginación pura, aunque racionalizada en el primer caso, y artística en el segundo. Los cómics de superhéroes no son más que otra rama de este subgénero literario mal llamado ciencia ficción1, en donde la ciencia se vuelve omnipresente, ya sea en los orígenes del héroe en turno, en las armas utilizadas por el villano o en el ambiente que caracteriza el universo planteado por los escritores. Los cómics han contribuido a generar estereotipos de los científicos en el imaginario colectivo de nuestra sociedad contemporánea; el hecho de que algunos científicos sean retraídos, o la ciencia como disciplina se encuentre alejada conceptual y lingüísticamente de la cotidianidad, lo ha favorecido. Ahí tenemos a Brainiac, enemigo de Superman, quien representa al científico loco, aquél que utiliza el poder del conocimiento para fines perversos y no tiene empacho alguno en abusar de las ventajas que la ciencia otorga para reducir ciudades, crear robots asesinos o viviseccionar (dividir un animal vivo para estudiarlo cientificamente) al hijo de Aquaman. Este villano es la perso26

nificación del científico enojón, solitario e incomprensible que pervive en el imaginario colectivo. Por otro lado, está la imagen del nerd, el científico sabelotodo que, precisamente por estar a una altura diferente del resto de la sociedad es rechazado por ésta. Sin embargo, es tan noble que utiliza sus capacidades diferentes para ayudar, porque sabe que sólo él es capaz de hacer un mundo mejor. Viene a colación Brainiac 5, miembro del superequipo conocido como Legión de Superhéroes y curiosamente pariente del anterior. Al parecer la genialidad, al menos en el mundo de los cómics, es algo heredable, aunque la maldad no. Ciencia en un cómic… ¿Para qué?

Al analizar críticamente el contenido científico de los cómics, podemos observar que los escritores, la mayoría de las veces, han puesto atención en sus clases de ciencias naturales y, aunque han torcido un poco esos conocimientos, en general pueden obtenerse conceptos científicos más o menos veraces de un cómic bien escrito. Por ejemplo, si uno ha leído Flash, sabrá que son los vapores de agua dura los que le otorgan a Jay Garrick (el Flash de la época dorada2 ) su supervelocidad. Aplicando un poco

de ciencia y nada de ficción, podemos recordar que cualquier vapor de agua está compuesto únicamente por moléculas de agua, ya que los minerales que pudiera tener disueltos se quedan precipitados en el recipiente que la contuviese. Sin embargo, puede inferirse que al agua dura es aquella rica en minerales, los cuales, si viviéramos en un mundo mágico, podrían otorgar supervelocidad, porque en nuestro mundo real lo más extremo que podrían producir sería una intoxicación y cálculos renales. De la misma manera, si uno lee el origen del superhéroe Átomo de la época de plata, conocerá que las estrellas denominadas enanas blancas son tan densas que una cucharadita de ellas pesa como el monte Everest, aunque esto no impida que el joven físico Ray Palmer –identidad secreta de Átomo– pueda levantar un trozo cuyo peso sería equivalente al de la Tierra –aunque su tamaño no sea mayor a un balón de futbol–, tal vez la superfuerza es un poder oculto en Átomo. Digamos que es una licencia literaria en aras de poder contar una buena historia. Por supuesto, no todo el contenido científico es tan explícito en todos los cómics, pero, con un poco de imaginación y un manejo lúdico de conceptos de Física, se pueden utilizar las viñetas para explicar algunos misterios irresolutos de la historieta, como el por qué explotó el planeta Kriptón. Para llegar a esto serán necesarias dos cosas: hablar de física y remontarnos al pasado, a la época dorada de los cómics, en particular, al cómic que lo inició todo: Action Comics # 1. La manzana de Kriptón

Originalmente Superman no volaba, lo A c é r c at e 02 Oto ñ o 2011


Superman y Brainiac en una ilustración de Gray Frank.

A c é r c at e 0 2 Oto ñ o 2011

27


Van Zeland en su laboratorio en un episodio de Kaliman.

que hacía era dar tremendos brincos que le permitían saltar edificios o alcanzar aviones. La fuente de los superbrincos era la superfuerza que tenía, producto de la naturaleza alienígena que lo caracterizaba. El argumento utilizado por sus creadores, Jerry Siegel y Joe Shuster, para explicar este poder fue que la fuerza de gravedad del planeta Kriptón era mayor que la de la Tierra. Así que, la anatomía de los kriptonianos, adaptada a una gravedad tan fuerte, les permitiría superar la débil gravedad terrestre. En otras palabras, para poder dar un brinco normal en Kriptón un kriptoniano necesita una fuerza tal que, en la Tierra, lo mandaría a la estratósfera y más allá. Sin mencionar algunos cálculos (los cuales omito por espacio; para conocerlos se puede consultar el libro mencionado en las recomendaciones), que incluyen la utilización de las leyes de Newton para conocer la velocidad, masa y aceleración necesarias para el colosal brinco, puede inferirse que la gravedad de Kriptón debe ser 15 veces mayor que la de la Tierra para que sus habitantes sean superpoderosos en nuestro planeta. Lo que debemos explicar entonces son las condiciones de un planeta con una fuerza gravitatoria así de inmensa. Existen dos posibilidades para lo anterior, o que sea un planeta 15 veces más grande o que sea 15 veces más denso. De esta manera, la masa del planeta podrá curvar el espacio-tiempo y generar una atracción gravitatoria mayor. Si 28

nos vamos por el tamaño, nos encontramos con que los planetas así de grandes tienden a ser gaseosos. Como ejemplo tenemos a Júpiter que, aun cuando podría contener a 1 400 Tierras, su gravedad es apenas dos veces y media mayor que la de nuestro planeta, y su superficie gaseosa no es apta para permitir vida parecida a la humana, mucho menos a la kriptoniana. Queda entonces la segunda opción, la densidad. Ésta se define como la cantidad de masa (y por masa me refiero a la materia de la que están hechas las cosas) contenida en un determinado volumen. En términos terrestres, tenemos que un cubito de 1 cm de lado puede contener 1 gramo de agua, un cubo igual de plomo pesa 11 g. Así, tenemos que la densidad promedio de la Tierra es de 5 g/cm3. Por lo que el material más pesado es el uranio, con una densidad de 19 g/cm3. Para que un material sea 15 veces más denso que la Tierra necesitaría tener una densidad de 75 g/ cm3 y hasta donde sabemos, no existe material alguno que posea esa característica… ¿O sí? Hace un momento hablaba sobre las estrellas enanas blancas formadas por los residuos de otras estrellas al agotar su combustible nuclear (la formación de enanas blancas está relacionada con el tamaño de la estrella original, así, el sol terminará convertido en una). En esas estrellas, la masa se condensa de tal forma que un cm3 pesa cien mil millones de millones de

gramos. Con una densidad así, bastaría con que un planeta del tamaño del nuestro tuviera en su núcleo una pequeña estrella enana de 600 m de radio (o 1 200 m de diámetro) para que la gravedad aumentara 15 veces. Lo curioso es que uno de los efectos colaterales en un planeta así, es que sería tan inestable en su distribución de materia que con algo de vulcanismo y movimientos tectónicos (como los que provocan los sismos) un investigador podría predecir que el planeta va a explotar, razón suficiente para poner a su hijo en ruta a un planeta más estable, en donde el niño sea considerado un dios. Y en el próximo número…

Como se puede ver, los cómics de superhéroes pueden servir para amenizar nuestras clases de ciencias. Además de demostrar que conocer de Matemáticas y Física permite disfrutar desde otro punto de vista, una historia que ante los ojos legos podría ser irrelevante. En próximasRecomendaciones entregas detallaré otros superpoderes y sus posibilidades de conver• Ka (2006). The physics of superheroes. tirse enkalios, una J.realidad eua: Gotham Books.

1 • El escritor Harlan Ellison prefería ficción especuMuchos de los datos aquí llamarlo expuestos lativa, que me parece más acertado debido a que englofueron tomados de este libro (puedes ba, aparte de las historias espaciales y/o futuristas, a las ucronías, algunas terror y, por consultar su de traducción ensupuesto, español aLalos cómics de superhéroes. física dedelos editada porse Grupo 2 La historia lossuperhéroes cómics estadounidenses divide en cuatro grandes etapas: la época dorada, que va de la apaRobin Book). Recomiendo su lectura pues rición de Superman en 1938 hasta principios de los años 50; puede la épocaconsiderarse plateada va decomo mitaduno de los 50 hasta deaños los libros inicios de los 70; la época de bronce abarca de mediados canónicos si uno quiere tener argumentos de los 70 hasta 1985; y finalmente la época moderna que llega hasta nuestros días.el valor educativo del para hablar sobre

cómic. Rodrígo Vidal Tamayo Ramírez. A c é r c at e 02 Oto ñ o 2011


Einstein y mi cámara digital Nahiely Flores Fajardo

Tal vez has fotografiado una mariposa posada en una roca o el cierre de una comtepencia de atletismo. Resulta que si capturas ambos sucesos con cámaras cuyos sensores son distintos, las imágenes difieren al grado de tener fotografías de concurso si eliges el tipo correcto. Descubre cómo lograrlo y la ciencia que hay detrás de esto.

divulgación

A

lbert Einstein es reconocido como un genio de la Física, particularmente por su desarrollo de la Teoría de la Relatividad. Su ecuación E=mc2, nos dice que la energía y la materia son equivalentes, o bien podemos transformar energía en materia y materia en energía, es tan popular que seguramente la has visto incluso estampada en alguna camiseta. Einstein fue galardonado con el Premio Nobel de Física en 1921, pero no por este trabajo tan conocido, sino por aquél que permitió el entendimiento de la interacción de la luz con la materia, lo cual hoy nos permite tener cámaras fotográficas aun en los teléfonos celulares. A finales del siglo xix, Heinrich Hertz descubrió que al iluminar placas de metal con luz ultravioleta, éstas producían una corriente eléctrica. En esta época prevalecía la idea de que la luz era solamente una onda y que como tal era una entidad de energía continua, con lo cual no era posible explicar el efecto encontrado por Hertz. Fue en 1905 cuando Einstein, basado en el trabajo previo de Max Planck, propuso que la luz no sólo se comportaba como una onda, sino que en ocasiones se comportaba también como un conjunto de partículas, cada una de ellas con su propio paquete de energía. De esta manera cuando un fotón (partícula de luz) llega al metal, cede su energía a uno, y sólo a uno, de los electrones de los átomos que lo componen. Como podemos apreciar en la figura 1, si la energía cedida por el fotón es suficiente, el electrón es liberado creando una corriente eléctrica (electrones en movimiento). A c é r c at e 0 2 Oto ñ o 2011

Luz (Fotones)

Electrones

de material semiconductor como se muestra en la siguiente figura. Luz (Fotones)

Figura 1 Efecto fotoeléctrico.

Luz (Fotones)

En el caso de la luz, la energía de cada uno de los fotones que la compone es proporcional a la frecuencia de ésta, es decir, el paquete de energía de un fotón de luz azul es mayor que el de un fotón de luz roja. La liberación de los electrones en la placa metálica dependerá de la frecuencia de los fotones (de su color o energía) y no de cuántos fotones lleguen, es decir, de la intensidad de la luz, como lo suponía la teoría clásica. Ahora bien, te preguntarás “qué tiene qué ver todo esto con mi cámara fotográfica o la cámara de mi celular”. Resulta que éste, el efecto fotoeléctrico, es el principio en el que están basados los sensores de las cámaras digitales y que podemos entender gracias a la formulación de Einstein y por lo cual le dieron el Premio Nobel en 1921. ¿Qué es y cómo funciona el sensor de las cámaras digitales?

El sensor no es más que un pequeño dispositivo electrónico-digital que reemplaza a la película o negativo, es decir, es el material sensible a la luz (fotosensible) que nos permite la captura de fotografías (¡cuidado!, sólo su captura y no su almacenaje, ése es otro tema). Este sensor lo podemos pensar como pequeñas cubetas (píxeles) alineadas en filas y columnas, las cuales se encuentran pegadas a una placa

Pixeles Amplificación + Conversión A/D + Lectura Figura 2 Principio básico de un sensor fotográfico.

Cuando tomas una fotografía, se abre el obturador de la cámara (entrada de luz), los fotones pasan por el lente donde son enfocados para que lleguen al sensor. Una vez ahí los fotones inciden en la placa semiconductora produciéndose el efecto fotoeléctrico. Es decir, cada uno de los fotones que llegan, transfiere su energía a un electrón liberándolo para que se deposite en uno de los píxeles (recordemos que son como pequeñas cubetas para colectar los electrones). Una vez que el obturador se ha cerrado, cuando ya tomaste la fotografía, comienza el conteo o “lectura” de los electrones en cada píxel. Recordemos que un fotón con suficiente energía, liberará un solo electrón, por lo tanto, la cantidad de electrones en cada píxel dependerá de cuántos fotones entraron, es decir, de la intensidad de la luz. Una vez que los electrones han sido depositados en los píxeles, se utilizan amplificadores para aumentar la señal guardada en cada uno de éstos. Posteriormente, se 29


30

A c é r c at e 02 Oto ñ o 2011


Los sensores se encuentran al alcance de todos, un ejemplo de ello es en la cámara de los celulares.

transforma esta señal analógica (corriente eléctrica) en una señal digital (unos y ceros) que puede ser interpretada por una computadora. ¿Te has fijado que muchas veces en la cámara, después de tomar una foto, parpadea un pequeño foco y hasta que éste se apaga puedes tomar la siguiente fotografía? Bueno, pues este tiempo es justamente en el que se está llevando a cabo toda la “lectura” del sensor y el almacenaje de la información en la tarjeta de memoria, la cual podrás leer en tu computadora. Estos sensores se empezaron a desarrollar en la década de los 60 y en la actualidad existen dos tipos de diseño en el mercado: ccd y cmos. Éstos tienen diferencias en su sensibilidad, velocidad y calidad de imagen entre otras cosas, aunque el principio de funcionamiento es el mismo: el efecto fotoeléctrico. Los sensores tipo ccd (por sus siglas en inglés: Dispositivo de Cargas Acopladas) fueron los primeros en desarrollarse en los laboratorios at&t Bell Labs por Willard Boyle y George Smith, quienes recibieron el Premio Nobel de Física en 2009 por su trabajo en esta área. En este tipo de diseño, los electrones de cada píxel son identificados y vaciados en un contenedor general. Una vez que todos los electrones están juntos, la señal completa es amplificada y convertida en una señal digital. En este caso, debido a que todo el sistema de lectura es independiente a la placa semiconductora, los píxeles pueden ser tan pequeños como los necesitemos y pueden estar muy pegados los unos con los otros (Figura 3). Este tipo de diseño permite tener una alta calidad de imagen y de sensibilidad a la luz, pero pagando dos costos importantes: 1. Monetario, debido al tipo de materiales con los que se construyen y a que se necesitan circuitos externos al sensor para su lectura; y 2. Consumo de energía, la duración de una batería es A c é r c at e 0 2 Oto ñ o 2011

mucho menor, por lo que se necesitan baterías más pesadas y caras. Además de esto, los ccd presentan una gran ventaja: el alto rango dinámico que tienen. No, no nos referimos a que son más veloces, de hecho no lo son. El rango dinámico se refiere a qué tan grande es el intervalo que hay entre la mínima señal que puede captar el sensor y la máxima antes de saturarse, es decir, antes de que todo se vea como una gran mancha. Si este rango es muy pequeño, eso quiere decir que en nuestras fotos sólo tendremos blancos y negros (toda la señal o sin señal), pero si es grande, quiere decir que podremos tener muchos grises de diferentes tonalidades entre el blanco y el negro.

ccd, hacen el proceso de amplificación y conversión de señal dentro del mismo sensor. Este diseño los hace mucho más rápidos en la lectura, su desarrollo permitió tener ráfagas de varios disparos en un segundo, de menor costo y consumo de energía. Pero al igual que los ccd pagan el costo de las ventajas con desventajas. El hecho de que todos los circuitos estén pegados a los píxeles provoca que éstos tengan menor área de colección de fotones (la circuitería ocupa espacio), por lo tanto, el sensor en conjunto es menos sensible a la luz y no tiene alta calidad de imagen (Figura 4).

Luz (Fotones)

Luz (Fotones)

Electrones

Salida Digital

Figura 3 Sensor tipo CCD

Figura 4 Sensor tipo cmos

Un detalle interesante es que debido a su alta calidad, sensibilidad a la luz y temprano desarrollo, este tipo de sensores o detectores son los que usan la mayoría de los telescopios profesionales en el mundo. Por ejemplo, el Hubble Space Telescope cuenta con 8 de estos detectores que permiten tener impresionantes imágenes del espacio y con muy bajos niveles de ruido. Los sensores tipo cmos (por sus siglas en inglés: Semiconductor de Óxido de Metal Complementario) se desarrollaron después y principalmente habían sido utilizados para las cámaras web, pero su bajo costo y velocidad en la lectura de datos hizo que la industria se interesara más en ellos y siguiera su desarrollo. Estos sensores, a diferencia de los

En la actualidad tratar de comparar ambos tipos de sensores es un poco complicado, sería como comparar peras con manzanas, ya que ambos pueden ser igualmente buenos dependiendo de tus gustos y necesidades. Si prefieres la fotografía nocturna, quizá la sensibilidad de un ccd te convenga un poco más, pero si eres fotógrafo de deportes, la velocidad de lectura que te ofrece un cmos sería preferible. Así que ya sabes, cuando vayas a comprar una cámara digital, fíjate en que su sensor sea el más adecuado para ti y tus necesidades

Nahiely Flores Fajardo. Posición Posdoctoral, Centro de Radioastronomía y Astrofísica, unam-Morelia.

31


Replicación de los virus:

inyección mortal Rubén Rodrigo López Salazar y Luis Olivares Quiroz

El estudio de los virus y los diferentes mecanismos que utilizan para su replicación se han convertido en los últimos años en una de las áreas más novedosas de las ciencias biomédicas. En este artículo, mostraremos que la Física nos permite bosquejar los rasgos fundamentales de este proceso y obtener algunas conclusiones generales.

divulgación

Los virus, máquinas diminutas de alta sofisticación

La existencia de los virus comenzó a ser documentada hace apenas algunas décadas. Los primeros trabajos reportados datan de 1935 y se refieren a las investigaciones de Wendell Stanley sobre el virus que infecta a la planta del tabaco, conocido actualmente como Virus del Mosaico del Tabaco (tmv, por sus siglas en inglés), debido al patrón característico de moteado que adquieren las plantas al ser infectadas por éste.

Figura 1 (a)

Imagen microscópica electrónica del virus tmv en la que se muestra su geometría básica en forma de cilindro. Como referencia, en un milímetro caben aproximadamente 3,333 copias del tmv.

Figura 1 (b)

Patrón moteado característico en plantas debido a la infección por virus del mosaico del tabaco.

Las investigaciones de Stanley publicadas en 1946, que le otorgarían el Premio Nobel de Química en ese mismo año, permitieron descartar la idea prevaleciente en aquella época acerca de que los virus eran versiones simplificadas de 32

microbios. En la actualidad sabemos, que los virus son ensamblajes complejos de proteínas incapaces de replicarse por sí mismos. Sin embargo, poseen los mecanismos necesarios para introducir su material genético, cadenas de adn o arn, en el interior de otras células, forzándolas a generar nuevas copias del virus para su posterior propagación. Los virus son estructuras altamente dinámicas en el sentido evolutivo. En cada proceso de replicación se estima que el 30% del genoma viral permanece invariable en tanto que el 70% restante cambia y se modifica. Mientras que la especie humana ha necesitado aproximadamente 8 millones de años para alcanzar una diferencia de genoma del 2% respecto al de los chimpancés. El polio-virus, por ejemplo, genera un cambio equivalente en sólo cinco días. Para adaptarse a esta rápida evolución y evitar ser invadidas por ciertos virus, algunas células modifican las proteínas en sus membranas exteriores como un mecanismo de protección. Sin embargo, generalmente los virus lo hacen mucho más rápido, colocándose un paso adelante en el juego de la evolución. En este sentido, la medicina ejerce también una presión evolutiva sobre estos sistemas. Al generar compuestos bioquímicos diseñados para inhibir su replicación, los virus responden modificando su estructura a fin de adaptarse a los cambios y eludir los mecanismos de defensa de las células infectadas. Un ejemplo reciente de esto sucedió con la epidemia del virus h1n1 de la influenza que se propagó en la Ciudad de México y otras capitales del mundo con aglomeraciones importantes y tránsito de

personas. En estos ambientes, las tácticas de contención de la propagación viral son generalmente superadas ampliamente por los mecanismos de adaptación viral. Buscando a su presa. Electricidad básica

Como decíamos, los virus son estructuras complejas formadas por decenas, cientos y hasta miles de proteínas ensambladas entre sí, en ocasiones con una forma geométrica compacta y regular. En términos generales, un virus está formado por una molécula de ácido nucleico viral, compuesta de adn o arn que contiene la información necesaria para su replicación. Este genoma se halla empacado en una cubierta protectora conocida como cápside, constituida por proteínas distribuidas en unidades estructurales llamadas protómeros. En ocasiones, los virus poseen una estructura protectora adicional llamada capa lipídica, junto a la cual existen algunas proteínas necesarias para que el virus detecte a su huésped y permite su ensamblaje a otras moléculas, Desde el punto de vista de la Física es particularmente interesante el proceso mediante el cual el virus inyecta su material genético a la célula huésped, a fin de inducir un proceso de replicación de su propio material genético, y así poder multiplicarse. Este proceso es complejo, dependiente del tipo de cadena de ácidos nucleicos, arn o adn, del virus; de si la cadena es una simple o doble hélice y de las características de la membrana celular del huésped. A c é r c at e 02 Oto ñ o 2011


Microfotografía de una cadena de ADN A c é r c at e 0 2 Oto ñ o 2011

33


especialmente las que se encuentran en la membrana celular de las células a infectar. PROTEÍNA

CAPA LIPÍDICA

CÁPSIDE

GENOMA Figura 2 Estructura general de un virus. En el centro se encuentra una molécula de adn o arn que contiene la información necesaria para la replicación del virus. Posteriormente hacia el exterior se encuentra la cápside y la capa lipídica, estructuras que protegen al núcleo y permiten al virus ensamblarse a otras estructuras.

En una primera etapa del proceso de infección viral ocurre lo que se conoce como fijación. En esta etapa, las moléculas y átomos en la superficie del virus reconocen moléculas específicas en la superficie de las células a infectar induciéndose un acoplamiento. Este acoplamiento puede ejemplificarse por el mecanismo de llave-cerradura. Sólo existe una llave específica que se acopla y abre una cerradura particular. Las proteínas en la superficie de los virus representan a la “llave” que abrirá el interior celular. En términos físicos, lo que ocurre está íntimamente ligado a las características electrostáticas de las moléculas en la superficie de los virus y las membranas celulares. Si existe afinidad electrostática entre estos tipos de moléculas, la llave abrirá la cerradura, dando paso a la inyección del material genético del virus. Inyección mortal, resortes y Física

Dentro de la cápside, el genoma viral se halla empaquetado de forma que pueda caber en un espacio muy pequeño. Imaginemos, por ejemplo, un resorte que sin estirar ni comprimir mide aproximadamente un metro y quisiéramos encerrarlo dentro de un espacio reducido, digamos de un centímetro de longitud. Para lograr esto, tendríamos que invertir energía, evidentemente. Cuánta energía se requiere, depende de varias cosas. Por mencionar algunas, del grado de “dureza” o “suavidad” del resorte y obviamente del espacio en el cual queremos comprimirlo. Una vez realizado este proceso, la energía invertida se almacenará como energía elástica dentro 34

del resorte y podremos recuperarla si permitimos que el resorte alcance su longitud inicial. Por ejemplo, podríamos abrir bruscamente el contenedor, recuperando prácticamente en forma instantánea toda la energía potencial almacenada con la expulsión del resorte hacia al exterior. Algo similar ocurre en el proceso de inyección del genoma viral en la membrana celular. La cadena de adn o arn confinada dentro de la cápside puede considerarse similar en cierto sentido a un resorte comprimido dentro de un recipiente esférico. Estudios recientes, indican que para el caso del virus bacteriófago Ø29 (Figura 3), las presiones dentro de la cápside a las cuales se encuentra empaquetado el genoma son de alrededor de 60 atmósferas, aproximadamente del mismo orden de magnitud que la presión atmosférica en la superficie de Venus que es de 90 atmósferas o bien el equivalente a estar sumergido a unos 600 metros de profundidad bajo la superficie del mar.

Figura 3 Estructura del virus bacteriófago ø29 obtenida mediante el programa de visualización RasMol ©. Su adn es de aproximadamente 19.3 kilobases y de acuerdo con mediciones experimentales recientes, se halla confinado a una presión de cercana a 60 atmósferas.

El proceso de empaquetamiento del genoma del virus dentro de la cápside es aún más interesante que las presiones soportadas por la misma. En la actualidad se sabe que, como parte de la estructura del virus, existe un motor biológico que comprime el genoma dentro de la cápside. El trabajo hecho por este motor ha sido medido de manera experimental recientemente en el Instituto de Medicina Howard Hughes a través de un método conocido como optical twezeers (pinzas ópticas). En este método, se une parte del genoma a un resorte, el cual está acoplado a un medidor de fuerzas, en forma similar a lo que ocurre cuando colocamos una pesa colgando de una liga. Al ser jalado por el motor del fago Ø29, se registra la fuerza ejercida. Hasta hace unos años, un experimento de este tipo parecería de ciencia ficción. Hoy es perfectamente posible.

Utilizando esta información, datos sobre la longitud del genoma y un modelo simple para la física de un resorte elástico, es posible estimar la energía requerida para empaquetar al genoma y la energía liberada en el proceso de inyección del genoma viral. La energía estimada en este caso es de E=1×10-18 Joules por cada molécula de genoma viral. Es decir, del orden de E~6×105 Joules /mol, lo cual no es una cantidad de energía despreciable tomando en cuenta que el tamaño del motor molecular es aproximadamente de 54 nanómetros. El motor molecular del fago Ø29 realiza un trabajo sobresaliente indudablemente. En términos de caballos de fuerza (Horse Power, hp), la potencia desarrollada por el motor del fago Ø29 es del orden de 440 hp, que es notable en comparación con los 22 hp del motor de un Volkswagen modelo 1934 y los 626 hp del motor del Mercedes Benz slr McLaren 2009. La naturaleza, como siempre, nos sorprende con su alta sofisticación e ingenio. Los resultados anteriores están basados en modelos físicos simples e ignoran, ciertamente, muchos de los detalles que hacen a los procesos biológicos extremadamente complejos e interesantes. Sin embargo, esperamos que el presente texto contribuya a mostrar que la Física tiene mucho qué decir con respecto a la dinámica y conformación no sólo de los virus, sino de muchos otros sistemas biológicos Rubén Rodrigo López Salazar. Estudiante de Maestría en Ingeniería del itesm, Campus Monterrey. Luis Olivares Quiroz. Profesor investigador de la Academia de Física, uacm.

Referencias •

Alberts, B. y Johnson, A. (2004). Biología Molecular de la Célula (4ª ed.). Barcelona: Ediciones Omega.

Carter, J. y Venetia, S. (2007). Virology. Principles and Applications . UK: John Wiley and Sons Ltd.

Gelbart, W. M., y Knobler, C. M. (2008). The physics of phages. Physics Today, 42-47.

Smith, D. E., Tans, S. J., Smith, S. B., Grimes, S., Anderson, D. L., y Bustamante, C. (2001, 18 de octubre). The Bacteriophage phi 29 portal motor can package DNA against a large internal force. Nature 413.

Wendell, S. (1935). Crystallization of Tobacco Mosaic Virus. Science, 81.

Wendell, S. (2011, 20 de junio). The isolation and Properties of Tobacco Mosaic Virus. Consultada el 12 de octubre de 2011, www. nobelprize.org

A c é r c at e 02 Oto ñ o 2011


A c é r c at e 0 2 Oto ñ o 2011

35


El mide más que un museo de push-button Sandra Martínez Díaz

Nace como una propuesta que va más allá de la interacción mediada por tecnología, el Museo Interactivo de Economía (mide) ofrece una visión de la Economía al alcance de todos.

TiempoFUera

C

uando hablamos de museos interactivos, probablemente lo que se nos viene a la cabeza es el uso de tecnología en la narrativa de un museo. Pero interactividad va más allá del push-button1. Como menciona Wagensberg: “Interactividad significa conversación. Experimentar es conversar con la naturaleza. Reflexionar es conversar con uno mismo”.2Un buen museo dispara también la conversación entre los visitantes. Desde el 2006, México cuenta con el Museo Interactivo De Economía (mide), el cual tiene como principal objetivo divulgar ciencia económica y promocionar la educación financiera en el país, por medio de diversas modalidades de apropiación del patrimonio. Cobijado por lo que fuera la sede del Antiguo Convento de Betlemitas, 4 uno de los edificios coloniales del siglo XVIII más bellos de la Ciudad de México, el mide ofrece experiencias interactivas novedosas a través de sorprendentes equipamientos electrónicos, como el “Simulador de mercado”, espacio dedicado a mostrar a los visitantes, mediante una dinámica grupal, que el sistema de mercado se basa en la libre interacción de la oferta (vendedores) y la demanda (compradores) y cómo éstas determinan los precios de los bienes y servicios. En este recinto, la belleza arquitectónica colonial convive con diversos elementos tecnológicos que hacen de nuestra visita un deleite. El Museo consta de tres niveles, organizados a su vez en ejes temá­ticos que van desde la escasez como proble­­ma económico, hasta el modo en que los países se ponen de acuerdo para determinar el Índice de Desarrollo Humano (idh).4 Así mismo cuenta con un anexo donde puede admirarse una parte de la colección numismática del Banco de 36

México, además de que pueden fabricarse billetes y tarjetas de crédito personalizadas en módulos especiales. En el mide, la tecnología se utiliza como una herramienta esencial de comunicación, a través de la cual se desarrolla la interactividad manual, real y virtual; la cual recrea espacios, que conducen al visitante a crear su propio conocimiento, mientras se divierte, aprende, reflexiona e interactúa con el entorno. A cinco años de su inauguración, el mide ha sido galardonado con cinco de los premios más importantes en el ámbito museístico. El mide también cuenta con un Foro Educativo, que tiene como objetivo fomentar el entendimiento de los fenómenos económicos y su relación con la vida cotidiana por medio de diplomados, cursos-talleres, conferencias, congresos y, mesas redondas, entre otras actividades. Además tiene un Centro de Investigación con un acervo bibliográfico de consulta sobre temas básicos y de actualidad en torno a economía y los museos. Asimismo, desarrolla un proyecto de gestión cultural, donde organizan actividades para divulgar la función social que desempeñan los museos, el patrimonio que resguardan y su importancia como espacios de conocimiento cultural nacional y extranjero. Por esto el mide, como muchos otros museos interactivos de ciencia, es un claro ejemplo de un espacio cuyo propósito va más allá de la exhibición de objetos, acervos, colecciones o experimentos de forma accesible y amena. Para esto, emplean recursos fundamentales como exposiciones temporales, visitas guiadas a las colecciones, talleres y materiales didácticos, seminarios, conferencias, entre otros. Por otro lado,

con el propósito de evitar que algunos visitantes tomen notas en lugar de experimentar los conceptos económicos, el mide deja atrás el copiado de cédulas y a cambio, ofrece el “mide para llevar”: un sistema electrónico instalado en la mayoría de las exhibiciones, donde el visitante tiene la opción de enviar la información de cada estación directamente a su correo electrónico. Así nos revelan que pueden ir más allá del viejo gabinete de curiosidades con objetos inertes, y que existen para el público, por el cual están dispuestos a diversificar la oferta de servicios. Un espacio donde conviven de manera armónica la comunicación, la divulgación de la ciencia, la educación y el uso de la tecnología. Hoy en día, el mide es el único museo de Economía del mundo. Una de las múltiples lecturas posibles de la ciencia económica; donde se ofrece una experiencia de inmersión y el usuario tiene la posibilidad de redefinir la exhibición, a través de sus equipamientos de “final abierto”, es decir, que incitan a la participación creativa del visitante, al proporcionarle una experiencia definida por él mismo, elegida entre varias opciones; que no busca simplemente divertir sino ofrecer herramientas que incitan a la búsqueda de posibles soluciones a problemas del mundo 1 El visitante activa muchos de los aparatos y máquinas presentados oprimiendo un botón. 2 Wagensberg, Jorge. Principios fundamentales de museología científica moderna. B.M.M. Número 55. Abril-junio 2011. 3 Los betlemitas son una orden religiosa fundada en Guatemala por San Pedro de San José de Betancur. Llegaron a la Ciudad de México en 1674, y un año más tarde instalaron su primera capilla y un pequeño hospital. 4 El Índice de Desarrollo Humano (idh) resume las mediciones de los avances medios logrados por un país en tres aspectos básicos del desarrollo humano: salud, conocia.

Sandra Maerínez Díaz. Colaboradora en Subdirección de Comunicación Educativa del inah en la Coordinación Nacional de Museos y Exposiciones. A c é r c at e 02 Oto ñ o 2011


Disfruta el mide Te invito a disfrutar del mide, abierto de martes a domingo de 10:00 a 18:00 horas en la calle de Tacuba No. 17, Col. Centro Hist贸rico. Si requieres mayor informaci贸n consulta: http://www.mide.org.mx/

Referencias 1. http://www.bcn.es/publicacions/bmm/quadern_ central/bmm55/5.Wagensberg.pdf 2. http://hdr.undp.org/es/estadisticas/idh/ 3. http://www.mide.org.mx/

A c 茅 r c at e 0 2 Oto 帽 o 2011

37


Un truco mAtemÁtico ¿Qué misterios encierran los números 21, 11, 3 y 7? Gabriela Bayona Trejo

t-Reto

19

21

20 16

18

17 13

15

14 10

11

12

9

8

7

6

5

4

1

2

Montón 1

Montón 2

3

Montón 3

Figura 1. Ordenamiento de las cartas. El número indica el orden en que se deben colocar boca arriba.

Repite este procedimiento dos veces más. Después de juntar los montones por tercera ocasión, deja el mazo de las 21 cartas boca abajo sobre la mesa. Sin voltearlas, finge que ahora con tus poderes mágicos vas a adivinar cuál carta es la suya, espárcelas sobre la mesa contando mentalmente para que puedas recordar dónde queda la número 11. 38

1

S

i quieres sorprender a tus amigos con tus poderes mágicos, te recomiendo el siguiente truco de cartas. Consigue una baraja del tipo que quieras y escoge 21 cartas. Devuelve el resto del mazo a su cajita para que no se confunda con tu montón. Ahora pídele a un amigo que escoja una carta de las 21 sin que tú veas, que la memorice y la devuelva al mazo en el lugar que quiera… ¡Es más, pídele que baraje (revuelva) las cartas! Cuando te las devuelva, forma tres montones de 7 cartas, repartiéndolas boca arriba, una por una (Figura 1). Cuando termines, pregúntale a tu amigo en cuál montón está su carta. Una vez que sepas en qué montón quedó, junta los tres sin barajarlos y dejando el montón señalado por tu amigo siempre en medio.

Figura 2. Esparcimiento de las cartas.

Cuando estén todas esparcidas, pasa la mano como “sintiendo” cuál es y voltea boca arriba la carta número 11. Ésa es la carta de tu amigo. ¿Por qué sucede esto? Bueno, se trata de un truco matemático. Los números involucrados son 3, 7 y 21. Como te puedes dar cuenta, son tres números nones y 21 es el resultado de 3 x 7. No importa en qué lugar haya quedado la carta, después de la primera selección de montones, al juntarlas, la carta de tu amigo quedará entre las 7 cartas centrales. Luego de la siguiente repartición, la carta elegida está en alguna de dos de las cartas del montón uno o tres o en alguna de tres de las cartas del montón del centro, ¿por qué? Si la carta de tu amigo está en el primer montón, ¿cuántas cartas tiene antes y después de las dos posibles?, ¿cuántas si estuvo en el segundo montón?, ¿cuántas si estuvo en el tercero? Al hacer la última repartición y juntarlas puedes deducir que la carta de tu amigo es justo la número 11, ¿por qué? ¿Cómo sería el truco si en lugar de 21 cartas tomaras 39? ¿Cuántas veces tendrías que hacer que tu amigo seleccionara los montones? ¿En qué lugar quedaría su carta? ¿Cuántas cartas y cuántas repeticiones necesitarías si quisieras hacer 5 montones? Si conoces algún otro truco matemático, te invitamos a compartirlo con los lectores de aCércate. Gabriela Bayona Trejo. Profesora investigadora de la Academia de Expresión Oral y Escrita, UACM. A c é r c at e 02 Oto ñ o 2011


Soluciones a T-Reto De aCércate 01 Rosa Margarita Álvarez González

t-Reto A continuación te presentamos las soluciones a T-RETO

Un hombre entró a una tienda y le dijo al cajero: dame una cantidad de dinero igual a la que yo traigo y te dejo 10 pesos en tu caja. Después de obtener lo que pidió entró en una segunda tienda y le dijo al cajero: dame una cantidad de dinero igual a la que yo traigo y te dejo 10 pesos en tu caja. Finalmente entró a una tercera tienda y le dijo lo mismo al cajero, quedándose sin dinero en la bolsa. ¿Qué cantidad de dinero llevaba el señor en su bolsa cuando entró en la primera tienda? El señor llevaba 8.75 pesos. A c é r c at e 0 2 Oto ñ o 2011

María le preguntó a su tío en qué año había nacido, y su tío le respondió lo siguiente: “El número del año de mi nacimiento es muy especial, si lo escribo en una hoja de papel se ve igual que si volteo la hoja de cabeza”. ¿En qué año nació?

Un coche sale de la Ciudad de México hacia la Ciudad de Querétaro a una velocidad de 80 km/h. Al mismo tiempo otro coche sale de Querétaro hacia México a 120 km/h. ¿En el momento en que los dos coches se encuentran en la carretera, cuál está más cerca de la Ciudad de México?

En el año 1961 si es del siglo xx o bien, en el año 1111 o 1881.

Los dos están a la misma distancia de la Ciudad de México.

Rosa Margarita Álvarez González. Profesora investigadora de la Academia de Matemáticas, uacm.

39



L a b o r a t o r i o

d e

c o m u n i c a c i ó n

g r á f i c a

E x p e r i m e n tac i ó n ,

c r e at i v i d a d,

e x t e n s i ó n

u n i v e r s i ta r i a

La revista aCércate es diseñada por el lab. Haz tu servicio social, tus prácticas profesionales o tu proyecto de titulación con nosotros. Aula Polivalente C406 SLT-UACM / Tel. 58-50-19-01 ext. 13162 / lcg.uacm@gmail.com

40

A c é r c at e 02 Oto ñ o 2011



Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.