Page 1


Contenido

Pág. 1

Pág. 3

Artículos y reportajes

¿Y usted qué opina?

Estabilidad y dinamismo

Descubrimiento de nuevos planetas, una tarea apasionante

Pág. 4 Nuestra ciencia

Ulises López González

Pág. 5

Pág. 7

Artículos y reportajes

Biografía

Alexander Fleming

El procesamiento digital de imágenes

Flora de Zacatecas Encino gris

Fauna de Zacatecas Halcón peregrino

Componentes de la electrónica digital moderna

Pág. 11

Lo que puede la ciencia Los antivacunas siguen causando daños

La ciencia avanza en la lucha contra el cáncer

Pág. 12

Ciencia y técnica del siglo XXI

¿Resolverá el grafeno la escasez de agua potable en nuestro planeta?

¿Está en los neutrinos el secreto del predominio de la materia sobre la antimateria en el universo?


Apreciables lectoras(es), Ante los nuevos descubrimientos de planetas en estrellas no tan lejanas surgen posibilidades de escenarios para el futuro de la humanidad, por un lado resta averiguar si hay alguna forma de vida en estos planetas, tal y como la conocemos en la Tierra, o alguna forma distinta de organismos, por otro lado, si existe la posibilidad de que estos u otros espacios sean habitables por los seres humanos. Hace algunos años parecería ciencia ficción, sin embargo, aquí mismo en nuestro planeta ahora podemos construir robots y generar sistemas de inteligencia artificial que utilizan cantidades enormes de información con técnicas de Big Data, y que realizan actividades que antes eran propias de los humanos, con una precisión y efectividad asombrosas. Ya no es solo el hecho de la automatización y la robótica, ahora tenemos robots computarizados y con la utilización de inteligencia artificial que están sustituyendo las labores de seres humanos en actividades como la medicina, la industria, las finanzas, el comercio, la investigación científica e incluso para el entretenimiento.

Alejandro Tello Cristerna Agustín Enciso Muñoz

Ariel David Santana Gil Diana Arauz Mercado Manuel Hernández Calviño Iván Moreno Hernández María José Sánchez Usón Héctor René Vega Carrillo Nidia Lizeth Mejía Zavala Juan Francisco Orozco Ortega Francisco Javier Anaya García Jesús Antonio Astorga Moreno Agustín Enciso Muñoz Miguel Ángel García Aspeitia Manuel Hernández Calviño Daniel Hernández Ramírez Nidia Lizeth Mejía Zavala Huberto Meléndez Martínez Medel José Pérez Quintana José Ibrahim Villanueva Gutiérrez

Revista eek´(ISSN:2007-4565) Abril Mayo 2017 es una publicación bimestral editada por el Consejo Zacatecano de Ciencia, Tecnología e Innovación (COZCyT). Av. de la Juventud No. 504, Col. Barros Sierra, C.P. 98090, Zacatecas, Zac. México. Tel. (492) 921 2816, www.cozcy t.gob.mx,eek@cozcy t. gob.mx. Editor responsable: Agustín Enciso Muñoz Reservas de Derechos al Uso Exclusivo No. 04-2012-021711542800-102, otorgados por el Instituto Nacional de Derechos de Autor, Licitud de Título y Contenido No. 15706 otorgado por la Comisión Calificadora de Publicaciones y Revistas Ilustradas de la Secretaría de Gobernación. Impresa por la Editorial Martinica S.A. de C.V. Blvd. Calzada de los Héroes 708, Col. La Martinica, León, Gto., C.P. 37500. Este número se terminó de imprimir el 20 de abril de 2017 con un tiraje de 6000 ejemplares. Las opiniones expresadas por los autores no necesariamente reflejan la postura del editor de la publicación. Se autoriza la reproducción total o parcial de los contenidos e imágenes, siempre y cuando se cite la fuente y no sea con fines de lucro.

Vol. 6 No. 2

Nos estamos acercando a una convergencia tecnológica en la que los humanos comenzaremos a convivir con robots y que tendrá fuertes consecuencias laborales, educativas y de relaciones entre nosotros. Es por eso fundamental la preparación de las nuevas generaciones con una actitud muy flexible y preparada para los escenarios complejos y de incertidumbre, cosa que aún no lo hacemos en todas nuestras escuelas. El nuevo Modelo Educativo es una buena oportunidad para lograr ese camino, nos apremia su implementación, pero sobre todo un cambio de actitud en nosotros para el mundo actual. Esperamos que la lectura de nuestra revista les resulte de agrado y les ayude en el camino que día a día estamos transformando.

Agustín Enciso Muñoz Director General del COZCyT Zacatecas, Zac


Descubrimiento de nuevos planetas,

una tarea apasionante

Jesús Antonio Astorga Moreno astorgajesus333@gmail.com Miguel Ángel García Aspeitia aspeitia@fisica.uaz.edu.mx

artículos y reportajes

L

1

a Astronomía nació casi al mismo tiempo que la humanidad, cuando los hombres primitivos se maravillaron con el espectáculo que ofrecía el firmamento y los fenómenos que allí se presentaban. Ante la imposibilidad de encontrarles una explicación, éstos se asociaron con la magia, buscando en el cielo la razón y la causa de los fenómenos sucedidos en la Tierra. Esto, junto con la superstición y el poder que daba el saber leer los destinos en las estrellas, dominaron las creencias humanas por muchos siglos. No fue hasta después de varios años de observación que se sentaron las bases científicas de esta área con explicaciones cada vez más específicas sobre el universo. Uno de los entes más estudiados, por su importancia, son las estrellas, las cuales hoy sabemos que se clasifican en función de la temperatura de su superficie y ésta determina el espectro de la luz que emiten. Las estrellas más calientes son las azules, con una temperatura superficial mayor de 20,000 ºC. Nuestro Sol, es una estrella amarilla con una temperatura superficial de unos 5,500 ºC, y todos sabemos la importancia de esta estrella para el bienestar de todos nosotros. Las enanas ultrafrías o enanas rojas y enanas marrones, son estrellas con temperaturas superficiales por debajo de los 3,000 ºC (2,700 K). Cabe notar que para buscar exoplanetas, los cuales son planetas situados fuera del Sistema Solar y que orbitan alrededor de una estrella que no es el Sol, estas estrellas enanas son el mejor lugar por el cual empezar. Esta

búsqueda viene ligada con una pregunta, la cual tiene un tinte filosófico y para algunos, inclusive esotérico: ¿podrá existir vida en otra parte? o ¿estamos solos en el universo? Esta es una de las cuestiones que ha inquietado a los hombres desde el momento en que se percataron que la bóveda celeste no estaba regida por el capricho de los dioses. Con el advenimiento de las primeras civilizaciones, se pudo identificar a los primeros astros y se inició el lento pero inexorable camino hacia el entendimiento de los fenómenos celestes que permitirían dar una posible respuesta, en el ámbito formal o científico, a estas preguntas. Con el avance de las civilizaciones viene el desarrollo tecnológico, que evidentemente impactó en la Astronomía con la utilización de aparatos que permiten cada vez mejores observaciones de nuestro cielo e incluso, observar regiones del cielo a distancias que en un principio jamás nos hubiéramos imaginado posible. Así, para la pregunta que parecía tener una respuesta difícil o nula ahora podemos conocer si es una realidad o queda en la ciencia ficción, gracias a la ayuda de los telescopios que se han podido desarrollar. El descubrimiento de exotierras ha sido uno de los objetivos más importantes de la astronomía moderna. Es decir, encontrar un planeta similar a la Tierra, en cuanto a dimensiones y masa, situado en la zona habitable de su estrella que significa que la temperatura superficial de dichos planetas alcanza valores que les permiten retener agua líquida en su


superficie. Hace tan solo unos años lo anterior parecía un sueño y todavía era inpensable encontrar un sistema con más de un planeta potencialmente habitable. Aunque ya teníamos conocimiento de algunos, por primera vez se han encontrado exotierras en una enana ultrafría, todo un cambio de paradigma con respecto a qué camino seguir en nuestra búsqueda de planetas y de vida en el universo. Las características de esta estrella son que tiene una masa de tan sólo el 8 % de la masa solar, un tamaño apenas mayor que el del planeta Júpiter y una temperatura superficial de unos 2,800 ºC. Este nuevo sistema planetario, en un principio, se pensaba compuesto de tres planetas, pero recientemente se ha descubierto que son siete [1, 2]. Es más parecido, en escala, al sistema de lunas de Júpiter que al del Sistema Solar (Figura 1). Los exoplanetas son similares a la Tierra en tamaño, pero no sabemos aún si tienen una atmósfera que permita la existencia de agua líquida en su superficie, lo cual se está estudiando por los astrónomos en la búsqueda de posibilidad de señales de vida. La estrella se ha rebautizado como TRAPPIST-1a (antes era 2MASS J230629280502285), porque los tres nuevos exoplanetas se han descubierto gracias el telescopio robótico belga TRAPPIST (siglas en inglés de Pequeño Telescopio para el Tránsito de Planetas y Planetesimales, o TRAnsiting Planets and PlanetesImals Small Telescope). Este telescopio

está ubicado en el Observatorio La Silla en Chile, una de las tres instalaciones astronómicas que opera el Observatorio Europeo Austral (ESO) en ese país. Aún con lo fascinante de la coincidencia de tamaño de los siete planetas con el nuestro (algunos incluso más pequeños que la Tierra) y que varios se encuentran en la zona habitable, todos ellos se hallan a poca distancia de la estrella. Esto lo hace un sistema múltiple y compacto, lo que permite aplicar la técnica TTV (Transit Timing Variations) para calcular las masas de los planetas, y podemos decir que somos afortunados porque normalmente el método del tránsito sólo nos da información sobre el tamaño, pero no de su masa. De esta manera, conociendo las dimensiones y su masa, somos capaces de estimar la densidad de los planetas y por lo tanto llegar a alguna conclusión sobre sus propiedades; esto nos puede dar indicios de cuán habitables podrían llegar a ser. Pero ahondemos más en la pregunta ¿cómo podemos descubrir estos exoplanetas que se encuentran a cientos de años luz de nosotros? En efecto, los planetas no tienen una emisión de luz de la misma manera que lo hace su estrella anfitriona. De hecho, observar un planeta sería el equivalente a observar un grano de arroz en un foco de 10,000 watts a una distancia de casi 100 m, lo que parecería una tarea titánica. Sin embargo, la tecnología ha avanzado tanto que actualmente somos capaces de observar

Sin lugar a dudas la búsqueda de exoplanetas es una tarea titánica pero apasionante. Al final, quién sabe si conseguiremos encontrar posibles nuevos hogares aparte de nuestro planeta, e incluso, nos podría llevar a la sorprendente revelación de que no somos las únicas entidades vivientes en el universo. Referencias [1] Gillon, M., Jehin, E., Lederer, S. M., Delrez, L., de Wit, J., Burdanov, A., ... & Demory, B. O. (2016). Temperate Earth-sized planets transiting a nearby ultracool dwarf star. Nature, 533(7602), 221-224. [2] Gillon, M., Triaud, A. H., Demory, B. O., Jehin, E., Agol, E., Deck, K. M., ... & Bolmont, E. (2017). Seven temperate terrestrial planets around the nearby ultracool dwarf star TRAPPIST-1. Nature, 542(7642), 456-460.

artículos y reportajes

Figura 1.- Sistema TRAPPIST-1.

las diferencias en la luminosidad de la estrella, cuando un planeta se interpone entre el campo de visión de la estrella y el nuestro. Entonces, si conocemos características propias de la estrella tales como su luminosidad, podemos inferir propiedades del planeta al momento del tránsito incluso detectar el tirón gravitacional del planeta a su estrella. Es decir, no solamente la estrella tira del planeta, sino que, además, el planeta tira de la estrella debido a su campo gravitacional. Con ayuda de las Leyes de Newton y los datos recopilados de dicho tirón gravitacional, podemos obtener características como su masa, tamaño, composición y distancia a la estrella, las cuales son de vital importancia para poderlo considerar como potencial nueva exotierra, con las características esenciales de mantener agua en estado líquido e incluso capaz de sostener vida.

2


¿y usted qué opina?

Estabilidad y dinamismo D

esde la época estudiantil aquel joven profesor adquirió convicciones sobre el ejercicio de la profesión. La primera se relaciona con el arraigo que deben tener los maestros en las escuelas y, particularmente, en las comunidades rurales. Durante décadas, la población ha esperado con estoicismo la llegada de docentes comprometidos, responsables, trabajadores, innovadores y solidarios con las necesidades de desarrollo social, educativo y cultural. Cuando se trasladaba a su primera escuela, vivió una situación desalentadora, pero la utilizó para refrendar su compromiso. Durante las cuatro horas del trayecto en ferrocarril, se enteró del viaje de otros cuarenta colegas que trabajarían en la misma demarcación geográfica que él. Al principio, le animó saber de la presencia de tantos docentes nuevos y entusiastas. Le conmovió ver que en el primer tren de regreso, retornaron una veintena de esos colegas, quejándose de la precariedad de la región; debido a la falta de vías y medios de comunicación, la carencia de agua potable y energía eléctrica, el atraso cultural y la falta de espacios de esparcimiento. Como el supervisor tardaría varios días en llegar, el número de profesores fue disminuyendo. Esta situación deprimente refrendó su determinación. Decidió hacer su aportación educativa, convencido de que ello produciría elementos positivos que contribuirían a mejorar el entramado social de la escuela y su comunidad. Es posible que el actuar de algunos de los docentes que retornaron refleje un vacío en su preparación profesional, relacionada con los propósitos filosóficos de su importante labor. Al final, solamente permanecieron cinco; quizá porque eran originarios de esa región. ¿Por qué sigue existiendo ese impulso de huir de las comunidades más vulnerables si ahí apremia la intervención docente?

¿Y usted qué opina?

Aquel joven profesor decidió permanecer de tres a cinco años en cada centro de trabajo porque consideraba que sería el tiempo adecuado para realizar un buen des-

3

Huberto Meléndez Martínez huberto3@gmail.com

empeño. En menos de tres años no logra consolidarse alguna propuesta o proyecto. En más de cinco, usualmente, las ideas se van reciclando. Aparece la rutina y el desaliento, acompañados de indolencia. Lograr el equilibrio y la armonía en las relaciones de trabajo, se convierte en un problema cuando intervienen las personas que permanecen demasiado tiempo en un mismo lugar. Los docentes que laboran más de cinco años en el mismo sitio, deberían hacer un ejercicio de reflexión profunda, para valorar conscientemente la situación. ¿Qué motivaciones puede encontrar alguien que se eterniza en una sola comunidad o una sola escuela? Hay quienes se enorgullecen de permanecer décadas enteras en una misma función o una misma comunidad educativa. Eventualmente, puede ser una buena experiencia, quizá ayude a consolidar ideales, pero en la generalidad puede ser desafortunado porque involuntariamente puede conducir a estancamiento y formas anquilosadas de actuar. Opino que un hecho ilustrativo, en referencia a la inevitable caída en la rutina, es el aparente sentido de pertenencia. Por ejemplo, se empieza a hablar en singular cuando hacerlo en plural es una forma incluyente de vivir. A veces, se abusa del lenguaje diciendo… mi comunidad, mi escuela, mi salón de clases, mi oficina, mis alumnos, mis padres de familia, etc. Quizá la búsqueda del confort en la vida del ser humano, anhelando la estabilidad, sea legítima. Pero quienes aspiran a un aprendizaje y vigencia permanente, deben explorar nuevos proyectos e ir en busca de nuevos desafíos. Por ello, deben ser bienvenidas las reformas educativas porque activan, mueven, oxigenan y reconceptualizan. El estudio de la naturaleza nos muestra que la movilidad y las transformaciones están presentes hasta en las más pequeñas partículas constituyentes de la materia. Esto conduce a los maravillosos cambios biológicos que las células producen en los seres vivos y al movimiento y transformaciones que experimentan los astros incluida la expansión del universo. En definitiva todo cambia, todo evoluciona.


NUESTRA CIENCIA Nidia Lizeth Mejía Zavala nmejia@cozcyt.gob.mx

Ulises

López González N

ació el 8 de abril de 1987 en la ciudad de Zacatecas. Su curiosidad por saber más acerca de las células y los rayos láser despertaron su interés en la ciencia, en particular en la física y la biología. Después de analizar sus opciones, y dado que la carrera de biología no existía como tal en Zacatecas, Ulises decidió ingresar a la Unidad Académica de Física de la Universidad Autónoma de Zacatecas. Según sus propias palabras, “la decisión más atinada que he hecho”. Su principal motivación fue creer que ahí le ayudarían a responder las preguntas ¿qué?, ¿cómo? y ¿por qué? suceden ciertos fenómenos naturales, y así tener las herramientas necesarias para formular y dar solución a sus propias ideas. Durante sus estudios de licenciatura tuvo la oportunidad de realizar dos estancias de investigación científica: la primera, en el Instituto de Física de la Universidad Autónoma de Guanajuato y la segunda, en la Universidad Jaguelónica de Cracovia, en Polonia. En 2012 ingresó a la Universidad de Lille I, en Francia, donde comenzó sus estudios de maestría en ciencias en espectroscopia avanzada en química. Su preparación en dicha universidad estuvo enfocada en la espectroscopia, tanto de masas como de óptica, así como en la resonancia nuclear magnética y las técnicas de difracción. En 2014, gracias a una beca de movilidad que el gobierno francés le otorgó, se trasladó a la Universidad Jaguelónica para concluir sus estudios.

Actualmente, Ulises se encuentra realizando su doctorado en el Instituto de Tecnología de Dublín, Irlanda. Su trabajo de investigación de tesis doctoral está enfocado al desarrollo de un modelo 3D in vitro de piel para analizar el impacto de la radiación solar a nivel molecular mediante el uso de espectroscopia Raman. Sobre el tema, Ulises nos compartió: “El objetivo del proyecto es entender el proceso y los factores de riesgo asociados al daño ocasionado por la radiación solar, cuya manifestación va desde una simple mancha hasta el desarrollo de tumores o de cáncer de piel. El proyecto se encuentra en la primera etapa de desarrollo. Por el momento, ya pudimos desarrollar los primeros modelos 3D de piel y el siguiente reto es la optimización del sistema Raman para el análisis de las muestras 3D vivas de piel en un ambiente controlado. Los resultados obtenidos tendrán múltiples aplicaciones, ya que conciernen al sector salud, así como a las industrias de cosméticos y de farmacéuticos”. Entre sus planes a futuro están regresar a México y poder trabajar en la UAZ, así como establecer vínculos con instituciones nacionales e internacionales. “Mi interés es construir grupos consolidados en el área de espectroscopia con aplicaciones biológicas, donde el motor sea la comunicación científica, la colaboración y el intercambio de experiencias, que den como resultado tecnologías capaces de resolver problemas biológicos y médicos mediante el uso de espectroscopias vibracionales”, concluyó. Ulises nos muestra que con esfuerzo y dedicación se pueden realizar proyectos importantes en beneficio de la salud. Por ello es un ejemplo e inspiración para los jóvenes.

NUESTRA CIENCIA

Al concluir su maestría, Ulises regresó a la Ciudad de México para participar en el proyecto de investigación Biopsia óptica, desarrollado en el Laboratorio de Imagenología Biomédica, Física y Computacional del Centro de Ciencias Aplicadas y Desarrollo Tecnológico, en colaboración con el Instituto Nacional de Ciencias Médicas y Nutrición Salvador Zubirán. Además, recibió

capacitación en imagen de fluorescencia aplicada a tejidos patológicos, de cáncer y pie diabético, en la Universidad Nacional Autónoma de México.

4


Alexander

Fleming (1881 – 1955)

Francisco Javier Anaya García francisco.anaya@fisica.uaz.edu.mx

L

a ciencia tiene cientos de ramas, y todas ellas han traído incontables aportaciones a la humanidad. Sin embargo, tal vez las ciencias de la salud han brindado los descubrimientos cuyos usos y beneficios son más familiares al público en general. Entre todos estos adelantos, la aparición de la penicilina es uno de los acontecimientos más destacados del siglo XX. Alexander Fleming nació en Lochfield cerca de Darvel en Ayrshire, Escocia, el 6 de Agosto de 1881. Hijo de Hugh Fleming y Grace Stirling Mortonen, Alexander fue el séptimo de ocho hermanos. Su padre falleció cuando tenía sólo 7 años, lo que obligó a los hermanos Fleming a madurar anticipadamente. Su familia era campesina, por lo que la agricultura y la crianza de animales formaban parte de su día a día. Sus primeros estudios los hizo en la escuela de su localida, hasta que al cumplir 13 años se mudó a Londres, donde vivían dos de sus hermanos que se encontraban estudiando medicina. Estuvo trabajando 4 años como administrador en una compañía marítima antes de ingresar a la Facultad de Medicina del St. Mary’s Hospital de la Universidad de Londres. Se graduó con honores como cirujano especializado y en 1906 comenzó con sus investigaciones bajo la tutela de Sir Almroth Wright, quien es considerado uno de los pioneros en la inmunoterapia. Se enlistó en el cuerpo médico del ejército, donde fungió como capitán durante la Primera Guerra Mundial. En el campo de batalla quedó impresionado por la gran cantidad de muertes ocasionadas por infecciones provocadas por las heridas de metralla. Para 1918 regresó a St. Mary’s Hospital, donde trabajó como profesor de bacteriología desde 1928 hasta 1948, año en que se retiró y fue nombrado profesor emérito.

BIOGRAFÍA

Al principio, sus investigaciones estaban enfocadas en la acción bacteriana natural de la sangre, pero al terminar su carrera militar su trabajo comenzó a orientarse al estudio de sustancias antibacterianas que no fueran tóxicas en tejidos animales.

5

En 1921 descubrió un antiséptico que resultaría de vital importancia para la medicina. Se encontraba en su laboratorio cuando accidentalmente estornudó sobre una placa de Petri que contenía un cultivo bacteriano en crecimiento. Días después se dio cuenta de que en el área de la placa en donde había caído el fluido nasal, las bacterias habían sido destruidas. Posteriormente, comprobó que esto se debía a una enzima activa, que era posible encontrar en muchos tejidos y

secreciones corporales. A esta enzima la llamó lisozima, y la trascendencia de su descubrimiento radica en que demostró la existencia de sustancias que, a pesar de ser inofensivas para las células de los organismos, resultan letales para las bacterias. Aún más importante que la lisozima, en 1928 Fleming realizó el descubrimiento más significativo de su carrera científica. En septiembre, se encontraba trabajando en el virus de la influenza, al estudiar las mutaciones de algunas colonias de estafilococos, cuando se dio cuenta de que en uno de los cultivos estaba creciendo un hongo extraño; la muestra había sido contaminada por un microorganismo. Cuidadosamente revisó el comportamiento del cultivo y se percató de que rodeando la zona contaminada por el hongo los estafilococos eran ahora transparentes. Esto le hizo suponer que la capa del hongo contenía alguna sustancia que inhibía el comportamiento de las bacterias. A este hongo misterioso, lo llamó Penicillium notatum (o como comúnmente se le conoce: Penicilina). Pocos meses después, Fleming ya había publicado sus resultados en el British Journal of Experimental Pathology. Sin embargo, la mayor parte de los científicos de la época pensaron que la penicilina, además de tener un proceso de purificación muy complicado, serviría sólo para tratar infecciones insignificantes, por lo que Fleming continuó experimentando por su cuenta con su peculiar hongo algunos años. Así entonces, a pesar de la trascendencia de este descubrimiento, no fue sino hasta 1939 que hubo nuevos avances con la penicilina, cuando los científicos Howard Florey y Ernst B. Chain obtuvieron los recursos necesarios para realizar un amplio estudio de las sustancias antimicrobianas. Ernst B. Chain era un refugiado de la Alemania nazi y se encontraba ayudando al científico norteamericano Howard Florey a encontrar un método para sintetizar y purificar la penicilina, lo cual le daría una ventaja al ejército aliado durante la segunda guerra mundial. Fue entonces cuando la fama alcanzó de golpe a Fleming. Lo eligieron miembro de la Real Sociedad en 1942, recibió el título de “Sir” (caballero) dos años después, y en 1945 compartiría el premio nobel con Howard Florey y Ernst Chain. Llegó a ser presidente de la Sociedad de Microbiología General y miembro de la Academia Pontificia de Ciencia. Su descubrimiento fue tan importante para la humanidad, que llegó a ser miembro


FAUNA DE ZACATECAS Daniel Hernández Ramírez dhernan87@hotmail.com

Halcón peregrino honorario de prácticamente todas las sociedades médicas y científicas del mundo, además de obtener casi treinta doctorados honoris causa en universidades de todo el mundo. Algunos autores mencionan como anécdota que Fleming era miembro del Club de Artes de Chelsea, un club privado de Londres. Lo interesante es que se dice que sus pinturas las realizaba con gérmenes. Extendía bacterias pigmentadas sobre el lienzo, que inicialmente parecían transparentes, pero que luego de un periodo de incubación llenaban la tela con colores vivos y penetrantes.

Familia: Falconidae. Nombre científico: Falcon peregrinus. Nombre común: Halcón peregrino, peregrino, halcón, peregrine falcon. Estatus de conservación: Para la NOM059 2010 de SEMARNAT es una especie sujeta a proteccion especial (Pr); para la Lista Roja UICN es considerada como de preocupación menor (LC).

Descripción: Es un halcón grande con una longitud de 375 a 525 mm y de envergadura de 96 a 119 cm; de constitución gruesa, con un peso de 550 a 1,550 gr; alas largas y puntiagudas con base ancha; cola corta y angosta. Partes superiores de color café oscuro a café grisáceo. Auriculares con rayas café oscuro. Garganta y partes inferiores blanquizcas, fuertemente marcadas con rayas color café oscuro. Bajo las alas tiene café oscuro. Por su carisma es una de los vertebrados terrestres mas estudiados y altamente valorados tanto por la comunidad científica, como por el público en general.

A pesar de que sus dos descubrimientos más importantes surgieron a partir de experimentos que no salieron acorde al plan inicial, esto no le restó mérito alguno a Fleming, por el contrario. Tuvo la capacidad de adaptarse a circunstancias inesperadas en sus investigaciones, y la curiosidad que debe caracterizar a todo buen científico para explorar y explicar situaciones inéditas.

Distribución: En el estado de Zacatecas se localiza en el Parque Nacional Sierra de Organos (PNSO), en el municipio de Sombrerete, donde se calcula que hay al menos una pareja residente con tres nidos activos.

Fleming escribió muchísimos artículos en bacteriología, inmunología y otras áreas de la medicina, y sin embargo, puede que su mayor aporte a la humanidad no se encuentre en ninguna de esas páginas. Alexander renunció a millones de dólares al no patentar su descubrimiento de la penicilina, lo cual facilitó la distribución y tratamiento de infecciones que terminaban con miles de vidas alrededor del mundo. Esta medida es un claro ejemplo del compromiso que debe tener la ciencia con la humanidad. El objetivo primordial de un científico no puede ser ganar dinero o fama; un investigador tiene como misión principal la búsqueda de conocimientos que permitan explicar y predecir fenómenos para solucionar problemas en beneficio de la humanidad y del planeta.

Comportamiento: Ave rapaz diurna. Se sabe de al menos 300 especies que le sirven como alimento. La mayoría de sus presas las captura en pleno vuelo, tanto en la superficie del agua como en el suelo. También puede vérsele caminando en busca de aves o de roedores. Las palomas (Columbiformes), son generalmente las presas más buscadas y pueden llegar a formar el 60 % de su dieta.

Alexander Fleming demostró ser, además de un gran científico, un gran ser humano. Murió de un infarto el 11 de marzo de 1955, en Londres.

Reproducción: Mantiene una sola pareja (monógama) y sus nidos son vigilados por ambos padres. Las hembras atienden el nido más que los machos; el cuidado de la hembra decrece al nivel del macho a medida que los pollos se desarrollan. El número de huevos por nidada es de tres a cuatro y algunas veces de dos a seis.

Referencias ·http://www.naturalista.mx/taxa/4647-Falco-peregrinus ·http://www.iucn.it/scheda.php?id=357453492 ·http://eol.org/pages/1049164/names/common_names

Biografía BIOGRAFÍA

Referencias http://www.nobelprize.org/nobel_prizes/medicine/laureates/1945/fleming-bio.html http://www.bbc.co.uk/history/historic_figures/fleming_alexander.shtml http://enciclopedia.us.es/index.php/Alexander_Fleming https://www.quien.net/alexander-fleming.php

Hábitat: Los climas donde se les puede encontrar son variables. No perece tener preferencia por alguno tipo de vegetación y de ecosistema. Prefiere áreas abiertas para alimentarse.

46 10


El procesamiento digital de imágenes José Ibrahim Villanueva Gutiérrez jovillan@math.u-bordeaux.fr

E

n el año 2012 la Agencia Espacial Mexicana lanzó al espacio el satélite Bicentenario para uso en tareas de inteligencia y seguridad nacional. El también llamado Mexsat-3 se encuentra a una distancia aproximada de 36,000 km de la superficie de la Tierra. Algunos satélites están equipados con cámaras que toman fotografías de la Tierra con alta resolución, luego las envían con el fin de analizarlas, por ejemplo, para estudiar el estado de salud de los bosques, desde el espacio, y la posible presencia de talamontes en algunas regiones del país, o estudiar el cauce de los ríos y la capacidad de las presas y los lagos. Las fotografías se envían a la tierra por medio de señales electromagnéticas y en este proceso pueden dañarse por la interferencia de otras señales, a veces provenientes de satélites vecinos. Por otro lado, la tecnología ha avanzado lo suficiente al punto que podemos fotografiar, desde el espacio y con claridad, áreas de la Tierra de hasta 8 ha (400 x 200 m2). Es decir, que si quisiéramos estudiar todo el territorio del estado de Zacatecas y sus recursos naturales desde el espacio tendríamos que analizar cerca de ¡un millón de fotografías! Considerando que este estudio implicaría tomar fotografías cada cierto periodo de tiempo para ver, por ejemplo, los efectos de un incendio forestal, la tarea se vuelve rápidamente imposible para el ser humano sin la ayuda de técnicas computacionales. El procesamiento de imágenes [1, 2] consiste en usar algoritmos para modificar imágenes digitales, con el fin de obtener información o conseguir un efecto especial en ellas. Estas modificaciones sirven para limpiar la imagen de posible ruido, resaltar o identificar contornos y reducir las variaciones de la imagen, entre otras. El proceso parte de una imagen digital. La computadora interpreta esta imagen como un arreglo rectangular de puntos a los que se les llama pixeles. Los pixeles contienen la información de posición y color de cada punto de la imagen y están codificados en bits. Recordemos que los bits representan dos opciones: 0 y 1, negro o blanco, o cualquier dicotomía que uno pueda pensar. Por ejemplo, supongamos que tenemos una imagen de 5 pixeles de largo por 4 pixeles de alto, en total tendremos 20 pixeles. Si a cada pixel lo codificamos con sólo un bit, el valor 0 al negro y el valor 1 al blanco, tenemos la siguiente imagen:

1 0 0 1

7

1 1 0 0

0 1 1 0

0 0 1 0

1 0 0 0

Este es el modelo de color más sencillo que se le puede asignar a un pixel. Sin embargo, para aplicaciones prácticas es más interesante utilizar modelos más complejos. De hecho, normalmente un pixel tiene 8 o 24 bits asociados, esto permite codificar 28 = 256 posibilidades para 8 bits y 224 = 16,777,216 posibilidades para 24 bits. El modelo más utilizado para un pixel que codifica 8 bits, es la escala de grises. Los pixeles asignan el color blanco al valor 255, 0 al negro y una intensidad de gris para valores entre 0 y 255. En la gráfica de la izquierda se muestra un modelo de la escala de grises correspondientes a una curva sinusoidal. Para generar una gran cantidad de colores es necesario un modelo aún más complejo. Este modelo se llama RGB (Red, Green, Blue por sus siglas en inglés) y codifica 24 bits por pixel. Cada pixel contiene tres partes; cada una corresponde a un color mencionado y cada color está codificado en 8 bits (256 posibilidades). De la misma manera que en la escala de grises, el valor 255 significa que el color está totalmente presente, el 0 que está totalmente ausente y los valores intermedios, las diferentes intensidades de rojo, verde y azul, respectivamente (los especialistas llaman a esta cualidad saturación). Con este modelo podemos prácticamente generar cualquier color perceptible al ojo humano. En resumen, una imagen digital tomada por una cámara de un celular está guardando arreglos de colores que están codificados ¡con números! Una imagen cuadrada, a color, de 9 pixeles es codificada, en el modelo RGB, de la siguiente manera por la computadora:

Por lo tanto las imágenes pueden ser estudiadas como arreglos de números y con la ayuda de las computadoras podemos hacer algoritmos que nos permitan reparar una imagen que esté dañada o extraer elementos particulares de ésta. ¿Se le ocurre al lector un algoritmo para detectar masas de agua en una imagen satelital? Observemos que en la ilustración anterior el azul básico (esquina inferior izquierda) está codificado como (0,0,255), es decir, carece de componentes rojos y verdes, pero tiene “lleno” el componente azul. El cuadro azul claro de la segunda hilera carece de rojo, pero tiene bastante verde (193) y un poco más de “pintura” azul (206).


ARTÍCULOS Y REPORTAJES

FLORA DE ZACATECAS Daniel Hernández Ramírez dhernan87@hotmail.com

El espacio de todos los posibles colores con el modelo RGB tiene tres componentes cromáticos independientes; 3 dimensiones. El color azul representa un punto en ese espacio y puntos cercanos a éste también tienen tonalidades que podrían corresponder al agua. Por lo tanto dentro del espacio 3-dimensional de los colores es posible considerar un vecindario que contenga las tonalidades de azul que típicamente puedan pertenecer a masas de agua. De esta manera podemos resaltar los pixeles que corresponden a estos colores haciendo un algoritmo sencillo que compare intensidades en las componentes de los pixeles.

Encino

Este es un ejemplo de una técnica de filtrado llamada segmentación, que consiste en separar los pixeles importantes de una imagen (primer plano) de los pixeles inútiles (fondo o segundo plano). Esta técnica tiene la ventaja de que el análisis se hace directamente sobre la información de los colores de la imagen y la implementación usa sólo desigualdades. Sin embargo, en imágenes donde el histograma de los puntos es continuo, la segmentación puede ser imprecisa. La técnica más interesante y utilizada para hacer filtrado de imágenes es la Transformada Discreta de Fourier (DTF), que permite analizar la información de la imagen geométricamente, en términos de funciones periódicas complejas. A cada punto del espacio de frecuencias le podemos asociar el módulo y el argumento de la transformación en coordenadas polares. En el primer caso se obtiene información sobre la suavidad de la imagen y en segundo, sobre la geometría de ella. Los métodos de filtrado que usan la DFT aplican procesamientos digitales a estos valores para obtener las modificaciones necesarias de la imagen. Para recuperar la imagen original es necesario tomar la Transformada Inversa de Fourier (IDFT) de estas modificaciones. No está de más recalcar la diferencia entre los dos métodos introducidos. En el método de segmentación, las modificaciones de la imagen se hacen directamente sobre el espacio de pixeles, mientras que en el segundo, la imagen es transformada a un arreglo de números complejos que dependen de un espacio de frecuencia y las modificaciones se hacen en este espacio para luego llevarlas de regreso al espacio de pixeles. Los métodos de filtrado en procesamiento de imágenes son utilizados en una gran variedad de investigaciones. Por ejemplo, en biología se utilizan para clasificar y contar tipos de células en una imagen digital de un microscopio. En México, existen diversos centros y grupos de investigación de excelencia dedicados a esta área de la ciencia. En el Centro de Investigación en Matemáticas [3] un grupo de matemáticos y especialistas en cómputo conforman el grupo de investigación en procesamiento de señales y visión por computadora. Entre sus líneas de trabajo está desarrollar aplicaciones para biomedicina, analizando imágenes obtenidas por resonancia magnética nuclear, para luego encontrar patrones que permitan detectar y estudiar enfermedades neurológicas.

gris

Familia: Fagaceae. Nombre científico: Quercus grisea (Liebmann, 1854). Nombre común: Encino gris, roble, encino, gray oak. Estatus de conservación: Carece de alguna categoría de conservación a nivel nacional o internacional. Sin embargo, en el Parque Nacional Sierra de Órganos (PNSO) se hace especial cuidado.

Descripción: Árbol pequeño de copa redondeada de entre 4 y 7 m de altura. El tronco es corto de entre 10 y 30 cm de diámetro, la corteza es escamosa y de color gris claro. Sus hojas son caedizas o algunas veces persistentes, gruesas y duras (coriáceas); varían en tamaño desde 1 hasta 8 cm de longitud. Tiene dos tipos de flores, las masculinas que miden de 2 a 7 cm y las femeninas de 1 a 8 cm, estas últimas diseminadas a largo de ramitas (pedúnculos) de hasta 4 cm. Genera frutos anuales, solitarios o en pares llamados bellotas, estos miden de 1 a 2 cm de largo y son de un de color castaño claro. Distribución: Querétaro, Coahuila, Chihuahua, Durango, Jalisco, San Luis Potosí, Guanajuato, Nuevo León y Zacatecas, específicamente es un elemento arbóreo importante en el PNSO. Importancia ecológica: Controlan la erosión, favorecen a la infiltración de agua de lluvia, regulan cuencas hidráulicas, enriquecen los suelos con su hojarasca y ayudan a la formación de suelos (materia orgánica). Es fuente de alimento y de refugio para la fauna silvestre, aves y mamíferos principalmente. Uso: El uso frecuente que le dan los habitantes de las zonas aledañas al PNSO es como combustible para la realización de cierto tipo de alimentos en días festivos. También es usado para hacer postes de cercos perimetrales y, en ocasiones, como ornamental y medicinal.

El procesamiento de imágenes es un área muy activa en las ciencias matemáticas y de la computación, que necesita jóvenes creativos que diseñen algoritmos que mejoren las técnicas existentes y exploren nuevas técnicas.

[1].- González, R.C. & Wintz, P. (1996). Procesamiento digital de imágenes. Addison Wesley. [2].- A. Marion. (1991 ). An Introduction to Image Processing, Chapman and Hall. [3].- http://www.cimat.mx/es/Ciencias_de_la_computacion Las imágenes de este artículo fueron hechas con el programa libre Processing processing.org

Referencias Nunez-Hernandez, G., Holechek, J. L., Wallace, J. D., Galyean, M. L., Tembo, A., Valdez, R., & Cardenas, M. (1989). Influence of native shrubs on nutritional status of goats: nitrogen retention. Journal of Range Management, 228-232. http://bio.uaq.mx/municipioQro/fichas.php?idA=72&n_img=1&F=1 http://www.naturalista.mx/taxa/167651-Quercus-grisea

Artículos y reportajes

Referencias

8


Componentes de la

electrónica digital moderna

Manuel Hernández Calviño mhcalvinno@hotmail.com

T

odos los días nos asombramos por la llegada al mercado de nuevos productos electrónicos, más “inteligentes” que sus antecesores. Tras los escaparates de las tiendas y en los laboratorios de desarrollo de los líderes del mercado, tiene lugar una feroz batalla por lograr lanzar a este, antes que sus competidores, un nuevo producto con más prestaciones y menor costo. La mayoría de estos productos clasifican como “sistemas embebidos”, término utilizado por los especialistas para denominar a un sistema electrónico dotado de un procesador o CPU y otro conjunto de dispositivos periféricos, de los que dependen las funciones que realiza. Los sistemas embebidos, a diferencia de los sistemas de cómputo general como las PC y laptops, realizan funciones muy especializadas para las que fueron específicamente diseñadas. Se les puede encontrar en casi todos los campos dela actividad humana. Un teléfono celular, un glucómetro (medidor de azúcar en sangre), un cajero automático y una alarma casera contra intrusos, son buenos ejemplos de sistemas embebidos. Ganarle o no la carrera a un competidor, depende mucho de las herramientas que utilice el fabricante para desarrollar su producto y lanzarlo al mercado. Usualmente, esta tarea se realiza por un grupo de ingenieros, de forma iterativa y con múltiples ciclos de diseño -> prueba -> rediseño, que puede tomar meses de arduo trabajo, de mano de obra muy especializada y que termina por elevar el precio final del producto. Aun siendo un fabricante experimentado, no siempre se tiene éxito y con

9

frecuencia vemos casos de productos que hay que retirar del mercado, porque aparecieron deficiencias inesperadas durante su explotación. El ejemplo más reciente es el fallo de la batería del teléfono celular Samsung Galaxy Note 7. Para acelerar el diseño y puesta a punto de la parte electrónica de su sistema embebido (generalmente la más compleja), muchos desarrolladores utilizan dispositivos programables o reconfigurables “in situ”, es decir, en los propios laboratorios de desarrollo o en las líneas de producción. Existe en el mercado una gran variedad de dispositivos digitales programables, pero entre ellos destacan los denominados Field Programmable Gate Array (FPGA) por las innumerables ventajas que ofrecen a quienes los emplean y que se reflejan en el producto final. La idea original sobre la que se basan las FPGAs, fue propuesta en 1984 por Rose Freeman, y ya se consideran una tecnología madura. En más de tres décadas de desarrollo han evolucionado en tamaño y velocidad, y actualmente ya pueden acomodar sistemas digitales muy complejos que funcionan a frecuencias de reloj del orden de los GHz. Sus principales fabricantes actuales son Xilinx y Altera (comprada recientemente por Intel), aunque hay otros fabricantes de menor presencia en el mercado y que producen FPGAs muy especializadas. El éxito de mercado alcanzado por las FPGAs se debe, en parte, al hecho de que su capaci-

dad de poder ser programadas radica en el uso de memoria estática RAM (Random Accses Memory). Hasta la aparición en el mercado de las FPGAs, los circuitos programables se basaban en el uso de pequeños fusibles (o antifusibles) para establecer las conexiones necesarias para configurar el circuito. Esto tiene el inconveniente que -como fundir un fusible es un proceso totalmente irreversible-, sólo se pueden programar una sola vez. Para enmendar errores o hacer una mejora en la arquitectura del sistema bajo desarrollo, hay que utilizar un nuevo dispositivo virgen. En cambio, las FPGAs basan su capacidad de programación en la bien desarrollada tecnología de las memorias RAM estáticas (Static RAM), donde el elemento de almacenamiento es un Flip-Flop [1]. Cada celda elemental puede almacenar un “cero” o un “uno” y retiene esta información mientras se le mantenga energizada. Teóricamente, las celdas pueden ser programadas infinitas veces, superando la desventaja antes mencionada de los dispositivos basados en fusibles. Las celdas elementales se combinan en grupos de 32 bits o más y su contenido se programa convenientemente, de forma tal que pueden emular a cualquier circuito lógico combinatorio de 5 o más entradas. A la vez, estos “ladrillos elementales” sirven para construir todo el edificio de un sistema digital complejo. Adicional a esto, las celdas elementales sirven para contener la definición de las rutas de conexión entre los diversos bloques. Como las memorias SRAM son “volátiles” (pierden la información cuando se les desenergiza), por lo general las FPGAs se utili-


ARTÍCULOS Y REPORTAJES

zan junto a una memoria EEPROM o FLASH [2] que si retiene de forma permanente toda la información de configuración de la FPGA. Cuando el sistema embebido se energiza, comienza automáticamente un proceso de transferencia de la información desde la FLASH hacia la FPGA, que sólo dura algunos milisegundos. Transcurrido este tiempo, el sistema está listo para funcionar tal como lo previeron sus diseñadores.

Dado que una de sus aplicaciones más frecuentes son los sistemas embebidos, en los últimos cinco años ha aparecido en el mer-

Otra característica potente de las FPGAs es su capacidad para poder ser reconfiguradas por secciones y “al vuelo”, es decir, una parte de ella puede cambiar su configuración para realizar una nueva tarea, mientras que el resto puede seguir funcionando sin ser perturbada. Por tanto, si sabemos a priori que un determinado bloque digital sólo se utilizará al principio del funcionamiento y nunca más, podemos aprovechar el espacio que ocupaba este bloque en la FPGA para reconfigurar un nuevo bloque que será necesario más adelante. De esta forma, se puede emplear una FPGA más pequeña y reducir los costos del producto final. De igual forma, a un sistema embebido que ha sido desarrollado alrededor de una FPGA, se le puede “actualizar el hardware”, descargando del portal de Internet del desarrollador la nueva versión del archivo de configuración. Imaginemos que tenemos un

reproductor de música de cierto fabricante y aparece en el mercado un nuevo formato de compresión que no estaba incluido en el producto inicial. El fabricante del reproductor puede poner a disposición de sus clientes, un nuevo archivo de configuración, que sirve para actualizar el hardware, permitiendo reproducir el nuevo formato y prolongando la vida útil del producto. Las noticias sobre los nuevos productos basados en FPGAs no dejan de asombrarnos. La firma Xilinx anunció recientemente que se propone incluir en sus nuevos dispositivos bloques de conversores análogo-digital (ADC) y digital-analógico (DAC) de alta velocidad, con el fin de facilitar el desarrollo de receptores-transmisores de radio basados en la moderna tecnología conocida como Radio Definido por Software (SDR). Hasta ahora y debido a incompatibilidades tecnológicas, estos conversores tenían que ser fabricados en un chip aparte, con la consiguiente complejidad de la comunicación entre ambos dispositivos y su impacto en la potencia consumida y la prestación. Esta noticia demuestra que las FPGAs prometen seguir expandiendo, al menos en un futuro cercano, su ya amplia gama de exitosas aplicaciones.

Referencias [1].- https://es.wikipedia.org/wiki/Biestable [2].- https://es.wikipedia.org/wiki/Memoria_flash

artículos y reportajes

En sus comienzos los dispositivos tipo FPGA tenían poca capacidad de recursos y eran relativamente lentos. En más de 30 años de existencia y numerosas mejoras tecnológicas, han aumentado de manera extraordinaria su capacidad para acomodar sistemas digitales muy complejos y su velocidad de operación ha crecido a la par. Los fabricantes de FPGAs han observado con atención las necesidades de los usuarios y han incorporado bloques de uso frecuente en un sistema digital embebido. Así aparecieron las FPGAs con una cantidad significativa de memoria RAM interna, bloques multiplicadores y posteriormente bloques especializados en el Procesamiento Digital de Señales (DSP). También se incluyeron bloques de comunicación serie de alta velocidad (transceivers) para comunicarse con numerosos periféricos que utilizan esta modalidad de enlace y procesadores (CPU), que pueden existir en el hardware o ser realizados por configuración de los propios recursos de la FPGA.

cado un nuevo producto como resultado del “cruce genético” entre una FPGA y un procesador, los llamados System on Chip (SoC). Un mismo chip de silicio lo comparten un potente procesador de varios núcleos y una FPGA de gran capacidad y velocidad, con un abundante conjunto de periféricos y muchos recursos de interconexión entre ambos. Son la combinación perfecta para instrumentar un sistema embebido, donde el procesador realiza las tareas de control, casi siempre secuenciales y en la FPGA se configuran periféricos específicos del sistema en desarrollo y los llamados “aceleradores de hardware”, circuitería digital orientada a realizar un cálculo o función específica aprovechando las ventajas del procesamiento en paralelo.

10


lo que puede la ciencia Medel José Pérez Quintana mjperezq17@gmail.com

Los antivacunas A

siguen causando daños

lgunas personas consideran que las vacunas son dañinas, ignorando toda la fundamentación científica que las avala y el hecho innegable de la contribución que han hecho las mismas a la desaparición y control de muchas enfermedades en amplias regiones del planeta. Con su postura irracional y anticientífica impiden la vacunación de sus propios hijos y ponen en peligro real sus vidas.

Lamentablemente han reaparecido dichas enfermedades en niños de comunidades donde estas personas han tenido influencia entre sus vecinos. Y más lamentable aún es el hecho de que han ocurrido pérdidas de vidas entre ellos. Por eso es terrible que los antivacunas hayan comenzado a usar las redes sociales, con su gran poder de movilización, para confundir a la población con mensajes en contra de la vacunación.

La confusión de estas personas comenzó o se intensificó por la publicación en 1998 de una falsa investigación sobre la vacuna triple vírica o MMR –que previene el sarampión, las paperas y la rubeola– donde se aseguraba que las inyecciones habían producido en doce niños síntomas intestinales, junto con autismo y otros trastornos. Aunque se comprobó que dicho estudio era un verdadero fraude sus afirmaciones siguen siendo tomadas como ciertas por los antivacunas.

Por suerte, celebridades como Bill Gates y Shakira además de organismos como la Organización Mundial de la Salud, La Academia Estadounidense de Pediatría y poderosos medios de comunicación como The Washington Post y CNN han enfrentado el reto en defensa de las vacunas. Junto con ello se desarrollan investigaciones en varias prestigiosas universidades con el fin de neutralizar el daño que los antivacunas puedan causar con el mal uso de las redes sociales. Esperemos, por el bien de todos, que estas investigaciones tengan éxito. Fuente: Amazings, NCYT

U

n equipo de investigadores dirigidos por Malka Cohen-Armon, profesora en la Universidad de Tel Aviv de Israel, ha descubierto un mecanismo que obliga a las células cancerosas a suicidarse. Existen tres proteínas que juegan un papel importante durante la rápida división que experimentan las células cancerosas. La investigación ha mostrado que es posible modificar estas proteínas de modo tal que desencadenen un mortífero mecanismo de autodestrucción de dichas células evitando la replicación de las mismas. Este mecanismo que mata células cancerosas funciona en una amplia gama de células malignas de rápida proliferación y no afecta a las células sanas del entorno.

lo que puede la ciencia

Este mecanismo desencadenado durante la división celular o mitosis podría ser adecuado para tratar cánceres agresivos que se resisten ante la quimioterapia tradicional.

11

La ciencia avanza

en la lucha contra el cáncer

Los experimentos de esta investigación fueron realizados en cultivos celulares de diversos tipos de cáncer humano incurable (de mama, de pulmón, de ovario, de colon, de páncreas, de la sangre y de cerebro). Los investigadores hallaron que la actividad de estas proteínas puede ser distorsionada, utilizando determinados compuestos, de modo que las células no se puedan dividir y con ello se provoque su rápida autodestrucción. Fuente: Oncotarget, 08/2017; Amazings, NCYT


¿Resolverá el grafeno la escasez de agua potable en nuestro planeta?

H

expanda. Al restringir la expansión del material es posible afinar las propiedades de la membrana para dejar que pase más o menos sal común a través de la misma.

Según un estudio publicado en la revista Nature Nanotechnology, investigadores de la Universidad de Manchester, Reino Unido, han demostrado recientemente que si se pone una capa delgada de resina epoxi a cada lado de dicha membrana se evita que ésta se

Al controlar el espacio de los poros en la membrana es posible llevar a cabo la desalinización, por ejemplo, del agua de mar. Eso resolvería uno de los mayores retos que enfrentan los humanos: satisfacer la necesidad de agua potable. La tecnología de este sistema de filtraje debe ahora perfeccionarse para ser desarrollado a bajo costo y competir con los sistemas de filtraje existentes en el mercado.

asta ahora las membranas de óxido de grafeno se hinchan ligeramente cuando se les sumerge en agua y esa es la causa de que dejen pasar sales pequeñas a través de sus poros junto con las moléculas del líquido.

Fuente: BBC Mundo

¿Está en los neutrinos el secreto del predominio de la materia sobre la antimateria en el universo?

A

lgunas extensiones del modelo estándar de la física de partículas to utiliza un tanque de agua cuyas paredes internas han sido cubiertas pueden explicar el dominio de la materia sobre la antimateria en por una lámina reflectante que mejora la detección de la luz. el universo si se asume que los neutrinos y sus antipartículas son la misma cosa. El físico Phillip Barbeau de la Universidad Duke (EE UU), en otro artículo de Nature, dice que “…la actualización de este experimento es un logro La revista Nature publica esta semana un nuevo avance en la búsqueda notable, ya que permitirá buscar la desintegración doble beta sin neutride la llamada desintegración doble beta sin neutrinos, una desintegra- nos con una sensibilidad sin precedentes”. ción radiactiva que, si se encontrara, demostraría que los neutrinos son sus propias antipartículas. Si esto último fuese cierto debería existir la No sólo los miembros de GERDA buscan esta escurridiza reacción sino mencionada desintegración en la que un núcleo atómico se disocia y que otros laboratorios aspiran a observarla –si tienen la suerte de que emite dos electrones y no emite ningún neutrino. le corresponda desintegrarse justo ahora– en profundas minas subterráneas, lejos de cualquier ‘ruido’ externo. Entre ellos figuran el experiLa vida media calculada para la desintegración doble beta sin neutrinos mento CANDLES del observatorio japonés de Kamioka, NEMO 3 en el sería de billones de años. Un hecho tan raro requiere de la supresión de túnel de Fréjus (Francia) y el grupo español que trabaja en el experimentodas las señales de fondo que puedan interferir en cualquier experi- to NEXT (Neutrino Experiment with a Xenon TPC), en el laboratorio mento que se lleve a cabo para detectarlo. subterráneo de Canfranc. Nature señala que esta eliminación de cualquier señal ajena a la reacción ha sido lograda por la colaboración científica GERDA (GERmanium Detector Array), un experimento localizado bajo tierra en el Laboratorio Nacional del Gran Sasso (Italia) para detectar la elusiva desintegración usando un isótopo del germanio: el germanio 76 (76Ge). El experimen-

Si se comprueba experimentalmente que los neutrinos y antineutrinos son la misma partícula estaríamos en presencia de una asimetría que serviría para explicar por qué ha triunfado la materia en el universo de modo tal que ya no queda antimateria. Fuente: Amazings® / NCYT®, SINC


eek33  

Descubrimiento de nuevos planetas, una tarea apasionante

Read more
Read more
Similar to
Popular now
Just for you