Page 1

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

1


2

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

3


UNA OJEADA A LA CIENCIA en 250 obras de La Ciencia para Todos

ES L B I N DISPO EN ÍAS LIBRER SÍGUENOS EN

www.lacienciaparatodos.mx Leamos La Ciencia para Todos www.fondodeculturaeconomica.com 4

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Una publicación de la Universidad Autónoma de Nuevo León

Mtro. Rogelio Garza Rivera Rector M.A. Carmen del Rosario de la Fuente García Secretaria general Dr. Sergio S. Fernández Delgadillo Secretario de investigación, innovación y sustentabilidad Directora: Dra. Patricia del Carmen Zambrano Robledo Editor responsable: Lic. José Eduardo Estrada Loyo Consejo Editorial Dr. Sergio Estrada Parra / Dr. Jorge Flores Valdés / Dr. Miguel José Yacamán / Dr. Juan Manuel Alcocer González / Dr. Ruy Pérez Tamayo / Dr. Bruno A. Escalante Acosta / Dr. José Mario Molina-Pasquel Henríquez Coeditora: Melissa Martínez Torres Redes y publicidad: Jessica Martínez Flores Diseño: Montserrat García Talavera Traductora: Celeste Ojeda Moro Servicio social: Yolanda Rodríguez, Jessica Martínez, Carla Hernández, Ezequiel Cantú, Adrian Soto

Corrector y revisión bibliográfica : Luis E. Gómez Asistente administrativo: Claudia Moreno Alcocer Portada: Francisco Barragán Codina Webmaster: Mayra Silva Almanza Diseño de página web: Rodrigo Soto Moreno

Ciencia UANL Revista de divulgación científica y tecnológica Universidad Autónoma de Nuevo León, Año 20, Nº 83, eneroMarzo de 2017. Es una publicación trimestral, editada por la Universidad Autónoma de Nuevo León, a través de la Dirección de Investigación. Domicilio de la publicación: Biblioteca Universitaria Raúl Rangel Frías, Alfonso Reyes 4000 norte, 5º piso, Monterrey, Nuevo León, México, C.P. 64290. Teléfono: + 52 81 83294236. Fax: + 52 81 83296623. Editor responsable: Lic. José Eduardo Estrada Loyo. Reserva de derechos al uso exclusivo No. 04-2013-062514034400-102. ISSN: 2007-1175 ambos otorgados por el Instituto Nacional del Derecho de Autor, Licitud de Título y Contenido No. 16547. Registro de marca ante el Instituto Mexicano de la Propiedad Industrial: 1437043. Impresa por: Serna Impresos, S.A. de C.V., Vallarta 345 Sur, Centro, C.P. 64000, Monterrey, Nuevo León, México. Fecha de terminación de impresión: 9 de enero de 2017, tiraje: 2,500 ejemplares. Distribuido por: Universidad Autónoma de Nuevo León, a través de la Dirección de Investigación, Alfonso Reyes 4000 norte, 5º piso, Monterrey, Nuevo León, México, C.P. 64290. Las opiniones y contenidos expresados en los artículos son responsabilidad exclusiva de los autores y no necesariamente reflejan la postura del editor de la publicación. Prohibida su reproducción total o parcial, en cualquier forma o medio, del contenido editorial de este número. Publicación indexada al Consejo Nacional de Ciencia y Tecnología, LATINDEX, CUIDEN, PERIÓDICA, Actualidad Iberoamericana, Biblat. Impreso en México Todos los derechos reservados © Copyright 2017 revista.ciencia@uanl.mx revista.ciencia@gmail.com

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

5


CiENCiAUANL

COMITÉ EDITORIAL

COMITÉ DE DIVULGACION

CIENCIAS DE LA SALUD Dra. Lourdes Garza Ocañas

CIENCIAS DE LA SALUD Dra. C. Gloria María González González

CIENCIAS EXACTAS Dra. Ma. Aracelia Alcorta García

CIENCIAS NATURALES Dr. Sergio Moreno Limón

CIENCIAS AGROPECUARIAS Dr. Roque Gonzalo Ramírez Lozano

CIENCIAS AGROPECUARIAS Dr. Hugo Bernal Barragán

CIENCIAS NATURALES Dr. Rahim Foroughbakhch Pournavab

CIENCIAS EXACATAS Dra. Nora Elizondo Villarreal

CIENCIAS SOCIALES Dra. Veronika Sieglin

CIENCIAS SOCIALES Dra. Blanca Mirthala Tamez

INGENIERÍA Y TECNOLOGÍA Dra. María Idalia del Consuelo Gómez de la Fuente

INGENIERÍA Y TECNOLOGÍA Yolanda Peña

CIENCIAS DE LA TIERRA Dr. Carlos Gilberto Aguilar Madera

6

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

7


8

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Editorial

A

ctualmente, en nuestro país, existen modos implícitos de negociación que limitan las obligaciones de los radiodifusores y marginan al Estado en sus atribuciones en el ámbito de la comunicación. Por lo que Cintia Smith, en “Red de políticas públicas de radiodifusión y telecomunicaciones en México para la negociación de las leyes de 2006 y 2014”, ganadora del Premio de Investigación UANL 2016 en la categoría de Ciencias Sociales, nos ofrece algunos interesantes puntos de comparación entre ambos procesos. Por su parte, en el área de Ciencias de la Tierra y Agropecuarias, Laura Hinojosa Reyes y colaboradores, en su investigación, “Desarrollo de sistemas automatizados para el monitoreo de arsénico: fraccionamiento en suelo y bioaccesibilidad in vitro en cereales”, evaluaron el potencial de transferencia en productos agrícolas a través del desarrollo de dos prototipos en el uso de sistemas de análisis para el fraccionamiento de arsénico en suelo agrícola. El suelo, como elemento de la biosfera, cumple con importantes funciones ecológicas y constituye, a su vez, uno de los componentes más sensibles y vulnerables a la contaminación, la cual se puede transferir a los productos que consumimos. La resilencia es la aptitud de enfrentar, resolver y recuperarse de las adversidades. Por tal motivo, es sumamente importante desarrollarla y fortalecerla en las distintas etapas y crisis que nos presenta la vida. Considerando lo anterior, en el área de Humanidades, el premio fue para Melina Miaja Ávila y José Moral de la Rubia, por su trabajo “Validación de la escala de resiliencia mexicana en mujeres con cáncer”. En esta investigación, los autores, a través del desarrollo y validación de distintas variables de la estructura factorial de la Escala de Resiliencia Mexicana (RESI-M), estimaron la consistencia interna y evaluaron el nivel medio de

resiliencia y de la interacción entre ellas. Especificando y contrastando un modelo de ecuaciones estructurales para predecir las respuestas psicológicas de duelo. Por otro lado, en el área de Ciencias de la Salud, Elvis Martínez Jaramillo y colaboradores, en su trabajo, “Desarrollo de un sistema celular murino para el análisis antitumoral de adenovirus oncolítico”, encontraron que los AdOs (adenovirus oncolíticos) se multiplican en células TC-1, por lo que pueden ser usadas para evaluar AdOs en un modelo inmunocompetente. Los autores decubrieron que los genes E6 y E7 del HPV-16 facilitan la multiplicación del adenovirus en las células tumorales murinas TC-1, las cuales poseen estos genes. En el área de Ciencias Exactas el premio fue para Carlos Luna Criado y colaboradores, con su trabajo “Nanovectores superparamagnéticos y su uso potencial en quimioterapias selectivas”. En esta investigación los autores encontraron que, a través de la entrega guiada de pequeñas cantidades de agentes antineoplásicos, usando nanoplataformas superparamagnéticas y campos magnéticos en medios acuosos, se pueden localizar rápidamente células cancerosas en un sitio específico a través de la aplicación de un campo magnético continuo, produciendo efectos antiproliferativos controlados sin afectar a otras líneas celulares próximas. Además encontraron que la aplicación discontinua de este campo favorece la subsiguiente diseminación de las nanopartículas entre capas celulares, reforzando de esta manera la quimioterapia. Por su parte, José Antonio Fuentes Garibay y colaboradores, analizaron en “Secuencia de la tanasa de Aspergillus niger GH1 y producción de la enzima en Pichia pastoris”, cepas de la levadura Pichia Pastoris para producir de forma extracelular la enzima tanasa, encontrando que la tanasa así producida podría ser utilizada en el procesado de alimentos y bebidas a bajas temperaturas. Eduardo Estrada Loyo

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

9


Daniel G. Alcocer Cruz* Algunas redes sociales sirven para expresar preferencias sobre el artista de moda o hacer cadenas de amor; existen individuos que a través de la red expresan sus preocupaciones por asuntos que son de competencia local, y tienen una importancia general, como las alertas ecológicas, la violencia intrafamiliar, las injusticias laborales o contra los campesinos, y en general aspectos que ameritan manifestarse para lograr una mejor convivencia social. Como una muestra de la importancia que tiene el uso de Internet y de las redes sociales, el 13 de mayo de 2016, Día Mundial de Internet, el Instituto Nacional de Estadística, Geografía e Historia (INEGI) publicó que en el segundo trimestre de 2015, 57.4% de mexicanos mayores de seis años se declaraban usuarios de Internet. De acuerdo a ese estudio, 77.7 millones de mexicanos cuentan con un celular, de los cuales, dos de cada tres son Smartphone. El 71.4% hace uso de las redes sociales. El reto es usarlo para algo más que el entretenimiento, y hay algunos ciudadanos organizados en movimientos sociales que están intentando el activismo político por este medio. Internet logró que aquello que antes se consideraba local, hoy en día se pueda definir como glocal, para darle nombre a la trascendencia de aquello que, pareciendo ser 10

de competencia local, se convierte en algo de interés global o mundial. Múltiples comunidades reales encuentran espacio en las virtuales y trascienden gracias a la creación de redes en las que cada nodo les permite enlazarse, difundir y coordinar acciones relacionadas con sus propósitos. El caso del Ejército Zapatista de Liberación Nacional (EZLN) en México, es un ejemplo del uso social de Internet; la presencia en México y el mundo de ese movimiento se logra gracias al uso de las nuevas tecnologías de la información y comunicación que los subcomandantes Galeano y Moises implementan para dar a conocer sus propósitos políticos. Los especialistas en el área de comunicación pronto comenzaron a manifestar sus reflexiones:

nuevas tecnologías y proyectan propósitos sociales que tienen eco en otras latitudes, entre esos ejemplos, y en la década de 1990, están el EZLN en México, los Sin Tierra en Brasil o las protestas en Seattle, Estados Unidos, en contra de la Organización Mundial del Comercio. Desde otra perspectiva, Ignacio Ramonet (2003) señala que los medios están al servicio de intereses económicos, y van más allá, están inmersos en los intereses financieros, sus contenidos sólo pueden responder a la volatilidad de los mercados, en ese sentido consideramos que Internet está relacionada con esos propósitos y ello impide que se convierta en un instrumento democratizador de la información.

Por consiguiente, no es que la red cree un modelo de individualismo, sino que el desarrollo de Internet proporciona el soporte material apropiado para la difusión del individualismo en red como forma dominante de sociabilidad (Castells, 2011, 172).

Aquí citaremos dos comunidades web haciendo esfuerzos constantes por despertar conciencias individuales y colectivas sobre problemas de diferente índole y comunes a la humanidad: Indymedia (2015) y Minga Informativa (2015), quienes a través de sus páginas difunden información de problemas locales y logran la solidaridad mundial, entre otros tópicos que los lleva a realizar acciones en conjunto.

Las redes y los movimientos sociales existen desde antes de las nuevas tecnologías, lo interesante del presente contexto es apreciar cómo diferentes grupos sociales comienzan a apropiarse de esas

Mientras se desarrollaba la reunión del Foro Económico Mundial, Seattle 1999, un grupo de activistas de las tecnologías y de los contenidos en internet unieron esfuerzos para utilizar las TIC y difundir CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


información alternativa a las agencias al servicio del capitalismo ahí reunido. No se conformaron con acciones a corto plazo, fueron más allá al crear lo que hoy en día consideramos una de las redes más organizadas e interactivas de información democrática en el mundo: Indymedia, que en enero de 2016 contaba con nodos en países de los cinco continentes y siguen creciendo. Cada una de las organizaciones de Indymedia trabaja con independencia de las demás, se pide que trabajen de acuerdo con los principios de esta red que están basados en la democratización de la información, defensa de los derechos del hombre, la verdad y la articulación de las acciones. Esta organización trabaja como un colectivo de periodistas independientes y cualquiera en donde se encuentre puede colaborar con contenidos mediante video, audio, gráficos, fotografías o bien, formando parte del equipo colectivo de edición que se encarga de verificar que los contenidos que se publican sean * Universidad Autónoma de Nuevo León. Contacto: daniel.alcocer@hotmail.com

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

11


congruentes con los principios del sitio, de esta manera se logra una participación libre y democrática.

de la Información, que por primera vez se realizó en Ginebra, Suiza, en 2003, se estableció lo siguiente:

En búsqueda de congruencia, Indymedia no comercializa sus espacios, por lo que solicita apoyos económicos para hospedaje y labor periodística. Está basado en el formato abierto en Internet, por lo que cualquiera puede hacer uso de sus contenidos, permanentemente mantiene abierta la invitación a todos aquellos que comulguen con su ideología

Nos comprometemos a construir sociedades de la información y la comunicación centradas en la gente, incluyentes y equitativas. Sociedades en las que todas y todos puedan crear, utilizar, compartir y diseminar libremente la información y el conocimiento, así como acceder a éstos con el fin de que particulares, comunidades y pueblos sean habilitados y habilitadas para mejorar su calidad de vida y llevar a la práctica su pleno potencial (Cumbre Mundial sobre la Sociedad de la Información, Ginebra 2003-Túnez 2005, 2004a).

La permanencia de Indymedia en el ciberespacio como articulador de información y acciones de los movimientos sociales tiene en su historia capítulos difíciles como el asalto a las instalaciones de este colectivo por parte de la policía en la Contracumbre de Génova, Italia 2001, o el asesinato en Oaxaca, México, de uno de sus periodistas, Brad Will, quien murió con su cámara de video en las manos cuando fue alcanzado por un disparo en la barricada del municipio de Santa Lucía del Camino. Entre los reconocimientos que han obtenido está el de 2006, cuando el Club de Periodistas de México les otorgó el Premio Nacional de Periodismo en la categoría Internet, y en Brasil, en 2008, el grupo de activistas “Tortura Nunca Más” les otorgó la medalla Chico Méndez de Resistencia por su lucha a favor de los derechos humanos. De igual forma, el sitio http://www.movimientos. org, el cual se creó a partir del nacimiento de la Comunidad Web de los Movimientos Sociales que bajo el lema “Unidad en la diversidad” concentran y unen sus esfuerzos para presentar alternativas de espacios para la denuncia, expresión de los sin voz y solución a problemas locales y mundiales. Cuentan con la agencia de noticias virtual de los movimientos sociales, Minga Informativa (minga significa trabajo colectivo en quichua), y se concentra en difundir información y articular acciones de América Latina Para el funcionamiento de la Minga Informativa, diferentes movimientos sociales de América Latina suman esfuerzos para alimentarla de contenidos y articular acciones, partiendo de la idea de que la comunicación es estratégica y vital para sus objetivos. Del mismo modo, las organizaciones mundiales, como la ONU, promueven la libertad de expresión y propician la organización de la sociedad a través de las TIC, pero son los ciudadanos a los que les toca hacer realidad esas propuestas. En la Declaración de la Sociedad Civil, en la Cumbre Mundial sobre la Sociedad 12

Con esta declaración queda asentada la preocupación de quienes en ella participaron por destacar e impulsar el uso de las TIC para el desarrollo. Por su parte, en la Declaración de Principios que la Cumbre Mundial sobre la Sociedad de la Información (2004b) dio a conocer el 12 de mayo de 2004, la necesidad de que las TIC no sean meramente vistas como instrumentos para elevar el status quo o reducidas al entretenimiento comercial.

Movimientos sociales y educación en las TIC: Latinoamérica y México Una parte medular en el proceso de apropiación por parte de los movimientos sociales de las nuevas tecnologías de la información y comunicación es la educación o preparación tecnológica en el uso de las mismas. Además de tener claro que existen problemas comunes a nivel local o mundial, y que se pueden combatir con acciones concretas, las organizaciones sociales han hecho conciencia de que educarse en las nuevas tecnologías de la comunicación es fundamental. Es importante señalar que en América Latina ya existe un campo amplio de estudio entre redes sociales, Internet y educación; algunos de los investigadores más consistentes al respecto son Eduardo González Manet, Osvaldo León y Sally Burch; así como publicaciones electrónicas pioneras, entre ellas Razón y Palabra de México Asimismo, desde principios del presente siglo se realiza el Foro Social Mundial, en el cual, una de las temáticas que se desarrollan es la educación en las TIC; cabe destacar que a este foro asisten los movimientos sociales más representativos del mundo. Uno de esos encuentros sociales se realizó en la ciudad de Caracas, Venezuela, en 2006, al cual nos tocó asistir, en el mismo entrevistamos a líderes de diferentes países, esta información fue utilizada en nuestra tesis de doctorado relacionada con el presente texto. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


En otro orden de ideas, se considera que las tecnologías no son un fin en sí mismas, sino un instrumento que ayuda a cambiar el rumbo de los acontecimientos, como se ha demostrado en varias ocasiones, sin embargo, es necesario una educación para lograr su uso efectivo y trascendente. Del mismo modo, se ha expuesto que la labor educativa no surge de la casualidad, es necesario que los movimientos sociales generen estrategias utilizando la web y preparen a sus militantes en los distintos recursos que ofrecen las nuevas tecnologías de la información y comunicación. México no se ha rezagado al respecto, y la revista Razón y Palabra, coordinada por un grupo de especialistas, entre ellos Octavio Islas, representa una de las inquietudes intelectuales más significativas en cuanto a educación y TIC. Razón y Palabra es un espacio editorial que con precisión ha documentado el desarrollo de los movimientos sociales en la red desde 1996; desde diferentes perspectivas, y mediante textos de especialistas, ha publicado interesantes investigaciones sobre la apropiación de las TIC por parte de los movimientos sociales. En dicha publicación también se manifiestan otros tópicos de las TIC en la sociedad mexicana, así como de manera constante se ofrece un panorama histórico y contemporáneo de las mismas en el mundo.

REFERENCIAS Castells, M. (2001). Galaxia internet. Barcelona: Plaza y Janes. Cumbre Mundial sobre la Sociedad de la Información, Ginebra 2003-Túnez 2005. (2004a). Plan de acción. Recuperado el 2 de junio de 2015 de: https://www.itu. int/dms_pub/itu-s/md/03/wsis/doc/S03-WSIS-DOC0005!!PDF-S.pdf Cumbre Mundial sobre la Sociedad de la Información, Ginebra 2003-Túnez 2005. (2004b). Declaración de Principios. Construir la Sociedad de la Información: un desafío global para el nuevo milenio Recuperado el 2 de junio de 2015 de: http://www.itu.int/wsis/docs/geneva/official/dop-es.html Ramonet, I. (2003). Los medios y la globalización. Recuperado el 1 de junio de 2015 de: http://www.solidaridad.net/noticia/682/los-medios-y-la-globalizaci-o-n-por-ignacio-ramonet Indymedia México (2015). Consultada el 1 de junio de 2015. http://mexico.indymedia.org/ Minga/Mutirão Informativa de Movimientos Sociales (2015). Consultada el 1 de junio de 2015. http://www. movimientos.org/

Cabe señalar que ahí se ha analizado, desde diferentes perspectivas, el movimiento mediático del Ejercito Zapatista de Liberación Nacional, entre otras manifestaciones con características similares. Mencionamos algunos movimientos sociales representativos en el uso de las TIC durante la década de 1990, el surgimiento de espacios en internet dedicados a la promoción de estos movimientos como Indymedia o la Minga Informativa, sin dejar de mencionar el uso social que la UNESCO señala al respecto y la responsabilidad de todos para que haya una educación con esas nuevas tecnologías de la información. Además de los anteriores aspectos, expresamos la importancia de prepararse para aprovechar al máximo las ventajas de las nuevas tecnologías de la información y con ello lograr con objetividad los propósitos de los movimientos sociales; del mismo modo dimos cuenta de algunos especialistas que se dedican a estudiar la temática en cuestión y la presencia de ello en nuestro país.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

13


14

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


En la segunda mitad del siglo XX, después de la Segunda Guerra Mundial, una vez que las potencias occidentales y la Unión Soviética habían derrotado al fascismo, y que había culminado el lanzamiento de las bombas atómicas sobre territorio japonés, se suscitó una gran preocupación sobre el rumbo que debería tomar la investigación científica y tecnológica, la cual, en los años previos, había permanecido, prácticamente, al servicio de la guerra en ambos bandos. Durante la Guerra, científicos y tecnólogos trabajaban a marchas forzadas para descubrir y desarrollar las mejores herramientas (armas y tácticas) para derrotar al enemigo; pero, toda o la mayor parte de la investigación fue dirigida o centralizada por el gobierno. Al final de la Guerra, la pregunta principal era: ¿qué hacer y cómo proceder con la ciencia y la tecnología? Ya se percibía algo de despreocupación de los gobiernos de las grandes potencias respecto a seguir centralizando todos los esfuerzos en ese sentido, a pesar de que ya se aproximaba la carrera armamentista derivada del enfrentamiento por la repartición de Alemania, y de que el gasto en defensa seguía siendo enorme; era inminente pues que los gobiernos se desentenderían de algunos rubros o campos relevantes de la ciencia. La famosa carta de Bush (1999) al presidente Roosevelt es llamativa, en ésta Bush trata de persuadir para que el financiamiento público, a ciencia y tecnología, permanezca alto aún en los tiempos de paz. Parte del discurso era que si bien la guerra había llegado a su fin, era muy importante seguir apoyando fuertemente la ciencia y la tecnología porque aún había innumerables problemas por resolver (y la ciencia ayudaría a eso), y que, sin duda, nuevos problemas aparecerían. En el texto de Bush se menciona que a la par de actividades en las que la industria se ha interesado tradicionalmente (por ejemplo, la agricultura), hay otras áreas del conocimiento en las que las expectativas de ganancias de corto plazo no podrían lograrse, y sin la intervención gubernamental para fomentar la investigación avanzada, esos campos del conocimiento podrían quedar muy rezagados. Más de una década después del informe de Bush, se publicaron algunos trabajos que se propusieron demostrar la necesidad de la intervención gubernamental para apoyar el desarrollo, sobre todo de la ciencia básica, las conclusiones de Nelson (1979), Arrow (1979) y Griliches (1979) lograron mostrar que el avance de la ciencia y la tecnología no se podía dejar a merced del libre mercado, y si eso sucediera, se cometería un grave error. Incluso, las demostraciones de estos científicos llegaron a la conclusión de que los beneficios sociales CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

de la ciencia básica son mayores que los beneficios esperados de la investigación aplicada. Asimismo, si se piensa en la obtención de productos y de procesos, a largo plazo, la ciencia básica puede ser más fructífera. Sin embargo, el bajo nivel de apropiabilidad de los resultados de la investigación básica y los bajos beneficios privados esperados, desalentarían la inversión de las empresas en la ciencia y la tecnología. En general, los hallazgos a principios de la década de 1960 tuvieron influencia hegemónica hasta el inicio de los setenta, acompañados con las aportaciones de otros científicos sociales. No obstante, en esos años comenzaba a tomar fuerza la posibilidad de privatizar los beneficios de los proyectos de investigación (aunque se hubieran financiado con recursos públicos); esa postura se vio reforzada en los Estados Unidos a partir de nuevos descubrimientos en la biología, la química y la física, que hacían viable la oportunidad de fijar derechos de propiedad (privada) intelectual a resultados concretos de investigación, aunque se retroalimentaran de los avances previos de la ciencia. Esta tendencia corría pareja con una cada vez mayor insatisfacción con los Estados de bienestar y con las burocracias abultadas, lentas y torpes que rayaban en el totalitarismo (se percibía que el Estado-gobierno se quería meter y controlar absolutamente todo), con políticas y controles punitivos. En la década de 1970 resurgen las teorías prolibre mercado en la ciencia económica y en la praxis política. De hecho, en esta década ascienden al poder candidatos del partido conservador tanto en Estados Unidos como en Inglaterra, en ambos casos con fuertes bríos privatizadores, lanzando sus dardos contra las posturas keynesianas en cuanto oportunidad se les presentaba. Así, no pasaría mucho tiempo para que la ola privatizadora alcanzara a la ciencia y a la academia.

CONSOLIDACIÓN DE LAS PERSPECTIVAS EMPRESARIALES Y DE MERCADO EN LAS UNIVERSIDADES Dado el estatus hegemónico de Estados Unidos, sobre todo en el hemisferio occidental, pronto su modelo económico, político y social sería imitado en el resto del mundo. A nivel de las universidades, y de la ciencia y * Universidad Autónoma de Baja California. Contacto: rodocec@yahoo.com.mx 15


la tecnología, comienzan a tomar fuerza las posturas que exigían una mejor asignación del presupuesto y la comercialización del conocimiento. En este país, la enmienda constitucional conocida como The Bayh Dole Act, aprobada a inicios de 1980, marcó la pauta para que las universidades que, previamente, habían obtenido fondos públicos para financiar los proyectos de investigación, tuvieran la posibilidad de patentar los resultados para beneficio propio. En otras palabras, las universidades y los centros públicos de investigación, al poseer algunos o varios títulos de patentes (propiedad privada intelectual) podrían darlos en licencia (venderlos) a las empresas, mismas que pagarían regalías (dando la oportunidad a las universidades de aumentar sus ingresos por esfuerzos propios y directos), así como incentivos a los inventores e innovadores que fueron clave para lograr la o las patentes. La euforia por las patentes en el sistema universitario estadounidense rápidamente desencadenó un movimiento que promovió la apertura de oficinas de transferencia de tecnología en las universidades de todo el país. Sin embargo, para algunos, en sí The Bayh Dole Act únicamente vino a formalizar una serie de tendencias que ya se observaban en algunas instituciones emblemáticas como el Massachusetts Institute of Technology, California University y Harvard University. El boom del patentamiento también implicó un crecimiento exponencial del sistema de patentes, reflejó la necesidad de pensar y repensar sobre lo que se patenta, lo que se debe patentar y lo que debe quedar al margen. Para algunos autores, el boom se ha transformado en un sistema de propiedad intelectual que ha permitido el registro de patentes en campos que resultan muy controvertidos (ahora, la vida misma puede patentarse), o que el nivel de exigencia y de calidad para obtener un título de patentes haya descendido dramáticamente (algunas cosas inverosímiles pueden patentarse). Otros eventos político-económicos y sociales contextuales que permitieron el avance de las perspectivas privatizadoras y empresariales en las universidades, y en la ciencia y la tecnología fueron: 1. la falta de pericia (probablemente se vieron sorprendidos) de los intelectuales y políticos defensores de la economía mixta; 2. la decadencia irreversible del bloque socialista que llegó a la implosión, al desmoronamiento del imperio soviético y a la inestabilidad de Europa oriental;

16

3. las profundas crisis económicas y sociales padecidas por muchos de los países en desarrollo, principalmente, de América Latina, que se vieron arrastrados por los ajustes en las tasas de interés de Estados Unidos (las enormes deudas públicas externas causaron verdaderos estragos); 4. el descrédito de las agencias gubernamentales y paraestatales por la corrupción de sus dirigentes, así, la gestión y gobernación de las universidades no escapaba a esa mala reputación; 5. la consolidación del conservadurismo político y económico en los países de gestación que no tardó en incorporar programas específicos para los países en desarrollo. Las políticas de ajustes presupuestales, de privatización de paraestatales, de desregulación de precios, de apertura comercial y de competencia (sintetizadas en el Consenso de Washington), poco a poco fueron tocando el terreno de las instituciones de educación superior y de las actividades de ciencia y tecnología. En América Latina, y particularmente en México, la adopción y adaptación de las políticas empresariales, privatizadoras y de mercado, se ha ido desarrollando desde la década caótica de 1980. En cierta forma, desde la perspectiva de Luna (1999), lo que se ha buscado, implícitamente, es transformar las universidades públicas, de semilleros de guerrilleros a semilleros de emprendedores y empresarios, ello mediante el fomento de la colaboración academia-industria; en realidad, el financiamiento público que reciben actualmente las universidades depende, en parte, de la intensidad de cooperación con el sector productivo (muchos de los recursos propios provienen de la investigación subcontratada, consultorías especializadas y de convenios generales con el sector privado). Asimismo, las políticas de la educación superior en México, en las últimas décadas, según Ibarra (2005) se han caracterizado por la importación, implementación y operación del instrumental administrativo de los negocios privados a las universidades; tales estrategias alcanzan la generación y gestión del conocimiento científico y tecnológico; pero, esas políticas empresariales, traídas a las universidades pese a la gran expectativa levantada en un principio, ya muestran signos de desilusión, pues varios de los viejos vicios (corrupción, improvisación) no se han superado (Kent, 2005). CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Si bien es cierto que las amenazas y las preocupaciones de la privatización total de las instituciones de educación superior –que condujo a finales de 1990 a una larga huelga en la Universidad Nacional Autónoma de México, y a finales de 2000 en la Universidad Autónoma Metropolitana– no prosperaron, pero eso no descartó el objetivo de instaurar las prácticas empresariales. En términos de Guerrero (2004) se trata de una endoprivatización, que en las actividades administrativas, directivas y de gestión de las universidades significa conducirlas o dirigirlas como si se tratase de una empresa (cuyo objetivo principal es obtener una ganancia por lo que hacen). En lo que respecta a la organización de los grupos de investigación, Etzkowitz (2003) se refiere a ellos como cuasiempresas; y cuando se trata de la realización de investigación en las universidades buscando una ganancia pecuniaria, estas instituciones podrían percibirse como protoempresas (García, 2009). Se supone que las estrategias empresariales se han desplegado para fomentar la innovación tecnológica desde las universidades, y a partir de ahí promover un crecimiento y desarrollo económicos más altos. Lo curioso es que de manera simultánea a ese discurso optimista, el crecimiento económico del país en el periodo de vigencia de estas políticas ha registrado tasas cercanas a cero si el crecimiento poblacional es descontado (Rodríguez y García, 2015). Específicamente, las estrategias más sobresalientes para alentar el desarrollo tecnológico o la innovación, y para aumentar la productividad de los profesores-investigadores son: 1. convocatorias de distintos tipos y alcances para acceder a fondos para la investigación (promoción de la competencia académica); 2. esquemas de incentivos para los más productivos (con más publicaciones, más patentes, más cursos, más tesis dirigidas), generalmente, tomando en consideración únicamente criterios de cantidad; 3. mayores preferencias institucionales por financiar proyectos de investigación aplicada, y si ésta contempla desarrollos tecnológicos será mejor; 4. se califican mejor los proyectos que se diseñan y se desarrollan con base en las necesidades del entorno (regional, nacional y pocas veces internacional), grosso modo en función de la demanda de mercado;

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

5. la apertura de nuevos programas de licenciatura y de posgrado deben justificar su pertinencia (¿para el sector privado?). Así, las políticas universitarias (plasmadas en los planes de desarrollo) conllevan una fuerte dosis de las preocupaciones y deseos empresariales; 6. para lograr una mayor comercialización de los resultados de la investigación, se sugiere patentar casi lo que sea para que luego las empresas soliciten en licencia las patentes; 7. apertura por doquier de oficinas de transferencia de tecnología, pareciera que las universidades se preparan para vender una gran cantidad de patentes, y por eso se requiere una oficina especial que triangule las ganancias por la transferencia de tecnología; 8. para el nuevo semillero de emprendedores y empresarios también hubo que preparar incubadoras de empresas tecnológicas; 9. adecuación de las legislaciones universitarias para contemplar esquemas de incentivos a inventores e innovadores (para que la venta de sus patentes les otorgue mayores ganancias y a través de estos incentivos se logre un círculo virtuoso para la innovación); 10. apertura de programas de posgrado mixtos (con reconocimiento de calidad por el Consejo Nacional de Ciencia y Tecnología [Conacyt]), entre universidades o centros de investigación y empresas. Lo que sostengo respecto a estas estrategias es que, en la mayoría de los casos, se han implementado sin siquiera reflexionar un poco sobre sus verdaderos alcances y sus efectos potenciales. Sin cuestionamiento alguno se toman tal cual las recomendaciones de la Organización para la Cooperación y el Desarrollo Económico (OCDE), del Banco Mundial (BM), del Fondo Monetario Internacional (FMI) y de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), todos como organismos multilaterales. Las directrices de esas instituciones-organizaciones mundiales son acogidas por la Secretaría de Educación Pública, la Secretaría de Hacienda y Crédito Público, así como por el Conacyt, la Asociación Nacional de Universidades y de Instituciones de Educación Superior (ANUIES) y otras dependencias, todos estos ministerios interiores fijan los derroteros de las universidades y de los centros de investigación, y por ende de 17


las políticas científicas, tecnológicas y de innovación. Además, todo ese entramado institucional y organizacional, de uno u otro modo, es fruto de la poderosísima política científico-tecnológica estadounidense.

LAS VERDADERAS RAZONES QUE IMPIDEN EL DESPEGUE DE LA INNOVACIÓN TECNOLÓGICA EN MÉXICO Sin reflexionar, aunque sea mínimamente, se da por sentado que lo importante es realizar investigación aplicada y desarrollos tecnológicos, el tipo de investigación que según nos indica el discurso oficial servirá para resolver los problemas más cercanos (del entorno) e inmediatos. El desarrollo de la ciencia básica es denostado (convocatorias para concursar fondos en pro del desarrollo científico, terminan convirtiéndose en una fachada, pues en las listas de los proyectos aprobados, la mayoría de éstos tienen el perfil de investigación aplicada). Algunos funcionarios y aun investigadores señalan que los mexicanos no necesitamos hacer ciencia, ¡dejémosle eso a los estadounidenses y a los europeos! Como si estuviéramos de acuerdo en que esas zonas del mundo monopolizaran la producción de la verdadera ciencia, y que los latinoamericanos aceptáramos sin preocupación que no somos capaces de generar ciencia auténtica (así, premios Nobel en ciencias sólo para estadounidenses, europeos y un poquito para el resto del mundo). Esas posiciones están equivocadas porque, además de los trabajos ya mencionados, las publicaciones de Dasgupta y David (1994), Stiglitz (1999), Lundvall (2004), Foray (2004) y Antonelli (2008) son contundentes al sugerir que es tanto o más importante el fomento y desarrollo de la ciencia básica que la aplicada, y que si se atacan los fundamentos mismos del conocimiento científico se estarán minando (sin pensarlo) las fuentes de lo aplicado y de la innovación en el futuro. Incluso, Foray sostiene que la aplicabilidad de una proporción de la investigación realizada requiere de una plataforma común de ciencia básica. Por su parte, Dasgupta y David, Stiglitz y Antonelli señalan que hasta ahora no se ha encontrado otra institución-organización mejor que la Universidad para el desarrollo de la investigación de frontera.

18

Un verdadero impulso a la investigación aplicada y al desarrollo tecnológico de largo plazo requiere de un empuje simultáneo de la ciencia básica, y eso no se está observando en la realidad mexicana. Por otro lado, en las universidades y centros de investigación, directivos, profesores-investigadores y funcionarios nos hemos dejado arrastrar, en forma miope, por las corrientes empresariales y neoliberales, como si las empresas y el mercado fueran las instituciones absolutamente transparentes y los modelos ideales (la realidad ha demostrado que las empresas y el mercado también pueden ser muy corruptos). La afirmación de que el mercado es completamente limpio y transparente no es más que un mito, el problema es que ese mito se ha importado por las percepciones y cogniciones de las universidades. En México tampoco se han hecho esfuerzos serios por estructurar clusteres de empresas científico-tecnológicas, y eso es una condición histórica, en trabajos anteriores (García, 2014; 2015) se concluye que dos de las causas del rezago tecnológico se constituyen por la casi nula demanda de conocimiento (muy pocas empresas son realmente de base tecnológica) y la muy baja inversión en las actividades científicas y tecnológicas. En esta perspectiva, las universidades podrían tener muchas patentes y modelos de utilidad (disponibles en las oficinas de transferencia de tecnología), pero, muy probablemente, habrá pocas empresas o ninguna que se interese por esa tecnología. En las persuasiones y en el discurso que alienta la innovación desde las universidades, es muy frecuente que se pasen por alto cuestiones macroeconómicas que son indispensables para alentar la concreción de los proyectos tecnológicos. De este modo, con tasas de interés muy altas (casi prohibitivas), depreciación de la moneda, ausencia de políticas industriales selectivas, y sin estrategias comerciales que protejan a las firmas tecnológicas –sobre todo en las fases de arranque y despegue–, la probabilidad de sobrevivencia de las pocas empresas tecnológicas que se abran es muy baja, en el trabajo de García-Galván (2015) se realiza un análisis más detallado de estos asuntos. Como ya se ha mencionado, los directivos y funcionarios de las universidades y de los centros de investigación, haciendo eco en cascada de las recomendaciones de los organismos multilaterales y de las secretarías de Estado, se han apresurado a fomentar el patentamiento CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


(éste, ahora mismo es objeto de severos cuestionamientos en el propio Estados Unidos), a fundar incubadoras de empresas, a modificar planes de estudio para dotarlos de fuertes dosis de emprendedurismo y a promover, en general, la comercialización del conocimiento. Sin embargo, hasta el momento esas estrategias no han sido exitosas, o al menos han resultado insuficientes. Por ejemplo, si no hay empresas interesadas en solicitar las licencias de las patentes, entonces existe la necesidad de crear tales empresas, pero ese mecanismo debe acompañarse de otras estrategias fundamentales como: 1. mayor inversión para escalar industrialmente las innovaciones de las universidades; 2. conformación de parques tecnocientíficos que den cobijo a las nuevas empresas parauniversitarias o paraestatales; 3. rediseño de las compras gubernamentales para asegurar un cierto nivel de adquisición de productos y servicios de las nuevas firmas; 4. a partir de la intervención gubernamental inteligente, buscar la conformación y consolidación de mercados complementarios para los nuevos bienes y servicios; 5. conformación de redes de logística internacional para la promoción de los productos tecnológicos universitarios; 6. estrecha vinculación de la universidad con las empresas tecnológicas, pero al mismo tiempo continuar con, al menos, los servicios de consultoría para las firmas tradicionales (de manufactura y de maquila); 7. estructurar un menú de opciones de innovación que podría llevarse a escala industrial y comercial, ya que de ninguna manera las patentes pueden considerarse como sinónimo de innovación. El menú podría incluir ferias científico-tecnológicas, multiplicar los premios a la investigación tecnológica en las instituciones de educación superior, la consultoría científico-tecnológica avanzada, la colaboración tecnocientífica en proyectos conjuntos, la integración de consorcios de investigación y las alianzas tecnológicas estratégicas;

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

8. todas las estrategias anteriores podrían apoyarse a partir de la fundación de una banca de desarrollo que atienda las necesidades de inversión de los proyectos tecnológicos con génesis en las universidades y en los centros de investigación. Esta nueva banca de desarrollo tecnológico podría operarse como una extensión del Conacyt y de la ANUIES.

CONCLUSIONES El impulso a la investigación científica y tecnológica es una condición necesaria para aspirar a un crecimiento y desarrollo económico sostenidos (concretados en mayores niveles de bienestar en el marco de la economía basada en el conocimiento), en los que las universidades actúan como actores centrales. Sin embargo, en este documento se ha sostenido que la adopción y utilización de las nociones y mecanismos de gestión de las empresas privadas y del libre mercado no son adecuadas para fomentar verdaderamente el desarrollo científico-tecnológico de México. Las políticas públicas de ciencia y tecnología en el país han sido imbuidas por los planteamientos del libre mercado (competencia, propiedad intelectual, activos intangibles, comercialización, mercados tecnológicos, satisfacción del cliente, búsqueda de ganancias, entre otros), que por las propiedades del conocimiento de frontera (incertidumbre, indivisibilidad, acumulatividad e inapropiabilidad) conlleva fallas de origen. En consecuencia, las estrategias implementadas por las instituciones-organizaciones (universidades) encargadas de promover la ciencia y la tecnología carecen de argumentos sólidos para solucionar el problema del rezago que padecemos en estos ámbitos. Por último, es preciso señalar que las necesidades de desarrollo tecnológico en el país no tienen que atacar las fuentes originales de su inspiración (la ciencia básica); más bien, el impulso de ambos tipos de investigación es crucial. Asimismo, la subordinación de los intereses de las universidades a los deseos de los empresarios (tradicionales) no es camino a seguir. Por tanto, la interacción con los otros actores económicos, políticos y sociales debe garantizar negociaciones en condiciones de igualdad. Tampoco debe perderse de vista la función crítica que tiene la universidad.

19


REFERENCIAS Antonelli, C. (2008). The new economics of the university: a knowledge governance approach. Journal of Technology Transfer; 33, pp. 1-22. Arrow, K. (1979). El bienestar económico y la asignación de recursos para la invención. En Rosenberg, N. Economía del cambio tecnológico. México: FCE. Bush, V. (1999). Ciencia, la frontera sin fin. Un informe al presidente, julio de 1945. REDES (6)14, pp. 89-156. Dasgupta, P., y David, P. (1994). Toward a new economics of science. Research Policy; 23, pp. 487-521. Etzkowitz, H. (2003). Research groups as ‘quasi-firms’: the invention of the entrepreneurial university. Research Policy; 32, pp. 109-121. Foray, D. (2004). Economics of Knowledge. Cambridge, MA: The MIT Press. García G., R. (2009). Análisis teórico de la transferencia de conocimientos universidad-empresa mediante la colaboración. Economía: teoría y práctica; 29, pp. 51-86. García G., R. (2014). “Desempeño económico y factores económicos detrás del rezago tecnocientífico en México. Revista Cofactor, (5)9, Toluca, México: CIEPSGEM. García G., R. (2015). Cinco factores que inhiben la colaboración tecnológica universidad-empresa en los países en desarrollo. Tiempo Económico, México, DF: UAM-Azcapotzalco, en prensa.

20

Griliches, Z. (1979); Costos de investigación y rendimientos sociales: el maíz híbrido e innovaciones relacionadas. En Rosenberg, N. Economía del cambio tecnológico. México: FCE. Guerrero, O. (2004). La nueva gerencia pública. México: Colección Fontamara. Ibarra, E. (2005). Origen de la empresarialización de la universidad: el pasado de la gestión de los negocios en el presente del manejo de la universidad. Revista de la Educación Superior XXXIV(2)134, abril-junio, México: ANUIES, pp. 13-37. Kent, R. (2005). La dialéctica de la esperanza y la desilusión en la política de la educación superior en México. Revista de la Educación Superior, XXXIV(2)134, abril-junio México: ANUIES, pp. 63-79. Luna, M. (1999). La visión del sector privado hacia la universidad pública: de semillero de guerrilleros a semillero de emprendedores. En Casas, R. y M. Luna (coord.). Gobierno, academia y empresas en México: hacia una nueva configuración de relaciones. México: UNAM, Plaza y Valdez. Lundvall, B. (2004). The Economics of Knowledge and Learning. Research on Technological Innovation and Management Policy; 8, pp. 21-42. Nelson, R. (1979). La economía sencilla de la investigación científica básica. En Rosenberg, N. Economía del cambio tecnológico. México: FCE. Rodríguez, E., y García, R. (coords.) (2015). El desastre económico mexicano, 1982-2011. Pachuca-Hidalgo, México: UAEH. Stiglitz, J. (1999). Knowledge as a Public Good. En Kaul, I., Grunberg, I. y Stern, M. (Eds.). Global Public Goods, International Cooperation in the 21st Century. The United Nations Development Programme.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

21


En el presente artículo abordaremos la presencia del maíz en la prehistoria de Nuevo León, partiendo de la premisa de que si esta aseveración la hubiéramos comentado hace diez años, los especialistas en el tema la refutarían categóricamente.

Las crónicas coloniales calificaban a las tribus originales como “salvajes”, “bárbaros”, “incultos”, opinión que se mantuvo por siglos debido a que las fuentes de la época se constituyeron en los únicos documentos de consulta.

Hacía 2013, específicamente en paraje “El Morro”, en Aramberri, Nuevo León, se descubrió que los antiguos habitantes de esa región cultivaron maíz, hecho sorprendente ya que marca otro momento en la investigación arqueológica en el noreste de México.

Araceli Rivera Estrada, investigadora del INAH-Nuevo León, en noviembre de 2013, dio a conocer la presencia de indicios de agricultura antigua en Nuevo León (INAH, 2013).

Los indicios de agricultura temprana descubiertos por Araceli Rivera Estrada, investigadora del INAH-Nuevo León, que unidos a los trazos encontrados en sitios de gráfica rupestre como Maguelloso, Espinazo, Ojo Frío, en Mina, Nuevo León, y la Mesa de Catujanos, en Candela, Coahuila, nos aportan datos muy importantes que reescriben la historia del noreste de México. El maíz es la base de la alimentación en México y por milenios ha sido un elemento importante en la vida de múltiples culturas en México y América.

MAÍZ MILENARIO EN ARRAMBERRI Podemos encontrar el origen del maíz en diversas partes de la nación, aunque el lugar más conocido es Tehuacán, en Puebla, aquí lo investigó Richard Stockton MacNeish (1971), sin embargo, algo parecido ocurre en Naquitz, Oaxaca (Flannery, 2009). El cultivo del maíz pone en evidencia el conocimiento acumulado sobre el cereal, el cual, al paso del tiempo, llegó a cambiar el estilo de vida de quienes lo sembraban, dando paso del nomadismo a la vida sedentaria. A lo anterior se suma el hallazgo de restos de agricultura en la zona aledaña a “El Morro”, en Aramberri, Nuevo León, descubrimiento en el que queda claro que hace poco menos de 3 mil años se sembraba maíz en el corazón de la Sierra Madre Oriental. El valioso descubrimiento “tambalea” la noción de Aridoamérica y Mesoamérica, acuñada por Paul Kirchhoff (1945, en Tlatoani, 1960), quien en los años cincuenta estableció criterios económicos y culturales para diferenciar las áreas culturales de México en la antigüedad.

22

En el sitio “El Morro” se localizaron semillas, olotes y hojas de maíz cuya antigüedad puede remontarse hasta 3500-3000 antes de Cristo, y además se cultivaba calabaza y frijol. “En Nuevo León no se había identificado ningún sitio arqueológico con este tipo de evidencias. Después de dos temporadas en el paraje “El Morro”, municipio de Aramberri, recuperamos aproximadamente un millar de olotes y fragmentos de los mismos”, asevera Rivera Estrada (INAH, 2013). La investigadora, quien los últimos años se ha dedicado a explorar los distintos abrigos rocosos de la sierra neoleonesa, en la entrevista destacó la relevancia de dicho hallazgo porque “prueba que los cazadores-recolectores nómadas de la región ya habían comenzado a ser agricultores desde el periodo Arcaico, situación que nos llevará a reevaluar las categorías para designar a los grupos indígenas del sur del estado”. El sitio en cuestión se trata de un pequeño abrigo rocoso localizado en la zona de “El Morro”, en Aramberri, cerca del Río Blanco, el cual contiene abundante pintura rupestre, no sólo en el frontón del acceso, sino en varias enormes lozas que se ubican al exterior, representando figuras antropomorfas y zoomorfas, entre otras. Durante los trabajos de excavación en “El Morro”, los arqueólogos hallaron fragmentos de cestería y cordelería; algunos objetos líticos no registrados anteriormente y objetos rituales de uso desconocido.

3000 A 1500 AÑOS A.C. Sobre las fechas de antigüedad de los hallazgos de maíz domesticado, Rivera Estrada menciona que “las muestras de carbón orgánico obtenidas en diferentes niveles estratigráficos del depósito de “El Morro” se encuentran en proceso en el Laboratorio de Fechamiento de la Subdirección de estudios y Apoyo Académico del INAH”. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Por asociación con la lítica recuperada en los depósitos más profundos, donde se localizaron dos puntas del tipo Abasolo, se ha obtenido una fecha para el periodo Arcaico Medio de entre 3000-1500 a.C. (Rivera, 2007). En la cronología del maíz en México anexamos el descubrimiento en Aramberri, Nuevo León, y el sitio de “El Morro” se encuentra en el lugar seis de los puntos más antiguos de cultivo de este cereal en el país. Tabla I. Cronología del maíz en México (Gómez, 2014). 1. 30,000 a 2,500 años a. C., grupos de cazadores y recolectores colectaban teocintle (Zea mays) Parviglumis como parte de su dieta. 2. 6,290 a. C., polen de teocintle localizado en la Cueva de Guilá Naquitz, Oaxaca. 3. 4,258 a. C., en San Andrés, Tabasco, se localiza en un sitio polen de maíz (Zea mays). 4. 3,400 a. C., en la cueva de Guilá Naquitz se documenta una mazorca de una especie no completamente domesticada. 5. 3,140 a. C., en Zohapilco, Estado de México, se encontró un depósito de semillas de teocintle y polen de Zea mays. 6. 3,000 a 1,500 años en la cueva de “El Morro”, en Aramberri, Nuevo León, restos de olotes, mazorcas y granos, asociados a gráficas rupestres y restos humanos. 7. 2,750 a. C., en las cuevas de San Marcos, Tehuacán, Puebla, se localizan mazorcas. 8. 2,500 a 1,200 años a. C., se conforman las primeras aldeas agrícolas, se implementa el uso de objetos de cerámica para cocinar. 9. 2,300 a. C., se localiza polen de Zea mays en Laguna Pompal, Veracruz. 10. 1,980 a. C., en la cueva de Romero, Tamaulipas, se localizan mazorcas de maíz domesticado. 11. 1,400 a. C., se localiza en San Carlos, Chiapas, granos de maíz con esa antigüedad. 12. 1,200-400 a. C., en Salinas la Blanca, Guatemala, se localizaron objetos de cerámica que demostraban que en esa época ya se usaba cal para la nixtamalización del maíz y hacerla más nutritiva. 13. 500 años a. C., surge Monte Albán; se conocen sistemas de manejo de agua al piedemonte, los cuales permiten una agricultura intensiva. Se construyen represas, estanques de almacenamiento, canales, hechos de cal y canto revocados con estuco. Desarrollan el riego por gravedad a través de amplios sistemas de terrazas, con muros de contención y en el lecho del valle, a las riveras del Río Atoyac, los predios destinados al cultivo se regaban también a través del agua de pozos artesianos. Se inventan los comales y mejora la nutrición y el nivel de vida de los pueblos.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

Aunque no con mucha frecuencia, el motivo rupestre del maíz aparece en algunos puntos de Nuevo León y Coahuila. Esparcido en algunos sitios se puede apreciar el motivo, especialmente en lugares cercanos al cauce de agua o en abrigos rocosos que muy probablemente eran puntos donde se llevaban a cabo rituales, pues se trata de espacios especiales.

¿CONTACTO CHICHIMECA CON MESOAMÉRICA? La iconografía de lo que aparentemente se trata de plantas de maíz no deja nada al azar si las comparamos con la de otros puntos que guardan muchas similitudes. ¿Qué evidencian los motivos rupestres del maíz en Nuevo León y Coahuila?, en primer lugar no se trata de un hecho fortuito, situación que se ha venido comprobando de manera paulatina, ya que a lo largo de los milenios pudo haber contactos entre las culturas mesoamericanas y los grupos de cazadores recolectores de la Gran Chichimeca. En segundo lugar, partiendo de la idea de ese contacto, se presenta un grado de conocimiento acumulado del movimiento del Sol, la Luna y las estrellas, y que a través de iconografía del cereal bien pudieron establecer un puente entre su conocimiento ancestral y las relaciones que pudieron tener con los pueblos de Mesoamérica. De acuerdo a la reconocida investigadora Beatriz Braniff, existe la posibilidad de que se presentasen relaciones comerciales con objetos de carácter básico como los alimentos, materiales de construcción, leña, hierbas medicinales y otros, interesa reconocer el intercambio de objetos de lujo, exóticos o de prestigio, los cuales indican un tipo más complejo de estructuras políticas y comerciales. El estudio del intercambio de esta clase de objetos permitirá sugerir el tipo de estructuras políticas y comerciales existentes entre sitios y territorios (Braniff, 2001). Braniff insiste, pese a la evidencia de que “la Gran Chichimeca no pueda considerarse como un ‘área cultural’ según los parámetros establecidos por Kirchhoff, pues aquí vivió gente con diferentes tipos de subsistencias: cultivadores, cazadores, recolectores, pescadores, etcétera, que además pudieron o debieron cambiar su tipo de sustento de acuerdo a sus situaciones climáticas o históricas” (Braniff, 2001).

23


GRÁFICA RUPESTRE DEL MAÍZ A continuación haremos un recorrido por la gráfica rupestre del maíz en algunos sitios del noreste de México. Se trata de una aproximación breve, basada sólo en la apariencia del motivo y algunas implicaciones que el hecho pudiera tener.

En esta zona predominan varios estilos: el relacionado con la cacería, los motivos ligados a la flora (fitomorfos) y a la fauna (zoomorfos), sin omitir aquellos grabados relacionados a los conteos de los ciclos lunares y el movimiento de algunos planetas como Venus. Mesa de Catujanos

Huizachal se encuentra ubicado en la zona limítrofe de Nuevo León y Coahuila, y su iconografía queda enmarcada dentro del estilo La Mula-Pelillal. El espacio se encuentra a unos kilómetros del poblado El Anhelo, en Ramos Arizpe, Coahuila.

Mesa de Catujanos se localiza en el municipio de Candela, muy cerca de la frontera de Nuevo León, y constituye uno de los lugares de gráfica rupestre más espectaculares de todo México. Se trata de una serie de abrigos rocosos donde los antiguos grupos de cazadores recolectores marcaron su cosmología en los frontones pétreos.

El lugar se localiza en un pequeño lomerío rodeado de una planicie aluvial bañada por las inundaciones del Arroyo Patos y por las corrientes que bajan de la Sierra Pinta. El motivo anteriormente explicado se halla en una roca junto a motivos como las astas de venado y las cornamentas de borrego cimarrón.

No cabe duda que Mesa de Catujanos fue un territorio sagrado para las tribus que ahí habitaron. Seguramente sus habitantes hablaban el lenguaje coahuilteco. La Mesa de Catujanos fue un baluarte para los nativos y después para los españoles que llegaron a construir un fuerte.

Huizachal

No se trata de un grabado sobrepuesto, ya que el trazo con toda certeza fue elaborado al mismo tiempo que todo el conjunto rupestre, la antigüedad del lugar puede ser similar a los sitios arqueológicos cercanos como El Marrón y Presa de la Mula, en Mina, Nuevo León, cuya edad se puede remontar a los 3,500 años.

Mesa de catujanos.

La planta de maíz se encuentra en uno de los abrigos rocosos y fue plasmada en una primera instancia, luego fue sobrepuesta por otro motivo en un rojo más intenso. La antigüedad de la pintura se puede remontar a los 3,000 años. El Maguelloso Huizachal.

Espinazo La zona de Espinazo se encuentra muy cerca del poblado con ese mismo nombre en Mina, Nuevo León. Ubicado en la orilla de un cauce de agua que baja de un conjunto de cerros cercanos, en el lugar donde se localiza el grabado de lo que puede ser una planta de maíz es un punto conocido como El Charco Azul. 24

El Maguelloso se localiza en uno de los cañones de la antigua zona borreguera de Nuevo León. Conocido por pocos, este paraje, ubicado entre una serie de cañones, en tiempos pretéritos estuvo caracterizado por su agua abundante. A uno de los picos de las serranías aledañas a este punto se le denomina “La Caja Pinta” y es un referente para ubicar al Maguelloso desde lo lejos. Se trata de un sitio intraserrano flanqueado por arroyos secos que en

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


el pasado albergaron a los grupos de cazadores recolectores. El área fue un medio ideal para la cacería pues el agua abundante pudo sostener un sistema muy rico en recursos bióticos.

Si bien es cierto que el símbolo de Venus es muy común en toda esta región de Coahuila y Nuevo León, en Presa Pantalones es muy frecuente la representación

Tlaloc (en el Valle del Pelillal).

de la cruz enmarcada, es decir, la representación de este planeta o la estrella de la mañana, identificada con Quetzalcóatl. Además, algunos motivos elaborados en lugares especiales pueden tener implicaciones arqueastronómicas. Maguelloso.

Presa Pantalones (Valle del Pelillal) El Pelillal, en Ramos Arizpe, en Coahuila, tal vez sea una de las zonas arqueológicas de gráfica rupestre más extensas de México, ya que suma más de 50 sitios con pinturas, petrograbados, arte móvil y geroglifos que en su totalidad abarcan unos 300 kilómetros. Éste es un lugar importante pues aparte de los grabados hay espacios con pinturas. Otra curiosidad del sitio es que localizaron plantas de maíz.

Además de las evidencias arqueológicas y de la posible gráfica rupestre del maíz, otra fuente de información se obtiene de los relatos etnográficos que documentan descripciones de lugares y fechas en específico.

LA EXPEDICIÓN DE ÁLVAR NÚÑEZ CABEZA DE VACA (SIGUIENDO LA RUTA DEL MAÍZ) Sobre ese vacío en la etnografía del contacto entre españoles y los pueblos originarios del norte de la Nueva España, la narrativa de Álvar Núñez Cabeza de Vaca es un punto y aparte ya que detalla el ambiente, las costumbres y aspectos muy especiales de las tribus que habitaron esa porción desconocida de México y el sur de Estados Unidos. Tomamos el relato de Cabeza de Vaca como un testimonio fuerte para evidenciar el cultivo del maíz en la región y cómo los españoles visualizaban esta planta como sinónimo de modernidad.

Maíz descubierto en El Morro.

¿Tláloc en el Noreste de México? En el conjunto Presa Pantalones, en la cortina, hay un petroglifo que detalla claramente al dios mesoamericano Tláloc, si bien se puede tratar de una semejanza iconográfica, el grabado en sí es muy parecido, queda abierta la interrogante para futuros análisis. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

Fue en el año 1528, a menos de una década de la caía de Tenochtitlán a manos de las huestes de Hernán Cortes, que un grupo de exploradores españoles comandada por Pánfilo de Narváez naufragó a causa de un ciclón frente a Galveston, Texas, en el Golfo de México. Cuatro fueron los supervivientes del naufragio: Andrés Dorantes de Carranza, el esclavo Estebanico, Alonso del Castillo Maldonado y Álvar Núñez Cabeza de Vaca (Núñez, 1976).

25


Fueron casi 4000 km del viaje y ocho años de una larga caminata de los exploradores españoles. En uno de los pasajes del relato Cabeza de Vaca narra la manera en cómo fueron esclavos de la tribu de indios ananarivo en la costa del Golfo de México. Ahí detectó la existencia de semillas de maíz e intuyó que este cereal lo conduciría a la civilización.

La maestra Braniff sostenía que en las culturas de Sonora, Chihuahua y aún más al norte, se desarrolló un sistema de intercambio con Mesoamérica, hecho que refuerza el contacto con el noreste prehistórico de México en el que pudo haber intercambio de peyote, pieles, armamento y minerales que abundan en esta región.

A continuación, mostraremos un fragmento de las muchas referencias que Cabeza de Vaca hace del maíz.

El que en algunos lugares, no en todos, existan motivos rupestres de la planta del maíz es indicativo de contactos con las culturas mesoamericanas y éstos bien se pueden remontar hacía periodos que posiblemente datan hasta principios de nuestra era y llegan al año 1000.

Capítulo V Pasados a la otra parte, salieron a nosotros doscientos indios, poco más o menos; el gobernador salió a ellos, y después de haberlos hablado por señas, ellos nos señalaron de suerte que nos hubimos de revolver con ellos, y prendimos cinco o seis; y éstos nos llevaron a sus casas, que estaban hasta media legua de allí, en las cuales hallamos gran cantidad de maíz que estaba ya para cogerse, y dimos infinitas gracias a nuestro Señor por habernos socorrido en tan gran necesidad, porque ciertamente, como éramos nuevos en los trabajos, allende del cansancio que traíamos, veníamos muy fatigados de hambre, y al tercero día que allí llegamos, nos juntamos el contador y veedor y comisario y yo, y rogamos al gobernador que enviase a buscar la mar, por ver si hallaríamos puerto, porque los indios decían que la mar no estaba muy lejos de allí (Núñez, 1976).

Es evidente en la narración de Cabeza de Vaca la desesperación por encontrar este cereal y lo vital que era el hecho de seguir la ruta del maíz para llegar a la civilización. Al cotejar el descubrimiento del cultivo del maíz en Aramberri, Nuevo León, la gráfica de esta planta en algunos sitios ya descritos, y añadiendo el relato de Cabeza de Vaca, existen elementos que bien pudieran sustentar el objetivo del presente trabajo.

CONSIDERACIONES FINALES

Al llegar los españoles la perspectiva cambió de manera radical, y seguramente, ya en tiempos históricos, los tlaxcaltecas fueron los encargados de implementar el cultivo extensivo del cereal en esta región.

REFERENCIAS Braniff C., B. (2001). Comercio e interrelaciones entre Mesoamérica y la Gran Chichimeca. UNAM-Instituto de Investigaciones Históricas, México. Flannery, K.F. (2009). Guilá Naquitz: Archaic Foraging and Early Agriculture in Oaxaca, México. Updated Edition: Left Coast Press, Walnut Creek, CA. Gómez R., J. de D. (2014). El maíz, sustento de la civilización mesoamericana. Disponible en https://ecochac. wordpress.com/2014/09/10/el-maiz-sustento-de-la-civilizacion-mesoamericana/ INAH. (2013). Descubren indicios de agricultura antigua en Nuevo León. Disponible en: http://www.inah. gob.mx/es/boletines/1978-descubren-indicios-de-agricultura-antigua-en-nuevo-leon.

Es difícil asegurar que los antiguos grupos de cazadores recolectores llegaron a cultivar maíz en esta región de México. Aunque en la gráfica rupestre esa evidencia es contundente, los hallazgos en la región de la Sierra Madre Oriental en Aramberri, Nuevo León, abren el abanico de posibilidades que pasan de simples suposiciones a hechos reales.

Kirchhof, P. (1960). Mesoamérica, sus límites geográficos, composicion étnica y caracteres culturales. Revista Tlatoani, 3, ENAH. México D.F.

El maíz pudo haber llegado a esta región por contacto directo con las culturas mesoamericanas, ya que el clima era mucho más benévolo que en la actualidad y hubo periodos de mayor humedad, esto pudo haber propiciado que en algunos lugares, cercanos a ríos o lagunas, existiera una incipiente agricultura.

Núñez C. de V., Á. (1976). Naufragios y comentarios. Espasa Calpe: Madrid.

26

McNeish, R. (1971). Archaelogical Sintesis of the Sierra, en: Hundbook Middle American. Vol. XI, Part 2. Texas: University of Texas Press.

Rivera E., A. (coord.). (2007). Cultura indígena serrana: Cañada de Alardín, General Zaragoza, Nuevo León. Academia de Investigaciones Históricas Regionales A.C./Centro INAH Nuevo León. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


La presencia prolongada de militares de carrera norteamericanos en Monterrey durante la Invasión Norteamericana (18461848), y su evidente actividad de agrimensores y topógrafos registrando en planos la ciudad para mantener informada de sus maniobras a la comandancia en Washington, creó en la población regiomontana en general una imagen de los invasores como gente de disciplina, orden y formación escolarizada; así también de la agrimensura como actividad intelectual de la formación escolar castrense y todo en conjunto como única respuesta de su notable desarrollo y progreso. Tal experiencia histórica se refuerza y fortalece pocos años después con la presencia en la ciudad de tropas europeas durante la Intervención Francesa, en 18641866. De nuevo el gobierno extranjero administra la ciudad militarmente con orden, disciplina y notoria preparación académica. Es bajo estas circunstancias de la Intervención Francesa que llega de Zacatecas a la ciudad de Monterrey el alemán Isidoro Epstein, egresado de la Universidad de Marburgo, con formación de topógrafo, agrimensor, matemático e impresor, buscando oportunidades de trabajo con mejoría económica y laboral. Además de encargarse del orden y registro de la ciu-

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

dad y sus ejidos en un mapa ordenado por parte de las autoridades municipales en 1864, supervisaba la construcción de la escuela elemental junto al convento de franciscanos y complementó su trabajo como profesor de matemáticas y cosmografía en el Colegio Civil, que también operaba en salones improvisados de dicha escuela. Ahí alternó el profesor Epstein como colega con el agrimensor autodidacta y militar Francisco Leónides Mier, y tuvo como alumno en su curso de matemáticas al adolescente Miguel Filomeno Martínez Pérez. Epstein, fiel a su constante movilidad, dejó la ciudad en 1868 con rumbo a San Antonio, Texas, justamente al terminar las intervención extranjera y cuando el Colegio Civil estaba considerando crear cursos de teneduría de libros para formar contadores y de agrimensura para formar topógrafos. Dicha carrera de agrimensura se inició en enero de 1869 con Francisco Leónides Mier como instructor de la misma, y Miguel F. Martínez como uno de los treinta alumnos que se inscribieron en el nuevo programa. El plan de estudios fue programado con una duración de cuatro años, dos de teoría y dos de práctica, sin embargo, la deserción masiva al curso antes de cumplir el primer año de establecido obligó a las autoridades académicas del Colegio

27


a cancelarlo. “Formábamos aquella clase como unos treinta alumnos, estudiantes de jurisprudencia en su mayor parte, quienes creyeron fácil hacer, a la vez, la carrera de leyes y la de topógrafo… Pronto quedamos reducidos a cuatro o cinco alumnos, pero todos fueron desertando, aburridos con aquellas tres horas diarias de clase y con las exigencias del maestro…” (Martínez, 1997, pp. 64-65).

calles, mantenimiento de acequias, desmonte de plazas y supervisión de obras, tanto de construcción como de mantenimiento de edificios y equipamientos urbanos bajo tutela del gobierno municipal. Tal vez por estas prácticas topográficas, por la supervisión de obras en construcción y por costumbrismo lingüístico proveniente de la dominante cultura militar, se fueron adicionando el mote o apodo de “ingeniero”.

Bajo la tutoría académica del agrimensor Mier, y el entusiasmo de Miguel F. Martínez como alumno cumplido y disciplinado, ambos pactan continuar con el plan de estudios extraoficialmente y de forma particular. El propio alumno lo registra en sus memorias en los siguientes términos: “yo fui el único que terminó el primer año de agrimensura, siendo examinado sucesivamente por dos personas competentes en la materia, que rindieron separadamente sus informes, dándome la aprobación, con algún elogio. La clase se suprimió en el Colegio; pero el señor Mier me hizo el favor de continuar conmigo como discípulo particular y conseguir que se me considerara como alumno del Colegio para que mis estudios tuvieran alguna validez… Terminé mi segundo año de agrimensura en 1870, teniendo a la vez ya hecho mi primer año de práctica; de modo que entre 1870 y 1871 pude terminar mis estudios, haciendo el segundo año de práctica… En octubre sustenté, por la tarde, mi examen teórico-práctico que duró cuatro horas. Presidió el acto el director del Colegio, señor José Eleuterio González” (Martínez, 1997, pp. 65-73).

Con la llegada a la entidad del general Bernardo Reyes en 1885, primero como encargado de la zona militar e inmediatamente después como gobernador del estado, la administración de las obras públicas al cuidado de los gobernantes experimentó un giro trascendente al ser puesta en manos de civiles a través de una Junta de Mejoras Materiales como organismo concejal para el fomento, la supervisión y la administración de las mismas. La Junta administró con transparencia los fondos procedentes del gobierno, así como los donativos de particulares e institucionales destinados a equipar y mejorar la obra pública en beneficio de toda la comunidad. Como prueba fehaciente del propósito y buena voluntad del proyecto fue nombrado como presidente de la Junta el médico José Eleuterio González, acompañado con los licenciados Ramón Treviño y Pedro J. Morales y los señores David Guerra y Antonio L. Rodríguez, como parte de la misma.

Según las Memorias de don Miguel F. Martínez, sólo hubo examen final como agrimensor, mas no título de ingeniero topógrafo, lo cual resulta lógico porque el curso que se ofreció fue de agrimensura, se hizo en dos y no en cuatro años programados en el plan original y por la suspensión oficial del mismo ante la desbandada de los primeros alumnos. El germen del “autotítulo de ingeniero” surge cuando el general Gerónimo Treviño, secundando el Plan de la Noria de Porfirio Díaz contra Benito Juárez, llama a Miguel –entre otros estudiantes del Colegio–, a enlistarse como soldado y poner sitio a la plaza de Saltillo “prestando servicios como ingeniero” (Martínez, 1997, p. 72).

La Junta de Mejoras comenzó a trabajar de inmediato, concluyendo la construcción del Puente “Benito Juárez” sobre la actual calle de Zaragoza, salvando el arroyo de Santa Lucía y comunicando, sin obstrucciones en temporada de lluvias, la parte sur y norte de la ciudad; se concluyó el segundo piso del Palacio Municipal y se remodeló la Plaza Zaragoza, equipándola con bancas y faroles metálicos; se intervino con ampliaciones y mejoras tanto el Colegio Civil del estado como el Hospital Civil y del Parián en su conversión a Mercado Colón. También se comenzó la construcción monumental de la Penitenciaría del estado en el costado norte de la Alameda y con estas obras aparecen los nombres de los militares con grados de capitán 2o y teniente, Miguel Mayora Carpio y Francisco Beltrán Otero, respectivamente, como operadores de las mismas.

Tanto Francisco Mier como Miguel Martínez ocuparon por cortos periodos el puesto de encargados de las obras públicas municipales de la ciudad de Monterrey, en el que su principal desempeño era –siguiendo el antecedente establecido por Epstein–, la agrimensura aplicada en los predios urbanos, sobre todo los de los repuebles del norte y del sur, con actividades tanto de alineamientos de predios como la rectificación de sus medidas, así también supervisar la pavimentación de

Los estudios de Mayora y Beltrán como egresados del Colegio Militar, con estancia de siete años, les dio capacitación para desempeñarse en las diferentes armas del ejército como infantería, caballería, artillería y zapadores; en esta última, sobresale la preparación que los capacita para la construcción de puentes, caminos, fortalezas, campamentos, barricadas, trincheras, demoliciones; más lo relacionado con la agrimensura, la topografía, el dibujo de mapas y planos y todo lo demás

28

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


concerniente para facilitar la movilidad de las tropas para el logro de los objetivos estratégicos. Por finalizar sus estudios con honores y grado de oficial, pasan automáticamente a formar parte del Cuerpo de Ingenieros para desempeñar labores de topografía y dibujo de mapas, por lo que también se les solía nombrar como ingenieros militares. Al irse consolidando la carrera del general Reyes como gobernador constitucional del estado, la ciudad de Monterrey, en paralelo, tuvo un crecimiento exponencial como centro productivo, aumentando su atracción como lugar de trabajo y desarrollo profesional. Otros militares invitados por el gobernador o por los propios colegas llegarán a la ciudad en busca de oportunidades para aplicar sus conocimientos tanto en topografía como en construcción y dibujo técnico de planos. Por lo general la obra pública durante el gobierno del general Reyes estuvo bajo la responsabilidad de militares de carrera, ejecutada por maestros de obra y bajo la administración de las juntas de mejoras materiales. En el primer grupo, aparte de Mayora y Beltrán, podemos anotar al mayor Florentino Arroyo, el teniente coronel Ignacio Morelos Zaragoza y el general Victoriano Huerta; en el segundo grupo destacan maestros de obra como Marín Peña, Felipe y Tiburcio Reina, José María Siller y Pedro Cabral. Tal nómina de constructores bajo el nuevo mote de ingenieros –por su actividad como supervisores de obra en construcción–, y las facilidades de viajar a la Ciudad de México en ferrocarril, coadyuvaron para formar los primeros ingenieros civiles locales formados en la Escuela Nacional de Ingeniería de la capital, como Bernardo Reyes Ochoa, Genaro Dávila, Porfirio Treviño Arreola y Ernesto García Ortiz.

A MANERA DE CONCLUSIÓN La ciudad de Monterrey tuvo un desarrollo arquitectónico importante a partir de los primeros obispos, sobre todo en la última década del siglo XVIII, con obras que sobreviven de ese periodo como el Museo Regional “El Obispado”, el templo de Catedral, el templo de Nuestra Señora del Roble y el Centro Cultural Universitario “Colegio Civil”, y edificios desaparecidos como la Catedral Nueva y el Convento de Capuchinas. Luego, por circunstancias adversas como la guerra de Independencia, la separación de Texas, la Invasión Norteamericana, la guerra de Reforma y la Intervención Francesa, tal proceso se desacelera notoriamente, reactivándose con nuevo brío a partir del fenómeno de la industrialización, acentuado durante la administración porfirista. En ese primer periodo de industrialización la demanda de construcciones y equipamiento urbano fue tal que ante la escasez de arquitectos prácticos o académicos, éstos fueron suplidos por agrimensores, militares, maestros de albañilería, contratistas, escultores y pintores, la mayoría de ellos nombrados o autonombrados con el anglicismo engineer o ingeniero. Sin embargo, todo el fenómeno en conjunto, incluyendo la tardía presencia de arquitectos académicos en la región, sentará las bases para la formación académica de profesionistas universitarios en el campo de la ingeniería –mecánica, eléctrica, civil, agrónoma, química– y de la arquitectura. Sin dejar de considerar la gran importancia que la Revolución de 1910 y la Constitución Política de 1917 tuvieron al consagrar el derecho social de la educación en todos sus niveles.

Otro contingente de operadores de máquinas o maquinistas o ingenieros mecánicos, la gran mayoría extranjeros y con antecedentes militares, hará posible la gran epopeya del desarrollo industrial de la ciudad y la región, encargándose tanto de las vías férreas como del arranque de las fábricas textiles, metalúrgicas, mineras, ferroviarias, vidrieras y de la construcción, entre otras. Así también, la producción compleja de objetos arquitectónicos como los edificios para la Cervecería Cuauhtémoc, la Estación de Ferrocarriles al Golfo, el Banco Mercantil, el Casino Monterrey y las residencias familiares de Gerónimo Treviño o de Valentín Rivero, entre otros, todos bajo la tutela de despachos de arquitectos con formación académica, permitirá entender que la producción compleja de objetos arquitectónicos tiene también su base y sostén en la formación superior o universitaria. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

REFERENCIAS Martínez, M. F. (1997). Memorias de mi vida. Fondo editorial Nuevo León.

29


ADENDA

por dos personas competentes en la materia, que rindieron separadamente sus informes, dándome la aprobación, con algún elogio... (P. 65). Tuve la satisfacción de hacer bien mis estudios a pesar del gran trabajo que tenía en la música (p. 66).

Memorias de mi vida

Miguel F. Martínez “En octubre de 1863 entré al Colegio Civil del Estado, a los trece años de edad. El Colegio ocupaba el edificio del Obispado, contiguo a la catedral, abandonado entonces por ausencia del obispo Verea que andaba fuera del país todavía (pp. 51-52). Terminado nuestro primer año de estudios en el que no hubo distribución de premios (lo mismo que en el segundo y tercero) se pasó al Colegio del Obispado, que hubo de desocupar por la próxima llegada del señor obispo Verea, a un edificio que se había hecho para escuela primaria en la calle de San Francisco cercano al convento del mismo nombre (p. 54). Entre los años de 1865 y 1866 hice mi curso de filosofía, entre los 15 y 16 años de edad. El texto era la filosofía de Balmes, que comprendía lógica, metafísica y ética. Todos los del curso lo hicimos con muchas dificultades, tanto porque tuvimos tres distintos profesores… (p. 57). Por los años de 66 y 67 me tocó hacer mis estudios de matemáticas elementales: álgebra y geometría. Nuestro profesor fue don Isidoro Epstein, un alemán ingeniero topógrafo, que levantó un plano de Monterrey en aquellos años. Este curso de matemáticas fue lo que estudié más mal, por varios motivos… el profesor no tenía método alguno para la enseñanza y era demasiado exigente, considerándonos completamente torpes a los que no entendíamos sus pésimas explicaciones que él consideraba buenas… (p. 60). En el año escolar de 1867 a 1868 hice mis últimos estudios preparatorios cuya materia principal fue la física (p. 61). Pues bien, cuando en aquella distribución de premios oí al director que en su informe decía que en el año entrante iba a crearse una clase de agrimensura… y que daba por razón la necesidad de formar ingenieros topógrafos, porque sólo había uno en el estado, inmediatamente pensé en que se me habría un nuevo campo…, aunque algún escozor me hacía el recuerdo de lo mal que había estudiado mi álgebra y geometría, así como la idea de que yo jamás había montado a caballo, ni me agradaba aquel ejercicio (p. 63). En octubre de 1868 empecé mis estudios profesionales… (p. 64). Yo fui el único que terminó el primer año de agrimensura, siendo examinado sucesivamente 30

Hacía mis estudios de 2º año de topografía cuando por instancias de un amigo y compañero… me resolví a solicitar la dirección de una escuela municipal, que dejó el profesor Serafín Peña. Así fue como me volví director del 2º establecimiento público de niños, en Monterrey, a fines del año de 1869, cuando tenía 19 años y no contaba ni con un día de práctica docente ni administrativa, y fiado solamente en mis estudios preparatorios y matemáticos… no creí cometer un gran desacato a la niñez ni a la sociedad declarándome nada menos que director de una escuela primaria (pp. 168169). Me sentí tan feliz en medio de los niños, que estuve a punto de cortar mi carrera de ingeniero para no pensar más que en la escuela y así fue como un día manifesté a mi maestro de topografía que ya no seguiría mis estudios con él, porque había encontrado otra profesión que estaba más en armonía con mi modo se ser (p. 171). Estando a punto de terminar el curso de 1871, empezaba a preparar mi examen profesional…, cuando llegó la revolución acaudillada por el general Díaz según el Plan de la Noria, que fue secundada por el general Jerónimo Treviño, quien me llamó a su lado para que le prestara mis servicios como ingeniero…; tuve que acceder a la orden del gobernador, porque el estado me había dado no sólo mi educación primaria, sino la secundaria y la profesional, y creí mi deber prestar mis servicios a una causa en que estaba empeñado el estado, en la persona de su gobernante (p. 72). Con un plano muy imperfecto de Saltillo y todos aquellos planos parciales y algunos informes escritos, pude yo hacer un plano general de las fortificaciones de saltillo, el que sirvió de base para proyectar el ataque… (p. 90). Así terminó mi breve carrera militar de tres meses, en la que serví como teniente de ingenieros, grado que yo tomé, aunque se me ofrecía alguno mayor, porque creí decoroso empezar en el grado inferior del cuerpo facultativo (p. 94). Después de algún tiempo de vivir con los pocos trabajos particulares que me ofrecían, volví al servicio del ayuntamiento encargándome del empleo de ingeniero de la ciudad, con el mismo sueldo de $50.00 pesos, pero ya pagado con regularidad y con la ventaja que se me daría licencia para salir de la capital a ejecutar CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


algunos trabajos de medidas de terrenos (p. 96). Mis trabajos en aquel empleo consistieron en las medidas de los terrenos del ejido, que el ayuntamiento daba en arrendamiento o en merced, terrenos pequeños de labor muy irregulares que daban mucho trabajo; nivelaciones para proyectar los pavimentos de las calles y dirección de los empedrados que era entonces el sistema general de pavimentación; alineamientos en las calles para las nuevas construcciones y la dirección del palacio municipal que estaba en construcción y cuyo plano tuve que formar, porque se estaba construyendo sin plan alguno (pp. 94-95). Terminaré esta parte de mis memorias de mi vida, consagrando algunas líneas a mi maestro de topografía, ingeniero don Francisco Leónides Mier, quien tanto me estimó y me protegió, a quien tanto quise y tanto le debí… Casi por sí sólo se formó ingeniero geógrafo… (p. 82). Iniciado en los conocimientos matemáticos, para los cuales tenía excepcional disposición, siguió sus estudios con sus propios esfuerzos, dominando tanto la trigonometría rectilínea como la esférica, el álgebra superior, la geometría analítica y el cálculo infinitesimal, solo también estudió topografía, geodesia y astronomía, reuniendo un caudal de conocimientos bien sólidos, para ser un verdadero ingeniero geógrafo (p. 83). Cuando Vidaurri secundó el Plan de Ayutla,

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

[el maestro Mier] se afilió al partido liberal y combatió como coronel de artillería (p. 84). El señor Mier fue el hombre a quien yo debí más en la vida, porque él me dio una profesión honrosa y lucrativa… Murió con el resentimiento de que yo abandonara la profesión que él me dio con tan buena voluntad; y para mí fue siempre un remordimiento grande, el que me viera algunos años después, estimado y respetado en mi tierra por mis trabajos de maestro… simplemente me dejé llevar de mi vocación al magisterio. Terminé este cuaderno la noche del día 9 de abril de 1914, en México (p. 85). Miguel F. Martínez

REFERENCIAS Martínez, M. F. (1997). Memorias de mi vida. Fondo editorial Nuevo León.

31


SECCIÓN ACADÉMICA Validación de la escala de resiliencia mexicana en mujeres con cáncer Nanovectores superparamagnéticos y su uso potencial en quimioterapias selectivas Red de políticas públicas de radiodifusión y telecomunicaciones en México Secuencia de la tanasa de Aspergillus niger GH1 y producción de la enzima en Pichia pastoris Desarrollo de un sistema celular murino para el análisis antitumoral de adenovirus oncolíticos Desarrollo de sistemas automatizados para el monitoreo de arsénico: fraccionamiento en suelo y bioaccesibilidad in vitro en cereales

32

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Validación de la escala de resiliencia mexicana en mujeres con cáncer Melina Miaja Ávila*, José Moral de la Rubia*

RESUMEN

ABSTRACT

La resiliencia constituye un factor protector en pacientes oncológicos. En México se ha desarrollado una escala para medir el constructo. Los objetivos de esta investigación fueron validar la estructura factorial de la Escala de Resiliencia Mexicana (RESI-M), estimar su consistencia interna y evaluar el nivel medio de resiliencia. A una muestra no probabilística de 120 mujeres con cáncer mexicanas se les aplicó la RESI-M. El modelo original de cinco factores, eliminados dos ítems, mostró índices de ajuste adecuados y buenos. La consistencia interna y la media del puntaje total fueron altas. Se concluye que la escala es válida y consistente.

Resilience is a protective factor in cancer patients. In Mexico a scale has been developed to assess this construct. This research aims to, validate the factor structure of the Mexican Resilience Scale (RESI-M), estimate its internal consistency, and assess the average level of resilience. The RESI-M scale was administered to a non-probabilistic sample of 120 Mexican women with cancer. The original model of five-factors, after removing two items, showed signs of adequate and good adjustment. Internal consistency and the total average score was high. We concluded that the scale is valid and consistent.

Palabras clave: resiliencia, cáncer, psicometría, mujer, México.

Keywords: Resilience, cancer, psychometrics woman Mexico.

Rutter (2007) define resiliencia como la habilidad para surgir de la adversidad, adaptarse, recuperarse y acceder a una vida significativa y productiva. La resiliencia se asocia con mayor aceptación de las pérdidas (Bonanno et al., 2002), mayor adaptación a la situación adversa (Quezada, González y Mecott, 2015), menor malestar emocional (Min et al., 2013), mayor locus de control interno, mayor cohesión familiar y afrontamiento adaptativo (Stewart y Yuen, 2011).

con rotación Varimax, determinando su número por el criterio de Kaiser. Eliminaron todos los ítems con un peso factorial menor que .40, de los 68 ítems iniciales, 43 se mantuvieron. La consistencia interna de los 43 ítems fue alta (α=.93), los cinco componentes explicaron 43.61% de la varianza total. Los componentes de la escala son:

Los seres humanos, frente a las pérdidas, muestran emociones negativas e interrupciones menores y transitorias en su capacidad de funcionar, siendo estos fenómenos de menor intensidad en la medida en que las personas poseen mayor resiliencia (Mancini y Bonanno, 2006). Precisamente, en pacientes con cáncer, el ajuste emocional y la capacidad de adaptación a la enfermedad se ha atribuido a características resilientes (Crespo y Rivera, 2012; González, Nieto y Valdez, 2011; Kim y Yoo, 2010). En México, Palomar y Gómez (2010) crearon la Escala de Resiliencia Mexicana (RESI-M) de 43 ítems para medir el constructo a partir de dos instrumentos previos estadounidenses. Extrajeron los factores por el método de componentes principales

• • • • •

Fortaleza y confianza en sí mismo con una consistencia interna alta (α=.92), integrado por 19 ítems (del ítem 1 al 19). Competencia social con una consistencia interna alta (α=.87), integrado por ocho ítems (2027). Apoyo social tuvo una consistencia interna alta (α=.84), integrado por cinco ítems (34-38). El cuarto (apoyo social) tuvo una consistencia interna alta (α=.84), integrado por cinco ítems (34-38). Estructura tuvo una consistencia interna alta (α=.79), integrado por cinco ítems (39-43).

En este estudio se empleó una muestra incidental de población general (Palomar y Gómez, 2010). *Universidad Nacional Autónoma de México. Contacto: miajaam.live.com.mx

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

33


Quezada, González y Mecott (2014), en una muestra incidental de 51 padres, madres y tutoras de pacientes pediátricos con quemaduras, encontraron valores de consistencia interna altos para los cinco factores de la escala RESI-M, de .82 a .93. La escala RESI-M nunca ha sido validada en una población clínica, como la de mujeres con cáncer, cuando se señala que la resiliencia es un factor relevante para una respuesta positiva al tratamiento oncológico (Min et al., 2013; Stewart y Yuen, 2011). Es importante señalar que el número de factores de la RESI-M fue determinado por el criterio de Kaiser (Palomar y Gómez, 2010), cuando los estudios metodológicos de simulación muestran que este criterio es el menos adecuado (Courtney, 2013). Actualmente se recomienda determinar el número de factores por medio de la convergencia de métodos que diferencien entre covarianza sustantiva y forzada, como el de Velicer, que contemplen el error de muestreo, como el análisis paralelo de Horn, y datos de comparación (Courtney, 2013). Asimismo, se recomienda rotar la matriz factorial empleando métodos oblicuos, que proporcionen factores correlacionados, en lugar de usar métodos ortogonales, que proporcionan factores independientes (Lloret et al., 2014).

(60) tenían cáncer de mama, 15.8% (19) cervicouterino, 11.7% (14) en el sistema digestivo, 7.5% (9) sarcoma, 5% (6) en riñones, 3.3% (4) en glándulas endocrinas, 2.5% (3) linfomas, 1.7% (2) melanoma, 1.7% (2) leucemias y 0.8% (1) en el cerebro. El 48.3% (58) indicó estar recibiendo radioterapia, 45.8% (55) quimioterapia, 4.2% (5) cirugía y 1.7% (2) tratamiento hormonal.

Para estudiar la validez de la RESI-M en mujeres con cáncer, considerando estas recomendaciones, se definieron como objetivos: 1) estimar la consistencia interna; 2) estimar el nivel medio de resiliencia, y describir la distribución de la RESI-M, y 3) contrastar la estructura de cinco factores para los 43 ítems de la RESI-M. En relación con los tres objetivos planteados se formularon como hipótesis: unos valores de consistencia interna altos (Palomar y Gómez, 2010; Quezada, González y Mecott, 2014), una media alta de resiliencia dentro de una distribución con sesgo hacia las puntuaciones altas (Crespo y Rivera, 2012; González, Nieto y Valdez, 2011; Kim y Yoo, 2010), y una estructura de cinco factores correlacionados (Palomar y Gómez, 2010).

Análisis de datos

MÉTODO Participantes La muestra quedó conformada por 120 mujeres en tratamiento oncológico. La media de edad fue 51.84 años (DE=13.63). La mediana de escolaridad correspondió a secundaria terminada y de ingreso económico familiar mensual correspondió al intervalo de $3,000 a $5,999 pesos mexicanos. La media del tiempo transcurrido desde el diagnóstico de cáncer fue de 1 año y 5 meses (DE = 2.02). Respecto al tipo de cáncer primario, 50% 34

Instrumentos La RESI-M consta de 43 ítems directos y cinco factores. El rango de respuesta de los 43 ítems es de cuatro puntos, variando de 1 (“totalmente en desacuerdo”) a 5 (“totalmente de acuerdo”). Las puntuaciones en la escala y los factores se obtienen por suma simple de ítems (Palomar y Gómez, 2010). Procedimiento Se solicitó el consentimiento informado para la participación en el estudio, garantizando el anonimato y la confidencialidad. Las participantes que aceptaron formar parte del estudio respondieron por escrito al instrumento en presencia de la entrevistadora. La muestra se recolectó de marzo a octubre de 2013.

En relación con el primer objetivo, la consistencia interna se calculó por el coeficiente alfa de Cronbach (α). Se consideraron valores bajos aquellos < .60, adecuado ≥ .60 y altos ≥ .70. El segundo objetivo de estima el nivel medio de resiliencia, se dividió la media aritmética del puntaje total y de los cinco factores de la RESI-M por sus correspondientes números de ítems, obteniéndose un rango continuo de 1 a 4. A continuación se dividió este rango en cuatro intervalos de amplitud constante para hacerlos corresponder con los cuatro valores discretos de respuesta al ítem e interpretar los valores en correspondencia con las etiquetas de respuesta al ítem: [1, 1.749] → 1 “totalmente en desacuerdo”, [1.75, 2.49] → 2 “en desacuerdo”, [2.5, 3.249] → 3 “de acuerdo” y [3.25, 4] → 4 “totalmente de acuerdo”. Se contrastó la normalidad de las distribuciones por la prueba de Kolmogorov-Smirnov-Lilliefors (DKSL). El tercer objetivo de contrasta el modelo de cinco factores, en primer lugar, se usó análisis factorial exploratorio (AFE). El número de factores se determinó por el criterio de la expectativa (cinco factores), el criterio de Kaiser, la media mínima de las correlaciones parciales al cuadrado (Velicer), análisis paralelo, análisis de coordenadas óptimas y datos de comparación

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


(Courtney, 2013). Los factores se extrajeron por ejes principales, con rotación promax y con cargas mayores que .40. A continuación se usó análisis factorial confirmatorio (AFC) por el método de mínimos cuadrados no ponderados (Valdivieso, 2013). La significación de los parámetros se contrastó por el método de percentiles corregidos de sesgo con la extracción de 500 muestras. Se contemplaron seis índices para valorar el ajuste: la probabilidad por muestreo repetitivo de Bollen y Stine con la extracción de 500 muestras (pBS); el índice de bondad de ajuste (GFI) y su modalidad corregida (AGFI) de Jöreskog y Sörbom; el índice de ajuste relativo (RFI) por el coeficiente rho de Bollen; el índice normado de ajuste (NFI) de Bentler y Bonnet y el residuo estandarizado cuadrático medio (SRMR). Se estipularon como valores de buen ajuste: pBS > .05, GFI, RFI y NFI ≥ .95, AGFI ≥ .90 y SRMR ≤ .05; y como valores aceptables: pBS > .01, GFI, RFI y NFI ≥ .90, AGFI ≥ .85 y SRMR < .10 (Valdivieso, 2013; Arbuckle, 2013). Los cálculos se hicieron con SPSS22, módulo R2.4 para SPSS22 y AMOS22.

RESULTADOS Consistencia interna, distribuciones y normalidad El puntaje total de la escala RESI-M y sus cinco factores tuvieron valores de consistencia interna altos, de .82 a .96. La distribución del puntaje total y los cinco factores mostraron asimetría negativa y la de los factores de apoyo familiar, apoyo social y estructura presentaron apuntalamiento, no ajustándose ninguna a una distribución normal (véase tabla I). Tabla I. Consistencia interna, distribuciones y normalidad

EES = 0.22 y EEC = 0.44. RESI-M: PT = Puntaje total, FC = Fortaleza y confianza en sí mismo, CS = Competencia social, AF = Apoyo familiar, AS = Apoyo social, y E = estructura. ** p < .01. Fuente: elaboración propia.

Nivel de resiliencia La media del puntaje total de la escala RESI-M divida por 43 (número de ítems) fue de 3.61, lo que queda

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

dentro del cuarto intervalo de puntuaciones continuas [3.25, 4] y corresponde al cuarto valor discreto 4 de respuesta a los ítems (“totalmente de acuerdo”). Igual ocurrió con los cinco factores: fortaleza y confianza en sí mismo (M/19=3.64), competencia social (M/8=3.51), apoyo familiar (M/6=3.66), apoyo social (M/5=3.77) y estructura (M/5=3.44) (véase tabla I). Estructura factorial Al extraer cinco factores por ejes principales, conforme con la expectativa, se explicó 61.65% de la varianza total. Al rotar la matriz factorial por el método promax, se configuró un primer factor integrado por 16 ítems, los cuales corresponden al factor esperado de confianza y fortaleza en sí mismo. No obstante, el factor original de confianza y fortaleza en sí mismo está conformado por 19 ítems. El ítem 16 tuvo su saturación más alta y mayor que .40 en el quinto factor. Los ítems 2 y 15, aunque presentaron sus saturaciones más altas en el primer factor, éstas fueron menores que .40. La consistencia interna de los 16 ítems fue muy buena (α=.93). El segundo componente quedó integrado por los cinco ítems del factor esperado de apoyo social, y su consistencia interna fue muy buena (α=.96). El tercer componente quedó integrado por los seis ítems del factor esperado de apoyo familiar, y su consistencia interna fue muy buena (α=.93). El cuarto componente quedó conformado por los ocho ítems del factor esperado de competencia social, y su consistencia interna fue buena (α=.88). El quinto componente quedó integrado por los cinco ítems del factor esperado de estructura y por el ítem 16 (λ=.51). La consistencia interna de los seis ítems, incluyendo el ítem 16 no esperado, fue buena (α=.82). Si se elimina el ítem 16, la consistencia interna no cambia. Las correlaciones entre los cinco componentes variaron de moderadas (r=.42, p < .01) a altas (=.64, p < .01) con una media de .52. El número de factores fue nueve por el criterio de Kaiser. La media mínima de las correlaciones parciales al cuadrado (Velicer) indicó seis factores con varianza sustantiva. El análisis paralelo y el de coordenadas óptimas convergieron en cuatro factores. El análisis de datos de comparación indicó dos factores. Debe señalarse que, si los análisis se realizan desde la matriz de correlaciones de rangos ordenados de Spearman, estos tres últimos criterios convergen en dos factores. Se extrajeron dos factores conforme al análisis de datos de comparación, ya sea desde las correlaciones de Pearson o las de Spearman, y al análisis paralelo de Horn y el de coordenadas óptimas desde las correlaciones de Spearman. Al extraer de la matriz de correlacio35


nes de Pearson dos factores por el método de ejes principales, se explicó 45.31% de la varianza total. Al rotar la matriz factorial por el método promax, el primer factor quedó configurado por treinta ítems (ítems: del 3 al 27 y del 39 al 43), su consistencia interna fue muy buena (α=.94) y se puede interpretar como recursos internos de resiliencia. El segundo componente quedó integrado por los once ítems que corresponden a los factores originales de apoyo familiar y social (ítems: del 28 al 38) y su consistencia interna también fue muy buena (α=.94). Este factor se puede interpretar como recursos externos o ambientales de resiliencia. La correlación entre los dos factores fue alta (r=.60, p < .01). Inicialmente se contrastó por AFC el modelo original de cinco factores correlacionados (5F_ori). Todos los parámetros fueron significativos. Valores de λ ≥ .50 se consideraron cargas altas y correlaciones ≥ .80 como excesivas para diferenciar los factores. Los ítems 1 y 2 tuvieron cargas menores que .50. Las cargas factores variaron de .36 a .96 con una media de .72. Las correlaciones entre los cinco factores variaron de .39 a .75 con una media de .57. Sólo la correlación entre fortaleza y confianza en sí mismo y competencia social fue mayor que .70. La bondad de ajuste se rechazó por la probabilidad de muestreo repetitivo de Bollen-Stine (p < .01), pero los demás índices de ajuste variaron de buenos (GFI, AGFI, NFI y RFI ≥ .95) a adecuado (SRMR < .10) (véase tabla II). También se contrastó el modelo de cinco factores arrojado por AFC, eliminando los ítems 2 y 15, y especificando el ítem 16 como indicador del factor de fortaleza y confianza en sí mismo y del factor de estructura (5F_rev). Al observarse que el ítem 1 persistía con una carga menor que .50, pero no así el ítem 15, y que el ítem 16 tenía una carga de .53 en el factor esperado de fortaleza y confianza en sí mismo y de .41 en el factor de estructura, se optó por eliminar los ítems 1 y 2 del modelo original (5F_rev2). Ambos ítems eran indicadores del factor de fortaleza y confianza en sí mismo, por lo que este factor quedó reducido a 17 indicadores con una consistencia interna muy alta (α=.93). Todos los parámetros del modelo revisado de cinco factores fueron significativos. Las cargas factores variaron de .51 a .96 con una media de .74. Las correlaciones entre los cinco factores variaron de .39 a .75 con una media de .57. Sólo la correlación entre fortaleza y confianza en sí mismo y competencia social fue mayor que .70. La bondad de ajuste se mantuvo por la probabilidad de muestreo repetitivo de Bollen-Stine con un intervalo de confianza de 99% (p = .02) y los demás índices de ajuste variaron de buenos (GFI, AGFI, NFI y RFI > .95) a adecuado (SRMR < .10) (véase tabla II). 36

Finalmente se contrastó el modelo de dos factores correlacionados sin los ítems 1 y 2 (2F). Todos los parámetros fueron significativos (p < .01). Las cargas factores variaron de .46 a .91 con una media de .66. Los ítems 41 y 17 presentaron cargas menores que .50. La correlación entre los dos factores fue alta (r=.65, p < .01). La bondad de ajuste se rechazó por la probabilidad de muestreo repetitivo de Bollen-Stine (p < .01), pero los demás índices de ajuste variaron de adecuados (NFI y RFI > .90 y SRMR < .10) a bueno (AGFI ≥ .90). Si se asumiera normalidad multivariada, por la prueba de la diferencia de los estadístico chi-cuadrado, la bondad de ajuste sería significativamente peor que la del modelo revisado de cinco factores correlacionados (Δχ2[9, N =120] = 47.05, p < .01) (véase tabla II). Tabla II. Índices de ajuste

*Sin ítems 1 y 2. Fuente: elaboración propia.

DISCUSIÓN Con respecto al primer objetivo de describir el nivel medio de resiliencia, los resultados muestran que las pacientes se adaptaron adecuadamente a la enfermedad, debido a que reportaron un nivel promedio alto en los cinco factores de la escala RESI-M. Al compararlo con otros estudios de pacientes adultos oncológicos, se hallaron resultados similares (Crespo y Rivera, 2012; Pentz, 2005; Strauss et al., 2007). En niños y adolescentes mexicanos con cáncer y en sus madres, González et al. (2011), también encontraron niveles de resiliencia de moderados a altos, al igual que Kim y Yoo en niños estadounidenses (Kim y Yoo, 2010). Con respecto al segundo objetivo, se confirmó la expectativa. Como en el estudio de Quezada et al. (2014), todos los factores tuvieron consistencia interna alta o muy alta, incluyendo el factor de estructura, el CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


cual tuvo una consistencia interna aceptable en el estudio de Palomar y Gómez (2010). Así, parece que en población clínica la consistencia interna es mayor que en población general. Se reporta un nivel de resiliencia alto de forma muy consistente a lo largo de las distintas preguntas. Probablemente se deba a la situación de estar enfrentando de forma activa una situación real de pérdida, cuando para muchos de los participantes de población general es una situación potencial. Esto lo remarca el hecho de que las distribuciones se sesgan hacia los valores altos de conformidad con los rasgos resilientes. Con respecto al tercer objetivo de estudiar el modelo factorial subyacente, se confirmaron los resultados de Palomar y Gómez (2010) con respecto a la configuración de los cinco factores en el análisis factorial exploratorio, fijando el número de factores por el criterio de la expectativa. No obstante, este número de cinco factores no fue sugerido por ninguno de los criterios matemáticos recomendados para la determinación del número de factores. La convergencia más clara se produjo en dos factores, usando los criterios que consideran el error de muestreo (datos de comparación y análisis paralelo) y el punto de inflexión de la curva de sedimentación (coordenadas óptimas), especialmente en la matriz de correlaciones de Spearman. En la presente muestra las correlaciones de Spearman infraestimaban la relación lineal con una media de cinco centésimas en comparación con las de Pearson, de ahí la elección de las correlaciones de Pearson. Debe señalarse que se constató que los resultados fueran totalmente convergentes, ya fuera que se ejecuten desde la matriz de correlaciones de Pearson o desde la matriz de correlaciones de Spearman. Cabría preguntarse si cinco es un número excesivo y no justificable de factores. Un análisis que asegura la existencia de varianza compartida es el de Velicer y éste señaló seis factores, por lo que sí se puede defender que al extraer cinco factores existe varianza compartida. Si se eliminan los dos primeros ítems de la escala, el modelo de cinco factores presenta bondad de ajuste, todas sus cargas mayores que .50, sus factores claramente diferenciables, siendo la varianza compartida más alta de 56%, entre los factores de fortaleza y confianza y competencia social, y su parsimonia es muy alta. Unido a que es reproducible por un método de exploración factorial, esto es un método que descompone la varianza común y específica en cada ítem (Lloret et al., 2014), como es el método de ejes principales, se puede decir que se confirma la expectativa de estructura factorial. Debe señalarse que, en la presente muestra, la configuración de los cinco factores espeCIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

rados es reproducible por otros métodos de extracción de factores que no requieren normalidad multivariada, como mínimos cuadrados ponderados y factorización alfa (Lloret et al., 2014). Los factores del modelo bifactorial presentan una interpretación significativa, un número alto de indicadores, una consistencia interna muy alta y una diferenciación clara con una varianza compartida de 36% en el AFE y 42% en el AFC. Un factor se refiere a aspectos o recursos internos de resiliencia y otro factor con el recurso externo del apoyo de los demás. De igual forma, su bondad de ajuste se mantuvo por los índices de ajuste absolutos (SRMR, GFI y AGFI) y relativos (NFI y RFI) recomendados para el contraste por ULS (Arbuckle, 2013), que es el método adecuado para ítems con una escala de medida ordinal que no presentan normalidad mutivariada (Lloret et al., 2014; Valdivieso, 2013). No obstante, el ajuste se rechaza por la prueba de muestreo repetitivo y hay ítems con cargas menores que .50 en el AFC. Además, si se asumiera normalidad multivariada, la prueba de la diferencia de los estadísticos chi-cuadrado indicaría un mejor ajuste del factor de cinco factores sin los dos primeros ítems, también ausentes en el modelo bifactorial. Cabe preguntarse por qué el ítem 1 (“lo que me ha ocurrido en el pasado me hace sentir confianza para enfrentar nuevos retos”) y el ítem 2 (“sé dónde buscar ayuda”) presentan problemas de consistencia interna en esta muestra de mujeres con cáncer en tratamiento oncológico. A diferencia de los 17 ítems restantes que configuran el factor de fortaleza y confianza no se centran en el dominio del yo o sí mismo en el presente o el futuro, sino que el primero hace referencia al pasado (en el cual no se padecía cáncer) y el segundo hace referencia al mundo exterior. De ahí que se considera justificada la eliminación de estos dos ítems del factor y de la escala. Como limitación del estudio, debe señalarse el empleo de una muestra no probabilística de mujeres con cáncer bajo tratamiento oncológico, por lo que los resultados deben manejarse como hipótesis para futuras investigaciones en esta población y otras afines. Se podría cuestionar el uso de correlaciones de Pearson que infraestiman la relación lineal entre variables ordinales, cuando se recomienda el uso de correlaciones policóricas (Lloret et al., 2014). No obstante, ante un tamaño de muestra menor que 300, se indica que la mejor opción es la correlación de Pearson por la inestabilidad de la estimación de las correlaciones policóricas (Lloret et al., 2014).

37


En conclusión, la consistencia interna de la escala y los cinco factores de la RESI-M fue buena o muy buena. Las distribuciones de la escala y los factores se sesgaron hacia las puntuaciones altas de resiliencia y, consecuentemente, los niveles promedio fueron altos, como en estudios clínicos previos con otros instrumentos que miden resiliencia. El modelo original de cinco factores correlacionados de Palomar y Gómez (2010) fue reproducible por AFE y sus factores fueron claramente discernibles; además, este modelo mostró bondad de ajuste, especialmente al eliminar los dos primeros ítems de la escala. En el modelo de cinco factores cabe una estructura alterna de dos factores correlacionados con consistencia interna muy alta: recursos internos de resiliencia y recursos externos de apoyo. Este modelo factorial fue sugerido por las técnicas más efectivas para determinar el número de factores. La bondad de ajuste del modelo bifactorial, sin los dos primeros ítems de la escala, se sostuvo por los cinco índices absolutos y relativos de ajuste contemplados en el estudio, aunque fue inferior al modelo de cinco factores. En futuros estudios se sugiere realizar la validación cruzada de los modelos de cinco y dos factores entre ambos sexos, y en otras poblaciones de pacientes con enfermedades crónicas; asimismo, resta estimar la estabilidad temporal de la escala, sus ítems y factores.

Referencias Arbuckle, J.L. (2013). IBM SPSS Amos 22 User’s guide. Chicago, IL: Amos Development Corporation. Bonanno, G.A., et al. (2002). Resilience to loss and chronic grief: A prospective study from preloss to 18-months postloss. Journal of Personality and Social Psychology, 83(5), 1150-1164. Doi: 10.1037/0022-3514.83.5.1150. Courtney, M.G.R. (2013). Determining the number of factors to retain in EFA: using the SPSS R-Menu v2.0 to make more judicious estimations. Practical Assessment, Research & Evaluation, 18(8), 1-13. Disponible en http://pareonline.net/getvn.asp?v=18&n=8 Crespo, L., y Rivera, M.L. (2012). El poder de la resiliencia generado por el cáncer de mama en mujeres de Puerto Rico. Revista Puertorriqueña de Psicología, 23(1), 109-126. González A. N.I., Nieto, D., y Valdez, J.L. (2011). Resiliencia en madres e hijos con cáncer. Psicooncología, 8(1), 113-123. doi:10.5209/rev_PSIC.2011. v8.n1.9 38

Kim, D.H., y Yoo, I.Y. (2010). Factors associated with resilience of school age children with cancer. Journal of Paediatrics and Child Health, 46(8), 431436. Doi: 10.1111/j.1440-1754.2010.01749.x Lloret, S., et al. (2014). El análisis factorial exploratorio de los ítems: una guía práctica, revisada y actualizada. Anales de Psicología, 30(3), 1151-1169. doi:10.6018/analesps.30.3.199361 Mancini, A.D., y Bonanno, G.A. (2006). Resilience in the face of potential trauma: Clinical practices and illustrations. Journal of Clinical Psychology, 62(8), 971-985. Doi: 10.1002/jclp.20283 Min, J.A., et al. (2013). Psychological resilience contributes to low emotional distress in cancer patients. Supportive Care in Cancer, 21(9), 2469-2476. Doi: 10.1007/s00520-013-1807-6 Palomar, J., y Gómez, N E. (2010). Desarrollo de una escala de medición de la resiliencia con mexicanos (RESI-M). Interdisciplinaria, 27(1), 7-22. Pentz, M. (2005). Resilience among older adults with cancer and the importance of social support and spirituality-faith. Journal of Gerontological Social Work, 44(3), 3-22. Doi: 10.1300/J083v44n03_02 Quezada, L.C., González, M.T., y Mecott, G.A.(2014). Resiliencia en pacientes pediátricos sobrevivientes de quemaduras. Acta de Investigación en Psicología, 4(2), 1469-1480. Doi: 10.1016/S20074719(14)70395-3 Quezada, L.C., González, M.T., y Mecott, G.A.(2015). Predictores de síntomas del TEPT en cuidadores de pacientes pediátricos sobrevivientes de quemaduras. Summa Psicológica, 12(2), 107-114. doi:10.18774/summa-vol12.num2-262 Rutter, M. (2007). Resilience, competence and coping. Child Abuse and Neglect, 31(3), 205-209. doi:10.1016/j.chiabu.2007.02.001 Stewart, D.E., y Yuen, T. (2011). A systematic review of resilience in the physically ill. Psychosomatics, 52(3), 199-209. doi:10.1016/j.psym.2011.01.036 Strauss, B., et al. (2007). The influence of resilience on fatigue in cancer patients undergoing radiation therapy (RT). Journal of Cancer Research and Clinical Oncology, 133(8), 511-518. Doi: 10.1007/s00432007-0195-z Valdivieso, C.E. (2013). Efecto de los métodos de estimación en las modelaciones de estructuras de covarianzas sobre un modelo estructural de evaluación del servicio. Comunicaciones en Estadística, 6(1), 21-44.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Quezada, L.C., González, M.T., y Mecott, G.A.(2014). Resiliencia en pacientes pediátricos sobrevivientes de quemaduras. Acta de Investigación en Psicología, 4(2), 1469-1480. Doi: 10.1016/S20074719(14)70395-3 Quezada, L.C., González, M.T., y Mecott, G.A.(2015). Predictores de síntomas del TEPT en cuidadores de pacientes pediátricos sobrevivientes de quemaduras. Summa Psicológica, 12(2), 107-114. doi:10.18774/summa-vol12.num2-262 Rutter, M. (2007). Resilience, competence and coping. Child Abuse and Neglect, 31(3), 205-209. doi:10.1016/j.chiabu.2007.02.001

Stewart, D.E., y Yuen, T. (2011). A systematic review of resilience in the physically ill. Psychosomatics, 52(3), 199-209. doi:10.1016/j.psym.2011.01.036 Strauss, B., et al. (2007). The influence of resilience on fatigue in cancer patients undergoing radiation therapy (RT). Journal of Cancer Research and Clinical Oncology, 133(8), 511-518. Doi: 10.1007/s00432007-0195-z Valdivieso, C.E. (2013). Efecto de los métodos de estimación en las modelaciones de estructuras de covarianzas sobre un modelo estructural de evaluación del servicio. Comunicaciones en Estadística, 6(1), 21-44. RECIBIDO: 18-08-2016 ACEPTADO: 05-09-2016

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

39


Nanovectores superparamagnéticos y su uso potencial en quimioterapias selectivas

Carlos Luna Criado*, Raquel Mendoza Reséndez* y Alberto Gómez Treviño*

RESUMEN

ABSTRACT

Las principales limitaciones de las quimioterapias en el tratamiento del cáncer están relacionadas con su baja biodisponibilidad, perfiles fármaco-cinéticos desfavorables y una citotoxicidad poco selectiva. El acarreamiento sitio-dirigido de fármacos empleando vectores superparamagnéticos guiados con campos magnéticos podría resolver estas limitaciones. En la presente investigación se estudió la localización y subsiguiente diseminación de nanoformulaciones superparamagnéticas Fe3O4/Paclitaxel frente a líneas celulares neoplásicas cultivadas en uno o dos niveles bajo la acción de un campo magnético. Los resultados mostraron que se puede reducir significativamente la viabilidad de células cancerosas con concentraciones muy bajas de paclitaxel mediante su acarreamiento controlado usando nanovectores superparamagnéticos. Además, se encontró que una vez localizadas estas nanoformulaciones en la región diana, la aplicación discontinua del campo magnético promueve su diseminación controlada entre líneas celulares, factor esencial para obtener una difusión intratumoral y una quimioterapia efectiva.

The main limitations of cancer chemotherapies are due to their low bioavailability, unfavorable pharmacokinetic profiles and poor selectivity. These limitations could be solved through magnetic vectoring of drugs using superparamagnetic platforms. In the present investigation, the localization and subsequent dissemination of superparamagnetic Fe3O4 / Paclitaxel nanoformulations on neoplastic cell lines grown at one or two levels were studied under the effects of a magnetic field. The results showed that ultralow concentrations of paclitaxel significantly reduce the viability of neoplastic cells when they are delivered with control using superparamagnetic vectors. Moreover, it was shown that after the localization of the nanoparticles in the targeted region, a discontinuous application of the magnetic field promotes controlled dissemination of the nanoparticles between cellular layers. This is a crucial factor to obtain intratumoral diffusion and an effective chemotherapy.

Palabras clave: superparamagnetismo, nanopartículas, cáncer, quimioterapia, paclitaxel

Keywords: superparamagnetism, nanoparticles, cancer, chemotherapy, paclitaxel.

Uno de los principales problemas de salud es el conjunto de enfermedades relacionadas con la división descontrolada de células del cuerpo, conocido como cáncer. Las células cancerosas forman tumores que si no son tratados eficazmente pueden dañar tejidos, afectar a funciones vitales y causar la muerte. A veces estas células se separan de los tumores mediante el proceso denominado metástasis y se diseminan mediante el torrente sanguíneo o por el sistema linfático, pudiendo formar nuevos tumores en otras partes del cuerpo. En la actualidad, el cáncer sigue siendo una de las principales causas de muerte a nivel mundial, a pesar de los grandes esfuerzos invertidos en investigación durante más de seis décadas buscando entender las causas que lo originan y mejorar su detección y tratamiento (American Cancer Society, 2013). Este último consiste

usualmente en quimioterapias combinadas con radioterapia y cirugía, y su eficacia está limitada principalmente por la pobre solubilidad de los fármacos antineoplásicos en soluciones acuosas, por lo que el sistema fagocítico mononuclear (SFM) y la filtración renal los eliminan rápidamente del sistema circulatorio, dando lugar a perfiles fármaco-cinéticos desfavorables, pobres distribuciones de los fármacos en los tejidos enfermos y una baja biodisponibilidad (Lammers et al., 2012; Patravale y Kulkarni, 2004). Por otra parte, la citotoxicidad de estos agentes químicos es poco selectiva y su aplicación indiscriminada tanto en tejidos sanos como enfermos provoca efectos secundarios devastadores que pueden ser severos y crónicos.

* Universidad Autónoma de Nuevo León Contacto: carlos.lunacd@uanl.edu.mx

40

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Con la finalidad de solventar estas limitaciones, se han propuesto nuevas formulaciones de agentes antineoplásicos y vectores moleculares para lograr quimioterapias guiadas a sitios específicos sin causar daños en los tejidos sanos colindantes, intentando llevar a la práctica el concepto de “bala mágica” introducido por Paul Ehrlich hace más de un siglo (Strebhardt y Ullrich, 2008). El suministro de estas formulaciones en la región diana es favorecido por una guía pasiva debido al efecto de retención y permeabilidad enaltecida (EPR por sus siglas en inglés), que consiste en la acumulación preferencial de los complejos nanométricos en los tejidos tumorales, ya que éstos generan una mayor densidad de vasos sanguíneos en comparación con los tejidos sanos (Iyer et al., 2006). Para lograr, además, una quimioterapia dirigida activamente hacia la región diana, el vector molecular debe presentar propiedades fisicoquímicas muy sensibles a los cambios de su entorno que permitan diferenciar los tejidos enfermos de los sanos. Algunos tejidos patológicos presentan temperaturas ligeramente diferentes al resto del cuerpo, de modo que se pueden emplear moléculas termosensibles y estímulos externos, como la radiación de ultrasonidos focalizada, que favorezcan la diferencia de temperatura de los tejidos diana (Dromi et al., 2007). También se encuentra en estudio el uso de micelas poliméricas sensibles a cambios de pH para producir un acarreamiento de fármacos selectivo en tejidos que presenten acidosis (Lee, Na y Bae, 2005), o bien, anticuerpos, proteínas, hormonas, moléculas cargadas, ácido fólico, mono-, oligo- y polisacaridos buscando un reconocimiento molecular mediante interacciones de tipo ligando-receptor (Torchilin, 2010). La mayor dificultad encontrada en la guía activa de fármacos es que las diferencias entre los tejidos cancerosos y los sanos son muy sutiles, por lo que los resultados obtenidos no han sido contundentes. Esto ha llevado a cambiar la estrategia de una autoguía del complejo fármaco/vector por una guía teledirigida con campos excitadores. Al respecto, el uso de nanopartículas coloidales superparamagnéticas es muy prometedor (Sun, Lee y Zhang, 2008; Wahajuddin, 2012). Estas partículas de materiales ferromagnéticos o ferrimagnéticos tienen dimensiones más pequeñas que el ancho de una pared de dominio magnético, por lo que presentan un único dominio en contraposición con la estructura multidominio de sus análogos en bulto. Las propiedades de anisotropía del material tienden a alinear su magnetización en una de las dos orientaciones definidas a lo largo de alguna dirección preferencial. De CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

acuerdo con el modelo de Stoner-Wohlfarth (Stoner y Wohlfarth, 1948), estos dos estados de equilibrio equivalentes están separados por una barrera de energía, DE, proporcional al volumen V de la nanopartícula. El superparamagnetismo surge cuando V es lo suficientemente pequeño como para que la energía térmica, ET, que es proporcional a la temperatura T, sea mayor que DE. En estas condiciones y en ausencia de un campo magnético, la imanación de la partícula se invierte espontánea y repetidamente entre las dos orientaciones estables, y su coercitividad y remanencia se hacen nulas. Dado que este comportamiento es muy similar al paramagnetismo, Bean (Bean y Livingston, 1959) lo denominó “superparamagnetismo” y se puede describir con la teoría del paramagnetismo de Langevin (Mornet et al., 2004). No obstante, el momento magnético que fluctúa por la agitación térmica no es el de cada átomo individual, como en el caso de los materiales paramagnéticos, sino que es el de toda la partícula, el cual es del orden de 102-105 magnetones de Bohr. En consecuencia, la susceptibilidad magnética resultante es mucho mayor que la asociada al paramagnetismo. Dado que en ausencia de campos magnéticos la orientación de su magnetización no es estable, estas nanopartículas no se agregan debido a sus interacciones magnéticas y es fácil dispersarlas en una solución coloidal. Además, como exhiben tamaños mil veces más pequeños que el de un leucocito, exhiben una gran resistencia a la actividad del SFM, pudiendo circular por el torrente sanguíneo durante largos periodos de tiempo. Estas propiedades junto a su alta direccionalidad ante la presencia de un campo magnético convierten las nanopartículas superparamagnéticas en excelentes vectores de transporte para el acarreamiento de fármacos controlado por campos magnéticos (Sun, Lee y Zhang, 2008). Por otra parte, estas nanopartículas pueden desempeñar otras funciones de interés médico. Por ejemplo, son excelentes agentes de contraste de resonancia magnética nuclear (Mornet et al., 2004), siendo varios de los agentes de contraste comerciales nanopartículas superparamagnéticas de óxido de hierro (SPION por sus siglas en inglés), las cuales son biocompatibles y eficaces en el diagnóstico de metástasis clínicamente oculta en los ganglios linfáticos (Lübbe et al., 1996). Asimismo, los SPION pueden irradiar calor bajo la excitación de un campo magnético alterno de altas frecuencias, por lo que pueden emplearse en tratamientos localizados de hipertermia (Asin, et al., 2012). Las estrategias de formulación de fármacos con SPION han arrojado resultados prometedores. Fármacos poco solubles en agua se han incorporado exitosa41


mente a nanopartículas de magnetita (Jain et al., 2008) y ensayos in vivo han probado su localización aplicando campos magnéticos, incluso después de superar la barrera hematoencefálica aumentando decenas de veces la biodisponibilidad del fármaco en tumores cerebrales (Chertok, David y Yang, 2010). No obstante, los resultados en ensayos clínicos no han sido suficientemente contundentes como para alcanzar su aprobación reglamentaria (Sun, Lee y Zhang, 2008), encontrando una pobre penetración y difusión del fármaco dentro de los tumores (Sun, Lee y Zhang, 2008; Lübbe et al., 1996; Lübbe, Alexiou y Bergemann, 2001). Por esto es necesario establecer condiciones que conduzcan a una difusión intratumoral efectiva. En la presente investigación se han sintetizado y caracterizado formulaciones SPION/fármaco, y se ha evaluado la eficacia de penetración y difusión de estas nanoformulaciones a través de varias líneas celulares bajo diferentes configuraciones experimentales.

METODOLOGÍA Formulación SPION/fármaco En la presente investigación se sintetizaron nanopartículas superparamagnéticas de magnetita (Fe3O4) funcionalizadas con paclitaxel; un fármaco antimicrotubular hidrófobo empleado ampliamente en el tratamiento de diversos tipos de cáncer. Dado que este fármaco no presenta afinidad con la superficie de la magnetita, se empleó ácido oleico en su anclaje con las nanopartículas, ya que sus moléculas presentan una cabeza hidrófila afín a la magnetita y una cola hidrófoba afín al paclitaxel. El complejo hidrófobo resultante se estabilizó en agua mediante la adhesión de Pluronic® F-127, que es un copolímero tribloque con dos bloques hidrófilos en los extremos y uno hidrófobo en el centro. La figura 1 muestra un esquema representativo de la estructura resultante.

En una síntesis típica se disolvieron 6.2 mmol de cloruro férrico anhídrido y 3.0 mmol de cloruro ferroso tetrahidratado en 12 ml de agua destilada a 80°C bajo agitación mecánica durante diez minutos. Después, se añadieron 9.5 mmol de ácido oleico con agitación vigorosa durante cinco minutos. A continuación se añadieron 4 ml de una solución de hidróxido de amonio (14 M) a la solución de reacción a 80°C para producir partículas de magnetita. Después de cinco minutos en agitación, se añadieron 5.85 µmol de paclitaxel, y transcurridos diez minutos más se agregaron 2 g de Pluronic® F-127 y 5 ml de agua calentada a 80ºC. Las nanopartículas resultantes se separaron de la solución mediante centrifugación y se purificaron con agua, etanol y centrifugación. El sobrenadante se desechó y el sólido negro precipitado se volvió a dispersar en agua en presencia de Pluronic® F-127 (1%) mediante sonicación. Este proceso de purificación se repitió al menos tres veces. Finalmente, la muestra se filtró con una membrana Millipore de 0.2 µm. El contenido de paclitaxel en las nanoformulaciones se determinó mediante espectroscopia UV-Visible usando un espectrofotómetro Thermo scientific Evolution 60S UV-Vis. El ferrofluido resultante se almacenó en atmósfera de N2 y se denominó muestra A. Estas síntesis se repitieron sin la adicción de paclitaxel para tener muestras sin portar fármacos con fines comparativos, la cuales se llamaron muestra B. Caracterización de las muestras Se empleó un microscopio electrónico FEI-TITAN 80-300 kV operado a un voltaje de 300 kV para obtener imágenes de microscopía electrónica de transmisión (MET) y patrones de difracción de electrones. También se realizaron estudios estructurales mediante difracción de rayos X (DRX) con un difractómetro Empyrean diffractometer (PANalytical) y radiación Cu Ka (l=1.5418 Å). Las caracterizaciones de espectroscopia de infrarrojos por transformada de Fourier (IRTF) se hicieron con un espectrómetro IRTF Nicolet IS10 y los estudios magnéticos con un magnetómetro de muestra vibrante MPMS-7 T de la compañía Quantum Design. Ensayos biológicos

Figura 1. Esquema de las nanoformulaciones sintetizadas.

42

Se estudió la actividad antiproliferativa de las nanoformulaciones y su posible localización y difusión a través de varias líneas celulares de carcinoma humano A-431 (ATCC-1555) bajo diferentes configuraciones experimentales, empleando placas de cultivo con 24 pocillos y 500 μl de medio de cultivo Eagle modificado/medio Eagle modificado de Dulbecco (MEM/DMEM) durante tiempos de incubación de 24, 48 y 72 horas a 37°C. Se dispersaron en cada pocillo diferentes cantidades de CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


nanopartículas, dejando las células de uno de ellos sin tratar para ser utilizado como cultivo de referencia. La viabilidad celular se determinó mediante la prueba de rojo neutro. Estos ensayos se realizaron por triplicado empleando líneas celulares distribuidas en uno (figura 2a) o dos niveles (figura 2b). En el caso último, una línea celular se cultivó en el fondo de los pocillos y otra en bandejas colocadas sobre los pocillos cuya porosidad (con un tamaño de poro de alrededor de 1 mm) permitió el intercambio de nutrientes y la difusión de las nanopartículas entre los dos niveles de cultivo. En algunos experimentos se ubicaron imanes redondos de neodimio de 3,800 Gauss en la parte inferior de los pocillos para evaluar el potencial de un acarreamiento de paclitaxel controlado magnéticamente.

indicando que el proceso de adición del paclitaxel no influyó en el tamaño, morfología y propiedades estructurales de los SPION.

Figura 3. Caracterizaciones de la muestra A: a) Micrografía MET. b) Imagen MET de alta resolución en campo oscuro. c) Patrón de difracción de electrones. d) Patrón de DRX. e) Espectro IRTF. f) Dependencia de la magnetización en función del campo magnético a temperatura del cuerpo humano (310 K) y a 1.8 K. Figura 2. Esquema de la configuración de los bioensayos realizados con: (a) uno y (b) dos niveles de líneas celulares.

RESULTADOS Y DISCUSIÓN La figura 3a muestra una imagen MET representativa de la muestra A en la que se pueden distinguir claramente puntos oscuros correspondientes solamente a la proyección bidimensional del núcleo inorgánico de las nanoestructuras, dado que las moléculas surfactantes tienen muy baja absorción de electrones. Estos núcleos aparecen dispersos en la rejilla MET, lo que confirma su funcionalización con ligandos. La figura 3b muestra una imagen MET de alta resolución en campo oscuro donde se observan franjas correspondientes a planos cristalográficos de la magnetita. Los patrones de difracción de electrones (figura 3c) y de rayos X (figura 3d) también fueron consistentes con la presencia de una única fase cristalina de Fe3O4 (JCPDS 19-0629). El tamaño de cristal estimado a través de la fórmula de Scherrer y el pico (311) del patrón de DRX fue 8±1 nm, mismo valor dentro del margen de error que el tamaño promedio de los núcleos de magnetita obtenidos por MET (6±2 nm). Las caracterizaciones de la muestra B (datos no mostrados) presentaron resultados similares, CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

La figura 3e muestra el espectro IRTF de la muestra A, el cual no presentó diferencias significativas con el espectro de la muestra B puesto que no se observaron bandas típicas de paclitaxel, debido a la pequeña cantidad del fármaco empleada y a que sus moléculas están confinadas entre las capas de ácido oleico y Pluronic® F-127. En ambos espectros se observaron bandas representativas de ácido oleico (3550-3200, 2921 y 2852 cm-1) (Du, Wu y Wu, 2012); sin embargo, no se detectó la banda asociada a la vibración de estiramiento C=O del grupo carboxilo, indicando una coordinación bidentada con la magnetita (De Berti et al., 2013). De acuerdo con esta hipótesis, aparecieron bandas adicionales a 1532 y 1636 cm-1 asociadas a las vibraciones asimétricas nas de COO-. Las bandas observadas a 1454, 1342, 1279, 1104, 962 y 842 cm-1 son atribuidas al Pluronic® F-127 (Du, Wu y Wu, 2012). La figura 3f muestra la dependencia isotérmica de la magnetización frente al campo magnético (M vs. H) medida a temperatura del cuerpo humano (310 K) y a 1.8 K. Se observa que esta muestra presenta histéresis magnética a 1.8 K con un campo coercitivo de 365 Oe, mientras que exhibe un comportamiento superparamagnético a 310 K.

43


Los ensayos biológicos se llevaron a cabo con nanopartículas cargadas con pequeñas cantidades de paclitaxel (0.1 %peso) con la finalidad de poder detectar diferencias sutiles en la viabilidad de las líneas celulares bajo diferentes condiciones experimentales. Los resultados de los ensayos de citotoxicidad en función de la concentración de partículas y el tiempo de incubación en los experimentos con un solo nivel de líneas celulares se muestran en la figura 4a. Se observa que la viabilidad celular decayó considerablemente con pequeñas concentraciones de partículas cargadas de fármaco, siendo más marcado el efecto con el aumento del tiempo de incubación, mientras que la viabilidad celular solamente se vio afectada por la presencia de la muestra B a tiempos largos de incubación (72 h), con una disminución de hasta 10%. Esto indica que los SPION estabilizados con ácido oleico y Pluronic® 147 son altamente biocompatibles y su efecto antineoplásico es debido a la carga de fármaco.

Figura 4. a) Efecto de las muestras A y B en la viabilidad de un nivel de líneas celulares variando la concentración de partículas y el tiempo de incubación. La concentración de paclitaxel es representada en el eje superior. b) Resultados obtenidos incubando dos niveles de líneas celulares sin y con imán. c) Resultados obtenidos en los experimentos de disgregación de las nanopartículas cargadas con paclitaxel después de la aplicación de un imán durante uno o cinco minutos. En los casos de las figuras. b) y c) el tiempo de incubación fue de 48 h y la concentración de nanopartículas fue de 0.70 mg/ml (0.77 ng/ml de paclitaxel en los experimentos realizados con la muestra A).

La figura 4b presenta los resultados obtenidos en los experimentos de dos niveles en la presencia y en ausencia de un imán. Se observa que la muestra B no tuvo ningún efecto sobre la viabilidad de las células en ninguno de los casos. Por el contrario, cuando la incubación de las células se llevó a cabo después de la inyección de partículas de la muestra A en ausencia de campos magnéticos, la viabilidad de las dos líneas celu44

lares disminuyó significativamente. Esto indica que las nanoestructuras se dispersan en el medio acuoso atravesando la membrana porosa de la bandeja. Esta disgregación es un factor crucial en la difusión intratumoral de las nanoformulaciones. Al ubicar un imán debajo de los pocillos de la placa de cultivo durante el proceso de incubación, la relación de supervivencia de las células en el fondo del pocillo se redujo 26%, mientras que la viabilidad de las células en la bandeja porosa no fue alterada (figura 4b). Estos resultados indican que las nanopartículas pueden ser magnéticamente recolectadas y su actividad antiproliferativa se puede dirigir a regiones diana usando campos magnéticos. Además, esto confirma que el fármaco se mantuvo unido a las nanoestructuras durante los experimentos. Curiosamente, a pesar de haber dirigido las nanopartículas hacia las células que se encuentran en el fondo del pocillo, la viabilidad de estas líneas celulares fue mayor que en la encontrada en los mismos ensayos realizados sin el uso de un imán. Esta reducción de la capacidad antiproliferativa probablemente se deba a la aglomeración de las partículas y a la pérdida de su movilidad bajo la fuerza de atracción del imán, reduciendo la eficiencia de la liberación del fármaco sobre las células. Esto explica la limitada difusión intratumoral reportada en los ensayos in vivo y estudios clínicos anteriormente citados. La figura 4c muestra los resultados de los experimentos de viabilidad celular después de la aplicación de un campo magnético durante unos pocos minutos. En el caso del experimento con células crecidas solamente en un nivel, la viabilidad celular fue similar a la obtenida en experimentos sin campo magnético bajo las mismas condiciones de incubación. En el caso de los experimentos de dos niveles, la viabilidad se redujo notablemente en ambos niveles (sus valores fueron 57% en la placa de cultivo y 67% en la bandeja porosa). Esto indica que después de concentrar las partículas en las células que se encuentran en el fondo del pocillo con la aplicación del campo magnético, las nanoformulaciones se propagan en el medio e interaccionan con las células de la bandeja porosa, reduciendo su viabilidad. Esta disgregación de las partículas después de retirar el imán es debida al comportamiento superparamagnético y alta estabilidad coloidal de las nanoformulaciones. Por otra parte, es interesante observar que la viabilidad de las células en el fondo del pocillo fue menor que cuando se mantuvo constante el campo magnético durante todo el proceso de incubación. Estos resultados sugieren que, una vez localizadas las nanoformulaciones en la región diana, se puede favorecer su acción terapéutica y su difusión intratumoral al retirar el campo magnético. Por tanto, una aplicación del campo magnético discontinua

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


o pulsada podría incrementar la eficacia de las quimioterapias asistidas con vectores superparamagnéticos.

CONCLUSIONES La entrega guiada de pequeñas cantidades de agentes antineoplásicos usando nanoplataformas superparamagnéticas y campos magnéticos se ha investigado empleando líneas celulares cultivadas en uno o dos niveles. Los resultados mostraron que, en medios acuosos, estas nanoestructuras superparamagnéticas se pueden localizar rápidamente en un sitio específico con la aplicación de un campo magnético continuo, produciendo efectos antiproliferativos controlados sin afectar a otras líneas celulares que se encuentren en la vecindad. No obstante, la actividad antiproliferativa de las nanoformulaciones se reduce cuando su movilidad está limitada por la fuerza de atracción ejercida por el campo magnético. La aplicación discontinua de este campo favorece la subsiguiente diseminación de las nanopartículas entre capas celulares. Éste es un hallazgo importante que debería ser considerado en ensayos clínicos futuros.

AGRADECIMIENTOS Los autores agradecen al Dr. Enrique D. Barriga Castro su valiosa colaboración en las caracterizaciones realizadas por MET. Asimismo, agradecen a la Secretaría de Educación Pública de México (SEP) por su apoyo a la formación de la Red temática de colaboración “Sistemas de baja dimensionalidad con aplicaciones biotecnológicas”.

Dromi, S., et al. (2007). Clinical Cancer Research, 13(9), 2722-2727. Du, C.H., Wu, C.J., y Wu, L.G. (2012). Journal of Applied Polymer Science, 124(S1). Iyer, A.K., et al. (2006). Drug discovery today, 11(17), 812-818. Jain, T.K., et al. (2008). Biomaterials, 29(29), 40124021. Lammers, T., et al. (2012). Journal of controlled release, 161(2), 175-187. Lee, E.S., Na, K., y Bae, Y.H. (2005). Journal of Controlled Release, 103(2), 405-418. Lübbe, A.S., et al.. (1996). Cancer research, 56(20), 4686-4693. Lübbe, A.S., Alexiou, C., y Bergemann, C. (2001). Journal of Surgical Research, 95(2), 200-206. Mornet, S., et al. (2004). Journal of Materials Chemistry, 14(14), 2161-2175. Patravale, V.B., y Kulkarni, R.M. (2004). Journal of pharmacy and pharmacology, 56(7), 827-840. Stoner, E.C., Wohlfarth, E.P. (1948). Phil. Trans. Roy. Soc. London, A240 599. Strebhardt, K., & Ullrich, A. (2008). Nature Reviews Cancer, 8(6), 473-480. Sun, C., Lee, J.S., y Zhang, M. (2008). Advanced drug delivery reviews, 60(11), 1252-1265.

REFERENCIAS

Torchilin, V.P. (2010). In Drug delivery (pp. 3-53). Springer Berlin Heidelberg.

American Cancer Society: Cancer Facts and Figures. 2013. Atlanta, Ga: American Cancer Society.

Wahajuddin, S. A. (2012). International journal of nanomedicine, 7, 3445.

Asin, L., et al. (2012). Pharmaceutical research, 29(5), 1319-1327.

RECIBIDO: 18-08-2016 ACEPTADO: 05-09-2016

Bean, C.P., Livingston, J.D. (1959). J. Appl. Phys., 30 120S. Chertok, B., David, A.E., y Yang, V.C. (2010). Biomaterials, 31(24), 6317-6324. Cullity B.D. (1972). Introduction to magnetic materials. Addison-Wesley Publishing Company. De Berti, I.P., et al. (2013). Nanotechnology, 24(17), 175601. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

45


Red de políticas públicas de radiodifusión y telecomunicaciones en México Cintia Smith*

RESUMEN

ABSTRACT

En este estudio se realiza un análisis comparativo de la composición y modo de interacción de la red de políticas públicas que incidió en la formulación de las reformas de las leyes de radiodifusión y telecomunicaciones de 2006 y de 2014. Se pretende examinar si existe relación y de qué tipo es entre la configuración y el modo de interacción de la red de políticas públicas de radiodifusión y sus efectos en la formulación de política pública.

This study develops a comparative analysis of the composition and interaction mode of the public policy network that were involved in the policy formulation of broadcasting and telecommunications reform laws of 2006 and 2014. The aim is to examine whether or not there is a relation, and what type of relation exists between the network configuration and its interaction mode, and its impact on public policy formulation.

Palabras clave: sistema regulatorio audiovisual, México, red de políticas públicas.

Key words: broadcasting, telecommunications, Mexico, policy networks.

LA REGULACIÓN DE LA RADIODIFUSIÓN Y LAS TELECOMUNICACIONES EN MÉXICO

libertad de expresión– y marginando al Estado en su capacidad de emprender un rol activo en el ámbito de las comunicaciones.

En México, la regulación de la comunicación y, particularmente, la potestad de otorgar concesiones es una prerrogativa exclusiva del Estado, la cual le permite ejercer, en última instancia, pleno control sobre el sistema de comunicación nacional. Sin embargo, los concesionarios, desde los inicios del sistema radiofónico, han tenido gran capacidad de negociación con los gobiernos, jugando un rol de apoyo al sistema político príista y asegurando para sí mismos los beneficios derivados de las prácticas monopólicas (Smith, 2001). Esto se ha desarrollado en forma corporativa a través de la Cámara Nacional de la Industria de Radio y Televisión (CIRT) y en contactos directos entre los empresarios de los medios y los gobernantes. Estos modos implícitos de negociación están plasmados de forma muy clara en el marco legal en materia de comunicación, limitando las obligaciones de los radiodifusores a su mínima expresión –en defensa de la

El proceso de transición democrática en México, particularmente a partir de 2000, modificó las interacciones que históricamente se habían planteado entre el gobierno y los concesionarios de medios de comunicación audiovisual. En contraposición a un modelo de interacción previa caracterizado por una cooperación de beneficios mutuos dominada en última instancia por el poder político (Fernández Christlieb en Zarur Osorio, 1996; Lawson, 2001; Smith, 2001; Trejo Delarbre, 2001), se comenzó a gestar en dicho sexenio una agenda regulatoria en materia de radiodifusión dominada por los intereses empresariales (Smith, 2008; Trejo Delarbre, 2006). Este nuevo escenario le dio gran poder simbólico a los consorcios mediáticos frente a una clase política fragmentada y con gran necesidad de “obtener pantalla” (Guerrero, 2010). El mercado de elecciones competidas se transformó en un gran negocio publicitario. En esta situación los medios aprovecharon el umbral de oportunidad para negociar cambios al statu quo * Universidad Nacional Autónoma de México. Contacto: esmith@itesm.mx

46

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


legal de manera favorable a sus intereses. Este giro en la relación medios–política se evidencia claramente en dos coyunturas que se dan en el gobierno de Fox: el decreto de eliminación del tiempo fiscal del Estado en la radio y la televisión de 2002 y la reforma a la Ley de Radio y Televisión y la Ley de Telecomunicaciones, más conocida como “Ley Televisa” de 2006 (Guerrero, 2010; Smith, 2008). “En ambos casos se puede documentar que, al contrario de lo que sucedía en el régimen príista, los concesionarios tomaron la iniciativa ante un gobierno pasivo” (Guerrero, 2010). Por tanto, las condiciones estructurales del mercado de medios se han mantenido inalteradas hasta la promulgación de la Ley de Telecomunicaciones de 2014. El mercado se caracteriza por una fuerte concentración tanto en el mercado de la radiodifusión como en el de las telecomunicaciones con actores que controlan su sector con más de 50% en términos de abonados, canales o redes. En este escenario se dio la reforma integral de telecomunicaciones que incluyó una de tipo constitucional en 2013 y su ley reglamentaria en 2014. Destacan medidas para agentes preponderantes y dominantes1 , multiprogramación2 , must carrier3 , must offer4 , interconexión5 y un nuevo órgano regulador autónomo llamado Instituto Federal de Telecomunicaciones.

APUNTES SOBRE LA METODOLOGÍA UTILIZADA EN EL ESTUDIO Las técnicas utilizadas en esta investigación son el análisis de contenido cualitativo a los dictámenes de reforma de las leyes y entrevista a profundidad a los actores que intervinieron en las negociaciones de dichas reformas. Se realizaron 12 entrevistas a los siguientes actores: actores gubernamentales –legisladores involucrados en los procesos de negociación–; actores estatales no gubernamentales –Comisión Federal de Telecomunicaciones (Cofetel) y más recientemente el Instituto Federal de Telecomunicaciones (IFT) que continuó las funciones de la Comisión después de la reforma constitucional en la materia–; actores empresariales concesioAgentes que controlan más de 50% del sector de telecomunicaciones o radiodifusión en sentido amplio para el agente preponderante o que influyen en forma aproximada a 50% en un mercado puntual para el agente dominante. 2 Distribución de varios canales de programación utilizando menos espacio del espectro de frecuencias gracias a la tecnología digital y las técnicas de compresión. 3 Obligación de los sistemas de televisión de paga (cable, DTH u otras) de incluir las señales de televisión abierta en su oferta de servicios. 4 Obligación de las televisoras de señal abierta de poner a disposición de las televisoras de paga sus señales para que sean difundidas. 5 Técnica que responde a la necesidad de hacer interactuar las distintas infraestructuras (redes) con tecnologías y diseños diferentes, con la finalidad que los usuarios conectados perciban el servicio como si se tratara de una sola red. 1

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

narios de frecuencias; asociaciones civiles que influyen en esta agenda en México y organismos internacionales especializados que hacen recomendaciones de legislación en la materia como la Organización para la Cooperación y Desarrollo Económicos (OCDE). Las mismas fueron efectuadas por la autora de este trabajo entre abril de 2014 y junio de 2015. Algunas de ellas se realizaron en forma presencial y otras por videoconferencia o llamada telefónica en las siguientes ciudades: Ciudad de México, París, Monterrey y Zacatecas. Todo el material fue grabado y posteriormente transcrito para su análisis. El análisis de contenido se aplicó a los dictámenes de ley generados por las cámaras de origen de las leyes (Cámara de Diputados y Cámara de Senadores, en ese orden), para la reforma de la Ley de Radio y Televisión y la Ley de Telecomunicaciones de 2006 (dictamen de reforma de Ley de Radio y Televisión y Ley de Telecomunicaciones, 2006) y la generación de la nueva Ley de Telecomunicaciones de 2014 (dictamen de la Ley de Telecomunicaciones, 2014). La selección de dichas técnicas se debe a la necesidad de establecer el nexo entre los argumentos que justifican las decisiones de la ley en sus dictámenes y sus estipulaciones concretas con la percepción que los actores involucrados tienen sobre el proceso de negociación. El análisis de contenido nos arroja evidencia sobre lo que queda establecido en la normativa; las entrevistas a profundidad sobre las percepciones de los actores frente al proceso de negociación. Ahí donde coinciden las posturas se entiende que esos actores tuvieron influencia directa sobre la formulación de la política pública. En caso contrario se llega a la conclusión de que fueron actores periféricos en el proceso de la negociación.

ANÁLISIS DE RESULTADOS En el caso de la negociación de la reforma de 2006, los actores centrales que los entrevistados registran como hacedores de la ley son: Televisa, la Junta de Coordinación Política de la Cámara de Diputados y Miguel Lucero Palma –legislador que presentó la iniciativa de ley–, en ese orden de importancia. En cuanto a los recursos más recurridos que los participantes mencionan en el proceso de negociación de esta ley resaltan las estrategias de cabildeo, la consulta e integración de expertos y la influencia de los tiempos legislativos y de las elecciones presidenciales; en un segundo plano el uso de la fuerza a modo de presión y la falta de apoyo 47


político. Las relaciones que más se destacan en la red, producto de las interacciones de los actores son la acción unilateral por parte de los actores principales, la falta de acceso para actores que estaban en coaliciones opositoras al proyecto y los conflictos derivados de esta exclusión. Los actores coinciden en afirmar la incapacidad de entablar una negociación. No se acepta ningún ajuste al proyecto original.

Como se puede observar en la tabla, desde la perspectiva de las similitudes, se presenta en ambos casos un escenario de acuerdos cupulares. En el primero con injerencia predominante de una empresa del sector y en el segundo con la intervención del Ejecutivo y el Pacto por México. También los recursos utilizados por los actores en ambos procesos son similares aunque desigualmente distribuidos.

Para la negociación de la nueva Ley de Telecomunicaciones de 2014 los actores centrales que los entrevistados registran como hacedores de la ley son: el Ejecutivo Federal, el Pacto por México y otros actores periféricos. Las relaciones que más se destacan en la red, producto de las interacciones de los actores, son el acuerdo negociado por parte de los actores principales y en un segundo plano percepciones de conflicto desde la periferia de la red. En cuanto a los recursos más recurridos que los participantes mencionan en el proceso de negociación de esta ley resaltan las estrategias de cabildeo, la consulta e integración de expertos y la influencia de los tiempos legislativos. El proceso de negociación de la ley de 2014, por las evidencias presentadas, demuestra entonces que el impulso de este proyecto estuvo concentrado en el Ejecutivo Federal, vinculado con las cúpulas partidarias, estructuradas al menos en un principio por el Pacto por México, y con acercamientos coyunturales con terceros actores de forma individualizada.

Sin embargo, una diferencia fundamental es el modelo de negociación que se entabla en cada uno de ellos. Para 2006 no hubo interacción sino imposición. Esta perspectiva unilateral, sin negociaciones, dio pie al surgimiento de escenarios conflictivos y a la revocación de aspectos esenciales de la legislación en la Suprema Corte. En el caso de 2014, aunque bajo el control del Ejecutivo, se abrieron espacios de transacción asimétrica con negociaciones puntuales que legitimaron la ley dentro de la red.

A continuación se presenta una tabla comparativa de las categorías descriptivas de las redes de políticas públicas para ambos procesos. Tabla I. Comparación de las categorías descriptivas de las redes de políticas públicas de 2006 y 2014. Dimensión Estructural

Actores principales Distribución de poder dentro de la red

Red de 2006

Televisa (unilateral). Jerárquica, los líderes los imponen a los miembros. El grupo opositor (legisladores, reguladores y sociedad civil) no puede incidir en el proceso legislativo y cabildea en los medios.

Red de 2014 Poder Ejecutivo Federal a instancias del Pacto por México. El poder está concentrado en el Ejecutivo, pero se identifican acuerdos puntuales con diferentes actores que facilitan la votación de la ley. A pesar de que hay un grupo dominante, se da un juego de suma positiva.

Es un juego de suma cero. Recursos

Relacional

Cabildeo, expertos, tiempo y presión política.

Unilateral, sin negociaciones. Surgimiento de escenarios conflictivos.

Fuente: elaboración propia. 48

Cabildeo, expertos, tiempo y presión política.

Transacción asimétrica

CONCLUSIONES Después de haber realizado el ejercicio de análisis cualitativo de los dictámenes de ley y las entrevistas a los actores involucrados, se pueden observar interesantes ángulos de comparación entre ambos procesos. Se observa en ambos procesos de negociación un escenario de acuerdos cupulares entre las altas esferas del Ejecutivo, las presidencias de los partidos políticos más representativos y las coordinaciones parlamentarias de los mismos. También, en ambos procesos, una minoría de los legisladores se concentra en una posición disidente que tiene un núcleo duro y persistente en el tiempo. Si bien es un grupo minoritario, se puede documentar su efectividad en el cabildeo y su capacidad de impacto en el espacio de la comunicación política en ambos procesos de negociación. A pesar de las semejanzas, se presentan marcadas diferencias en los resultados de política pública obtenidos en 2006 y 2014. Esto se debe, según los resultados obtenidos, a dos razones: los actores que asumen el liderazgo del proceso de negociación y la predisposición o reticencia para abrir espacios a la negociación. En el caso de 2006, la iniciativa fue impulsada por un actor dominante de la industria con capacidad de influir en los procesos de comunicación política electoral y, por tanto, incidir en las carreras políticas de los legisladores y en sus decisiones legislativas. En 2014, el proyecto fue impulsado desde el Ejecutivo con el objetivo CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


de recuperar la rectoría del Estado sobre el sector. En 2006 no hubo margen a modificaciones de la propuesta original; en 2014 se hicieron concesiones particulares en la medida de que éstas estuvieran validadas desde la presidencia. Entonces, a pesar de que la red está compuesta básicamente por los mismos actores en los dos momentos, los resultados de política pública que derivan de sus procesos de negociación son muy diferentes. Después de haber realizado la descripción e interpretación de los datos se puede afirmar, a partir de la evidencia empírica observada, que existe una relación causal entre la estructura de la red de políticas públicas y sus interacciones predominantes respecto de la formulación de una política pública. Al mismo tiempo, la distribución de recursos entre los actores y el contexto institucional –ya analizado como contexto político previamente– también tienen una influencia decisiva en la red. A pesar de la inminencia de estas transformaciones, es necesario apuntar que Televisa sigue manifestando un poder tangible sobre el sistema político muy por encima de los demás actores de la industria. El hecho de que a la fecha la oferta de contenidos esté concentrada en el modelo de radiodifusión tradicional expone a la clase política a percibir que el modelo de comunicación política sigue centralizado, aunque este escenario esté en proceso de evolución. El estudio de los procesos de negociación regulatoria en materia de radiodifusión y telecomunicaciones es una necesidad imperante para entender los posibles alcances de un sistema democrático en México para el siglo XXI. De la real competencia entre actores de la industria, la participación reguladora del Estado y la diversidad de contenidos dependen las competencias de una ciudadanía con capacidad deliberativa. En este sentido, la nueva legislación generó nuevas instituciones, áreas de oportunidad y dejó también retos irresueltos. Espero que este trabajo resulte entonces una contribución útil para dar luz a estas cuestiones.

Dictamen de la Ley de Telecomunicaciones, Cámara de Senadores (2014). Disponible en: http://www. senado.gob.mx/comisiones/comunicaciones_transportes/docs/Telecom/Anteproyecto_Dictamen.pdf Guerrero, M. (2010). Los medios de comunicación y el régimen político. En S. Loaeza y J.F. Prud’homme (coords.), Los grandes problemas de México. Instituciones y procesos políticos. México: El Colegio de México. Lawson, C. (2001). Building the fourth estate. Democratization and the rise of a free press in Mexico. United States: University of California Press. Smith, C. (2001). Redefinición del sistema mexicano de televisión abierta en el proceso de democratización política y liberalización económica. Tesis de maestría. Instituto Tecnológico y de Estudios Superiores de Monterrey. México. Smith, C. (2008). La regulación de los medios audiovisuales en el proceso de alternancia democrática en México. En N. Guzmán (comp.) Sociedad, desarrollo y ciudadanía en México. México: Limusa. Trejo D., R. (2001). Mediocracia sin mediaciones. Prensa, televisión y elecciones. México: Ediciones Cal y Arena. Trejo D., R. (2006). Los Medios en el gobierno de Fox: el Presidente y el Comediante. En A. Sánchez Rebolledo (comp.) ¿Qué país nos deja Fox? Los claroscuros del gobierno del cambio. México: Grupo Editorial Norma. Zarur O., A. (1996). El Estado y el modelo de televisión adoptado (1950-1988). México: Universidad Autónoma Metropolitana RECIBIDO: 18-08-2016 ACEPTADO: 05-09-2016.

REFERENCIAS Dictamen de Reforma de Ley de Radio y Televisión y Ley de Telecomunicaciones, Cámara de Diputados (2006). Disponible en: biblio.juridicas.unam.mx/libros/5/2444/15.pdf

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

49


Secuencia de la tanasa de Aspergillus niger GH1 y producción de la enzima en Pichia pastoris José Antonio Fuentes Garibay*, Martha Guerrero Olazarán*, José María Viader Salvadó*

RESUMEN

ABSTRACT

En este trabajo se describen las secuencias nucleotídicas y aminoacídicas y la probable estructura molecular de la tanasa del hongo xerófito Aspergillus niger GH1. Además, se construyeron cepas de la levadura Pichia pastoris para producir de forma extracelular la enzima, la cual se caracterizó bioquímicamente y sus propiedades se compararon con las de la tanasa nativa. La tanasa producida en este trabajo podría ser utilizada en el procesado de alimentos y bebidas a bajas temperaturas.

In this paper, we describe the gene and amino acid sequences, and the possible molecular structure of the tannase of the Aspergillus niger GH1. In addition, we engineered Pichia pastoris strains with a synthetic gene to produce and secrete the enzyme, Furthermore, the produced recombinant tannase was biochemically characterized, and its properties were compared to those of the native tannase from A. niger GH1. The tannase produced in this study could be used in the processing of food and beverages at low temperatures.

Palabras Clave: tanasa, Aspergillus niger GH1, modelaje molecular, Pichia pastoris.

Key words: : tannase, Aspergillus niger GH1, molecular modelling, Pichia pastoris.

Las tanin acil hidrolasas o tanasas (EC 3.1.1.20) son enzimas que catalizan la hidrólisis de los enlaces éster en galotaninos, taninos complejos y ésteres de ácido gálico, produciendo ácido gálico como producto principal. Estas enzimas son usadas en la industria de alimentos durante la fabricación del té, clarificación del vino y jugo de fruta, y para la reducción de efectos antinutricionales de los taninos en nutrición animal (Aguilar y Gutiérrez, 2001). Además, el ácido gálico se utiliza para la síntesis del antioxidante propil-galato y el antibiótico trimetroprim. A pesar de las aplicaciones de las tanasas, el uso práctico de estas enzimas es limitado debido a la falta de un procedimiento económico para su producción a gran escala.

(45-15ºC) (Cruz et al., 2005). La tanasa de A. niger GH1 ha demostrado ser muy efectiva para el tratamiento de desechos ricos en taninos, potenciando la actividad biológica de té y la producción de importantes y potentes compuestos fenólicos antioxidantes. En comparación con otras tanasas, la de A. niger GH1 mostró alta estabilidad a pH, temperatura y otros compuestos que generalmente se encuentran en los sistemas ricos en taninos. Basados en estas propiedades, esta enzima puede ser especialmente utilizada en aplicaciones industriales.

Recientemente, Aspergillus niger GH1, un hongo xerófilo, ha sido reportado como un productor de tanasa. Este microorganismo fue aislado del semidesierto mexicano y tolera condiciones extremas de la región

Por otro lado, la levadura metilotrófica Pichia pastoris se utiliza frecuentemente como un hospedero para la producción de proteínas recombinantes extracelulares, ya que puede crecer en medios definidos simples y alcanzar altas densidades celulares, produciendo de esta manera altos niveles de proteínas extracelulares recombinantes (Sreekrishna, 2010). *Universidad Autónoma de Nuevo León. Contacto: jose.viadersl@uanl.edu.mx

50

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


En este trabajo se describen por primera vez las secuencias nucleotídicas y aminoacídicas, y la probable estructura molecular de la tanasa de A. niger GH1. Además, se construyeron cepas de P. pastoris para producir de forma extracelular la enzima, la cual se caracterizó bioquímicamente y sus propiedades se compararon con las de la tanasa nativa.

MATERIALES Y MÉTODOS Para determinar la secuencia nucleotídica de la tanasa de A. niger GH1, se sintetizó dicha secuencia por PCR utilizando DNA genómico de A. niger GH1 y oligonucleótidos dirigidos hacia el inicio y al final de la secuencia que codifica para la proteína madura. El producto amplificado se ligó en el vector pGEM y se transformaron células de Escherichia coli. Cinco plásmidos provenientes de diferentes colonias de E. coli se secuenciaron en el Instituto de Fisiología Celular (UNAM), usando los oligonucleótidos T7 y SP6. Cuatro de estos plásmidos se secuenciaron nuevamente empleando oligonucleótidos internos diseñados con base en la secuencia nucleotídica obtenida con los oligonucleótidos T7 y SP6. Se determinó la secuencia nucleotídica consenso a partir de las 18 secuencias nucleotídicas, empleando el módulo CAP (Contig Assembly Program) del programa BioEdit v7.0.8.0. Esta secuencia y la secuencia aminoacídica deducida se compararon con las secuencias reportadas en la base de datos GenBank mediante las herramientas BLAST del NCBI y se determinaron los porcentajes de identidad con otras tanasas fúgicas mediante el programa Clustal Omega. Se hizo un análisis de dominios funcionales de la tanasa de A. niger GH1 por comparación de la secuencia aminoacídica obtenida con la base de datos de familias de proteínas Pfam. Se construyó un modelo molecular de la proteína con el servidor Phyre2, y con el programa Swiss-PdbViewer/ DeepView 4.1 se analizaron aspectos estructurales y funcionales de la tanasa de A. niger GH1. Con el servidor NetNGlyc 1.0 se predijeron los posibles sitios de N-glicosilación. Para la construcción de cepas recombinantes de P. pastoris KM71 productoras de la tanasa de A. niger GH1, se diseñó un gen artificial (ANTgs) que codifica para la tanasa de A. niger GH1 mediante el uso de codones preferenciales de P. pastoris y la inclusión de la secuencia prepro del factor alfa de Sacharomyces cerevisiae. El gen artificial fue sintetizado, clonado en el vector pUC57 y subclonado en pPIC9 para obtener el plásmido pPIC9ANTgs. Se linearizó el plásmido pPIC9ANTgs construido con la enzima SalI y se transforCIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

mó la cepa KM71 de P. pastoris mediante electroporación. De las cepas construidas se caracterizaron su genotipo (aox1 y ANT+) mediante PCR y su fenotipo mediante la evaluación de la expresión de la secuencia clonada en cultivos a nivel matraz, a través de la actividad enzimática extracelular de tanasa. Con el fin de realizar una caracterización bioquímica de la enzima producida, con una preparación enzimática obtenida por ultrafiltración del medio de cultivo libre de células de los cultivos en matraz, se determinó la presencia de posibles N-glicosilaciones evaluando el cambio en la migración en geles de poliacrilamida de muestras tratadas y sin tratar con la glucosidasa endo Hf. Además, se determinó la presencia de una posible estructura bicatenaria de la tanasa producida. Se evaluó el efecto del pH y la temperatura en la actividad enzimática de tanasa, la estabilidad de la enzima a cuatro y 30°C, la actividad específica y los parámetros cinéticos Km y Vmax.

RESULTADOS Determinación de la secuencia nucleotídica y aminoacídica de la tanasa nativa de A. niger GH1 La secuencia nucleotídica de la tanasa de A. niger GH1 madura tuvo una longitud 1,686 pb, sin intrones, y codifica para una proteína de 562 aminoácidos. Esta secuencia nucleotídica se registró en la base de datos GenBank con la clave de acceso KP273835. La secuencia de aminoácidos de la tanasa de A. niger GH1 mostró identidades de 78.6-99.4% con respecto a las seis tanasas fúngicas más similares: Aspergillus kawachii IFO 4308 (GenBank GAA91900.1, 99.4%), A. niger CBS 513.88 (GenBank XP_001402486.1, 98.0%), A. niger ATCC 1015 (GenBank EHA22262.1, 97.1%), Aspergillus terreus NIH2624 (GenBank XP_001216558.1, 80.0%), A. niger (GenBank ABX89592.1, 79.2%) y la tanasa y feruloil esterasa de Aspergillus ruber CBS 135680 (GenBank EYE96818.1, 78.6%); con identidades en las secuencia nucleotídicas que van en un intervalo de 73.3 a 98.6% para las mismas tanasas fúngicas. El análisis con Pfam mostró que la secuencia de la tanasa de A. niger GH1 tiene un dominio del residuo 53 al 545 que pertenece a la familia Tanasa PF07519 en donde se agrupan otras tanasas, feruloil estearasas y varias proteínas de bacterias de función desconocida. Esta familia es un miembro del clan AB_hidrolasa (CL0028) cuyo dominio catalítico se encuentra en una amplia gama de enzimas, ya que este clan contiene 67 miembros. En la familia PF07519 se 51


encuentran descritas 15 arquitecturas de organización de dominios, presentando la tanasa de A. niger GH1 la arquitectura más sencilla de un único dominio. El programa Phyre realizó un modelo molecular con todos los aminoácidos de la tanasa de A. niger GH1, 512 residuos (91%) fueron modelados con base en la estructura 3WMT, que pertenece a una feruloil esterasa (Suzuki et al., 2014), y 50 residuos (9%) fueron modelados mediante técnicas de ab initio. El modelo molecular de la tanasa de A. niger GH1 (figura 1A) mostró la presencia de 16 hélices alfa y 16 hojas beta que abarcan 29 y 13% de la proteína, respectivamente; que forman dos dominios estructurales, uno de ellos con un plegamiento tipo α/β-hidrolasa que constituye el dominio catalítico, y el otro un dominio tipo tapa que cubre el sitio catalítico. A partir del modelo molecular y mediante comparación con la estructura 3WMT, se proponen los residuos Ser-196, Asp-448, e His-494 como los que constituyen la triada catalítica. Además, estos residuos de serina e histidina pudieran estar directamente conectados mediante un puente disulfuro entre las cisteínas que se encuentran contiguas a la serina e histidina, Cys-195 y Cys-495 (figura 1B), formando el motivo estructural descrito recientemente (CS-D-HC) (Suzuki et al., 2014). El modelo molecular también mostró que uno de los sitios de reconocimiento tipo Kex2 (Lys-309-Arg-310, figura 1C) se encuentra en un loop flexible del dominio de tapa. 2

(A) Dominio de tapa

Dominio catalítico

C N

(B)

(C)

Asp-448

Ser-196

Ala-311 Arg-310 Lys-309

His-494

Cys-195 Cys-495

Figura 1. Modelo molecular de la tanasa de A. niger GH1. A: modelo construido usando el servidor Phyre2 mostrando la presencia del dominio catalítico y el dominio de tapa. B: triada catalítica Ser-196, Asp-448, e His-494, conectada directamente por un puente disulfuro entre las cisteínas vecinas Cys-195 y Cys-495. C: sitio de reconocimiento Kex2 (Lys-309-Arg-310) en un loop flexible del dominio de tapa.

52

Construcción de cepas recombinantes de P. pastoris portadoras del fragmento ANTgs (KM71ANT) La secuenciación del DNA del plásmido pUC57 confirmó la secuencia nucleotídica correcta del gen sintético ANTgs. El gen sintético de la tanasa junto con la secuencia nucleotídica que codifica para la péptido prepro del factor alfa de S. cerevisiae tuvo un tamaño de 1,961 pb. El análisis mediante PCR del plásmido recombinante, usando los oligonucleótidos de AOX, mostró un producto de 2,158 pb que confirmó la construcción del plásmido pPIC9ANTgs. La transformación de células de P. pastoris KM71 con el plásmido pPIC9ANTgs previamente digerido con SalI generó 15 colonias transformadas His+. El análisis mediante PCR con los oligonucleótidos de AOX mostró una banda de 2,158 pb que corresponde a la secuencia que codifica para la secuencia prepro del factor alfa (255 pb), a la secuencia del gen sintético que codifica para la tanasa de A. niger GH1 (1,689 pb) y los fragmentos del sitio múltiple de clonación del vector pPIC9 (21 pb), promotor de AOX1 (94 pb) y del terminador de la transcripción (99 pb). Producción y caracterización bioquímica de la tanasa de A. niger GH1 recombinante Después de 48 h de cultivo de una cepa KM71ANT en condiciones de inducción del gen heterólogo, el medio de cultivo libre de células mostró una actividad volumétrica de tanasa de 0.57 U/ml y una concentración de proteínas de 46.71 mg/L. Estos resultados corroboraron la capacidad de la cepa KM71ANT de producir y secretar al medio de cultivo la tanasa de A. niger GH1 recombinante, y por lo tanto confirmaron su fenotipo ANT+. Con el proceso de ultrafiltración que se aplicó al medio de cultivo libre de células se obtuvo un concentrado de tanasa (25.7 U/ml) que se empleó para la caracterización bioquímica de la tanasa recombinante producida. En el análisis de SDS-PAGE (figura 2), la tanasa recombinante sin tratamiento con la enzima endo Hf mostró dos bandas anchas de masas moleculares aparentes de 45.0-54.8 y 41.8-45.0 kDa, con una intensidad mayor en las masas moleculares de 48.7 y 42.4 kDa (figura 2, carril 2). Después de la N-desglicosilación con endo Hf, las dos bandas se movieron a posiciones con masas moleculares aparentes de 34.6 y 30.3 kDa, respectivamente (figura 2, carril 3).

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


1

2

3

66 45 36

(A)

(B)

100 90

90

70 60 50 40 30 20

80 70 60 50 40 30 20

10

10

0 0

29

100

80

Actividad relativa (%)

M

Actividad relativa (%)

kDa

1

2

3

4

5

6

7

8

9

0

10

0

pH

10

20

30

40

50

60

70

80

Temperatura (°C)

24

Figura 2. Análisis por SDS-PAGE del concentrado enzimático de tanasa obtenido por ultrafiltración tratado y sin tratar con la glicosidasa endo Hf. Carril M: marcador de peso molecular. Carril 1: endo Hf. Carril 2: concentrado enzimático de tanasa sin tratamiento con endo Hf. Carril 3: concentrado enzimático de tanasa con tratamiento con endo Hf.

Estos resultados indican claramente que la tanasa está altamente N-glicosilada y que posee dos cadenas polipeptídicas. Además, el análisis de la secuencia aminoacídica de la tanasa recombinante con el programa NetNGlyc 1.0 mostró que la tanasa madura de A. niger GH1 tiene 11 sitios potenciales de N-glicosilación: 19NGTL, 54NVTV, 130NGSI, 237NATI, 265NLTS, 280NYTS, 304NGSV, 383NVTY, 451NTTY, 508NATV y 535NSSF. La tanasa recombinante producida tuvo un pH óptimo de 5.0 (figura 3A) y mostró más de 80% de su máxima actividad en el intervalo de pH entre 4.0 y 5.0. Además, mostró actividad en un amplio intervalo de temperaturas (10-50°C) con más de 40% de su máxima actividad y una temperatura óptima de 20°C (figura 3B). La actividad residual (figura 3C) en los ensayos de estabilidad siguieron cinéticas de orden cero con una velocidad de reacción de 0.01 y 0.48%/h a 4 y 30ºC, respectivamente, disminuyendo a 98.9 y 44.0% después de 120 h. Un cromatograma de intercambio aniónico del concentrado de la tanasa recombinante mostró dos picos predominantes mediante detección por UV a 280 nm. La actividad específica (20ºC, pH 5.0) en el máximo de uno de estos picos fue de 50 U/mg de proteína. La actividad de la tanasa recombinante siguió una cinética típica de Michaelis-Menten a 20 y 30°C (r2= 0.947 y 0.978, respectivamente). Las constantes de Michaelis (Km) y la velocidad máxima de reacción (Vmax) fueron estimadas en valores de 1.98 ± 0.50 mM y 2.01 ± 0.14 µmol/min, y 0.18 ± 0.04 mM y 0.48 ± 0.02 µmol/min a 20 y 30°C, respectivamente.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

(C)

100 90

Actividad residual (%)

20

80 70 60 50 40 30 20 10 0 0

20

40

60

80

100

120

Tiempo (h)

Figura 3. Efecto del pH (A) a 30°C y la temperatura (B) a pH 5.0 en la actividad enzimática de la tanasa recombinante. Las actividades de tanasa están expresadas como valores relativos. Actividad residual de la tanasa recombinante (C) a 4°C (■) y a 30°C (•). Los puntos representan la media de tres ensayos enzimáticos independientes (coeficientes de variación < 5%).

DISCUSIÓN Recientemente, el hongo xerófilo A. niger GH1 ha sido descrito como un productor de tanasa (Cruz et al., 2005). Las propiedades bioquímicas de la tanasa nativa de A. niger GH1 también han sido descritas (Renovato et al., 2011). En el presente trabajo se reportan las secuencias nucleotídica y aminoacídica de la tanasa madura de A. niger GH1. Además, se utilizó el sistema de expresión de P. pastoris para producir la enzima, utilizando un gen sintético, y se caracterizó la tanasa recombinante producida. Las secuencias nucleotídica y aminoacídica de la tanasa de A. niger GH1 resultaron ser similares, pero no idénticas, a la tanasa de A. kawachii IFO 4308. Debido a que no hay una estructura tridimensional reportada de una proteína con una alta identidad en su secuencia con la tanasa de A. niger GH1 que se encuentre disponible en el Protein Data Bank, fue necesario emplear el método threading para modelar la estructura tridimensional de la tanasa de A. niger GH1 a través del servidor Phyre2, uno de los mejores servidores según el “Critical Assessment of Protein Structure Prediction” (CASP) (Kelley y Sternberg, 2009). Con el modelo molecular se encontró que la tanasa tiene un plegamiento similar a la estructura tridimensional de una feruloilesterasa de A. oryzae cuyo código PDB es 3WMT (dos dominios estructurales: un dominio α/β-hidrolasa y un dominio de tapa), la cual tiene una identidad en la secuencia aminoacídica de 24% respecto a la tanasa de A. niger GH1. Adicionalmente, ambas estructuras tienen una triada catalítica que forma el dominio estructural CS-D-HC. 53


El presente trabajo es el primer reporte de una estructura molecular propuesta de una tanasa de la familia de las Tanasas PF07519 con un plegamiento muy similar a una feruloilesterasa, que tiene dos dominios estructurales y el motivo CS-D-HC. Sin embargo, la especificidad de las dos enzimas hacia su substrato es diferente, probablemente porque el sitio de unión al sustrato está formado por diferentes residuos de aminoácidos en las dos enzimas: Phe-225, Gln-228, Gln-229, Glu-365, Ser-279, Gly-381, e Ile-451 para la tanasa de A. niger GH1, y Phe-232, Leu-235, Thr-236, Tyr-348, Phe-354, Tyr-356, e Ile-419 para la feruloilesterasa de A. oryzae (Suzuki et al., 2014). Actualmente ha sido reportada la producción de siete tanasas en microorganismos, Lactobacillus plantarum, Klebsiella pneumoniae, Bacillus licheniformis, Aspergillus awamori, Aspergillus oryzae y A. niger. Entre estas tanasas, seis fueron nativas y sólo una de A. oryzae fue producida como recombinante (Yu y Li, 2008; Zhong et al., 2004). De entre las tanasas nativas, cinco han sido producidas en cultivo sumergido convencional y sólo la de A. niger GH1 fue producida de manera extracelular en cultivo en estado sólido, siendo el nivel de producción más alto (2,291 U/L en 20 h) comparada a las otras tanasas nativas. Sin embargo, en el caso de la tanasa de A. niger GH1, se observó una disminución en la actividad después de 20 h de incubación, la cual estuvo asociada con un concomitante incremento de actividad de proteasas (Cruz et al., 2005). La tanasa de A. oryzae ha sido producida en el sistema de expresión de P. pastoris de manera extracelular (Zhong et al., 2004) e intracelular (Yu y Li, 2008), resultando una actividad de 7 U/ml después de 96 h de inducción en un cultivo en lote alimentado empleando un biorreactor de 3 L en el primer caso, y 0.96 U/ml después de 72 h de inducción en un cultivo a nivel matraz para el segundo caso, ambos realizados con una cepa Muts. Sin embargo, en ningún caso se usaron genes sintéticos basados en el uso de codones preferenciales de P. pastoris y optimizado el contenido de AT para el gen de la tanasa o la secuencia codificante del péptido prepro del factor alfa de S. cerevisiae, ni se describieron las propiedades bioquímicas de las tanasas recombinantes, excepto por la formación de una estructura de doble cadena. Debido a que altas densidades celulares en P. pastoris pueden ser alcanzadas en un simple biorreactor en una forma controlada, se puede esperar un incremento de 10 a 100 veces en la producción de la tanasa de A. niger GH1 producida a nivel matraz, tal como se ha descrito para otras proteínas producidas en P. pastoris (Viader et al., 2013).

54

El servidor NetNGlyC 1.0 calculó once sitios potenciales de N-glicosilación para la tanasa de A. niger GH1. De entre estos sitios potenciales de N-glicosilación, tres (130NGSI, 265NLTS y 451NTTY) son más probables a ser N-glicosilados, ya que el modelo molecular de la tanasa de A. niger GH1 mostró que estos tres sitios están en la superficie de la proteína. Además, los resultados del tratamiento con la glicosidasa endo Hf claramente demuestran que la tanasa recombinante fue N-glicosilada, ya que no se observó una banda en los geles de SDS-PAGE correspondiente la masa molecular teórica de la tanasa madura de A. niger GH1 (61.4 kDa), con base en la secuencia aminoacídica deducida a partir del gen de la tanasa. Sin embargo, se observaron principalmente dos bandas anchas (figura 2, carril 2) en masas moleculares menores (48.7 y 42.4 kDa) que la masa molecular teórica esperada para la tanasa madura de A. niger GH1, que se movieron a dos bandas definidas a masas moleculares de 34.6 y 30.3 kDa (figura 2, carril 3) después de la N-desglicosilación mediante la glicosidasa endo Hf. Estos resultados también indican que el concentrado enzimático de tanasa recombinante tuvo un alto grado de pureza. Además, la tanasa recombinante consistió de dos subunidades, probablemente unidas mediante un puente disulfuro, generadas por un corte con la proteasa Kex2 del producto del gen de tanasa, ya que la secuencia de la tanasa madura de A. niger GH1 tiene dos pares de aminoácidos básicos (Lys-309-Arg-310, y Lys-347-Arg-348) que son un sitio típico de reconocimiento de la proteasa Kex2. Este tipo de estructura ha sido descrita para la tanasa nativa de A. oryzae (Hatamoto et al., 1996), y una tanasa de A. oryzae recombinante ya sea producida de forma extracelular (Zhong et al., 2004) o intracelular (Yu y Li, 2008, en P. pastoris. De los dos sitios de reconocimiento Kex2, el sitio Lys-309-Arg-310 es más probable que sea reconocido por la proteasa Kex2, ya que el modelo molecular mostró que este sitio se encuentra en la superficie de la proteína en un loop flexible del dominio de tapa (figura 1C). Un corte por la proteasa Kex2 a un lado de Arg-310 generaría dos péptidos de 31.2 y 30.2 kDa. El puente disulfuro entre la Cys-195 y la Cys-495 uniría ambos péptidos. Las tanasas de A. niger GH1 nativa y recombinante tienen la misma secuencia de aminoácidos. Por lo tanto, cualquier diferencia en sus propiedades bioquímicas (efecto del pH y temperatura en la actividad enzimática, y estabilidad) podría ser debido a sus diferentes grados de N-glicosilación o a sus diferentes estructuras, ya que la tanasa nativa de A. niger GH1 es principalmente una cadena glicopolipeptídica simple de 102-105 kDa (Renovato et al., 2011) y la tanasa recombinante es una

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


proteína de doble cadena hiperglicosilada. La N-glicosilación afecta las propiedades bioquímicas como la masa molecular y el pH óptimo. Mientras que la tanasa nativa de A. niger GH1 mostró un pH óptimo de 6.07.0 y una temperatura óptima de 60ºC (Renovato et al., 2011), la tanasa de A. niger GH1 recombinante mostró un pH óptimo de 5.0 y una temperatura óptima de 20ºC. La tanasa recombinante producida en el presente trabajo es la primera descrita del género Aspergillus con una temperatura óptima de 20ºC. Además, la tanasa de A. niger GH1 recombinante tuvo mayor actividad relativa en comparación con la nativa de A. niger GH1 en un intervalo de temperaturas de 10 a 40ºC, lo cual podría ser una ventaja para muchas aplicaciones en alimentos y bebidas (Chávez et al., 2012). Las tanasas nativa y recombinante mostraron alta actividad residual a 4ºC por al menos 120 h. Es de remarcar que las propiedades bioquímicas de una tanasa de Aspergillus con estructura de doble cadena no han sido descritas hasta hace poco (Mizuno, Shiono y Koseki, 2014). Sin embargo, en ese trabajo las propiedades bioquímicas de la tanasa nativa y recombinante fueron muy similares, probablemente porque ambas tuvieron una estructura de doble cadena, lo cual no es nuestro caso.

Hatamoto, O., et al. (1996). Cloning and sequencing of the gene encoding tannase and a structural study of the tannase subunit from Aspergillus oryzae. Gene, 175, 215-221.

Basados en sus perfiles de actividad a diferentes valores de pH y temperatura, la tanasa producida podría ser utilizada en el procesado de alimentos y bebidas a bajas temperaturas.

Viader S., J.M., et al. (2013). Optimization of five environmental factors to increase beta-propeller phytase production in Pichia pastoris and impact on the physiological response of the host. Biotechnol. Prog. 29, 1377-1385.

AGRADECIMIENTOS

Yu, X.W., Li, Y.Q. (2008). Expression of Aspergillus oryzae tannase in Pichia pastoris and its application in the synthesis of propyl gallate in organic solvent. Food Technol. Biotechnol. 46, 80-85.

Agradecemos al grupo de trabajo del Dr. Cristóbal Noé Aguilar González (Laboratorio de Alimentos, Facultad de Ciencias Químicas, Universidad Autónoma de Coahuila, Saltillo, México) por proporcionar el DNA genómico de A. niger GH1 y por sugerencias técnicas, así como a la Dra. Fabiola Veana por el apoyo técnico. J.A.F.G. agradece al Conacyt por la beca otorgada.

Kelley, L.A., Sternberg, M.J. (2009). Protein structure prediction on the Web: a case study using the Phyre server. Nat. Protoc. 4, 363-371. Mizuno, T., Shiono, Y., Koseki, T. (2014). Biochemical characterization of Aspergillus oryzae native tannase and the recombinant enzyme expressed in Pichia pastoris. J. Biosci. Bioeng. 118, 392-395. Renovato, J., et al. (2011). Differential properties of Aspergillus niger tannase produced under solid-state and submerged fermentations. Appl. Biochem. Biotechnol. 165, 382-395. Sreekrishna, K. (2010). Pichia, optimization of protein expression. In: Flickinger M. C., editor. Encyclopedia of industrial biotechnology: bioprocess, bioseparation, and cell technology. Hoboken: Wiley, pp. 1-16 Suzuki, K., et al. (2014). Crystal structure of a feruloyl esterase belonging to the tannase family: A disulfide bond near a catalytic triad. Proteins 82, 2857-2867.

Zhong, X., et al. (2004). Secretion, purification, and characterization of a recombinant Aspergillus oryzae tannase in Pichia pastoris. Protein Expr. Purif. 36, 165-169. RECIBIDO: 18-08-2016 ACEPTADO: 05-09-2016

REFERENCIAS Aguilar, C.N., Gutiérrez S., G. (2001). Review: sources, properties, applications and potential uses of tannin acyl hydrolase. Food Sci Technol Int 7, 373-382. Chávez G., M., et al. (2012). Biotechnological advances and challenges of tannase: an overview. Food Bioprocess Technol. 5, 445-459. Cruz H., M., et al. (2005). Isolation and evaluation of tannin-degrading fungal strains from the Mexican desert. Z. Naturforsch. C 60, 844-848. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

55


Desarrollo de un sistema celular murino para el análisis antitumoral de adenovirus oncolíticos

Elvis Martínez Jaramillo*, Jorge G. Gómez Gutiérrez**, María de Jesús Loera*, Odila Saucedo Cárdenas*, Roberto Montes de Oca Luna*

RESUMEN

ABSTRACT

Los adenovirus oncolíticos (AdOs) se multiplican y destruyen selectivamente células cancerosas. El modelo para evaluar su eficiencia ha sido un ratón inmunosuprimido, ya que en células de ratón se multiplican ineficientemente, por lo cual se usan células tumorales humanas donde sí son eficientes. Sin embargo, este modelo es inadecuado, no considera el efecto del sistema inmune. Los genes E6 y E7 del HPV-16 facilitan la multiplicación del adenovirus en células murinas. Las células tumorales murinas TC-1 poseen estos genes. Aquí demostramos que los AdOs se multiplican en células TC-1 y pueden ser usadas para evaluar AdOs en un modelo inmunocompetente..

Oncolytic adenovirus (AdOs) multiplies and selectively kills cancer cells. An immunosuppressed mouse has been the model used to assess its efficiency, since they multiply inefficiently in mouse cells, human tumor cells are used where AdOs multiply efficiently. However, this model is inadequate, since it doesn’t consider the immune system’s effect. HPV-16 E6 E7 genes help in the multiplication of adenovirus in murine cells. TC-1 Murine tumor cells possess these genes. Here we show that the AdOs multiply in TC-1 cells and can be used to evaluate AdOs in an immunocompetent model.

Palabras clave: : adenovirus oncolíticos, cáncer de pulmón, TC-1, oncólisis.

Key words: oncolytic adenovirus, lung cancer, TC-1, oncolysis

Los adenovirus oncolíticos (AdOs) son una modalidad de terapia génica contra el cáncer, se caracterizan por multiplicarse y destruir selectivamente células cancerosas mediante oncólisis viral. La evaluación preclínica de los AdOs se ha limitado al uso de ratones inmunosuprimidos, porque este modelo permite implantar células tumorales humanas sin problemas de rechazo. La razón por la cual se utilizan ratones inmunosuprimidos es que los AdOs se replican de manera ineficiente en células tumorales de ratón en comparación con células tumorales humanas. A pesar de lo anterior, se han hecho importantes progresos en el desarrollo de virus oncolíticos que pueden replicarse en células murinas (células de ratón) (Eggerding y Pierce, 1986; Ginsberg et al. 1991; Silverstein y Strohl, 1986). Por ejemplo, un adenovirus murino oncolítico fue desarrollado con alto nivel de citotoxicidad en amplia variedad de células murinas tumorales (Robinson et al., 2009).

El problema con el uso de ratones inmunosuprimidos es que no representan un modelo adecuado para evaluar la eficacia terapéutica de los AdOs en ensayos preclínicos. Esto debido a que, en este modelo, no se toma en cuenta la participación de la respuesta del sistema inmune en la distribución del virus y los efectos colaterales. Por lo tanto, es urgente desarrollar un modelo inmunocompetente en el que los AdOs se puedan dividir e inducir oncólisis, y de esta forma evaluar el impacto del sistema inmune en la eficiencia terapéutica de los AdOs y los efectos secundarios de esta terapia.

56

Los AdOs con deleciones del gen E1 podrían dividirse selectivamente en células tumorales que expresan los genes E7 del HPV-16. El marco abierto de lectura *Universidad Autónoma de Nuevo León. **Universidad de Louisville. Contacto:elvismtzj@gmail.com CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


(ORF) de E7 del HPV-16 codifica funciones para transactivación transcripcional y transformación celular que es análoga a las de las proteínas E1 del adenovirus. La proteína E7 ha mostrado transactivar el promotor E2 del adenovirus y cooperar con la activación del oncogén ras para la transformación de células de riñón de cachorro de ratón primarias (Phelps et al., 1988). Se ha demostrado previamente que células que expresan E6 y E7 del HPV facilitan la replicación de DNA de vectores adenovirales con deleción de E1A y E1B (Steinwaerder, Carlson y Lieber, 2000; 2001). En el presente trabajo evaluamos la capacidad de un adenovirus oncolítico de multiplicarse en células murinas de cáncer de pulmón TC-1 que expresa los genes E6 y E7 del HPV-16.

METODOLOGÍA Líneas celulares Las células HeLa provienen de cáncer cervical humano, fueron usadas como control positivo para la replicación de los virus; las células TC-1 son células cáncer de pulmón de ratón C57BL6 que poseen los genes E6 y E7 del HPV, y las células Lewis Lung Carcinoma (LLC-1), usadas como control negativo, provienen de cáncer de pulmón sin expresión de los genes E6 y E7 del HPV16. Las células HeLa, TC-1 y HEK-293 se obtuvieron en ATCC (Rockville, MD). Las células HeLa y TC-1 fueron cultivadas en medio RPMI-1640 suplementado con suero bovino fetal inactivado (FBS) y penicilina/estreptomicina (100 U/ml); las líneas HEK-293 y LLC-1 con medio DMEM. Los medios de cultivo fueron obtenidos por VWR (Mediatech). Las células se incubaron en CO2 5% a 37ºC; el medio se cambió cada 2-3 días.

CO2, 5% a 37ºC. Después de 72 h se retiró el medio y células flotantes, las células adheridas se fijaron con 300 μL de formaldehído a 3.7% por tres minutos a temperatura ambiente. Se eliminó el fijador usando vacío y se incubó con 300 μL de cristal violeta a 1%. Se retiró el cristal violeta usando vacío y se agregaron 500 μL de PBS (Mg+ y Ca+), se retiró y dejó secar. La caja se digitalizó usando el HP Scanjet 4070. Ensayo de viabilidad celular con MTT Se sembraron 5×104 células/pozo en cajas de 12 pozos las líneas HeLa, TC-1 y LLC-1. Se incubaron con CO2, 5% por 24 h. Se infectaron con Adwt, Adhz60, Adhz63 y AdLacZ con un MOI de 1, 2.5, 5 y 10. Se incubaron con CO2 5% a 37ºC por 72 h. Se repitió el mismo procedimiento para células sin infectar. Se agregaron 100 μL de MTT en cada pozo a 37ºC y se incubó por 4hrs. Se agregaron 50 μl de Buffer de lisis (10% SDS en 0.01N HCl) y se dejó a 37˚C toda la noche. Se evaluó la proliferación celular midiendo la conversión de sales de tretazolio a formazán, de acuerdo a instrucciones del proveedor (Boehringer Mannheim, Indianapolis, IN) como se reportó previamente (Gómez Gutiérrez et al., 2010). Se leyó a 570 nm en el espectrofotómetro como porcentaje de células vivas. Detección de proteína e1a

Se sembraron 5X105 células/pozo en una caja de seis pozos las líneas HeLa, TC-1, LLC-1. Se incubaron en CO2, 5% a 37ºC por 24 h. Se infectaron con el Adhz60 con una multiplicidad de infección (MOI) de 10 y se evaluaron los cambios en la morfología a las 0, 24, 48 y 72 h con el microscopio de luz (Olympus Microsystems, Redwood City, CA).

Se sembraron 5×105 células/pozo en cajas de seis pozos las líneas HeLa, TC-1 y LLC-1. Se incubaron en CO2, 5% por 24 h. Se infectaron con el Adhz60 a un MOI de 10. Se incubaron con CO2, 5% a 37ºC y se realizaron extractos de proteínas utilizando Buffer RIPA a las 0, 24, 48 y 72 h. Se cuantificaron las proteínas con el kit BCA Protein Assay (Pierce, Rockford, IL), se cargaron cantidades iguales de proteínas por carril en un SDS-PAGE a 10%, luego se transfirieron a una membrana de PVDP (Amersham, Arlington Heights, IL). Se usó anticuerpo de ratón anti-E1A Adenovirus tipo 5 (BD Pharmingen, San Diego, CA), anticuerpo de conejo policlonal anti-a-actin humana (Sigma-Aldrich, St. Louis, MO). Después la membrana se incubó con inmunoglobulina antirratón o anticonejo. Los reactivos de electroquimioluminiscencia se usaron de acuerdo al manual del proveedor (GE Healthcare Bio-Sciences, Pittsburgh, PA).

Tinción con cristal violeta

Inmunocitoquímica para hexón

Se sembraron 5×104 células/pozo en cajas de 24 pozos las líneas HeLa, TC-1 y LLC-1. Al día siguiente se infectaron con los adenovirus Adwt, Adhz60, Adhz63 y AdLacZ con MOI de 1, 2.5, 5 y 10. Se incubaron en

Se siguieron las instrucciones del manual del kit AdenoX Rapid Titer Kit (Clontech, Mountain View, CA). Fueron sembradas 5x104 células de las líneas celulares HeLa, TC-1 y LLC-1 en una caja de 24 pozos, al si-

Evaluación de morfología celular

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

57


guiente día fueron infectadas con el Adhz60 y AdLacZ con un MOI de 10, se incubaron a 37ºC con CO2, 5% por 48 h. Cada pozo con células fue fijado con 0.5 ml de metanol 100% frío por 10 min a -20ºC. Se retiró el metanol y se lavó tres veces con 0.5 ml de buffer de lavado (solución salina amortiguada por fosfatos (PBS) con albúmina de suero bovino (BSA) a 1%). Se agregaron 0.25 ml a cada pozo de anticuerpo antihexón 1:1000 en buffer de lavado. Se incubó 1 h a 37ºC. Se aspiró el anticuerpo y se lavó tres veces con 0.5 ml de buffer de lavado. Se agregaron 0.25 ml a cada pozo de anticuerpo antirratón de conejo conjugado a peroxidasa de rábano (HRP) diluido 1:500 en buffer de lavado. Se incubó 1 h a 37ºC. Se aspiró el anticuerpo secundario y se lavó tres veces con 0.5 ml de buffer de lavado. Se agregaron 0.25 ml de diaminobencidina (DAB) e incubó 10 min a temperatura ambiente. Se aspiró el DAB y se agregaron 0.5 ml de PBS en cada pozo. Cuantificación de partículas adenovirales Se sembraron 5X105 células/pozo en una caja de seis pozos las líneas HeLa, TC-1 y LLC-1. Se incubaron con CO2, 5% a 37ºC por 24 h. Se infectaron con el Adhz60 con un MOI de 10 y se dejaron incubando 72 h. Se recolectó el sobrenadante de cada línea celular. Se centrifugaron a 1000 g cinco minutos y pasaron a nuevos tubos. Se realizaron diez diluciones seriadas de cada sobrenadante. Se realizó el método de dilución de punto final TCID50 (Sandig et al., 2000). En el cual una caja de 96 pozos se sembró 3x103 células HEK293 por pozo. Al siguiente día se infectaron con las diferentes diluciones incubándose durante siete días para determinar la titulación en unidades infectivas (IFU) de acuerdo al efecto citopático (CPE) presentado.

pesos aproximados de las proteínas en kilodaltons). El AdLacZ carece del gen E1A y E1B lo que hace que no se replique; además expresa la proteína beta-galactosidasa bajo el promotor CMV. La construcción de estos adenovirus fue descrita previamente (Rao et al., 2004).

Figura 1. Composición de los adenovirus utilizados. Promotor (P) de citomegalovirus (CMV). Tipo silvestre (WT). Gen de beta-galactosidasa (LacZ). Deleción de gen E1A (ΔE1). Las líneas punteadas representan regiones eliminadas.

El ADHZ60 induce efecto citopático similar en células HeLa Y TC-1 El Adhz60 indujo a las 72 h efecto citopático (CPE) evidente en células TC-1 (que poseen los genes E6 y E7 del HPV-16) y las células HeLa. Las células pierden la adherencia a la superficie, adquieren una forma más redonda, llegando a fusionarse con otras células. Las células LLC-1 presentan un CPE muy disminuido. En las líneas celulares HeLa y TC-1, la cantidad de células a lo largo del tiempo se observó disminuida mientras que en la línea celular LLC-1 no se observó disminución importante (figura 2)

ANÁLISIS ESTADÍSTICO Los resultados de los ensayos fueron analizados por la prueba T student, no pareada. Un nivel de significancia de P < 0.05 fue considerado estadísticamente significativo.

RESULTADOS Adenovirus utilizados en el estudio El adenovirus silvestre (wild type) cuenta con todos los genes intactos. El Adhz63 cuenta con una deleción parcial del gen E1B (correspondiente a la proteína 55K). El Adhz60 carece completamente del gen E1B (proteínas 19K y 55K, nombres correspondientes a los 58

Figura 2. Morfología celular en las tres líneas celulares infectadas con Adhz60; 5x105 células de las tres líneas celulares fueron sembradas e infectadas al día siguiente con 10 MOI, se observó la morfología a las 0, 24, 48 y 72 h. Fotografías tomadas a un aumento de 20X.

Las células TC-1 son lisadas por los ADHZ60, ADHZ63 y ADHZWT La línea celular HeLa fue la más lisada por Adhz60, Adhz63 y Adwt, efecto no presentado con AdLacZ. En CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


la línea LLC-1 se observó en general muy poca lisis incluso a MOI de 10 para todos los adenovirus. La línea TC-1 sí mostró un grado importante de lisis a un MOI de 10 para los adenovirus Adhz60, Adhz63 y Adwt (figura 3).

Figura 3. Efecto de lisis producido en células TC-1 por los distintos adenovirus. Tinción con cristal violeta usando diferentes MOI de los adenovirus. Fueron sembradas 5x104 células de las tres líneas celulares e infectadas al día siguiente con 0, 1, 2.5, 5 y 10 MOI del Adwt, Adhz60, Adhz63 y AdLacZ. Se muestra un experimento representativo de tres.

El adenovirus con deleción total o parcial para e1b disminuyen la viabilidad de las células TC-1 Los efectos observados a 10 MOI fueron los siguientes: el adenovirus Adwt disminuyó significativamente la sobrevivencia en células HeLa (4.25%), las células TC-1 fueron afectadas de forma importante (20%) mientras que las LLC-1 no disminuyeron en forma significativa su sobrevivencia (52%). El Adhz60 disminuyó la viabilidad de las células TC-1 a 28.56%, en las células HeLA 19.34% y las LLC-1 a 80%. El adenovirus Adhz63 disminuyó la viabilidad de las células TC-1 a 35%, en las células HeLA 31% y las LLC-1 a 68%. El AdLacZ no afectó la sobrevida en ninguna línea celular (figura 4).

Las células TC-1 infectadas por ADHZ60 producen la proteína temprana E1A La proteína adenoviral E1A fue expresada altamente en la línea celular HeLa. Las células LLC-1 expresaron escasamente la proteína E1A, mientras que la línea TC-1 presentó buena expresión de la proteína (figura 5).

Figura 5. Expresión de la proteína temprana adenoviral E1A en la línea TC-1. Fueron sembradas 5x105 células de las tres líneas celulares e infectadas al día siguiente con 10 MOI del Adhz60. A las 0, 24, 48 y 72 h se realizaron extractos de proteínas de las células para realizar un western blot para la proteína E1A.

Las células TC-1 infectadas por ADHZ60 producen la proteína tardía hexón La línea celular HeLa infectada con Adhz60 mostró positividad para todas las células, la línea LCC-1 mostró muy poca positividad mientras que en la línea TC-1 se observó mayor positividad que en la línea LLC-1. Las tres líneas infectadas con el AdLacZ no mostraron positividad para la proteína (figura 6).

Figura 6. Expresión de la proteína tardía adenoviral hexón en la línea TC-1 infectada con el Adhz60. Inmunocitoquímica para hexón a las 48 h de infección con 10 MOI del Adhz60. Se muestra experimento representativo de tres realizados.

La línea celular TC-1 favorece la producción de partículas virales infectivas Figura 4. Ensayo de viabilidad con MTT en células infectadas con los distintos adenovirus. Se realizaron tres experimentos independientes. ± Barras de error, desviación estándar.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

La línea celular HeLa produjo 1x109 ifu/ml, TC-1 1x105 ifu/ml y la línea LLC-1 1x102 ifu/ml (figura 7).

59


cidad en células HeLa y TC-1. Y a diferencia de los dos estudios previos mencionados arriba, nuestra construcción no expresa un gen terapéutico.

Figura 7. Titulación de producción de partículas adenovirales infectivas en células TC-1. Representación de tres experimentos independientes. ± Barras de error, desviación estándar (*p < 0.05).

DISCUSIÓN Se ha reportado que células tumorales que expresan E6 o E7 del HPV favorecen la multiplicación del DNA de adenovirus con deleción de E1A y E1B (Steinwaerder, Carlson y Lieber, 2000; 2001). Además, el marco abierto de lectura (ORF) de E7 del HPV codifica funciones de transactivación transcripcional y transformación celular análogas a las de las proteínas E1 adenovirales. El propósito de este estudio fue determinar si las células de ratón con cáncer de pulmón TC-1 podrían favorecer la multiplicación de AdOs con deleción parcial o completa del gen E1B. Encontramos que el Adhz60 (que posee deleción de E1B/55K) fue capaz de inducir niveles similares de CPE e inhibición de la viabilidad celular en células HeLA y TC-1 en un MOI de 10 (20 y 28% de viabilidad celular respectivamente) (figuras 5-7). Previamente, un vector del virus vaccina que expresa interferón beta (IFNβ) fue evaluado en células TC1. El estudio encontró que a infección con el virus a 1 MOI resultó en  40% de células viables. La eficiencia de la destrucción de las células tumorales pudo ser causado por dos mecanismos simultáneos: la multiplicación y expresión de IFNβ. Por lo tanto, es difícil determinar el rol de la multiplicación de los AdOs en estas condiciones experimentales (Wang et al., 2012). Sin embargo, otros estudios reportaron que un adenovirus que posee E1A mostró ligeramente mayor citotoxicidad cuando infectaba células TC-1 a un MOI de 100 que un adenovirus que expresa proteínas de choque de calor sgp96 o mgp96 (Di Paolo et al., 2006). Estos resultados contrastantes hacen difícil determinar la eficacia real de la multiplicación de AdOs en células TC-1. En nuestro estudio, Adhz60 (que posee deleción de E1B/55K) a un MOI de 10 indujo niveles similares de CPE y citotoxi60

En otro estudio, nueve líneas tumorales murinas fueron examinadas para la captura del adenovirus (Ad5), expresión génica, multiplicación y efectos citopáticos. En siete de estas líneas celulares murinas, la infectividad y CPE producidos fueron similares a los mostrados en las líneas tumorales humanas (Hallden et al., 2003). Sin embargo, la aplicación del Ad5 en ensayos clínicos podría ser considerada controversial debido a que Ad5 también puede multiplicarse en células normales. Algunas publicaciones han reportado resultados contradictorios en cuanto a la capacidad de los AdOs para multiplicarse en células murinas. Por ejemplo, ensayos in vitro de síntesis de DNA viral en fibroblastos de rata y ratón revelaron expresión de hexón, pero no de fibra (Eggerding y Pierce, 1986; Silverstein y Strohl, 1986). En contraste, la expresión de hexón y fibra fueron detectadas en algunos tumores de células murinas (Hallden et al., 2003). Estos reportes y nuestro estudio indican que la capacidad de los AdOs para multiplicarse en células murinas podría ser especifica de tejido.

CONCLUSIONES La línea celular murina TC-1 es semipermisiva para la multiplicación del adenovirus oncolítico. Esta línea puede ser usada en un modelo murino inmunocompetente para evaluar adenovirus oncolíticos.

REFERENCIAS Di Paolo, N.C., et al. (2006). Effect of adenovirus-mediated heat shock protein expression and oncolysis in combination with low-dose cyclophosphamide treatment on antitumor immune responses. Cancer research, 66, 960-969. Eggerding, F.A., y Pierce, W.C. (1986). Molecular biology of adenovirus type 2 semipermissive infections. I. Viral growth and expression of viral replicative functions during restricted adenovirus infection. Virology, 148, 97-113. Ginsberg, H.S., et al. (1991). A mouse model for investigating the molecular pathogenesis of adenovirus pneumonia. Proceedings of the National Academy of Sciences of the United States of America, 88, 1651-1655. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Gómez Gutiérrez, J.G., et al. (2010). Developing adenoviral vectors encoding therapeutic genes toxic to host cells: comparing binary and single-inducible vectors expressing truncated E2F-1. Virology, 397, 337-345. Hallden, G., et al. (2003). Novel immunocompetent murine tumor models for the assessment of replication-competent oncolytic adenovirus efficacy. Molecular therapy: the journal of the American Society of Gene Therapy, 8, 412-424. Rao, X.M., et al. (2004). E1A-induced apoptosis does not prevent replication of adenoviruses with deletion of E1b in majority of infected cancer cells. Cancer gene therapy, 11, 585-593. Robinson, M., et al. (2009). Novel immunocompetent murine tumor model for evaluation of conditionally replication-competent (oncolytic) murine adenoviral vectors. Journal of virology, 83, 3450-3462. Sandig, V., et al. (2000). Optimization of the helper-dependent adenovirus system for production and potency in vivo. Proceedings of the National Academy of Sciences, 97, 1002-1007.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

Silverstein, G. y Strohl, W.A. (1986). Restricted replication of adenovirus type 2 in mouse Balb/3T3 cells. Archives of virology, 87, 241-264. Steinwaerder, D.S., Carlson, C.A. & Lieber, A. (2000). DNA replication of first-generation adenovirus vectors in tumor cells. Human gene therapy, 11, 19331948. Steinwaerder, D.S., Carlson, C.A. y Lieber, A. (2001). Human papilloma virus E6 and E7 proteins support DNA replication of adenoviruses deleted for the E1A and E1B genes. Molecular therapy: the journal of the American Society of Gene Therapy, 4, 211216. Wang, L.C., et al. (2012). Treating tumors with a vaccinia virus expressing IFNbeta illustrates the complex relationships between oncolytic ability and immunogenicity. Molecular therapy: the journal of the American Society of Gene Therapy, 20, 736-748. RECIBIDO: 18-08-2016 ACEPTADO: 05-09-2016

61


Desarrollo de sistemas automatizados para el monitoreo de arsénico: fraccionamiento en suelo y bioaccesibilidad in vitro en cereales

José Martín Rosas Castor*, Jorge Luis Guzmán Mar*, Ma. Aracelí Hernández Ramírez* Laura Hinojosa Reyes*

RESUMEN

ABSTRACT

El arsénico (As) es un metaloide altamente tóxico y representa un grave problema de salud pública. En este trabajo fueron desarrollados dos sistemas automatizados para la determinación del fraccionamiento de As en suelo agrícola (MAFAs), y el As bioaccesible en arroz y maíz (MABAs). La principales ventajas de MAFAs y MABAs fueron la enorme reducción del tiempo análisis (de 50 h a 6 h) y la alta sensibilidad (LODarroz: 1.3 µg kg-1 y LODmaíz: 1.90 µg/kg-1), respectivamente. MAFAs y MABAs representan una opción rápida y económica para la determinación del As potencialmente fitodisponible y la evaluación del riesgo asociado a la ingesta de As por consumo de cereales procedentes de zonas agrícolas contaminadas.

Arsenic (As) is a highly toxic metalloid and it represents a serious public health problem. In this paper, two automated systems were developed to determine the As fractionation in agricultural soil (MAFAs), and bioavailable As in rice and maize (MABAs). The main advantages of MAFAs and MABAs were, the significant reduction in the analysis time (50 h to 6 h) and the high sensitivity (LODrice: 1.3 µg/kg-1 y LODcorn: 1.90 µg kg-1), respectively. MAFAs and MABAs represent a fast and inexpensive alternative for the evaluation of As phytoavailability and the risk assessment of As intake through agricultural products from polluted agricultural areas.

Palabras clave: suelo agrícola, fitodisponibilidad, bioaccesibilidad, extracción en punto nube, fraccionamiento de arsénico. El arsénico (As) es un metaloide altamente tóxico cuya exposición crónica puede derivar en lesiones en la piel, defectos neurológicos, aterosclerosis y cáncer (Watts et al., 2010). La presencia de As en agua y el suelo representa un problema grave de salud pública en diversos países como India, México, Argentina, Taiwán y Chile (ATSDR, 1989). La solubilidad del As en suelo agrícola y su lixiviación hacia mantos freáticos puede variar de un lugar a otro en función de las condiciones del suelo. Algunos parámetros fisicoquímicos del suelo, como pH, potencial redox, contenido de materia orgánica, textura y concentraciones de algunos elementos (aluminio, hierro, manganeso y fósforo) pueden afectar dramáticamente la solubilidad de As (Carbonell, Burló y Mataix, 1995; Rosas et al., 1999; Zheng et al., 2011). Algunos métodos utilizados para el fraccionamiento y evaluación de la solubilidad de As como el propuesto por la European Community Bureau of Re62

Key words: agricultural soil, cereals, phytoavailability, bioaccessibility, cloud point extraction, arsenic fractionation. ference (BCR) presentan algunas limitaciones como la imposibilidad de determinar la cinética de extracción del proceso de lixiviación del elemento evaluado, una baja frecuencia de análisis y el riesgo de un sesgo en los resultados experimentales debido a fenómenos de readsorción de As en las superficies de las partículas de suelo (Boonjob et al., 2009). El uso en suelos agrícolas de agua de irrigación contaminados con As para la producción de cereales y otros cultivos de alto consumo puede derivar en la acumulación del metaloide en concentraciones críticas que representen un riesgo para los seres humanos (Khan et al., 2009). El maíz (Zea mays L.) y el arroz (Oryza sativa) son los cereales más cultivados en el mundo (723 y 883 millones de toneladas por año en 2011, respectiUniversidad Autónoma de Nuevo León Contacto: laurahinojosary@uanl.edu.mx CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


vamente; FAOSTAT, 2004) y constituyen la base de la alimentación en regiones como América Latina y Asia. La estimación del riesgo de exposición a As a través del consumo de productos agrícolas es esencial en la evaluación de la salud pública. La investigación sobre el As total en muestras de arroz y maíz puede dar lugar a una sobreestimación de los riesgos de salud relacionados con la exposición a As. Para proporcionar una estimación más precisa del riesgo, la evaluación de la bioaccesibilidad de As es crítica (Caussy, 2003). A la fecha existe poca información sobre la cuantificación y evaluación del As bioaccesible en cereales, y al parecer son inexistentes los métodos automatizados en flujo para la evaluación de la solubilidad y fitodisponibilidad de As en suelo agrícola. Debido a lo anterior, este trabajo se enfoca en el desarrollo de dos metodologías que tienen como objetivo: 1) el fraccionamiento automatizado de As en suelo agrícola (MAFAs) y 2) la determinación de la bioaccesibilidad de As en cereales como arroz y maíz (MABAs). Debido a sus múltiples ventajas como una amplia robustez, capacidad de ahorro de reactivos y muestras, y versatilidad para el diseño de métodos en flujo, en este proyecto, el análisis por inyección en flujo multijeringa (MSFIA) fue seleccionado como técnica en flujo para ambos métodos. El sistema MSFIAs fue acoplado a un detector de espectrofotómetro de fluorescencia atómica con sistema de generación de hidruros (HG/AFS), el cual presenta una alta sensibilidad comparable al ICP-MS y menores costes de operación.

METODOLOGÍA Muestras de arroz, maíz y suelo agrícola

metodología de CPE. En la preconcentración CPE, un volumen de 8 ml de extracto gastrointestinal artificial fue centrifugado a 3000 min-1 durante 10 min. El sobrenadante fue acidificado con 0.85 ml de HCl 12 mol L-1 y nuevamente centrifugado. Posteriormente, 50-150 µL de la disolución de tritón 10% m v-1, y de 200-600 µL de DDTP 50% m v-1 fueron añadidos al extracto. La suspensión fue incubada a 50°C (20-40 min) y centrifugada (3000 rpm durante 10 min). Después de 10 min en un baño de hielo, fue retirado el sobrenadante por decantación y el complejo micelar fue reconstituido en 1 ml de la mezcla de HCl 1 mol L-1-metanol 10% v v-1. Sistema automatizado El sistema MSFIA-HG/AFS utilizado para el desarrollo de las metodologías MAFAs y MABAs se muestra en la figura 1. En el caso de MABAs, sólo se consideró la parte posterior a los tanques de homogenización. Se utilizaron dos buretas multijeringa con velocidades programables (MicroBU 2030 Crison, Barcelona), siete jeringas de vidrio S1-S7 con capacidades de 2.5, 1.0, 1.0, 5.0, 1.0, 2.5 y 2.5 ml (Hamilton, Suiza). Cada jeringa tiene una válvula solenoide en la cabeza de tres vías E1-E7 (N-Research, Caldwell, Nueva Jersey, EE.UU.), lo que facilita la aplicación de los regímenes de multiconmutación. La tubería para la toma de reactivos fue construida con tubos de PTFE de 1.5 mm de diámetro interno. La columna con la muestra de suelo fue sumergida en un baño de ultrasonidos (P-Selecta). Las mediciones fueron realizadas en un AFS (PS Analytical Millennium System, Kent UK) equipado con una lámpara de cátodo hueco de As (Photron Super lamp, Victoria, Australia) con los siguientes parámetros: corriente primaria de 27.5 mA; corriente secundaria de 35.0 mA, y una longitud de onda de 193.7 nm.

Las muestras de suelo agrícola y maíz (maíz 1-6) fueron obtenidas de zonas agrícolas cercanas a áreas mineras en Matehuala, San Luis Potosí, México. Las zonas fueron denominadas como A y B (N 23°39´57.2”, W 100°34´35.1” y N 23°43´05.0”, W 100°39´20.5”, respectivamente). Las muestras de arroz fueron adquiridos de un mercado local (arroz 1-3). Ensayo gastrointestinal in vitro y extracción en punto nube de arsénico En el caso de MABAs, previo a la determinación por MSFIA-HG/AFS, el As fue extraído en las muestras de arroz y maíz mediante un ensayo gastrointestinal in vitro de tres etapas (bucal, gástrica y duodenal) secuenciales descrito por Jovani et al. (2001); el As extraído en el jugo gastrointestinal fue preconcentrado mediante la CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

Figura 1. Sistema en flujo MSFIA-HG/AFS. VA y VB: válvulas de conmutación; B1 y B2: buretas; C: cámara de ultrasonido; D: detector de fluorescencia atómica; E: válvulas solenoides de tres vías; F: cámara de separación de fases; HC: bucle de carga; MP: microbomba; RC: bucle de reacción; Sx: jeringa; S: columna de suelo; T: tanque de homogenización; UV: cámara de fotoxidación UV; W: desecho.

63


Configuración del sistema automatizado El sistema MSFIA-HG/AFS fue adaptado para llevar a cabo de forma automática el fraccionamiento de As. Paso 1 (sólo para MAFAs). Extracción secuencial en línea: la disolución BCR en turno (F1, ácido acético 0.11 mol L-1; F2, NH2OH.HCl 0.5 mol L-1; F3, H2O2 8.8 mol L-1) fue conducida por medio de las válvulas de selección (VA y VB) e impulsada mediante la microbomba (MP) desde los contenedores a través de la columna (S) con las partículas del suelo. Un volumen de 10 ml del lixiviado del suelo fue recolectado y homogenizado (T1 o T2). Paso 2. Toma de alícuota: el volumen de 0.15-0.5 ml de muestra fue cargado dentro del HC. Paso 3. Proceso de fotoxidación: la solución fue mezclada con una disolución de un agente oxidante específico (K2S2O8 1.5% m v-1 con NaOH 0.5% m v-1 (F1), K2S2O8 5.4% m v-1 con NaOH 0.5% m v-1 (F2 y el reconstituido micelar) y NaOH 0.5% m v-1 (F3)), y transportada a la cámara de fotoxidación UV para la degradación de las especies orgánicas (tiempo stop flow: 2 min). Paso 4. Preparación para HG: la disolución fue prerreducida con una mezcla de tiourea-ácido ascórbico (F1, F2 y el reconstituido micelar) o NH2OH·HCl (F3) durante 1 min. El contenido de As fue posteriormente determinado por AFS para la obtención de la cinética de la extracción (MAFAs) o el contenido de As biodisponible (MABAs). En la metodología MAFAs, algunos pasos de la extracción de As fueron simultáneos para la reducción de la frecuencia de análisis: a) el drenaje del contenedor de lixiviado, b) el lavado del contenedor de lixiviado vacío con agua destilada y c) paso de extracción de As.

ANÁLISIS ESTADÍSTICO Todas las muestras fueron analizadas por triplicado. Los métodos MAFAs y MABAs fueron evaluados utilizando un diseño factorial completo de dos niveles. Los valores críticos fueron obtenidos mediante el uso del diseño Doehlert. Todos los datos fueron procesados mediante el software Statistica (versión 8.0). En la optimización de CPE del método MABAs, la deseabilidad global (D) (Derringer y Suich, 1980) fue obtenida a partir de las deseabilidades individuales calculadas para arroz y maíz.

RESULTADOS Sistema automatizado para el fraccionamiento de As en suelo agrícola

64

Una cámara de fotoxidación UV fue incluida en el sistema MSFIA-HG/AFS para la degradación de las especies orgánicas (MMA y DMA) extraídas durante el método automatizado de extracción secuencial en línea. Por lo tanto, un tiempo de dos minutos dentro de la cámara UV con los reactivos oxidantes pertinentes (K2S2O8 1.5% m v-1 con NaOH 0.5% m v-1 para F1, K2S2O8 5.4% m v-1 con NaOH 0.5% m v-1 para F2 y NaOH 0.5% m v-1 para F3) fue utilizado para convertir cuantitativamente el DMA (la especie orgánica más termorresistente; Chatterjee, 1999) en As(V) por la ruptura del enlace As-grupo metilo. El caudal del eluente fue estudiado entre 0.7 y 4.5 ml min-1. Caudales del eluente menores a 1 ml min-1 permitieron una mayor concentración de As en la primera subfracción. Dado que las velocidades de flujo entre 0.7 y 1.0 ml min-1 no mostraron diferencias significativas (p > 0.05), una velocidad de flujo del eluente de 1 ml min-1 fue seleccionado para experimentos posteriores. Los factores potenciales que podrían afectar las etapas del sistema MSFIA-HG/AFS fueron estudiados por el diseño factorial completo (2k + 3 puntos centrales) y el diseño Doehlert. Utilizando las condiciones óptimas mencionadas en las secciones anteriores, los parámetros analíticos fueron determinados para cada fracción. De acuerdo con las curvas de calibración, la intensidad de la señal varió considerablemente para las diferentes fracciones (F2 > F1> F3). Los límites de detección (LOD) y de cuantificación (LOQ) (Currie, 1999) fueron calculados para F1, F2 y F3 (LOD: 4.0, 3.4 y 23.6 µg L-1; LOQ: 13.4, 11.6 y 78.8 µg L-1, respectivamente). El valor superior de LOD para F3 puede ser atribuido a la menor eficiencia HG debido a la prevalencia de condiciones oxidantes y al menor volumen del lixiviado utilizado (0.15 ml para F3 en lugar de 0.5 ml utilizados para F1 y F2) durante la determinación de As. La precisión de la determinación de As en cada eluente fue evaluada usando la RSD de diez inyecciones sucesivas de 200 µg L-1 de una disolución estándar de As(V) para las tres fracciones (5.6, 7.8 y 8.4% para F1, F2 y F3, respectivamente). La validación del método automatizado de extracción secuencial en línea fue realizada mediante la comparación con el método BCR convencional (tabla I). En primer lugar, con el fin de comparar las eficiencias de extracción, una muestra de cada lote fue seleccionada y analizada mediante el método BCR automatizado y el BCR convencional. El contenido de As en las tres fracciones obtenidas por el método MAFAs y calculado utilizando el factor de recuperación previamente estimado no mostraron diferencias estadísticamente significatiCIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


vas con el método BCR (nivel de confianza del 95%). Tabla I. Fraccionamiento de arsénico en suelo agrícola utilizando los métodos automatizado y convencional de extracción secuencial BCR (n = 3).

Nota: a usando el factor de recuperación.

Método propuesto para la determinación de As bioaccesible en arroz y maíz La metodología para la cuantificación del As que es liberado bajo condiciones que simulan la digestión gastrointestinal fue basada en la determinación de As total por MSFIA-HG/AFS después de un proceso de digestión gástrica in vitro y preconcentración por CPE. La preconcentración de As por CPE se basa en la formación de un complejo hidrófobo con DDTP, que fue atrapado posteriormente en la fase micelar de un tensoactivo no iónico (tritón X-114). La etapa de CPE fue optimizada en condiciones ácidas, pH <1, mediante la adición de HCl 1 mol L-1 con de metanol 10% v v-1. Por lo tanto, los parámetros que intervienen en la preconcentración de As por CPE como las concentraciones de DDTP y de tritón X-114, así como la temperatura de equilibrio, fueron optimizados por enfoque multivariante. Estos parámetros fueron evaluados por un diseño factorial completo (Screening 2k + 3 puntos centrales) y el diseño Doehlert. El incremento en la concentración de tritón X-114 y DDTP mostraron una reducción de la señal analítica, que puede ser atribuida a las burbujas generadas durante la etapa de generación de hidruros y a la alta relación de DDTP/tritón X-114 en la solución (la fracción de DDTP que no fue capaz de atrapar cuantitativamente el complejo hidrófobo), respectivamente. El análisis de la respuesta utilizando D indicó que el punto crítico máximo fue obtenido en DDTP 0.83% m v-1 y tritón X-114 0.098% m v-1. La recuperación de las especies As(V), As(III), DMA y MMA de los jugos gastrointestinales artificiales fue evaluada después de preconcentración por CPE. Los porcentajes de recuperación de las especies As(V), As(III), DMA y MMA indicaron que estas fueron casi cuantitativamente removidas de la solución acuosa mediante el complejo micelar (95±6%, 96±3%, 87±6% y 90±8% para el arroz y 92±3%, 101±5%, 88±7%, y el CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

94±13% para el maíz, respectivamente). La alta afinidad de formas inorgánicas en el complejo micelar se puede atribuir al hecho de que As(III) y As(V) (una vez reducido a As(III)) pueden formar un complejo con DDTP, aumentando así su hidrofobicidad. Las especies orgánicas (DMA y MMA) también fueron eficientemente removidas y adsorbidas por el complejo micelar. Comparado con otros estudios en los que se ha preconcentrado As en muestras de agua por CPE o extracción líquido-líquido (Yan et al., 2005; Shemirania, Baghdadia y Ramezanib, 2005; Baig et al., 2009a), las recuperaciones altas de las especies orgánicas por CPE en el extracto gastrointestinal podrían ser atribuidas al mayor contenido de sales en el fluido gastrointestinal artificial, que promueve la transferencia de las especies de As orgánico a la fase micelar. La tabla II resume los parámetros analíticos del método propuesto. Las curvas de calibración fueron preparadas por dilución de As en el jugo gastrointestinal artificial elaborado a partir de las muestras de arroz y maíz. El método mostró una buena linealidad en el intervalo de concentración de 4.6-248.0 y 6.2-248.0 µg kg-1 en arroz y maíz, respectivamente (n = 11). El efecto de la matriz fue evaluado mediante la comparación de las pendientes de las curvas de calibración con soluciones patrón preparadas en agua destilada y en los extractos del complejo micelar reconstituido. Los valores de la pendiente en el agua y en el extracto gastrointestinal de arroz no mostraron diferencias significativas (p > 0.05, valores de pendiente: 1106±95 y 1169±111, respectivamente). Por otra lado, la pendiente de la curva de calibración en el extracto de maíz fue 38% menor (pendiente: 685±73) que la pendiente obtenida a partir del agua destilada. El efecto de la matriz para la determinación As bioaccesible en el maíz se puede atribuir a la alta coextracción y preconcentración (el efecto de la matriz solamente fue apreciado después de la CPE) de la materia orgánica durante la etapa de CPE. Es conocido que el maíz contiene una mayor cantidad de proteínas y lípidos que el arroz (Nuss y Tanumihardjo, 2010). Los límites de detección (LOD) y de cuantificación (LOQ) calculados de acuerdo a lo reportado por Curie (1999) así como la repetibilidad y la reproducibilidad, expresados como desviación estándar relativa (RSD), fueron ligeramente superiores a los obtenidos para el arroz. Lo anterior puede ser atribuido a los efectos de la matriz detectados en las muestras de maíz, lo cual incrementó la incertidumbre de las mediciones. Los valores de LOD en las muestras de maíz y de arroz fueron hasta seis veces mayores que en agua, posiblemente debido al mayor contenido de materia orgánica en la matriz. Estudios previos de preconcentración de As en muestras

65


de agua por CPE (Yan et al., 2005; Shemirania, Baghdadia y Ramezanib, 2005; Baig et al., 2010) mostraron un LOD comparable o uno 80 veces más alto (Ulusoy, Akcay y Gürkan, 2011) que el obtenido en el método propuesto para la matriz de agua. De acuerdo con el factor de enriquecimiento (EF), el uso de CPE incrementó 15.4 y 10.9 veces la concentración de As en los fluidos gastrointestinales artificiales procedentes de las muestras de arroz y maíz, respectivamente. Este EF permitió un LOD para As en el arroz y el maíz de 1.34 µg kg-1 y 1.90 µg kg-1, respectivamente. En contraste con el extracto gastrointestinal de maíz (EF: 10.9), el valor de EF para el fluido gastrointestinal artificial de arroz y el obtenido a partir de la muestra de agua fueron muy similares (15.4 y 16.0, respectivamente). Este resultado puede ser asociado con el bajo efecto de las interferencias de la matriz procedentes de granos de arroz durante la etapa de preconcentración. Aunque en otros estudios de determinación de As, los EF calculados para la CPE fueron más altos que los encontrados en este estudio, el método propuesto permitió la cuantificación exacta de niveles de trazas de As bioaccesible en cereales como el arroz utilizando sólo 1 g de la muestra.

ces, el As total contenido en ambas fracciones fue cuantificado por HG/AFS. El As total en ERM BC-211 fue determinado como la suma del As bioaccesible (211±48 µg kg-1) y el As total en el residuo sólido (75±11 mg kg-1). La suma de ambas fracciones (286±49 µg kg-1) no mostró una diferencia significativa (p> 0.05) con el valor certificado (260±6 µg kg-1). Aplicación de los métodos automatizados propuestos El método automatizado propuesto fue aplicado para el fraccionamiento en el suelo de dos zonas agrícolas de Matehuala, zonas A y B. La cinética de extracción secuencial de As de las 12 muestras de suelos agrícolas se muestra en la figura 2. F1 y F2 son las fracciones potencialmente biodisponible en el suelo (Baig et al., 2009b). La suma de F1 y F2 fue > 50% del contenido de As total en el suelo de ambas zonas de agrícolas (6583% y 55-60% para las zonas A y B, respectivamente); estos valores son más altos que los reportados en los sedimentos de ríos y lagos (43-50%) (Baig et al., 2009b).

Tabla II. Características analíticas del método propuesto.

Nota: a Factor de enriquecimiento, calculado como la relación de la pendiente de las muestras preconcentradas y las obtenidas sin preconcentración; b límite de detección y límite de cuantificación, se definen como tres y diez veces la desviación estándar de diez repeticiones del blanco dividido por la pendiente de la curva de calibración. Ambos parámetros fueron calculados para la biomasa de cereal en peso seco; c calculado para 2.5 µg As L-1 (n = 10).

La exactitud del método para la determinación de As bioaccesible en maíz y arroz fue evaluada utilizando el material de referencia certificado ERM BC-211. El residuo sólido procedente de la etapa de extracción in vitro del material ERM BC-211 fue digerido usando las condiciones descritas en el método EPA 3052. Enton66

Figura 2. Cinética de extracción secuencial de As en tres fracciones de las muestras de suelos agrícolas de la zona A y B utilizando el método automatizado de extracción secuencial BCR (n = 3).

El método propuesto fue aplicado para determinar el contenido de As bioaccesible en muestras de maíz y arroz procedentes de zonas rurales y el mercado local, respectivamente (tabla III). La concentración de As total en muestras de arroz y maíz varió desde 90 hasta 170 µg As kg-1 y 210 a 330 µg As kg-1, respectivamente. Las concentraciones de As en maíz fueron incluso más altas que los reportados en otras regiones, como Mongolia, China (Neidhardt et al., 2012) e Hidalgo, México (Prieto et al., 2007) (60 y 120 µg As kg-1, respectivamente). En el estudio realizado por Marwa et al. (2012), el contenido de As total en el maíz varió de 10 a 170 µg kg-1. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Sin embargo, el contenido de As total en las muestras de arroz fue comparable a los reportados en estudios previos: 63-303 µg As kg-1 (China) (Zhu et al., 2008), 120270 µg As kg-1 (oeste de Bengal, India) (Mondal et al., 2010). En todas las muestras, el As bioaccesible fue la fracción predominante representando más de 50% del As total (tabla III). El alto contenido de As bioaccesible en los granos es un motivo de preocupación debido a que el As extraído durante la etapa gastrointestinal in vitro está esencialmente relacionada con la cantidad de contaminante que pudiera ser absorbida y entrar en el torrente sanguíneo. Tabla III. Determinación de arsénico bioaccesible en muestras de arroz y maíz.

REFERENCIAS ATSDR. (1989). Toxicological Profile for Arsenic. ATSDR/TP-88/02. GA: Agency for Toxic Substances and Disease Registry. Baig, J.A., et al. (2009a). Optimization of cloud point extraction and solid phase extraction methods for speciation of arsenic in natural water using multivariate technique. Analytica Chimica Acta. 28: p. 57-63. Baig, J.A., et al. (2009b). Arsenic fractionation in sediments of different origins using BCR sequential and single extraction methods. Journal of Hazardous Materials. 167(1-3): p. 745-751. Baig, J.A., et al. (2010). Evaluating the accumulation of arsenic in maize (Zea mays L.) plants from its growing media by cloud point extraction. Food and Chemical Toxicology. 48(11): p. 3051-3057. Boonjob, W., et al. (2009). Critical evaluation of novel dynamic flow-through methods for automatic sequential BCR extraction of trace metals in fly ash. Anal Bioanal Chem. 394: p. 337-349.

Nota: a Maíz C es una muestra compuesta por muestras de maíz de 1-6,b cereal cocido.

CONCLUSIONES Un método automatizado de extracción secuencial en flujo y detección por HG/AFS fue desarrollado para evaluar el As extraíble y potencialmente disponible para los cultivos. La principal ventaja del método propuesto es la enorme reducción en el tiempo de análisis, de 50 h (método BCR convencional) comparado con seis horas (método automatizado), por lo que es una herramienta eficaz para el análisis de un gran número de muestras en un corto tiempo. Además, permitió un conocimiento de la cinética de lixiviación del As. Por otro lado, un nuevo método para la determinación de la bioaccesibilidad de As en muestras de maíz y arroz fue desarrollado basado en 1) un ensayo de bioaccesibilidad in vitro, 2) la extracción en punto nube, y 3) el sistema MSFIA-HG/AFS. El método propuesto mostró un límite de detección bajo y rango lineal amplio. Esta metodología versátil y de bajo costo puede ser utilizada para la determinación de As a nivel de traza como una alternativa a la herramienta de análisis ICP-MS. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

Carbonell Barrachina, A.A., F.M. Burló Carbonell, y J.J. Mataix Beneyto. (1995). Arsénico en el sistema suelo-planta: significado ambiental. Ed. U.d. Alicante., España: Espagrafic. Caussy, D. (2003). Case studies of the impact of understanding bioavailability: arsenic. Ecotoxicology and Environmental Safety. 56 p. 164-173. Chatterjee, A. (1999). Behaviour of anionic arsenic compounds in microwave system with nitric acid and hydrogen peroxide preliminary laboratory study. The Science of the Total Environment. 228: p. 25-34. Currie, L.A. (1999). Detection and quantification limits: origins and historical overview. Analytica Chimica Acta. 391: p. 127-134. Derringer, G. and R. Suich. (1980). Simultaneous Optimization of Several Response Variables. Journal of Quality Technology, 12: p. 214-219. FAOSTAT. (2004). Food and Agriculture Organization of the United Nations, in b. Jovanı, M., et al. (2001). Calcium, iron, and zinc uptake from digests of infant formulas by Caco-2 cells. Journal of Agricultural and Food Chemistry. 49: p. 3480-3485. 67


Khan, N.I., et al. (2009). Human arsenic exposure and risk assessment at the landscape level: a review. 31(S1): p. 143-166. Marwa, E.M.M., A.A. Meharg, y C.M. Rice. (2012). Risk assessment of potentially toxic elements in agricultural soils and maize tissues from selected districts in Tanzania. Science of the Total Environment. 416: p. 180-186. Mondal, D., et al. (2010). Comparison of drinking water, raw rice and cooking of rice as arsenic exposure routes in three contrasting areas of West Bengal, India. Environmental Geochemistry and Health. 32(6): p. 463-477. Neidhardt, H., et al. (2012). Impact of irrigation with high arsenic burdened groundwater on the soil– plant system: Results from a case study in the Inner Mongolia, China. 163: p. 8-13. Nuss, E.T. y S.A. Tanumihardjo. (2010). Maize: A Paramount Staple Crop in the Context of Global Nutrition. Comprehensive Reviews in Food Science and Food Safety. 9(4): p. 417-436. Prieto G., F., et al. (2007). Presencia de metales pesados en cultivos del Valle del Mezquital, México. Revista Latinoamericana de Recursos Naturales. 3(2): p. 100-110. Rosas, I., et al. (1999). Arsenic concentrations in water, soil, milk and forage in Comarca Lagunera, México. Water, Air & Soil 112(1/2): p. 133-149.

68

Shemirania, F., M. Baghdadia, y M. Ramezanib. (2005). Preconcentration and determination of ultra trace amounts of arsenic(III) and arsenic(V) in tap water and total arsenic in biological samples by cloud point extraction and electrothermal atomic absorption spectrometry. Talanta. 65: p. 882-887. Ulusoy, H.I., M. Akcay, y R. Gürkan. (2011). Development of an inexpensive and sensitive method for the determination of low quantity of arsenic species in water samples by CPE–FAAS. Talanta. 85: p. 15851591. Watts, M.J., et al. (2010). Field based speciation of arsenic in UK and Argentinean water samples. Environmental Geochemistry and Health. 32(6): p. 479490. Yan, X.H., et al. (2005). Cloud point extraction for the determination of As (III) in water samples by electrothermal atomic absorption spectrometry. Talanta. 67(5): p. 942-946. Zheng, M.Z., et al. (2011). Spatial distribution of arsenic and temporal variation of its concentration in rice. New Phytologist. 189(1): p. 200-209. Zhu, Y.G., et al. (2008). High percentage inorganic arsenic content of mining impacted and nonimpacted chinese rice. 42: p. 5008-5013. RECIBIDO: 18-08-2016 ACEPTADO: 05-09-2016

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


´

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

69


De acuerdo al Programa de las Naciones Unidas para los Asentamientos Humanos (Earthscan y UN-Habitat, 2011, p.9), “los efectos de la urbanización y del cambio climático están convergiendo en peligrosas direcciones que suponen una seria amenaza para la estabilidad medioambiental, económica y social del mundo”, particularmente, cuando en materia de urbanización ésta es ineficiente al generar desigualdad social, contaminación y sitúa a grandes núcleos de población en riesgo frente a los estragos que se pueden potencialmente generar por los efectos del cambio climático. Frente a este escenario, los desafíos que deben enfrentar los centros urbanos son mayúsculos, ya que éstos son hitos artificialmente construidos que denotan una serie de eventos y transformaciones que de forma sustancial afectan al entorno. Entre los retos que estas urbes presentan se encuentran la movilidad social, así como el acceso a la vivienda, equipamiento e infraestructura por parte de la población (Molina, 2014); sin embargo, igualmente están las eventualidades producto de sus actividades orgánicas como la generación de aguas residuales, las emisiones de contaminantes al aire, el cúmulo de residuos sólidos peligrosos y la demanda de recursos naturales como materiales para satisfacer las necesidades sociales de sus moradores. Lo anterior demanda intervenciones esencialmente de carácter estratégico ya que nuestra sociedad estima a las ciudades como …lugares de oportunidad, motores de la economía [que] impulsan la creación de prosperidad, el desarrollo social y el empleo, la provisión de servicios y bienes fundamentales, la innovación, el progreso industrial y tecnológico, el espíritu empresarial y la creatividad, [que] generan economías de escala, facilitan la interacción, impulsan la especialización y la competitividad (Sobrino et al., 2015, p. 6).

Por esta razón, hoy en día las ciudades se constituyen en todo un desafío, pero particularmente porque éstas contribuyen al cambio climático y a maximizar los estragos que genera este fenómeno. En este manuscrito discurrimos por la relación existente entre cambio climático y las metrópolis, de igual forma, en dar cuenta de los esfuerzos que se han realizado a partir de la constitución del grupo denominado C40, el cual busca apoyar y compartir los beneficios que en materia de política pública se implementan para lograr contrarrestar los efectos del cambio climático.

70

CAMBIO CLIMÁTICO Y CIUDADES Quiroz Benítez (2013, p.348) sitúa a las grandes metrópolis como …espacios complejos en los que se dan múltiples formas de interacción social que influyen en el desequilibrio y el deterioro de sus ecosistemas. Esto sin duda es relevante si se considera que actualmente cerca de la mitad de los habitantes del mundo vive en ciudades.

Por tal motivo, el tópico de sustentabilidad urbana se ha constituido en uno de los más urgentes durante las últimas dos décadas (Molina, 2014). En ese sentido, Molina (2014, p.13) indica que “la principal área de oportunidad empieza en la planeación misma de las ciudades y en aprovechar el suelo urbano de manera eficiente”, con la finalidad de abatir la tirante relación existente entre las ciudades y los sistemas naturales de soporte de las mismas, ya que debemos recordar que este malestar está supeditado al modelo actual de carácter consumista. Es a través de este mismo modelo que las ciudades contribuyen robustamente a la génesis del cambio climático mediante su metabolismo urbano. De acuerdo a la Alianza de las Ciudades por el Grupo de Asentamientos Humanos del Instituto Internacional para el Medio Ambiente y el Desarrollo (2009, p.1), las ciudades en el mundo confrontan tres interrogantes concernientes al cambio climático, 1.

¿Cómo adaptarse a los cambios y retos que trae o traerá el calentamiento de la Tierra, como el mayor número de tormentas, inundaciones, deslizamientos de tierra, olas de calor y, posiblemente, escasez de agua?

2.

¿Cómo reducir las emisiones de gases de efecto invernadero (mitigación) para desacelerar y, en definitiva, detener el calentamiento de la Tierra provocado por el hombre?

3.

¿Cómo lograr un marco institucional de respaldo externo, el cual proviene de los niveles superiores del gobierno y de los organismos internacionales, para ayudar a los gobiernos municipales a responder a los cambios y retos suscitados por el calentamiento global?.

Ante estas preguntas, la instauración del Consejo Mundial de Alcaldes para el Cambio Climático en 2005 (Gobierno de la Ciudad de México, 2016a) y sus encuentros mundiales del C40, han sido una respuesta puntual para combatir el cambio climático en su contexto con la ciudad. Donde los principales propósitos han sido intercambiar conocimiento, nutrirse de las

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


prácticas de otras ciudades en lo que refiere a la adaptabilidad al cambio climático y participar a los demás de experiencias exitosas. No obstante, es importante considerar que los riesgos del cambio climático varían de una ciudad a otra; sin embargo, también existen temas que se comparten, como las olas de calor, las copiosas precipitaciones, periodos prolongados de sequía y, en aquellas ciudades que se establecen en los litorales, los aumentos paulatinos en el nivel del mar. Sin duda estos aspectos demandan políticas públicas de corto y largo plazo que permitan definir y garantizar su desarrollo futuro con bajas emisiones de carbono y de forma resiliente.

¿QUÉ ES EL C40? El C40 es una iniciativa que está constituida por un conjunto de ciudades en todo el mundo cuyas labores y actividades están encaminadas para disminuir las emisiones de carbono a la atmosfera y contar con una mayor resiliencia a los efectos del cambio climático, esencialmente porque se reconoce que en las ciudades se emite alrededor de 70% de los gases de invernadero en el mundo. Actualmente, involucra a más de 80 ciudades que albergan a 600 millones de personas que se encuentran distribuidas en las ciudades participantes (Gobierno de la Ciudad de México, 2016a; 2016b). El C40 se erigió en 2005 en Londres, y estuvo constituido inicialmente por 18 ciudades con la finalidad de aunar esfuerzos para abatir el cambio climático y favorecer acciones encaminadas a una adaptación a estas nuevas condiciones. El encuentro del C40 es bienal y entre las sedes anteriores se encuentran Nueva York (2007), Seúl (2009), Sao Paulo (2011), Johannesburgo (2014) y recientemente la Ciudad de México, del 30 de noviembre al 2 de diciembre de 2016 (Gobierno de la Ciudad de México, 2016a). Este grupo de ciudades, en la actualidad, conforma un liderazgo en el mundo que lucha contra el cambio climático desde las grandes urbes. En 2007, dos años después de su constitución, el C40 unió esfuerzos con la Fundación Clinton para trabajar conjuntamente en la Clinton Climate Initiative (CCI), proyecto encaminado a trabajar primeramente en 16 metrópolis en el mundo, particularmente en el rediseño de las edificaCIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

ciones con la finalidad de aminorar entre 20 y 50% el uso de energía eléctrica, iniciando así actividades para contrarrestar el cambio climático. Entre las urbes que participaron en este programa encontramos aquéllas que fueron contempladas como megaciudades y por lo tanto bastante complejas, como Bangkok, Berlín, Londres, Ciudad de México, Nueva York, Roma y Tokio (Brown, 2010). En el presente, el C40 simboliza una innovadora opción de cooperación sustentada en una red de ciudades donde los alcaldes comparten sus experiencias para mejorar el bienestar de sus ciudadanos y procurar una tranquilidad social al afrontar los retos planteados por el cambio climático. Asimismo, se reconoce el esfuerzo que se realiza en este ámbito, y en 2016, el C40 premió 11 ciudades por sus proyectos para abatir los efectos del cambio climático. Entre los criterios para la premiación están el logro ambiental, la mitigación de ga-

ses de efecto invernadero, la innovación, la eficiencia, replicabilidad e implementación, entre otros rubros. Este premio por categoría lo obtuvieron las ciudades de Adís Abeba (transporte), Copenhague (adaptación en acción), Curitiba (comunidades sustentables), Calcuta (residuos sólidos), Sídney y Melbourne (creación de eficiencia energética), París (evaluaciones y planes de adaptación), Portland (planes de acción climática e inventarios), Seúl (equidad social y cambio climático), Shenzhen (desarrollo financiero y económico) y Yokohama (energía limpia) (C40 Cities, 2016). Al reconocer estas iniciativas sustentables se busca incentivar e inspirar a más metrópolis para tomar acciones y adherirse a estas actividades tangibles que procuran el mejoramiento del entorno y de la calidad de vida de los habitantes en las urbes. 71


CONCLUSIONES

REFERENCIAS

De manera holística, es ineludible vaticinar que todas las ciudades en el mundo tendrán que afrontar cierto tipo de efecto climático, en algunas serán menores, pero en otras la severidad será más patente. Particularmente, esto toma notoriedad ya que los impactos del cambio climático que se ciernen sobre los centros urbanos conllevarán problemas adicionales asociados a infraestructura, respuesta en materia de salud pública, afectación al bienestar de sus moradores y esencialmente a la gestión para proveerse recursos tanto materiales como naturales para sus funciones productivas.

Alianza de las Ciudades por el Grupo de Asentamientos Humanos del Instituto Internacional para el Medio Ambiente y el Desarrollo. (2009). Cambio climático: ¿Cómo influye en su ciudad? Civis, 1 (julio), 1-4. Brown, L.R. (2010) Movilizarse para salvar la civilización. Plan B 4.0. Bogotá. ECOE Ediciones-CEID. Cantú M., P.C. (2015). Sustentabilidad urbana. Ciencia UANL, 18(74), 28-32. C40 Cities. (2016). C40 premia las 11 mejores ciudades de 2016 por abordar el cambio climático. Consultado el 1 de Diciembre de 2016 disponible en: http://www.c40.org/ blog_posts/c40-premia-las-11-mejoresciudades-de-2016-por-abordar-el-cambio-climatico Earthscan & UN-Habitat. (2011). Las ciudades y el cambio climático: orientaciones para las políticas. Informe mundial sobre asentamientos humanos 2011. Resumen ejecutivo. Washington. Earthscan / UN-Habitat. Gobierno de la Ciudad de México. (2016a). Cumbre de alcaldes C40, CDMX. México. Gobierno de la Ciudad de México.

Estos eventos plantean nuevos retos en materia de gestión urbana y gobernanza, ya que las metrópolis difieren en su vulnerabilidad y capacidad económica para hacer frente a los incidentes climáticos. Para Oltra y Marín (2013, p.317) esto demandará …un liderazgo fuerte por parte del alcalde u otro responsable político; la incorporación de conocimiento científico a través de universidades locales; la implicación de las distintas partes interesadas; la sinergia con las estrategias de búsqueda creativa de apoyo y financiación.

Los factores antes señalados determinarán la capacidad de adaptabilidad para superar los escollos que nos escenifica ahora el cambio climático, pero además conllevará un replanteamiento socioambiental de las ciudades y una conmutación en el ámbito metacognitivo de sus moradores, que los encaminen actuar de forma más solidaria y subsidiaria, y que imbuyan a robustecer iniciativas como el C40.

72

Gobierno de la Ciudad de México. (2016b). Cumbre Mundial de Alcaldes C40. Reuniendo alcaldes globales para resaltar el papel crucial de las megaciudades en la lucha contra el cambio climático. México. Gobierno de la Ciudad de México. Molina, M. (2014). Expansión urbana y cambio climático. Ciencia, octubre-diciembre, 11-13. Oltra, C., y Marín, R. (2013). Los retos en la adaptación al cambio climático en entornos urbanos. Papers, 98(2), 311-330. Quiroz Benítez, D.E. (2013). Las ciudades y el cambio climático: el caso de la política de la Ciudad de México. Estudios Demográficos y Urbanos, 28(2), 343-382. Sobrino, C., et al. (2015). Ciudades sostenibles en México: una propuesta conceptual y operativa. México. Consejo Nacional de Población.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Según información del Censo de Población y Vivienda 2010, en 2012, México tendría la mayor cantidad de jóvenes de entre 12 y 29 años de su historia. Sin embargo, dicho sector mayoritario lo determina una serie de incertidumbres que se observan en problemáticas referentes al ingreso escolar, falta de oportunidades laborales, desigualdad, pobreza y exclusión social (Mendoza, 2011). En un buen número de países del mundo, estas circunstancias impactan en la conformación de una cultura de desafección política definida por la desconfianza hacia las instituciones, bajos niveles de información política, desencanto hacia la política y rechazo de los partidos políticos (Uriarte, 2001; Beck, 2002; Woldenberg, 2006; Valverde, 2008; Latinobarómetro, 2011; Vázquez, 2011; ENCUP, 2012). En México, lo anterior se corroboró cuando el Instituto Mexicano de la Juventud presentó, poco tiempo antes de que llegaran a su fin las campañas para las elecciones presidenciales de 2006, los resultados preliCIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

minares de la Encuesta Nacional de Juventud (2006), en la que se expuso que sólo a 14.3% le interesaba la política, seguido de 39.4% con poco interés y 44% con nada de interés. Contrariamente, la misma encuesta mostró, tanto en la edición señalada como en la de 2011, que más de 75% tenía intenciones de votar en los procesos electorales de julio de 2006, así como en los de julio de 2012 (ENJ, 2011). Por lo que a partir de esta distribución estadística se puede inferir que la juventud decide su voto desde otros factores, menos por el conocimiento e interés hacia la política, lo cual repercute en el desarrollo democrático del país. De ahí la necesidad de realizar estudios que tengan como objetivo develar cuáles son los factores que influyen en la decisión electoral.

* Universidad Autónoma de Nuevo León. Contacto: joseluiscavazos@gmail.com 73


No obstante que los procesos y la participación electoral son rasgos distintivos de un sistema político democrático (Dahl, 1991; Held, 1997; Bobbio, 1999; Sartori, 2008); en realidad, en términos más amplios, la democracia consiste en la participación directa de la ciudadanía en la toma de decisiones políticas, mediante la deliberación de asuntos públicos que, con base en argumentos racionales e imparciales, se busque alcanzar el bien común (Habermas, 1999). En este sentido, la tendencia de desafección política actual plantea un problema fundamental para el establecimiento de la democracia, por lo que resulta necesario investigar los niveles en que se encuentra la desafección, particularmente de los estudiantes universitarios, puesto que son un grupo en formación profesional y por lo tanto en compromiso con el mejoramiento de la sociedad. El estudio se realizó en el contexto de la elección presidencial de 2012, ya que en procesos como los electorales, los partidos políticos con sus promesas de campaña generan en la ciudadanía expectativas que se materializan a través de diversas formas de participación política, en específico la electoral (Anduizay, 2012).

ANTECEDENTES En los antecedentes del problema, el primer trabajo encontrado es el de Garza Ramírez (1985), que a un año antes de que se realizara la elección para gobernador, en 1985, en Nuevo León, estudió a partir de una encuesta las actitudes, el grado de politización, la participación política y la intención de voto del neoleonés, para hacer un “análisis predictivo” sobre el comportamiento electoral de ese año. En relación a la intención de voto, el autor destacó que “79.9% de las personas entrevistadas manifestaron estar dispuestas a votar” (p. 143). En la siguiente década, 1997, Echebarría y Álvarez (1996), en el escenario de las elecciones para alcaldes y gobernador, explicaron que la juventud regiomontana apoyaba una cultura política conservadora, pues preferían participar convencionalmente a través el voto, así como en la formación y participación en partidos políticos. Del mismo modo, el estudio de Rodríguez (2010), referente a la percepción ciudadana sobre la democracia, expone que la tendencia mayoritaria en el regiomontano es percibir este concepto con el derecho a votar, elegir a los representantes, celebrar elecciones periódicas y la libertad de expresión. Indistintamente, en la investigación relativa a la cultura política en Monterrey, Sánchez García (2011) demostró que se concibe la política como una actividad temporal, ya que se le relaciona principalmente con las elecciones y a la participación ciudadana con el acto de votar. 74

Por su parte, las aportaciones sobre el tema de la cultura política en México han transcurrido desde las obras filosóficas y literarias de Samuel Ramos y Octavio paz, las investigaciones psicológicas de Santiago Ramírez y Rogelio Díaz Guerrero, hasta los trabajos antropológicos y sociológicos de Oscar Lewis y Pablo González Casanova (Ramos, 2006). Más adelante, una ola de trasformaciones disciplinares en las investigaciones sociales y políticas, aunada a los acontecimientos de las elecciones presidenciales de 1988 y de los comicios federales de 1991 en México, generó el desarrollo de estudios científicos sobre cultura política, los cuales están representados por las contribuciones de José Antonio Crespo, Miguel Basáñez, Víctor Manuel Durand, Alejandro Moreno, entre otros (Murga, 2008). Todos ellos han puesto su atención en el estudio de la socialización política, el conocimiento político, las culturas políticas combativas y contemplativas, la identidad partidista, la participación y las actitudes políticas como factores que influyen en la participación política. Para el presente estudio, sólo se consideraron las variables identificación partidista y conocimiento político, ya que con ellas se puede hacer un balance adecuado de los niveles de desafección política. A la identificación partidista se le define como la vinculación o autodefinición positiva que establecen las personas con los partidos políticos (Aguilar, 2008). El conocimiento, por su parte, es la organización de las “informaciones sobre una cosa, fenómeno o entidad” (Gutiérrez, 1998: 214) que posee un grupo social determinado. Más en concreto, el conocimiento político trata de la información específica que tiene un grupo de personas sobre la política. En función de esta conceptualización, se establecen las siguientes hipótesis de investigación: Hi1: El nivel de identificación partidista de los estudiantes es bajo. Hi2: El nivel de conocimiento político de los estudiantes es bajo.

LOS PARTICIPANTES Se realizó un diseño de estudio no experimental de tipo transversal, lo cual implicó recolectar la información en un solo momento (Cea, 2012). Sobre la base de este diseño se efectuó un estudio descriptivo para exponer el posicionamiento de los sujetos ante las variables identificación partidista y conocimiento político. El universo o población que integró el conjunto de participantes fue de un total de 141 mil estudiantes de la UANL. De ellos se favoreció como unidad de anáCIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


lisis el nivel superior, que en el semestre enero-junio 2012 (tiempo en que fue aplicado el instrumento) contaba con un total de 75 mil 438 estudiantes, distribuidos en 27 facultades, las cuales ofrecían 71 carreras profesionales (Áncer, 2012). Los participantes fueron seleccionados a partir de un muestreo por cuotas o proporcional. El muestreo por cuotas sugiere seleccionar la muestra procurando que se encuentren representados los distintos segmentos de la población objeto de estudio (Cea, 2012). Por lo que en atención a lo referido, se buscó que las tres áreas de estudios (ciencias sociales y humanas, ciencias naturales y de la salud y ciencias exactas) en que se clasificaron las distintas facultades de la UANL, estuvieran representadas en la investigación. De las áreas referidas se escogieron 12 carreras de 12 facultades, de las que se calculó 5% de estudiantes, lo que llevó a una muestra final de 491 sujetos.

INSTRUMENTO Y PROCEDIMIENTO Las escalas de identificación partidista y de conocimiento político del cuestionario empleado se componen de 7 y 8 reactivos, respectivamente. La primera se basa en una escala tipo Likert de 1 = Nada hasta 5= Totalmente, y la segunda tiene como respuestas 1= Sí y 2 = No (véanse las escalas completas en las tablas I y II). La confiabilidad de las escalas fue buena: la de identificación fue de α= .735 y la de conocimiento fue de α=.833. La mayoría de los cuestionarios se aplicaron de manera grupal. En este caso se contactó a maestros de las 12 facultades. Ellos permitieron utilizar una hora de su clase para realizar la aplicación. Algunos de los cuestionarios se administraron en los pasillos, jardineras y explanadas de las facultades. Previo a su entrega, se explicaba a cada uno de los grupos y sujetos las razones científicas que se buscaban con la realización del estudio, así como los cambios positivos que traería la investigación en la sociedad, lo que generó el interés del estudiantado por contestar el instrumento sin problemas. La aplicación generó una merma de 37 cuestionarios, por lo que finalmente se trabajó con una muestra de 454 casos, de los cuales 47.6% (216) fue de género masculino y 52.4% (238) fue de género femenino. Los datos recabados se procesaron con el programa SPSS versión 20.0.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

RESULTADOS El análisis de medidas de tendencia central de la variable identificación partidista, como se puede ver en la tabla I, mostró que los reactivos variaron de entre una media de 1,5352 a una media de 2,3590, donde cinco expresaron una media por debajo de 2 y sólo dos una media superior a este valor, es decir, el posicionamiento de los respondientes fue de entre nada y poco, por lo que la tendencia general del estudiantado es tener baja identidad partidista. De forma específica, el análisis presentó una menor cantidad de estudiantes identificados con el Partido Revolucionario Institucional (PRI), al que le siguen, progresivamente, el Partido Movimiento Ciudadano (PMC), el Partido Verde Ecologista de México (PVEM), el Partido Nueva Alianza (PANAL), el Partido del Trabajo (PT), el Partido de la Revolución Democrática (PRD) y el Partido Acción Nacional (PAN). Tabla I. Medidas de tendencia central de la dimensión identificación partidista. N ¿En qué medida te consideras del PRI? ¿En qué medida te consideras del PMC? ¿En qué medida te consideras de PVEM? ¿En qué medida te consideras del PANAL? ¿En qué medida te consideras del PT? ¿En qué medida te consideras del PRD? ¿En qué medida te consideras del PAN? N válido (según lista)

Media

Desv. típ.

454

1.5352 .95707

454

1.6850 1.02503

454

1.7247 1.03214

454

1.8216 1.06370

454

1.8634 1.12520

454

2.1300 1.29469

454

2.3590 1.29567

454

Fuente: elaboración propia. Escala: 1= Nada, 2= Poco, 3= Regular, 4= Mucho, 5= Totalmente.

Respecto a la variable conocimiento político, se preguntó a los estudiantes si conocían o no a los candidatos presidenciales, así como si sabían sobre alguna de sus propuestas de campaña. El análisis de medidas de tendencia central sobre estas variables, como se observa en la tabla II, demostró que el alumnado tenía un buen conocimiento sobre los candidatos, pero un bajo

75


conocimiento sobre las propuestas. De manera particular, los promedios revelaron que conocían menos a Gabriel R. Quadri de la Torre (PANAL), al que le seguían Andrés Manuel López Obrador (Coalición Movimiento Progresista), Enrique Peña Nieto (Coalición Compromiso por México) y en mayor medida a Josefina Vázquez Mota (PAN). Asimismo, el orden progresivo en que conocían las propuestas de los candidatos se expone a continuación por coalición o partido: Coalición Compromiso por México, Partido Nueva Alianza, Partido Acción Nacional y en mayor medida la Coalición Movimiento Progresista. Tabla II. Medidas de tendencia central de la dimensión conocimiento político. N Conoces al candidato de la Coalición Movimiento Progresista 454 (PRD-PT-MC) Conoces las propuestas dela Coalición Movimiento Progresis- 454 ta(PRD-PT-MC) Conoces al candidato(a) del Partido Acción Nacional (PAN) 454 Conoces las propuestas del Partido Acción Nacional (PAN) 454 Conoces al candidato de la Coalición Compromiso por México 454 (PRI-PVEM) Conoces las propuestas de la Coalición Compromiso por Méxi- 454 co(PRI-PVEM) Conoces al candidato del Partido Nueva Alianza (PANAL) 454 Conoces las propuestas del Partido Nueva Alianza (PANAL) N válido (según lista)

454

Media Desv. típ. 1.2070 .40564 1.5176 .50024

1.1432 .35063 1.5617 .49673 1.1586 .36570 1.6586 .47471 1.2709 .44493 1.6454 .47893

454

Fuente: elaboración propia. Escala: 1= Sí, 2= No.

DISCUSIÓN Y CONCLUSIONES Los resultados del estudio confirman la primera hipótesis de investigación que planteaba el nivel de identificación partidista de los estudiantes como bajo, y sólo se comprueba parcialmente la segunda hipótesis, que apuntaba que el nivel de conocimiento político de los estudiantes es bajo, esto último debido a que sí conocían el nombre de los candidatos. A pesar de los niveles tan bajos de identificación partidista encontrados en los jóvenes estudiantes, a nivel nacional las encuestas arrojan que dos de cada tres mexicanos se identifican con un determinado partido 76

político (Buendía, 2010). Sin embargo, esta identificación no se ha comportado de manera constante en el tiempo, ya que si bien hasta las elecciones presidenciales de 2000, la identificación partidista fue la mejor variable explicativa de la decisión electoral (Moreno, 2003), esto no ocurrió en las elecciones de 2006. Moreno y Méndez (2007) demostraron cómo de una elección a otra, la identidad fue perdiendo cada vez más fuerza, aconteciendo una disminución del voto partidario entre el electorado mexicano, al presentarse el fenómeno del voto dividido. En las elecciones presidenciales de 2012, lo anterior probablemente se haya acrecentado por la competencia y el aumento de las coaliciones entre los partidos políticos. A nivel internacional, los resultados son consistentes con los que reporta una investigación realizada con estudiantes universitarios en Santiago de Chile, donde se destaca un creciente número de sujetos con baja identificación partidista, lo que se correlaciona con un alejamiento de cualquier otra forma de integración y participación política (González et al., 2005). De la misma manera, los bajos niveles de identificación partidista de los participantes del estudio, probablemente sugieren un proceso de desafección política manifiesto en un alejamiento de todo aquello que signifique política. A pesar de estos resultados, el análisis de medidas de tendencia central mostró que la media (2.35, por encima de la puntación 2= poco) más alta de identificación fue con el PAN, lo que significa una ligera identidad del estudiantado hacia este partido. Identificación que también coincidió con la preferencia de los electores de Nuevo León, quienes en las elecciones de 2012 se inclinaron por la candidata de dicho partido (IFE, 2012). La comprobación parcial de la segunda hipótesis, relativa al bajo nivel de conocimiento político sobre los candidatos y sus propuestas, es parcialmente consistente con los resultados que expuso Durand Ponte (1998) en una investigación referente a la cultura política de estudiantes de la UNAM, el cual demostró que este alumnado se distingue por tener altos niveles de conocimiento en lo relativo al nombre del presidente, pero disminuye cuando se trata de los nombres del gobernador, regidor y diputados. Empero, en términos generales, la mayoría de los ciudadanos de las democracias occidentales se ha caracterizado por un bajo conocimiento de los asuntos públicos, donde además dicho fenómeno de desafección se ha comportado como una constate desde hace medio siglo (Buendía, 2010). De tal forma, Buendía señala que en el caso concreto de México, “la población se caracteriza por un bajo nivel de conocimiento de los aspectos centrales de nuestro sistema político” (p. 304). CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


En torno a esto, uno de los aspectos fundamentales de los resultados del estudio fue la carencia de conocimiento de las propuestas por parte de los universitarios. Lo cual se explica en función del manejo que hicieron los medios de comunicación, en vinculación con los partidos políticos y el gobierno, quienes procuraron implementar la construcción de la imagen de los contendientes durante toda la campaña electoral, en lugar de informar de manera clara y precisa sobre las propuestas y programas de gobierno. En otras palabras, de lo que prácticamente se ocuparon los medios durante todo el proceso electoral de 2012, fue de la producción de una procesión de simulacros televisivos, que llevaron a los espectadores a observar a los candidatos más allá de lo real, es decir, a la dimensión de la hiperrealidad (Baudrillard, 2001). En dicho fenómeno comunicativo influyó el escaso interés de la juventud hacia la política, que contribuyó a que no demandara información política relevante para tomar una decisión electoral informada y consciente.

REFERENCIAS Aguilar L., J. (2008). Identificación partidaria: apuntes teóricos para su estudio. (Versión electrónica). Polis: Investigación y análisis sociopolítico y psicosocial, 4, 15-46. Recuperado el 6 de mayo de 2013, de http:// www.juridicas.unam.mx/publica/librev/rev/polis/ cont/20082/art/art2.pdf Áncer R., J. (2012). Informe de actividades correspondiente al año 2012 (Versión electrónica). Universidad Autónoma de Nuevo León. Recuperado el 3 de mayo de 2013, de http://www.uanl.mx/sites/default/files2/informe2012web.pdf Anduiza, E. y Bosch, A. (2012). Comportamiento político y electoral. Barcelona: Ariel. Baudrillard, J. (2001). Cultura y simulacro. Barcelona: Kairos. Beck, U. (2002). Hijos de la libertad: contra las lamentaciones por el derrumbe de los valores. En U. Beck (comp.). Hijos de la libertad (pp. 7-32). México: FCE. Bobbio, N. (1999). El futuro de la democracia. México: FCE. Buendía, J. (2010). Los fundamentos de la opinión pública. En S. Loaeza y Prud’homme (coords.). Los grandes problemas de México, XIV. Instituciones y procesos políticos (pp. 303-329). México: El Colegio de México.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

Cea D’ A., M.Á. (2012). Fundamentos y aplicaciones en metodología cuantitativa. Madrid: Síntesis. Dahl, R. (1991). Los dilemas del pluralismo democrático. México: Alianza. Durand P., V.M. (1998). La cultura política de los alumnos de la UNAM. México: UNAM/Porrúa. Echebarría, A. y Álvarez B., J. (1996). Representaciones sociales de la democracia y el sistema electoral: estudio comparativo entre México y el País Vasco. Psicología social, 2, 47-69. ENCUP. (2012). Quinta encuesta nacional sobre cultura política y prácticas ciudadanas (Versión electrónica). Recuperado el 28 de noviembre de 2012, de www. encup.gob.mx Garza R., E. (1985). Nuevo León 1985, un ensayo sobre las condiciones y perspectivas de la transmisión del poder público. Monterrey: FCPYAP, UANL. González, R. et al. (2005). Identidad y actitudes políticas en jóvenes universitarios: el desencanto de los que no se identifican políticamente. Revista de Ciencia Política, 25 (2), 65-90. Recuperado el 3 de octubre de 2012, de la base de datos EBSCO. Gutiérrez A., J.D. (1998). La teoría de las representaciones sociales y sus implicaciones metodológicas en el ámbito psicosocial. Psiquiatría pública, 10, 211-219. Habermas, J. (1999). La inclusión del otro. Estudios de teoría política. Barcelona: Paidós. Held, D. (1997). La democracia y el orden global. Del Estado moderno al gobierno cosmopolita. Barcelona: Paidós. Instituto Federal Electoral. (2012). Resultado del cómputo distrital de la elección de presidente de los Estados Unidos Mexicanos de 2012 por entidad federativa. México. Recuperado el 21 de enero de 2016, de http:// www.ine.mx/docs/IFEv2/ProcesosElectorales/ProcesoElectoral20112012/Proceso2012_docs/memoriasPEF2011-2012/23_Capitulo_16.pdf Instituto Mexicano de la Juventud. (2006). Encuesta Nacional de Juventud 2005. México. Recuperado el 4 de octubre de 2012, de http://www.redetis.org.ar/ media/document/docdetrab.encuestanacionaldejuventud2005.institutomexicanodejuventud.pdf Instituto Mexicano de la Juventud. (2011). Encuesta Nacional de Juventud 2010. México. Recuperado el 4 de octubre de 2012, de http://cendoc.imjuventud.gob. 77


mx/sin_registro/Presentacion/Encuesta_Nacional_de_ Juventud2010_Resultados_Generales_18nov11.pdf

Dialnet-LaCrisisDeLaImagenDeLaPoliticaYDeLosPoliticosYLaRe-27646.pdf

Instituto Nacional de Estadística y Geografía. (2010). Censo de Población y Vivienda 2010. México. Recuperado el 4 de octubre de 2012, de http://www.censo2010. org.mx/

Valverde V., Karla. (2008). Condición y participación juvenil en Latinoamérica. En M. Singer Sochet (coord.). Participación política desde la diversidad (pp. 155-180). México: UNAM/Plaza y Valdés.

Latinobarómetro. (2011). Informe 2011. Chile. Recuperado el 29 de noviembre de 2012, de http://www.latinobarometro.org

Vázquez C., C.A. (2011). La participación ciudadana juvenil como un recurso externo al gobierno. Revista Latinoamericana de Ciencias Sociales, Niñez y Juventud, 1 (9), 45-59. Recuperado el 3 de octubre de 2012, de la base de datos EBSCO.

Mendoza E., H. (2011). Los estudios sobre la juventud en México. Espiral, Estudios Sobre Estado y Sociedad, XVIII (52), 193-224. Recuperado el 30 de mayo de 2013, de http://148.202.18.157/sitios/publicacionesite/ pperiod/espiral/espiralpdf/espiral52/sociedad1.pdf

Woldenberg, J. (2006). Después de la transición. Gobernabilidad, espacio público y derechos. México: Cal y Arena.

Moreno, A. (2003). El votante mexicano: democracia, actitudes políticas y conducta electoral. México: FCE. Moreno, A. y Méndez, P. (2007). La identificación partidista en las elecciones presidenciales de 2000 y 2006 en México. Política y Gobierno, XVI (1), 43-75. Recuperado el 21 de diciembre de 2012, de la base de datos EBSCO. Murga F., A. (2008). Cultura política: un inventario bibliográfico. Revista de Ciencias Sociales, 121, 107131. Recuperado el 20 de agosto de 2012, de la base de datos Dialnet. Ramos L., E. (2006). El estudio de la cultura política en México. En M.A. González Pérez (Coord.). Pensando la política. Representación social y cultura política en jóvenes mexicanos (pp. 91-118). México: Plaza y Valdés. Rodríguez B., K.E. (2010). Percepciones y valores asociados a la democracia. Disertación doctoral de Ciencias Políticas no publicada. UANL, México. Sánchez G., F.R. (2011). La cultura política, identidad política y gobernabilidad en Monterrey. Disertación doctoral de Ciencias Políticas no publicada. UANL, México. Sartori, G. (2008). ¿Qué es la democracia? México: Taurus. Uriarte, E. (2001). La crisis de la imagen de la política y de los partidos políticos y la responsabilidad de los medios de comunicación (Versión electrónica). Revista de Estudios Políticos, 111, 45-64. Recuperado el 3 de mayo de 2013, de file:///C:/Users/Historia/Downloads/

78

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Según explica el profesor Levenson, “las palomas probaron ser sorprendentemente aptas para aprender la diferencia entre las imágenes de tumores de mama benignos y malignos, tanto en patología como en radiología. Y, lo más importante, fueron capaces de utilizar el entrenamiento para clasificar con precisión imágenes que nunca habían visto antes”, destaca.

Vista de paloma Es bien sabido que las aves que tienen mejor vista son las águilas y los halcones, de ahí que se usen expresiones como “mirada de águila” u “ojos de halcón” para describir a alguien que se caracteriza por su buena visión. Pero aun así, los humanos no tenemos la capacidad que tienen estos animales para detectar sus presas a varios kilómetros de distancia. De hecho, en muchas ramas de la medicina es necesario tener buena visión para ver pequeños detalles a simple vista, por ejemplo, los patólogos y radiólogos pasan años adquiriendo y perfeccionando sus habilidades visuales para interpretar las imágenes médicas. Pero aun así se les pueden escapar detalles importantes, por ello se han entrenado diversos animales que puedan ser de ayuda en este sentido. Al respecto, científicos estadounidenses han demostrado en varios experimentos que las palomas –sí, las palomas como las que alimentamos en las plazas, que comparten muchas capacidades del sistema visual humano– pueden ser entrenadas para distinguir entre tumores de mama benignos y malignos en imágenes histológicas y radiológicas. El estudio, publicado en PLoS ONE, ha sido liderado por Richard Levenson, profesor de investigación de patología de la Universidad de California y Edward Wasserman, quien dirige el Comparative Cognition Laboratory, dedicado al estudio de procesos cognitivos en el comportamiento animal, en la Universidad de Iowa. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

En los experimentos, las palomas fueron entrenadas con refuerzo alimenticio y sometidas a ensayos con diversos parámetros de control, que incluían la ampliación de la imagen, la compresión, color y brillo. Según el coautor, las aves aprendieron rápidamente a distinguir las imágenes biomédicas de los tumores malignos y benignos. Referencia bibliográfica: Levenson R.M., et al. (2016). Pigeons (Columba livia) as Trainable Observers of Pathology and Radiology Breast Cancer Images. PLoS ONE 10(11): e0141357. doi:10.1371/journal.pone.0141357

“Robots humanos” ¿Te imaginas un robot que aprenda como los humanos? Es decir, que no sea necesario darle un montón de datos para que funcione, sino que lo haga como tú y yo con base en ejemplos anteriores o en conocimiento previo. Pues bien, un equipo de científicos de EE.UU. y Canadá ha desarrollado un algoritmo que captura nuestra capacidad de aprendizaje y permite a los ordenadores reconocer y extraer conceptos visuales sencillos de la forma en la que lo hacen las personas. Los resultados del estudio se publican en la revista Science. Según destaca Brenden Lake, autor principal e investigador de Moore-Sloan Data Science en la Universidad de Nueva York, el trabajo trata de hacer más corto el proceso de aprendizaje de nuevos conceptos y ampliar la aplicación de las máquinas a tareas más creativas, como el dibujo, la pintura, entre otras. 79


Cuando tú y yo nos encontramos ante un nuevo concepto –por ejemplo, echar a andar un nuevo electrodoméstico, aprender un nuevo paso de baile o una letra de un alfabeto diferente– necesitamos sólo unos pocos ejemplos para entender el funcionamiento y reconocer nuevos casos. Los ordenadores actuales, en cambio, necesitan cientos o miles de instrucciones para operar con una precisión similar a la nuestra. Para aproximarse a la manera humana de aprender, los investigadores han desarrollado un programa baye-

Por ejemplo, la letra ‘A’ se representa por un código que genera ejemplos de esa letra cuando se ejecuta. Sin embargo, no se requiere un programador durante el proceso de aprendizaje, ya que el algoritmo se programa a sí mismo construyendo un código para producir la letra que ve. También, a diferencia de los programas estándar de ordenador que producen el mismo resultado cada vez que se ejecutan, estos programas probabilísticos producen diferentes salidas en cada ejecución. Esto les permite captar cómo varían las manifestaciones de un mismo concepto, por ejemplo, las diferentes maneras en que dos personas dibujan la letra ‘A’. Mientras que los algoritmos de reconocimiento de patrones estándar representan conceptos como configuraciones de píxeles o colecciones de características, el enfoque BPL aprende ‘modelos generativos’ de procesos reales, lo que permite utilizar los datos de manera más eficiente.

siano de aprendizaje (BLP, por sus siglas en inglés), en el que los conceptos se representan como programas informáticos sencillos.

Líquido que ilumina células cancerosas Seguramente tú alguna vez has intentado cortar algo sin ver, es difícil ¿verdad? Pues imagínate cuando se trata de otra persona, además de doloroso, puede ser peligroso o hasta mortal. Así sucede, por ejemplo, en la medicina, donde los médicos muchas veces actúan casi a ciegas para extirpar tejido dañado, como en el caso del cáncer. Al respecto, un equipo de la Escuela de Medicina de la Universidad de Duke (Carolina del Norte, EE.UU.) ha probado un nuevo compuesto inyectable que hace que las células cancerosas se vuelvan fluorescentes, lo cual podrá facilitar la labor de los cirujanos para eliminar la totalidad de un tumor en un primer intento. La tecnología de imagen se ha desarrollado gracias a la colaboración con científicos del Instituto Tecnológico de Massachusetts (MIT) y de la empresa Lumicell. 80

Referencia bibliográfica: Brenden M. et al. (2016). Human-level concept learning through probabilistic program induction. Science.

Según los resultados, publicados en Science Translational Medicine, los investigadores probaron el nuevo producto con 15 pacientes sometidos a cirugía de sarcoma de tejidos blandos o cáncer de mama. El agente inyectable, un líquido azul llamado LUM015, fue capaz de identificar los tejidos cancerosos sin efectos adversos. En la actualidad, los cirujanos se sirven de imágenes transversales, como resonancias magnéticas y tomografías computacionales para guiarse a la hora de eliminar los tumores y su tejido circundante. Pero en ocasiones algo del tejido canceroso no es detectado en una primera intervención y requiere una segunda cirugía y radioterapia. “En el momento de la operación, el médico puede examinar el tejido de las células cancerosas del borde del tumor utilizando un microscopio, pero debido al taCIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


maño del cáncer es imposible revisar toda la superficie durante la intervención. El objetivo es dar a los cirujanos una tecnología práctica y rápida que les permita escanear el lecho tumoral durante la operación para buscar cualquier fluorescencia residual”, señala David Kirsch, oncólogo y biólogo del cáncer en la Universidad de Duke y autor principal del estudio (Fuente: Agencia SINC).

Sensores que miden los cambios químicos del sudor ¿Alguna vez has visto a un deportista caer desmayado en una competencia, con calambres o deshidratado? o ¿alguna vez te ha pasado a ti? Esto sucede por la fatiga y el esfuerzo, y muchas veces no nos damos cuenta hasta que tenemos el dolor o no podemos seguir más. ¿Te imaginas un sensor que nos dijera cuándo nos “sobrecalentamos” o cuándo necesitamos agua, como sucede con los autos, todo por medio del sudor? Pues bien, investigadores de las universidades de California en Bekerley y de Stanford han creado una nueva generación de sensores flexibles que pueden medir los cambios químicos del sudor humano en tiempo real. Los autores indican que se trata del primer sistema electrónico totalmente integrado capaz de proporcionar un control continuo, no invasivo de la bioquímica múltiple del sudor.

exterior, llevando los sensores en contacto con la piel, debido a que el análisis del sudor informa sobre fatiga, deshidratación o temperaturas peligrosamente altas del cuerpo. Según explica Ali Javey, director del grupo de investigación de UC Bekerley y uno de los autores, “el sistema se compone de cinco sensores que miden simultáneamente y de forma selectiva los metabolitos (glucosa y lactato) y electrolitos (iones de sodio y potasio) del sudor, así como la temperatura de la piel; el panel de analitos diana y la temperatura de la piel se han seleccionado por la información que suministran para entender el estado fisiológico de un individuo”. Por ejemplo, “la excesiva pérdida de sodio y potasio en el sudor podría traducirse en calambres musculares o deshidratación; la glucosa del sudor está metabólicamente relacionada con la glucosa en sangre y el lactato puede servir como un marcador sensible de la isquemia de presión. Además, la temperatura de la piel informa de una variedad de enfermedades y lesiones de la piel –como las úlceras por presión–”. Javey destaca que el sistema mide en tiempo real las señales eléctricas generadas por el conjunto de sensores. Tras el procesamiento de los datos, el microcontrolador los transmite un módulo bluetooth y pueden ser enviados a un teléfono inteligente donde se muestran en una app. Referencia bilbiográfica: Wei, G., et al. (2016). Fully integrated wearable sensor arrays for multiplexed in situ perspiration analysis. Nature.

El estudio, que se publica en Nature, ha incluido la participación de 50 voluntarios (hombres y mujeres) que han realizado actividades deportivas de interior y CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

81


¿Agua líquida en Marte? Ya tenemos agua, ¿agua? Sí, agua, agua, rezaba un comercial del gobierno mexicano hace unos 15 años, para anunciar sus programas de introducción de agua potable en colonias donde ni siquiera había red. Dicho comercial me recuerda lo que está pasando en Marte, donde se cree que en el verano, el verano marciano, claro está, hay presencia de agua líquida. De hecho el orbitador Mars Reconnaissance Orbiter (MRO) de la NASA hace años que viene detectado en algunas laderas del planeta rojo unos extraños flujos, denominados ‘líneas de ladera recurrentes’ (RSL), durante las estaciones cálidas, cuando las temperaturas superan los -23ºC. Estas líneas son alargadas, miden hasta unos cinco metros de ancho y desaparecen en los periodos más fríos, incluso los datos del orbitador MRO han confirmado la presencia de sales hidratadas en las misteriosas líneas RSL. La hipótesis que planteaban hasta ahora los científicos es que estas formaciones se generan por la presencia estacional de agua líquida salobre, pero la resolución de las imágenes disponible hasta la fecha no permitía detectar ni sales ni agua. Sin embargo, la revista Nature Geoscience ha publicado un estudio que aporta una prueba importante. Con los datos espectrométricos del instrumento Compact Reconnaissance Imaging Spectomer for Mars (CRISM) del MRO, un equipo estadounidense de cien-

82

tíficos, liderado por el investigador Lujendra Ojha, del Instituto de Tecnología de Georgia (EE.UU.), ha confirmado la presencia de sales hidratadas (una mezcla de perclorato de magnesio, clorato de magnesio y perclorato de sodio) en los taludes donde se había observado la actividad de las misteriosas líneas RSL. Algunos percloratos pueden retener líquidos durante la congelación, incluso cuando las condiciones son tan frías como -70ºC. En la Tierra estos compuestos aparecen de forma natural en regiones desérticas. El equipo de investigadores ha ideado un método que permite extraer información espectrométrica de los píxeles individuales conseguidos con los datos de CRISM. Los espectros que se obtienen en todas las líneas examinadas son consistentes con la presencia de minerales de sal hidratada que precipitan a partir de agua. “La detección de estas sales hidratadas en las pendientes significa que el agua juega un papel vital en la formación de estas líneas”, señala Ojha. Los nuevos datos sobre la posible existencia de agua líquida bajo la superficie marciana indican una habitabilidad más favorable para la vida. Referencia bibliográfica: Lujendra Ojha, et al. (2015). Spectral evidence for hydrated salts in recurring slope lineae on Mars. Nature Geoscience. Doi:10.1038/ ngeo2546

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Había un sapo, sapo, sapo Había una vez un sapo que era muy inteligente, porque en realidad se trataba de un príncipe encantado que se enamoró de una doncella. Así rezan algunos de los cuentos infantiles más conocidos. En realidad, sabemos que las ranas no son tan inteligentes, ¿o sí? Benjamin Blencowe, profesor del Centro Donnelly de la Universidad de Toronto, y su equipo han descubierto cómo un pequeño cambio en una proteína llamada PTBP1 puede estimular la creación de neuronas y determinar la evolución del cerebro de los mamíferos, hasta haberse convertido en los más grandes y más complejos entre los vertebrados. En el artículo que se publica en la revista Science, los autores explican que los seres humanos y las ranas, por ejemplo, han evolucionado por separado durante 350 millones de años y tienen habilidades cerebrales muy diferentes. Sin embargo, los científicos han demostrado que utilizan un repertorio de genes notablemente similares para construir órganos en el cuerpo. Entonces, ¿cómo un número similar de genes, que se conecta o desconecta de manera similar en diversas especies de vertebrados, genera órganos con tamaños y complejidad tan diversa? La clave radica, según los expertos, en el proceso conocido como empalme alternativo (AS, por sus siglas en inglés), por el que los productos génicos se ensamblan en proteínas, que son los componentes básicos de la vida. El empalme alternativo permite a las células generar más de una proteína a partir de un único gen.

Un piloto automático literal Cuando era niño, siempre que escuchaba en alguna película o caricatura que las naves eran puestas en piloto automático me imaginaba a un robot conduciendo, aunque luego me explicaron a qué se refería, nunca se me quitó la imagen de la mente. Pues bien, hace poco en un pequeño aeropuerto de Estados Unidos despegó una avioneta Cessna Caravan, en cuya cabina, en el asiento derecho, un robot con un brazo mecánico y un gancho por manos piloteaba el aparato; a su lado, un piloto humano transmitía órdenes a su colega electrónico en una tableta. La escena fue parte de un programa conjunto del gobierno y la empresa privada que busca reemplazar CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

Durante el AS, los fragmentos de genes –llamado exones– se entremezclan para crear diferentes formas de proteínas. Es como un LEGO, donde pueden faltar algunos fragmentos en la forma final de la proteína. El AS permite a las células generar más de una pro-

teína a partir de un único gen, de modo que el número total de proteínas diferentes en una célula supera en gran medida el número de genes disponibles. La capacidad de una célula para regular la diversidad de proteínas en un momento dado refleja su capacidad de asumir diferentes roles en el cuerpo. Un trabajo previo de Blencowe y su equipo mostró que la prevalencia de AS aumenta con la complejidad de los vertebrados. Por lo tanto, aunque los genes en los cuerpos de los vertebrados pueden ser similares, como las ranas y los humanos, las proteínas son mucho más diversas en animales como mamíferos, que en aves y ranas. Además, en ninguna parte el AS está tan extendido como en el cerebro. Referencia bibliográfica: Serge Gueroussov, et al. (2015). An alternative splicing event amplifies evolutionary differences between vertebrates. Science. los copilotos de los aviones con robots que nunca se cansan, se aburren, se sienten abrumados ni se distraen. El programa, conocido por sus siglas en inglés ALIAS (Aircrew Labor In-Cockpit Automation System) es financiado por la Agencia de Proyectos de Investigación Avanzados y administrado por un contratista privado, Flight Sciences. Se sabe que tanto las fuerzas armadas como las aerolíneas comerciales tienen problemas para conseguir pilotos y ven con buenos ojos la idea de usar robots, los cuales ofrecen mayor seguridad y eficacia. La idea es que la presencia de un robot que se ocupe de los controles permita al piloto humano enfocarse en cuestiones estratégicas, sobre todo en casos de emergencia.

83


“Queremos aumentar la autonomía del aparato y permitir que los humanos y los robots se enfoquen en las cosas que mejor hacen”, expresó John Langford, presidente y director general de Aurora. El control automático de los aviones mediante sofisticadas computadoras no es nada nuevo. Hoy por hoy casi todos los aviones tienen pilotos automáticos que controlan el aparato la mayor parte del vuelo. Los pilotos intervienen casi exclusivamente en el despegue y el aterrizaje, aunque esas funciones también podrían desempeñarlas las computadoras. Pero el robot de ALIAS va más allá. Una cantidad de cámaras, por ejemplo, le permiten al robot ver todos los instrumentos de la cabina e indicadores del tablero. Puede distinguir si un aparato está activado o no y puede mover palancas y botones a la posición indicada. Toma en cuenta no sólo su experiencia en un avión, sino también el historial de ese tipo de aparato.

ro, incluidos aparatos de los años 50 construidos antes de la era de controles electrónicos. El robot, no obstante, enfrenta numerosos obstáculos, incluido el hecho de que habría que modificar todas las regulaciones que rigen en la industria aeronáutica. En Estados Unidos al menos esos cambios pueden tomar años.

El robot “puede hacer todo lo que hacen los humanos, excepto mirar por la ventana”, afirmó Langford. En un tiempito tal vez pueda hacer eso también, agregó (fuente: El Universal).

El robot de ALIAS usa una tecnología “drop-in”, que puede ser empleada en cualquier avión o helicópte-

Capa de invisibilidad ya es realidad La capas de invisibilidad son un elemento recurrente en la ciencia ficción y los relatos fantásticos, desde Star Trek a Harry Potter, pero no existen en la vida real ¿o sí? Científicos del Departamento de Energía de EE.UU., del Lawrence Berkeley National Laboratory y de la Universidad de Berkerley, California, han creado una capa ultrafina que puede adaptarse a la forma de un objeto y ocultarlo mediante luz reflejada. Los detalles del hallazgo han sido descritos en un estudio publicado en la revista Science. Utilizando nanoantenas de oro como si fueran ladrillos, los investigadores han construido un manto de apenas 80 nanómetros de espesor con el que se envuelve un objeto tridimensional del tamaño de unas pocas células biológicas, modelado de forma irregular con múltiples golpes y abolladuras. La superficie de la capa ha sido diseñada para desviar las ondas de luz reflejadas de manera que el objeto se vuelve invisible para la detección óptica cuando se activa el dispositivo.

El eje de rotación de la Luna ha cambiado ¿Qué pasaría si te dijera que los polos de la luna no son los originales? Es decir, ¿si dijéramos que los polos lunares se han movido a lo largo del tiempo? Probablemente no lo creeríamos en primera instancia. Sin 84

“Ésta es la primera vez que un objeto 3D con forma arbitraria ha sido ocultado de la luz visible. Nuestra capa ultradelgada parece un abrigo. Es fácil de diseñar y poner en práctica, y es potencialmente escalable para ocultar objetos macroscópicos”, señala Xiang Zhang, director de Ciencias de Materiales de Berkeley Lab y una autoridad mundial en metamateriales y nanoestructuras artificiales con propiedades electromagnéticas que no se encuentran en la naturaleza. La dispersión de la luz (ya sea visible, infrarroja, rayos X, etc.), a partir de su interacción con la materia, es lo que nos permite detectar y observar los objetos. Las normas que rigen estas interacciones en materiales naturales pueden eludirse en los metamateriales, ya que sus propiedades ópticas se derivan de su estructura física, en lugar de su composición química. Referencia bibliográfica: Xingjie Ni, et al. (2016). An Ultra-Thin Invisibility Skin Cloak for Visible Light. Science.

embargo, nuevos estudios señalan que cerca de los dos polos de la Luna, uno en las antípodas del otro, se localizan sendos depósitos de hidrógeno –probablemente formados por hielo de agua– que delatan dónde estuvo hace miles de millones de años el eje de rotación de nuestro satélite.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


Una anomalía térmica bajo la región volcánica Procellarum reorientó el eje de rotación de la Luna, así lo apunta el estudio que científicos estadounidenses, liderados por Mateo Siegler desde el Instituto de Ciencias Planetarias en Arizona, publicaron en la revista Nature. El desplazamiento del eje ha sido del orden de seis grados, según sus cálculos. “Los depósitos de hidrógeno polar guardan pruebas de que el eje de rotación de la Luna ha cambiado, ya que están situados uno en las antípodas del otro (una línea trazada de uno a otro pasaría por el centro lunar) y desplazados a igual distancia de cada polo en direcciones opuestas”, señalan los autores. La situación de estos gélidos depósitos de hidrógeno, que desde la década de los 90 se analizan con la

La memoria de los perros Generalmente pensamos en nuestros perros como animalitos que no se acuerdan ni de que la cola que persiguen es suya. Además de su poca memoria, sabemos que se distraen con facilidad, pero un estudio sugiere que no viven tan en las nubes como se pensaba. Al parecer, el llamado mejor amigo del hombre tiene la capacidad de recordar hechos que se remontan al pasado reciente, según un estudio publicado en la revista Current Biology. Los científicos han estudiado la memoria episódica de los perros, es decir, su capacidad de volver atrás mentalmente para evocar detalles de un evento vivido.

ayuda de espectrómetros de naves como Lunar Prospector, no es compatible con la posición donde se esperaría encontrar el hielo según el ambiente térmico lunar de hoy en día. Los datos indican que el cambio del polo de rotación, conocido como ‘desplazamiento polar verdadero’, se originó por variaciones dentro de la estructura interior de la Luna. En concreto, Siegler y sus colegas argumentan que fue causado “por una anomalía térmica de baja densidad por debajo de la región Procellarum”, un vasto mar de lava situado en la zona más próxima de nuestro satélite. Referencia bibliográfica: Siegler, M.A., et al. (2016). Lunar true polar wander inferred from polar hydrogen. Nature. Doi: 10.1038/nature17166.

del trabajo, Claudia Fugazza. Por ello se adaptó una técnica de entrenamiento inédita que permite a los perros responder de alguna manera en función de cómo se comportan. En el marco del estudio, 17 perros de distintas razas fueron entrenados para imitar el comportamiento humano: una persona se sentaba en una silla, o daba saltos en el aire... y a los perros se los entrenó para hacer lo mismo cuando una persona les dijera: “Hazlo”. Cuando repetían la acción eran recompensados con un premio. Luego se les enseñó a quedarse echados independientemente de lo que hicieran sus amos. Y después de un rato, se les daba la orden: “Hazlo”, y los perros tenían que repetir la acción que su amo había hecho antes, esta vez sin recompensa. “Los perros entrenados con este método pueden imitar las acciones de sus amos hasta 24 horas después. Darles la orden ‘Hazlo’ después de un tiempo de alguna

Se sabía que esta capacidad existía en los seres humanos y en primates, pero éste es el primero que demuestra que los perros también pueden hacerlo. “Simplemente no es posible preguntarles: ‘¿Te acuerdas de lo que pasó esta mañana?’”, señaló la autora principal CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

manera es una forma de preguntarles: ¿te acuerdas de lo que hizo tu amo?”, contó Fugazza. Más allá de las 24 horas, sin embargo, su memoria se pierde. Los resultados de este estudio son la primera prueba de memoria episódica en los perros, afirma el estudio (fuente: El Universal). 85


Colaboradores Alberto Gómez Treviño Químico farmacéutico biólogo y maestro en Ciencias, con especialidad en Microbiología Industrial, por la UANL. Doctor en Ciencias, con especialidad en Microbiología Aplicada, por la Universidad de Barcelona, España. Posdoctorado en el Departamento de Microbiología y Parasitología Sanitarias, Universidad de Barcelona. Sus líneas de investigación son microbiología aplicada, biotecnología y nanotecnología farmacéutica. Miembro del SNI, nivel I. Armando V. Flores Salazar Licenciado en Arquitectura, especialista en diseño arquitectónico y maestro en ciencias por la UANL. Doctorado en Arquitectura por la UAM. Maestro de tiempo completo y exclusivo en la FArq-UANL. Sus líneas de investigación son los objetos arquitectónicos como objetos culturales, con subtemas como lectura arquitectónica y la arquitectura como documento histórico. Miembro del SNI, nivel II. Carlos Luna Criado Doctor en Física, con especialidad en Física de la Materia Condensada, y licenciado en Ciencias Físicas, con especialidad en Física Teórica, por la Universidad Autónoma de Madrid, España. Realizó estancia postdoctoral en el Laboratorio de Magnetismo Molecular de la Universidad de Florencia, Italia. Profesor-investigador de la FCFM-UANL. Miembro del SNI, nivel II, y perfil deseable PRODEP. Daniel Alcocer Cruz Profesor de la Facultad de Ciencias de la Comunicación y egresado de la misma institución. Elvis Martínez Jaramillo Médico cirujano partero y maestro en Ciencias, con orientación en Morfología, por la UANL. Sus líneas de investigación son la creación vacunas terapéuticas mediante terapia génica contra cáncer y la creación de bacterias lácticas recombinantes con potencial terapéutico. Jorge G. Gómez Gutiérrez Profesor asistente del Departamento de Cirugía de la Escuela de Medicina de la University of Louisville, Louisville, Kentucky, E.U.A. Biólogo y doctor en Ciencias, con especialidad en Biotecnología, por la UANL. Realizó estancia posdoctoral en la University of Louisville. Sus líneas de investigación son la modulación de la autofagia para el mejoramiento de la viroterapia oncolítica y el uso de bacterias anaerobias facultativas acido lácticas como vectores para dirigir selectivamente diagnóstico y tratamiento hacia el microambiente hipóxico del tumor. Miembro del SNI, nivel I.

86

José Antonio Fuentes Garibay Químico bacteriólogo parasitólogo; maestro en ciencias, con acentuación en Microbiología, y Doctorado en Ciencias, con especialidad en Biotecnología, por la UANL. Personal profesional no docente adscrito al Instituto de Biotecnología de la FCB-UANL. Miembro del SIN, nivel Candidato. José Eduardo Estrada Loyo Licenciado en Psicología por la UANL, con especialidad en psicología clínica y acentuaciones en psicoterapia Gestalt y analíticamente orientada. Diplomado en periodismo científico por la FCC-UANL. Coordinador editorial de la revista CienciaUANL. José Lorenzo Encinas Garza Antropólogo social por la UANL. Etnólogo por la Escuela Nacional de Antropología e Historia. Autor del libro Bandas juveniles perspectiva teórica. José Luis Cavazos Zarazúa Licenciado en historia, maestro en psicología social y doctor en ciencias políticas por la UANL. Coordinador del Colegio de Historia y Estudios de Humanidades de la FFyL-UANL. Su línea de investigación es la historia de México del siglo XX. José M. Viader Salvadó Ingeniero químico, con intensificación en Química Orgánica, por el Instituto Químico de Sarriá (IQS), Barcelona, España. Doctor Ingeniero Químico por el IQS. Profesor titular del Instituto de Biotecnología de la FCB-UANL. Miembro del SNI, nivel II. José Moral de la Rubia Doctor en Filosofía y Ciencias de la Educación, con especialidad en Psicología, por la Universidad de Alcalá de Henares (Madrid, España). Psicólogo especialista en Psicología Clínica por el Programa de tres años de Psicólogo Interno Residente (Madrid, España). Licenciado en Psicología por la Universidad Pontificia de Comillas (Madrid, España). Profesor-investigador de la FaPsi-UANL. Perfil PROMEP (docente de calidad) y miembro del Cuerpo Académico Consolidado de Psicología Social y de la Salud. Miembro del SNI, nivel I. Luis Enrique Gómez Vanegas Licenciado en letras hispánicas por la UANL. Diplomado en periodismo científico por la FCC-UANL, donde además participó como investigador en el libro Violencia y ciudad. Autor del libro Soledades. Revisor de la revista Ciencia UANL y de Entorno Universitario, de la Preparatoria 16-UANL.

CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017


María de Jesús Loera Arias Químico bacterióloga parasitóloga y doctora en Ciencias, con orientación en Morfología, por la UANL. Docente e investigadora en la FM-UANL. Las líneas de investigación que maneja son la creación vacunas terapéuticas mediante terapia génica contra cáncer y la creación de bacterias lácticas recombinantes con potencial terapéutico. Miembro del SNI, nivel I. Martha Guerrero Olazarán Licenciada en Ciencias Químicas por el ITESM. Maestro en Química Analítica Aplicada por la UR, y en Ciencias, con acentuación en Comercialización de la Ciencia y Tecnología, por la Universidad de Texas y el CIMAV. Doctor Scientiarum humanorum por la Universidad de Heidelberg, Alemania. Profesor titular del Instituto de Biotecnología de la FCB-UANL. Miembro del SNI, nivel I. Melina Miaja Ávila Doctora en Filosofía, con orientación en Psicología; maestra en ciencia, con orientación en Psicología de la Salud, y licenciada en Psicología por la UANL. Docente de cátedra de la carrera de Psicología Clínica y de la Salud en el ITESM. Psicóloga e investigadora del Centro de Cáncer de Mama y del Instituto de Bienestar Integral del Hospital Zambrano Hellion. Coordinadora del “Programa de Atención para Mujeres Jóvenes con Cáncer de Mama: Mujer Joven y Fuerte” en los hospitales del TecSalud. Miembro del SIN, nivel Candidato. Odila Saucedo Cárdenas Licenciada en Biología y doctora en Ciencias, con especialidad en Morfología, por la UANL. Realizó estudios de Posgrado en el Baylor College of Medicine, Houston Tx. USA. Docente e investigación en la FM-UANL y en el Centro de Investigación Biomédica del Noreste, IMSS. Las líneas de investigación que maneja son diagnóstico molecular, terapia génica de enfermedades crónico-degenerativas y desarrollo de vacunas terapéuticas contra el cáncer cérvico uterino. Miembro del SNI, nivel II. Pedro César Cantú Martínez Doctor en ciencias biológicas. Trabaja en la FCB-UANL y participa en el IINSO-UANL. Su área de interés profesional se refiere a aspectos sobre la calidad de vida e indicadores de sustentabilidad ambiental, en la que ha dirigido tesis de posgrado y licenciatura. Fundador y editor de la revista Salud Pública y Nutrición (RESPyN). Miembro del Comité Editorial de Artemisa del Centro de Información para Decisiones en Salud Pública de México. Raquel Mendoza Reséndez Doctora en Ciencias por la Universidad Complutense de Madrid, España. Maestra en Ingeniería Cerámica y licenciada en Ingeniería Química por la UANL. Profesora titular de tiempo completo en FCFM-UANL. Miembro del SNI, nivel I, y perfil deseable PRODEP.

Rodolfo García Galván Licenciado en Economía y maestro en Estudios Urbanos y Regionales por la UAEM. Doctor en Ciencias Económicas por la UAM. Miembro del programa Cátedras-Conacyt desde 2014 (comisionado en el IIDE-UABC) y del SNI. José Martín Rosas Castor Doctor en Ciencia y Tecnología Química por la UIB, España, y en Ciencias, con orientación en Química Analítica Ambiental, por la UANL. Sus líneas de investigación se orientan a la evaluación de la transferencia de contaminantes en productos agrícolas y en desarrollo de nuevos métodos automatizados para el monitoreo de contaminantes ambientales. Profesor de la FCQ-UANL. Jorge Luis Guzmán Mar Licenciado en Química Industrial por la UAT. Maestro y doctora en Ciencias Químicas, con especialidad en Química Analítica, por la Universidad de Guanajuato. Posdoctorado por la Duquesne University (Pittsburgh, PA, EE.UU.). Perfil PRODEP, y miembro del CA-UANL-287 consolidado. Profesor-investigador de la FCQ-UANL. Sus líneas de investigación son el desarrollo, validación y aplicación de nuevos métodos analíticos para la determinación de fármacos, pesticidas e iones metálicos en matrices como agua, suelo, productos farmacéuticos, productos agrícolas, alimentos, entre otros. Miembro del SNI, nivel I. Laura Hinojosa Reyes Licenciada en Química por la Universidad de Guanajuato. Maestra en Ciencias, con especialidad en Química Analítica, por la Universidad de Guanajuato. Doctora en Ciencias, con especialidad en Química Analítica, por la Universidad de Oviedo, España. Posdoctorada por la Duquesne University (Pittsburgh, PA, EE.UU.). Profesora-investigadora de la FCQ-UANL. Perfil PRODEP. Sus áreas de investigación incluyen diversos enfoques de la química analítica, como desarrollo de nuevos métodos analíticos para la determinación de fármacos, pesticidas e iones metálicos, en matrices como agua, suelo, productos agrícolas, alimentos, entre otros. Miembro del SNI, Nivel II. Aracely Hernández Ramírez Química farmacéutica bióloga por la UANL. Maestra en Ciencias, con especialidad en Química, por el ITESM. Doctora en Ciencias, con orientación en Ingeniería Cerámica, por la UANL. Perfil PRODEP. Profesora-investigadora en la de la FCQ-UANL. Sus áreas de investigación son la síntesis y caracterización de materiales cerámicos vía sol-gel, con aplicaciones en incorporación de fármacos en matrices cerámicas, celdas electroquímicas, catálisis y procesos avanzados de oxidación para tratamiento de contaminantes, principalmente en medios acuosos (fotocatálisis heterogénea, fenton, y foto-fenton). Miembro del SNI, nivel II y de la Academia Mexicana de Ciencias.

Roberto Montes de Oca Luna Profesor-investigador del Departamento de Histología de la FM-UANL. Biólogo, maestro y doctor en Ciencias y médico cirujano y partero. Posdoctorado en el MD Anderson Cancer Center. Sus líneas de investigación están abocadas a la terapia génica usando como vectores de entrega de genes Lactococcus lactis y adenovirus. Miembro del SNI, nivel III. CIENCIA UANL / AÑO 20, No. 83, ENERO-MARZO 2017

87


88

CIENCIA UANL / AÃ&#x2018;O 20, No. 83, ENERO-MARZO 2017

Ciencia UANL 20-83  

Revista Ciencia UANL 20-83 (Enero - Marzo 2017)