Page 1


1


Julio 2015

STAFF CONSEJO EDITORIAL

Año 1 Número 10

Alejandro Brera

Presidente del Consejo

Gerardo Oxley César O. Rodríguez Alejandro Montoya

EQUIPO EDITORIAL Salvador Ordóñez

sordonez@develop.com.mx

Director Editorial

Javier Barriopedro

fbarriopedro@develop.com.mx

Editor

Edgar Loeffelmann

eloeffelmann@develop.com.mx

Coeditor

EN PORTADA

Tecnología Aplicada para la Investigación Científica FOTO DE: Shutterstock

Alejandro Rebollo Karla Salinas Gerardo Oxley Ayax Vasconcelos Gabriela Campos Victor Hernández Txabier Etxeberri

Alondra DeMaría F. María Paulina A. Fernán de María Flores Yessica Sánchez Cure Bárbara C. Álvarez Ing. Javier Solis González Colaboradores

Salvador Ordóñez

Diseñador Editorial

Sandra Benitez

sbenitez@develop.com.mx

Redes Sociales

Shutterstock

Fotografías

University Tech Day www.issuu.com Distribución

AGRADECIMIENTOS ESPECIALES

Ariel Rodríguez (DEVELOP), Arnulfo Arellano (MOZCALTI), Carlos Fernández , Arturo Campos Fentanes, Ana Paula Konrad, Pedro Flores, Juan Saldivar, Alejandro Villanueva, Cristina Cervantes y a todas las personas que han hecho posible este número tan especial de developNetwork

www.dataprix.com

Amigos de grupo Develop Talent & Tenology. Visiten el área editorial y mencionen este código con el editor: developNetworkparty antes del día 17 de Julio de 2015 “developNetwork” es una publicación literaria que puede ser distribuida, previa autorización de sus representantes, de manera física y electrónica. El nombre “developNetwork”, diseño y contenido se encuentran en proceso de registro y son protegidos por la Ley Federal de Derechos de Autor, encontrándose vinculados a una marca en proceso de registro ante el Banco Nacional de Marcas perteneciente al Instituto Mexicano de la Propiedad Industrial. Todos las artículos aquí descritos están sujetos a sufrir cambios y/o variaciones, sin previo aviso. La información, datos estadísticos, reportajes y fotografías contenida en los publirreportajes es resultado de un trabajo de recolección de información en la que terceros, colaboradores o personalidades públicas otorgan sus opiniones y/o datos de un tema en específico, por lo que bajo ninguna circunstancia reflejan la opinión de “developNetwork”, de sus editores, representantes o accionistas, así mismo, “developNetwork” no asume responsabilidad respecto del contenido y veracidad de dicha información. Para conocer más sobre los derechos de autor de algunas de las imágenes, fotografías y trabajado literarios publicados a través de “developNetwork” consulta nuestra página web www.dnwmagazine.com. Te sugerimos consultar tambien nuestro aviso de privacidad en www.dnwmagazine.com

“developNetwork”, es una revista mensual, publicación impresa y electrónica. 5557-5012 / 5395-2791 Contacto Web: hola@dnwmagazine.com

www.dnwmagazine.com 2


CARTA EDITORIAL

E

Editor F. Javier Barriopedro

LA ETERNA MANCUERNA

stimado lector este mes hablaremos de la naturaleza de la que se ha definido como la “combinación efectiva para el progreso”: la ciencia y la tecnología. A veces, nos topamos con el concepto de que no existe tecnología sin ciencia, no obstante estoy convencido de que esto no es cierto porque sin duda alguna cuando la humanidad inventó la rueda o la palanca, no existía una racionalización estructurada del porqué y el cómo funcionaban. No fue sino hasta uno o dos milenios más tarde que los filósofos comenzaron a explicarse, por medio de la física, los fenómenos que ahora conocemos como las fuerzas, los vectores, la resistencia, el coeficiente de fricción y, mucho más tarde el concepto de la diferencia y relación entre masa-peso y las dinámicas de distintos materiales. Lo mismo pasó con la polea, el arado o la construcción de barcos… primero los empezamos a emplear y conforme fuimos experimentando logros y fracasos, comenzamos a desarrollar un conocimiento práctico que nos permitió, como especie, mejorar nuestras tecnologías para hacer más eficiente su funcionamiento o, en muchos casos, crear líneas divergentes que resultaron en calculadoras mecánicas, calculadoras de bulbos y, por fin, gracias a una idea de Alan Turing, una máquina que ayudara a poner en práctica todo el conocimiento de varias mentes científicas y lograse realizar miles de cómputos en menor tiempo para descifrar la clave empleada por el Tercer Reich en sus comunicados durante la Segunda Guerra Mundial… en un momento dado, nuestra necesidad de hacer más eficiente la aplicación de la ciencia, nos llevó a innovar la tecnología disponible en ese momento… y aún estamos viviendo los efectos de aquel fatídico día en el que la Colossus rompió para siempre el Código Enigma. Así pues, esta unión entre ciencia y tecnología parece estar ligada al desarrollo de la humanidad desde el inicio de nuestros tiempos como sociedades organizadas y, en estos días, están tan mezcladas en nuestra manera de vivir que resultan imposibles de diferenciar y… Pero dejemos que sean nuestros colaboradores quienes nos compartan sus opiniones al respecto de cómo esta dupla es la clave de nuestro éxito y continuación como especie.

3


ÍNDICE Carta editorial

3 La Eterna Mancuerna BREVES

Tres tipos de experiencias

30 Móviles II

y Ciencia 32 Software De la Hipótesis a la Realidad

El Daño al Consumidor No Informado

Sobresaturar no es Informar

34

Breves

6 Película, música y videojuego. TECH NEWS

8 10

Knights of Sidonia Los Mejores Gadgets para Julio

42 Destinada al Estudio del Cáncer

Smartwatch

44 En el Campo de la Medicina

12 Chips que Emulan Órganos Humanos 14 Necesidad o Capricho 16

Big Data en Bioinformática

Microfluidez

WebSemántica

UNIVERSITY

Tecnología Cinematográfica Textil Electrónico Ultra-Delgado

20 Vestirnos con Video

CENTRAL DE HERRAMIENTAS

Porqué YOLO 5 Tips para Sobrevivir a los Baby Boomers y X en tu empleo

50

Para Comenzar a Usar JNI

22 Primera parte

MASTER GURÚ

Visiones de un Futuro más sano. Cirugía Robotizada

24

Eduardo Guízar

54 La Fiera Identidad Nacional de un Pionero en Marte

CÓDIGO INNOVARE Tecnología y Educación Digital

56 para transformar la Divulgación de la Ciencia

CÓDIGO INNOVARE Rompiendo un Pseudoparadigma

28 La tecnología no sólo es ciencia aplicada 4

56

¡4K sin Sli!


38 Tecnología Aplicada

MASTER GURÚ

a la Investigación Científica

5


NARUTO: THE LAST MOVIE

Llega a la pantalla grande una vez más la siguiente secuela de la historia de Naruto Uzumaki, un joven ninja de la aldea de la hoja que encierra en su cuerpo al zorro de las 9 colas, un ser que casi los destruye hace más de 15 años. Hace poco tiempo en el cine estuvo una película que se presentaba como una continuación a la serie original, sin embargo, esta nueva saga nos habla de una historia que plantea un final en la que la luna se acerca de manera muy peligrosa a la tierra y eso provoca que los Shinobi se movilicen para saber qué pueden hacer y así evitar la colisión de nuestro astro. Naruto al final deberá de encontrar la solución para evitar que el desastre termine con la vida de sus amigos y los habitantes de nuestro planeta. www.youtube.com/watch?v=NXE-gQEslq8

MOONSPELL EXTINCT Una vez más la banda portuguesa de Gothic Metal nos trae este año un disco que seguramente disfrutarás. Extinct por mucho, se ha vuelto un disco que ha marcado perfectamente la madurez musical que ha caracterizado a Moonspell y nos trae una combinación de sonidos que a pesar de no ser un cambio percibido la primera vez que los escuchas, vas descubriendo en esta obra un balance perfecto entre las voces duras y limpias que forman parte de la estructura del grupo. La canción Breathe (Until We Are No More) con la que abre el disco nos va sumergiendo en una atmosfera de oscuridad y misterio donde los ritmos orientales grabados por una filarmónica turca y el metal que los caracteriza forman el cálculo perfecto de esta nueva obra.

KINGDOM HEARTS 3

www.youtube.com/watch?v=KXWMYmNcUqI

Llega por fin la tercera entrega de la serie Kingdom Hearts a las consolas de nueva generación, haciendo por primera vez hace su aparición en el XboxOne. Por fin después de varios años de espera, regresa Sora con algunos cambios que le darán una personalidad más adecuada para esta nueva aventura. Su traje es uno de los cambios que podemos apreciar desde un inicio, ya que la combinación de tonalidades negras y rojas recuerdan una fusión de las vestimentas de KHII y KHDDD. En la historia podrás ver a personajes como Goofy y Donald quienes ayudarán a Sora en la búsqueda de los siete guardianes de la luz y la llave para regresar corazones al mismo tiempo que Riku y Mickey buscarán a los portadores de la KeyBlade y así poder detener a Xehanort y restablecer el orden de la luz y la oscuridad. www.youtube.com/watch?v=XH9fCA3dmGc

6


7


KNIGHTS OF SIDONIA

L

Por: Salvador Ordóñez

a vida del ser humano se ha convertido en sólo un instante detenido en la oscuridad de un mundo que ya no es suyo. Nagate Tanikaze es un joven que desde niño ha vivido dentro de los ductos subterráneos de una ciudad que ya no es lo que conocemos; en un planeta que alguna vez fue hogar para muchos seres vivos, ahora se ha convertido en un pedazo de tierra y tecnología humana navegando en la inmensidad de la galaxia. Hace mil años la tierra fue destruida en su totalidad por una raza alienígena que los seres humanos llamaron Gaunas; como la única oportunidad de sobrevivir, nuestra especie creo naves con los restos de nuestro planeta capaces de albergar grandes comunidades de personas, las cuales intentaron continuar con sus vidas a pesar del desastre y crearon para eso, seres humanos basados en la biotecnología, con capacidades asexuales, seres humanos fotosintéticos y claro clones que pudieran darle a nuestra especia la oportunidad de sobrevivir en un lugar al que ya no puedes llamar hogar. A pesar de que ya han pasado muchos siglos desde que se perdió el planeta a manos de los Gaunas, no ha sido posible acabar a estos seres en su totalidad ya que dentro de sus estructura física, ellos son capaces de sobrevivir en el espacio sin tecnología, su habilidad de regeneración los hace casi indestructibles y su sed por el caos, imparables. Pese a todo esto los seres humanos con los años crearon tecnología capaz de destruir las corazas de protección de estos seres y con esto la guerra contra sus colonias se vio beneficiada en su favor, permitiendo sobrevivir en un ambiente totalmente desconocido y lleno de peligros. Para Nagate la vida dentro de la colonia significó un rincón de protección contra las reglas estrictas que aplican en Sidonia; sin embargo, su curiosidad y su ímpetu por conocer, lo llevarán hasta la superficie de la inmensa nave para encontrarse con una sociedad muy diferente a lo que su abuelo le enseñó en las profundidades de los subterráneos. En poco tiempo este joven se convertirá en piloto de combate, lo que da como inicio a una aventura para la cual había entrenado desde hace mucho tiempo en los viejos simuladores que su única familia y contacto con la sociedad había resguardado como un gran secreto. Knights of Sidonia es una serie producida por Polygon Pictures y es una adaptación del manga creado e ilustrado por Tsutomu Nihei, su lanzamiento en la televisión fue el 10 de abril del 2014 y contó con 12 capítulos en la primera temporada. Un año después llega la segunda temporada donde revelarán el arma que desde hace muchos años han estado desarrollando los humanos para la destrucción de sus enemigos. Sin duda, ésta será una serie que disfrutarás mucho por la complejidad sentimental de sus personajes, así como por la necesidad inquebrantable de la supervivencia humana. https://www.youtube.com/watch?v=LKhYBtyjE_c

8


9


JU GADGETS LIO PARA

LOS MEJORES Por: Salvador Ordóñez

Nixie

La primera cámara que puede volar gracias a su sistema basado totalmente en la tecnología de los drones. Esta gadget se ha convertido en una herramienta muy útil cuando necesites tomar fotos con detalles a larga distancia o grabar un video en movimiento desde una perspectiva superior.

1

www.flynixie.com

2

Kindle Paperwhite

Con esta increíble tablet de Kindle podrás llevar todos tus libros y poder utilizarla sin los molestos reflejos que en general este tipo de sistemas presentan, además gracias a la estructura de su pantalla podrás utilizarla en plena luz del sol sin perder detalle de las palabras de tu lectura. Su batería puede llegar a durar 8 semanas con un uso moderado. www.amzn.to/1iPYjBd

3

Amazon Echo

Este es uno de los primeros asistentes electrónicos que puedes adquirir en estos momentos y comenzar a utilizarlo en tu casa. Este sistema escucha a través de 7 micrófonos las solicitudes que le pidas y te mantiene conectado al sistema de cloud Alexa para proporcionar información del clima, tráfico, reproducir música y cualquier otra cosa que puedas necesitar de la red.

4

www.amzn.to/1C6XZYV

Inventist Orbitwheel Skates

Este gadget te permitirá salir a patinar de una manera muy original gracias a su sistema de una rueda integrada para cada pie, lo que te permitirá deslizarte como una patineta por pendientes pero de una manera más ligera y controlada gracias a sus correas, su peso ligero y capacidad para hacer maniobras múltiples. www.amzn.to/1KBCzoa

10


5

Cámara HD Cube Lifestyle

Polaroid trae esta temporada una cámara en forma de cubo con tecnología CMOS de 6.1 megapixeles que te permitirá captar video de alta resolución de 1080P a 30 FPS. Su diseño compacto te permitirá llevarla a todos lados y su ranura de expansión te permitirá pasar tus fotos de una manera fácil a la computadora. www.bit.ly/1IWbU19

6

Dual Music Player

Este es un sistema de audio ideal para escuchar tus viejos CD y al mismo tiempo traer actualizados todos tus MP3. Gracias a su sistema dual podrás con sólo un movimiento insertar tus discos y escucharlos con toda la calidad musical de ésta época. Su diseño portátil lo hace fácil de poder transportar. Tiene capacidad también para conectar audífonos por medio de Bluetooth. www.coroflot.com/yongma11/DMP

7

Repetidor de Señal de Audio Boostus1

Este sistema para reproducir el audio de manera inalámbrica es muy útil cuando nuestra red Wi-Fi se ha saturado por la transmisión de datos como imagen, descarga de datos o la transmisión de un videojuego. Creado en policarbonato de alta calidad permite la transmisión de datos sin interrupciones. Su antena proporciona señal en 360 grados. www.bit.ly/1HFyQXW

Desktop Envy Beats All-in-One

Esta computadora ha sido diseñada para todas las personas que les gusta crear música. Cuenta con una pantalla Full HD de 23” con tecnología IPS, cuatro bocinas beatsaudio y subwoofer. Dentro de su paquetería se encuentran una serie de herramientas especiales para crear música o conectar instrumentos musicales. Tiene 8Gb en RAM, 1TB y procesador Intel Core i5.

8

www.bit.ly/1NGmdtW

9

Teatro en Casa Wi-Fi HT-J7750W/ZX

El sistema de audio de Samsung, esta pensado para ofrecer una calidad de audio natural, gracias al amplificador de válvulas de vacío que crea sonidos intensos y realistas. Su sistema Multiroom Link te permitirá concetar cualquier dispositivo móvil y poder reproducir tu música. Su capacidad de reproducción de imágenes en formato Ultra UHD lo hace una pieza muy especial. www.bit.ly/1JTmTLN

10

IndieVice

Este periférico creado para los smartphones aprovecha la tecnología de los dispositivos móviles para transformarlos en toda una cámara réflex con capacidad de video. Sus diferentes lentes y accesorios te permitirán tomar fotos de forma profesional. www.kck.st/1dyN2DO

11


MICROFLUIDEZ

CHIPS QUE EMULAN

ÓRGANOS HUMANOS

A

Por: F. Javier Barriopedro

principios de este año, algo muy extraño se presentó a Paola Antonelli, curadora en jefe de las secciones de Diseño y Arquitectura del Museo de Arte Moderno que se localiza en Nueva York, que de inmediato añadió a la colección permanente de la institución. Se trataba de un chip transparente, apenas del tamaño de medio pulgar, hecho de plástico transparente y que está pensado para que sirva en la investigación científica orientada a innovar la manera en la que los investigadores desarrollan y prueban nuevos fármacos para uso en humanos. El nombre no es muy ingenioso, pero define con claridad lo que es el artefacto: Organs-On-Chips. Se trata de un microchip que en su interior tiene unos conductos para microfluidos, que están forrados con células humanas y mediante los cuales se pueden bombear aire, nutrientes, sangre y bacterias infecciosas, en cantidades que hacen posible la medición y rastreo del comportamiento de las partículas dentro del chip. Los chips se fabricarían de la misma manera en que se fabrican los de telefonía celular o los que llevan la marca de Intel, incluso, funcionan igual pero no conducen electrones a través de circuitos en silicón; lo que transportan son cantidades minúsculas de compuestos químicos hasta las áreas del chip donde se pueden encontrar células de pulmones, páncreas, corazón, hígado, riñones o, en un futuro cercano, del cerebro mismo. Estas redes de tuberías increíblemente diminutas son las que dan nombre a esta nueva tecnología: de microfluidos o microfluidez, y lo que representan para nosotros es una nueva frontera para la investigación farmacológica porque con ellos se puede emular la estructura y funcionamiento de órganos completos, lo que los convierte en una plataforma idónea para analizar los efectos de sustancias farmacológicas en nuestros diferentes sistemas y contribuye a la reducción de nuestro uso de animales como sujetos de prueba, además de reducir significativamente el tiempo y los costos relacionados con el desarrollo de nuevos medicamentos. El año pasado, en las instalaciones del Wyss Institute for Biologically Inspired Engineering en la universidad de Harvard, unos investigadores fundaron la empresa Emulate, que ya está dando servicio a corporaciones como Johnson & Johnson en la realización de pruebas previas a la aplicación clínica.

12


Si podemos diseñar un sistema que nos resulte completamente simple al reducirlo a sus elementos fundamentales, estamos trabajando con el máximo de sencillez posible y obteniendo el máximo impacto

Por supuesto, mucho del trabajo que realizan en este momento es que sus chips se incorporen a los programas de investigación y desarrollo que llevan acabo múltiples divisiones de J&J. No obstante, el concepto ya está ahí, esperando a que cada vez sean más los investigadores que lo adopten para llevar a cabo sus proyectos. Hay que hacer notar que este descubrimiento no es reciente, dado que el equipo de Harvard publicó sus notas acerca de los chips en 2010; pero en ese entonces, la investigación sólo tenía un propósito científico a nivel teórico. Ahora, luego de cinco años ya se puede fabricar y fue reconocido como diseño del año, además de ser incluido en la colección dedicada al diseño más prestigiosa del mundo. Este hecho nos deja ver que el sistema es mucho más que una estética. Aquí podemos ver cómo se conjuntan los elementos de funcionalidad que debe tener una pieza de equipo médico desarrollada por ingenieros biomédicos para sus proyectos de investigación, con los principios de practicidad y belleza que tanto valoran los diseñadores industriales. Si lo vemos desde el punto de vista de la biología sintética, estamos frente al parteaguas, a la redefinición de las fronteras de la investigación médica y de la nanotecnología porque de la misma manera en que lo hace un sistema biológico, la forma del chip está dictada por su función, pero a diferencia de los elementos puramente orgánicos, si se altera la función se puede modular la estructura del mismo y del sistema que formará. Es otras palabras, esto significa que el diámetro de los conductos se adaptará para reducir la presión, emulando a los pacientes que sufren de hipertensión. La complicación de esta nueva tecnología es que trabajar con microescalas requiere de absoluta precisión. Tomando en cuenta que el chip es un sustituto y, por ende, reemplaza las estructuras tridimensionales de un órgano, para poder reproducir el proceso de los túbulos renales o los alveolos de un pulmón o las

venas en el hígado, es necesario forrar los conductos de microflujo con las células correspondientes, lo cual representa una tarea compleja. Después de tener preparado el “paisaje celular”, se procede a simular la mecánica de las estructuras que se pretende estudiar mediante la inyección de los fluidos pertinentes: normalmente se trata de aire y/o sangre. Con los procesos emulados, la estructura traslúcida del chip, que está hecha a base de un polímero especial que recubre los microtubos, le permite a los investigadores ver qué es lo que está sucediendo en los órganos a nivel microscópico. Un punto aún más interesante es que, por su naturaleza, los chips funcionan como bloques de construcción que podemos ensamblar para formar una red de órganos igual a la totalidad de un cuerpo humano. Como todo desarrollador y diseñador sabe, existe un principio básico que no debe faltar en ningún proyecto de desarrollo/diseño: el de la eficiencia. Si podemos diseñar un sistema que nos resulte completamente simple al reducirlo a sus elementos fundamentales, estamos trabajando con el máximo de sencillez posible y obteniendo el máximo impacto. Esto resulta vital para la nueva generación de investigadores científicos quienes ya comprendieron que hacer ciencia de la mejor manera posible, implica entender lo que es un buen diseño. Esta última frase me lleva a lo que mencionaba acerca del futuro de esta tecnología: si comenzamos a replicar sectores del cerebro para comprender mejor la manera en que los fármacos actúan sobre ellos, o ante un caso de daño irreparable —ya sea congénito, degenerativo o causado por traumatismo—, seremos capaces de programar estos chips para que repliquen las funciones de un cerebro sano… nos sería posible acabar con enfermedades como el Alzheimer, la esquizofrenia o la depresión, sólo para empezar. Una vez más, nos encontramos ante un avance tecnológico que llevará a la ciencia a dar saltos exponenciales en un futuro no muy lejano.

13


SMARTWATCH NECESIDAD O CAPRICHO

R

Por: Salvador Ordóñez

ecientemente la compañía de la manzana introdujo al mercado mexicano su nueva creación tecnológica denominada Watch, que por principio viene a contender con todos los dispositivos móviles llamados smartwatch que actualmente se encuentran en las tiendas. Como toda innovación, siempre buscan por ser la más eficiente en consumo de energía, tener las apps más importantes, mayor cantidad de memoria interna o de RAM o hasta el tipo de procesador que utilizan. La competencia también se da a nivel de marcas, materiales de construcción, durabilidad o simplemente de estatus. Todo esto comienza desde que las empresas anuncian sus productos y estos son puestos a disposición de la mercadotecnia para inflar sus cualidades con el único fin de que se venda, pensando como siempre que es la necesidad del producto lo que la gente tecnófila estaba esperando durante toda su vida. La realidad es que pocas veces llega a suceder que un aparato especializado sea útil para las personas, el ejemplo más importante ha sido el del celular que

14

actualmente se le conoce más como smartphone; sin embargo, a pesar de que su evolución ha sido corta con tan sólo 40 años, este sistema de comunicación fue el pináculo de una tecnología aún más antigua y que sigue vigente como son los teléfonos fijos. La necesidad de la comunicación por lo tanto se convierte en una prioridad para nuestra sociedad, pero el consumo irracional de tecnología nos puede provocar un mal sabor de boca después de haber gastado enormes cantidades de dinero, pues al final, nos damos cuenta de que ese aparato que tanto queríamos, lentamente se convertió en un capricho. Hoy el turno en el escenario le pertenece a los smartwatch, las marcas están en estos momentos compitiendo por ser el producto de “innovación” que arrase a la competencia y rápidamente como la espuma del mar, llenar los estantes de las tiendas, las paradas de autobús y carteles promocionales como si vendieran la última botella de agua en el planeta. ¿Pero, hasta qué punto la gente hoy en día necesita un producto como éste? Si tú ya tienes un smartphone te darás cuenta de que la cantidad de apps disponibles para su uso se va incrementando a


una velocidad que te es imposible ocuparlas todas, y de las que tienes instaladas muy probablemente sólo ocupes menos de la mitad en todo el día. Con un breve análisis que puedes hacer de tus necesidades de consumo de aplicaciones móviles, podrás darte cuenta de que tan necesario es complementar el uso de tu celular con un sistema que no opera a toda su capacidad si no se encuentra conectado a un sistema principal de apoyo; lo que te quiero decir, es que esta nueva tecnología no funciona en su totalidad si no esta conectada a tu smartphone, el cual a través de bluetooth le comparte la señal de internet, siempre y cuando tengas contratado un plan de datos fijos para poder estar fuera de una red Wi-Fi y seguir conectado todo el tiempo. Por capacidades tecnológicas los smartwatch se han convertido en una maravilla de las comunicaciones basadas en las películas de los 70 donde la gente podía comunicarse desde su reloj como si éste fuera un teléfono, pero si reflexionas durante un rato antes de comprarlo podrás darte cuenta de que tan útil realmente podría ser para ti. Algunas de las opciones que se encuentran en

el mercado te permiten hacer llamadas, mandar mensajes, entrar a internet o hasta medir tu frecuencia cardiaca, pero intenta poner a la altura de tu boca estos sistemas y simula hacer una conversación de 10 minutos, a la mitad de la plática, por la posición de tu brazo comenzarás a sentir cansancio, esto se debe a que tienes que levantar el codo a la altura de los hombros y eso provoca el agotamiento rápido de los músculos y si tu interlocutor se va para largo con la charla muy probablemente tengas que recurrir a sacar tu smartwatch y continuar la conversación o definitivamente conectar el manos libres, por lo que la novedad habrá durado lo que tu cuerpo resista. A pesar de todos los comentarios positivos o negativos que puedas encontrar en el uso de los smartwatch, la opinión del consumidor es la que más vale la pena, ya que el uso que se le pueda dar a la nueva tecnología dependerá de las necesidades que cada persona tiene y de las capacidades del equipo para llenarlas. Si tienes las ganas de adquirir uno de estos sistemas de comunicación tener la información adecuada sobre sus características y funciones podrá ayudarte a realizar una compra segura.

Imagen Watch: www.siliconweek.es/dossiers/revolucion-smartwatch-de-la-moda-la-necesidad

15


Por: F. Javier Barriopedro

La evolución de la manera como contamos historias A partir de la carta de John Lasseter

E

n el terreno de la cinematografía, para John Lasseter éste es el momento más emocionante para dedicarse al cine porque con la tecnología disponible, es impresionante lo que se puede lograr en cuanto a la manera de relatar una historia en la pantalla. Si bien es cierto que el cine comercial se hace a partir de fórmulas, existen claros ejemplos de cómo se reinventa por medio de la tecnología. En el pasado, a los hermanos Lumière se les ocurrió la novedad de presentar algo más que simples fotogramas proyectados y, de esa manera, idearon la tecnología que ahora conocemos como el cinematógrafo. Luego, de ser películas más bien documentales (en el sentido de que mostraban a personas realizando actividades específicas y no contaban una historia “compleja”), fue hasta que Louis Lumière produjo el corto de L’Arrosseur Arrosé (el regador regado), que se considera la primera película de ficción; es decir, la primera que utilizó un guión y actores para contar un suceso predeterminado y, a partir de éste, desarrollar una trama. Sí, la primera película de ficción fue una comedia de situaciones. Pero, al darse cuenta de que se podía contar una historia, los primeros cineastas comenzaron a inventar más formas de hacerlo porque sus historias requerían de efectos visuales o trucos de cámara y comenzaron a innovar con técnicas primero y luego, a desarrollar nuevos avances tecnológicos que les permitieran llevar a cabo sus ideas. Por esta razón es que John Lasseter afirma que la tecnología evoluciona de manera directa y casi a la par de la manera en cómo lo hace la narrativa cinematográfica. Cuando se habla de las limitaciones del cine a lo largo de su historia, por lo general nos estamos refiriendo a los máximos avances tecnológicos que estaban disponibles en ese momento. La narrativa muchas veces se vio acotada por las capacidades tecnológicas del mundo. Así pues y para poner un ejemplo, conforme el tamaño de las cámaras se fue reduciendo y llegamos a las cámaras ultraligeras con sistemas de estabilización (las steady cams) y las cámaras POV (Point of View) como las GoPro, o de la filmación (es decir del registro en “film”, la cinta de celuloide) a la grabación (dado que ahora hacemos levantamiento de imagen y la almacenamos en discos duros), ahora podemos hacer películas que hace sólo diez años se pensaban imposibles de filmar por el grado de complejidad de las tomas y escenas requeridas (Gravity o Interstellar, por mencionar dos). Bueno, incluso hubo una época en la que el consenso era que a no ser como animación, no sería posible filmar algo como “El Señor de los Anillos”… y Peter Jackson y su equipo de WETA llegaron a innovar, una vez más, la tecnología cinematográfica… como antes lo hicieron George Lucas y James Cameron.

16


17


Por eso, ahora conforme nuestra tecnología móvil avanza a una velocidad vertiginosa, las nuevas maneras de narrar comienzan a hacer más uso de las capacidades de nuestros dispositivos móviles. Ya sabemos del caso de la cámara EOS 5D Mark II, de Canon, que se ha utilizado para durante la grabación de películas como ParaNorman (que utilizó 60) y Escape from Tomorrow de Randy Moore que, dadas las condiciones de cinematografía guerrilla (grabación en locaciones sin los permisos correspondientes), fue la primera película grabada enteramente con cámaras de este tipo. 
En el campo donde se desarrolla John Lasseter, el de la animación cinematográfica, es donde quizá podemos ver muestras más claras del avance tecnológico que hemos logrado en los últimos 20 años y que es absolutamente sorprendente si tomamos como punto de partida al primer largometraje animado de la historia: “Blanca Nieves y los siete enanos” de Walt Disney. Antes las constantes críticas que recibió por el empeño que puso para hacer realidad su proyecto, Walt hizo un comentario que hoy en día es famoso y que se escucha mucho en las juntas de planeación y en las presentaciones de proyectos nuevos en todo el mundo: “es interesante que la gente no pueda ver más allá de lo que están acostumbrados a hacerlo”. Como desarrolladores, estamos acostumbrados a responder las necesidades inmediatas (“hay que hacer esta app, hay que reconfigurar este software, hay que migrar a este sistema”), pero si hay algo que caracteriza a la industria en que nos desempeñamos, es que no se toman en cuenta las oportunidades mediatas: no existen planes para acomodar situaciones a mediano plazo porque “es imposible saberlo”… ¿y entonces dónde quedó el análisis de tendencias y la constante

18

prueba de las capacidades de la tecnología actual? Cuando a Henry Ford le preguntaban qué era lo que pensó para llegar a la construcción de su modelo T, él contaba lo que le habían respondido muchas personas cuando les preguntaba qué era lo que deseaban en lo tocante al tema de la transportación: “la respuesta que me daban, casi invariablemente, era ‘un caballo más rápido’ y lo hacían a los pocos segundos”. A Steve Jobs, de acuerdo con lo que cuenta Lasseter, su socio en Pixar durante 25 años, no le gustaban los estudios de mercado. Jamás hizo estudios de mercado para alguno de sus productos. Solía decir: “no es trabajo del público decirnos qué es lo que quiere a futuro, a nosotros nos toca decirle lo que quiere en su futuro. El uso adecuado de la tecnología hace posible que se cambien las opiniones de la noche a la mañana”. La cuestión que debemos considerar siempre es que la primera impresión es muy importante, ya que borrar una primera impresión que es mala o equivocada, es casi imposible. Las primeras animaciones hechas por computadora eran interesantes, pero en el fondo resultaban frías, desprovistas de una conexión emocional porque empleaban formas geométricas para expresar conceptos abstractos… o generaban imágenes para “asombrar al espectador”… que se tornaban aburridas después del tercer “paisaje fantástico” o “viaje estelar/ submarino”. Estaban limitadas por lo que podían hacer las computadoras en ese momento. Pero John Lasseter vio el potencial que existía. Eso lo llevó a darse cuenta que la gente juzgaba lo que veía en pantalla, pero no lo que se podía lograr y, por eso, muchas personas se sorprendieron cuando se comenzó a utilizar CGI en los efectos especiales de algunas películas y aquí sobrevino un descalabro importante.


En 1981 Walt Disney Productions decidió hacer una adaptación cinematográfica basada en la novela de fantasía “Something Wicked This Way Comes” (La feria de las tinieblas), escrita por Ray Bradbury. Uno de los sucesos principales del relato en pantalla, es cuando la feria llega al pueblo y la tienda principal del circo, se levanta por sí misma durante la noche. Obviamente, la empresa tenía a un especialista en efectos especiales que, gracias a su carisma y entusiasmo, los convenció para que se utilizara la animación por computadora y así llevar a la pantalla dicha escena. ¿El problema? Sencillo: en ese entonces mucha gente no entendía el medio/herramienta ni los procesos necesarios para llevar a cabo dicho proyecto y pensaba que la computadora podía hacerlo todo (¡Esto no ha cambiado mucho!). Pues bien, se convenció a la gente de Disney y se trabajó en esto por mucho, mucho, mucho tiempo.

MUCHO.

En aquellos días, a nadie se le ocurrió que lo que se pretendía hacer estaba más allá de las posibilidades de las computadoras de aquel tiempo. El resultado final fue que terminaron desechando la secuencia entera; todo el pietaje que requirió tanto esfuerzo, acabó en el piso del cuarto de edición. El fracaso fue tan sonado entre los especialistas y productores de Hollywood (sin duda reforzado por el hecho de que la película fracasó en taquilla), que representó un retraso significativo de varios años en la adopción de la tecnología CGI por parte de la industria de los efectos especiales cinematográficos. Aquí el problema no era que no se veía más allá de la forma acostumbrada de hacer las cosas,

el problema fue que las personas no entendían lo que era posible lograr con la tecnología. Después, en 1984, John Lasseter trabajaba en la división de computadoras de Lucas Film y se embarcó en un proyecto con Dennis Muren, el director de Industrial Light & Magic, quien le dijo que había una solicitud para filmar un efecto y ninguno del equipo sabía cómo hacerlo posible, Muren le dijo Lasseter que la única idea que tenía era usar gráficos por computadora para hacer seis tomas. John le dijo que lo intentaría. Aquella fue una de las cosas más complicadas en las que trabajó, pero cuando la película se estrenó, ninguno de los especialistas en efectos especiales en el mundo tenía idea de cómo se había hecho aquello y “Young Sherlock Holmes”, fue nominada para un Oscar en la categoría de Mejores Efectos Visuales de ese año. Aunque tampoco resultó un gran éxito de taquilla, la diferencia aquí radicó en que John y su equipo se concentraron en entender la tecnología a su disposición y entonces llevarla a hacer las cosas que las personas no podían lograr. Su meta era hacer que la tecnología pasara desapercibida. Éste, es un mantra del diseño industrial: hacer que la tecnología no obstruya el disfrute del usuario. Lasseter y su equipo estaban interesados conocer sus limitaciones y al hacerlo, crearon formalmente una nueva manera de narrar las historias cinematográficas… y en nuestros días, hay que ver cuántas maneras hay de contar un cuento de hadas, una película de guerra o una historia de terror con la tecnología que tenemos disponible y que seguimos desarrollando todos los días.

19


VES TEXTIL TIR ELECTRÓNICO NOS CON ULTRA-DELGADO VIDEO

H

Por: Bárbara Cristina Álvarez

ace menos de un mes, la revista Nature Communications publicó un estudio en el cual se presenta el proceso mediante el cual unos investigadores desarrollaron una pantalla flexible a manera de película ultradelgada que puede cambiar su color cuando se le aplica cierto voltaje. Ya tenemos tabletas que son tan delgadas como el papel, pero esta pantalla es mucho más delgada que un cabello humano, puede mostrar el espectro total de los colores y sólo le toma milisegundos hacer el cambio. Hasta hace poco, las pantallas flexibles sólo era capaces de reproducir una paleta de colores limitada y se tardaban hasta 10 segundos para realizar el cambio. ¿Cómo se logra esto? Se requiere una nanoestructura metálica que se asemeja a un waffle, a la que se le llena con cristal líquido y luego se coloca entre capas de plástico. Así es como los investigadores crearon una pantalla ultradelgada y más eficiente, la cual a diferencia de la pantalla de un celular, no necesita producir su propia fuente de luz. Dependiendo de la cantidad de voltaje que se aplica al cristal líquido que está en los pozos del “nanowaffle” metálico, la sustancia cambia su orientación molecular y esto altera las longitudes de onda de la luz ambiental que son reflejadas o absorbidas por la nanoestructura. El equipo que realizó la investigación en la Universidad de Florida Central, fue capaz de crear una imagen de la fotografía “Afghan Girl” de un milímetro y le aplicó distintos voltajes para alterar sus colores.

20

Como podrá resultar obvio, al agrandar la imagen, ésta se ve pixeleada, pero el líder de la investigación Debashis Chanda, asegura que en pantallas más grandes la calidad de la imagen sería igual que las de una televisión. “Cuando observamos lo que sucede en la naturaleza, los pulpos y los camaleones generan sus colores a partir de su piel y la luz ambiente. Esta tecnología se puede utilizar en cualquier superficie donde el usuario desee cambiar el color o el patrón del diseño”. Además, el líder del proyecto cree que la producción de la tecnología sería de bajo costo si se hace en un área extensa y en cualquier sustancia flexible. Esto quiere decir que no sólo se puede usarla para hacer lectores de libros electrónicos para que se puedan leer como si se tratara de una revista, sino que también se puede aplicar en el desarrollo de trajes de camuflaje inteligente, artículos de moda que cambiarían su color y en pantallas gigantes del tamaño de una pared. Esto implica que existe la posibilidad de trabajar con una pantalla amplia, liviana y portátil que responda a los comandos de un dispositivo móvil para proyectar una imagen que cambia de colores... falta ver si esta tecnología puede reemplazar las pantallas convencionales y proyectar imágenes de fuentes más complejas como un visualizador de video o una consola de videojuegos. Por el momento y a niveles sencillos y con un fin meramente estético, la tecnología funciona. Habrá que ver cómo se le desarrolla en el futuro.


Imagen de: www.bit.ly/1CDGNuj

21


JNI

PARA COMENZAR A USAR

L

Por: Yessica Sánchez Cure

os programas de Java son compilados como códigos de bytes, igual que sucede con algo que dejamos a medio masticar. Así, este “bolo de código” luego es rumiado un poco más por el ambiente run-time de Java y entonces recibimos el resultado real de dicho código. Debido a que los programas de Java corren bajo la esfera de JVM, las aplicaciones que se escriben en Java son tomadas como los aliados dentro del mundo de la programación. Cualquier actividad maliciosa que intente manipular el sistema, queda atrapada en la periferia de JVM, y la JNI es la interfaz de programación que se encarga de hacer que el código de bytes en Java, sea capaz de interactuar con cualquier código nativo. Hay que hacer notar que JVM no diferencia entre un método nativo y el método como Java llama (o ejecuta) las acciones, por lo tanto esto no lo hace congruente con dicho método. Las principales diferencias entre un método Java y los métodos nativos, son: 1.- Los métodos nativos se escriben en otro lenguaje que no sea Java y la implementación de tales métodos no utiliza instrucciones JVM. 2.- Los métodos nativos son compilados en una librería compartida y JVM carga esta librería y habilita el método para el código Java, de manera que le sea posible manejarlo de una forma similar a un método Java puro. 3.- Una vez que los métodos nativos se compilan en un código máquina específico para una plataforma dada, es usual que empleen un stack nombrado C Stack que es provisto por JVM para rastrear su estado. El nombre C Stack es un legacy name que se mantiene durante todo el proceso y solía ser la manera típica de implementar métodos nativos en C y compilarlos en códigos nativos. Pero, ¿cuáles son las ventajas y desventajas de utilizar JNI? Si tomamos en cuenta que un programador Java puede aprovechar las características del lenguaje nativo, las cuales Java a veces no puede emular por completo, resulta claro que JNI funciona bien porque: 1.- En ocasiones cierto módulo de Java podría tener un mejor desempeño si se le implementara en C o C++, por ejemplo. Si se presenta esta situación Java puede aprovechar la JNI para operar armónicamente con lenguajes nativos.

22

PRIMERA PARTE


2.- En otros casos, se hace una implementación estándar en un lenguaje que no es Java y un programa Java requiere aprovechar ese código heredado (legacy code) para emplearlo con los módulos Java de una aplicación específica. 3.- De cierta manera, podemos decir que la JNI le da una ventaja adicional a nuestra aplicación; sin embargo, es debatible si esto obedece a la aceleración en el desempeño porque con Java, para efectos de optimización de las capacidades, en realidad no necesitamos soporte para el lenguaje nativo: con afinar el código, conseguiríamos potenciar el desempeño. No obstante, existen situaciones específicas donde incluir JNI definitivamente es una adición que de verdad aporta, como por ejemplo: 1.- Buscar y filtrar es una tarea que ya sabemos que puede requerir de muchos recursos. Si se le implementa en código de bajo nivel para cantidades gigantescas de datos, Java no sería una opción viable debido a la cuestión del desempeño. La programación de gráficos es una labor que requiere demasiados recursos del procesador y es reconocida por reducir muchísimo el desempeño de las computadoras. Correr Java en un ambiente virtual adicional, seguro resultará lento en extremo si se le compara con la capacidad de cómputo del sistema nativo puro. 2.- Supongamos que no podemos recurrir a la capacidad que Java tiene de recolectar datos basura para liberar la memoria que no se está usando, y el trabajo de limpieza lo queremos hacer nosotros mismos… en otras palabras, queremos limitar el número de objetos que se están creando y liberarlos tan pronto como ya no sean necesarios sin tener que esperar a que el recolector ejecute nuestra instrucción. Estos tipos de situaciones no son comunes, pero si no fuera así, podríamos hacer uso de JNI, dado que provee una interfaz nativa estándar para que otros

lenguajes colaboren con Java. Suena fantástico porque es una integradora de características que sólo enriquece nuestros desarrollos, pero también hay que recordar que, cuando se trata de programación, la flexibilidad tiene precio. La desventaja principal de JNI es que cuando un programa emplea lenguajes nativos, este simple hecho compromete su portabilidad… ¡qué es una de las características importantes de Java! Es probable que ahí se venga a tierra aquello de “compila una vez, corre donde sea”. ¿Por qué? El código Java se compila en un formato llamado byte-code, el cual es independiente de la plataforma. Este byte-code sigue las instrucciones de JVM y corre en la periferia del ambiente runtime de Java. El código Java, una vez que se compila, puede correr en cualquier plataforma sin cambios perceptibles o la necesidad de recompilarlo. Por el contrario, el código nativo se compila en un formato que depende únicamente de la plataforma. La única manera en la que podemos evitarlo, es compilar el código fuente nativo de acuerdo con las distintas plataformas y luego hacer el paquete con Java, para que cuando la aplicación corra, pueda utilizar la librería específica de acuerdo con la plataforma que la está ejecutando. Otra desventaja visible, es que la complejidad aumenta en el momento en que comenzamos a utilizar JNI, dado que una vez que incluimos código nativo, el ambiente de desarrollo y el procedimiento de despliegue se complican. Depende del programador determinar qué tanto lo harán, pero es necesario decir que por esta razón sólo se recomienda utilizar JNI cuando sea estrictamente necesario. Más adelante, publicaremos un tutorial corto para explicar estos conceptos de manera práctica.

23


VISIONES DE UN FUTURO MÁS SANO CIRUGÍA ROBOTIZADA

E

Por: María Paulina Alvarado

n algún momento, como sucede con toda la tecnología avanzada que hemos venido desarrollando desde la década de 1950, cualquier avance específico en algún momento se considero como algo sacado o sólo perteneciente a los dominios de la ciencia ficción. Desde que el dramaturgo checo Karel Čapek inventara la palabra “robotnik” en 1921 luego de descartar “labori” (del latín labor, que significa trabajo), con ayuda de su hermano Josef. Él le sugirió que empleara algo que estuviese ligado al término checo “robota” que significa “trabajo (arduo)” tanto en checo como en varias lenguas eslavas y tenía que ver con la práctica antigua de la servidumbre que un siervo otorgaba durante seis meses a su señor. Al caer en desuso esta práctica, el término adquirió una nueva significación para el pueblo, pero Čapek lo empleó para hablar de máquinas servidoras en su obra R.U.R. (Rossum’s Universal Robots) y, de ahí, el término se popularizó. Ahora, dados los enormes avances de tecnología aplicada y específica que hemos logrado, sabemos que una “máquina servidora” no hace el trabajo por sí misma, sino que requiere de programación y un menor o mayor grado de interacción humana para realizar su labor asignada. Nuestro primeros brazos robóticos servían para soldar o cortar metales en las fábricas automotrices, luego los llevamos al espacio para que ayudaran en la reparación de satélites o sirvieran de plataforma y asistentes de los astronautas que hacían caminatas espaciales. Luego, gracias a nuestro avances en la miniaturización de dispositivos

24

y componentes, así como al refinamiento de la precisión con la que pueden operar los dispositivos robóticos, llegamos a emplear los principios de los brazos robóticos para aplicarlos en la medicina y con ellos estamos desarrollando formas avanzadas de cirugía, las que antes no éramos capaces de realizar sin demasiada dificultad técnica y los peligros que van asociados con ella. Sobra decir que la utilización de robots cirujanos no está pensada para sustituir a los médicos, sino para asistirlos durante los procesos de exploración y quirúrgicos. La cirugía robotizada (porque robótica significa “de los robots” y no es lo mismo), comenzó como una extensión lógica de las revisiones por medio del procedimiento médico que conocemos como laparoscopia. Al principio, el médico hacía una pequeña incisión y después introducía una lente para observar una cavidad en nuestro cuerpo (generalmente en las áreas del tórax y la pelvis). Al hacer avances significativos en el área de la miniaturización, comenzamos a reducir nuestras cámaras y alguien pensó: “pues, ¿por qué no utilizamos una cámara reducida para realizar mejores exploraciones laparoscópicas?” y de ahí, a otro médico especialista de le ocurrió que se podía añadir un láser para ir cauterizando las incisiones que un doctor iba dejando durante su proceso y así reducir el peligro de hemorragias internas. Luego, a otro grupo se le ocurrió que también era posible añadir otros instrumentos quirúrgicos para comenzar con las prácticas menos invasivas durante una operación.


25


En un margen de tiempo menor a dos décadas, ya contamos con brazos robóticos que tienen una precisión absoluta, cuentan con todos los componentes necesarios para realizar todo tipo de operaciones gracias a la miniaturización y que dejan incisiones mínimas y de fácil cicatrización –lo cual, como es obvio, reduce el sangrado, el dolor y los tiempos de convalecencia del paciente. Para seguir con la historia, el primer robot cirujano en el mundo fue el llamado “Arthrobot”, que fue construido y utilizado por primera vez en Vancouver, Canadá en el año de 1983. Este robot fue desarrollado y utilizado por el equipo que formaron el Dr. James McEwen y el ingeniero Geof Auchinlek, en colaboración estrecha con el Dr. Brian Day, quien era cirujano ortopédico y estuvo a cargo de la primera operación. No obstante, la mayoría de los robots cirujanos, tienen como base el PUMA (Programmable Universal Manipulator Arm, Brazo Manipulador Universal Programable), que fue creado en 1975 por Victor Scheinman, un estudiante de ingeniería mecánica que cursaba su carrera en la universidad estadounidense de Stanford. Sólo diez años después, en 1985, el PUMA 560 era capaz de realizar una inserción de aguja durante un proceso de biopsia cerebral, pues ya era capaz de orientar un objeto en cualquier dirección. Tres más tarde, en 1988, el PROBOT fue utilizado por el

26

Imperial College London, para realizar una cirugía de próstata de principio a fin. Ahora, es importante hacer notar que no todos los robots médicos son de uso quirúrgico, desde 1992, el ROBODOC diseñado por Integral Surgical Systems, y sus variantes, se utilizan para el moldeo de piezas y prótesis metálicas que reemplazan huesos humanos en operaciones ortopédicas. Tomando en cuenta nuestros avances con la nanotecnología, una vez más comenzamos a ver en las películas y en los relatos de ficción, que la tecnología puede ayudar a dar el siguiente gran salto en cuestión de cómo realizaremos procesos quirúrgicos cada vez más complejos y algunos que antes no nos eran posibles (como la creación de puentes sinápticos en el cerebro para los pacientes que sufren de alguna malformación producto de defectos congénitos, traumas craneoencefálicos tempranos o procesos degenerativos). No obstante, hasta la fecha aún existen desventajas notorias que han impedido que los robots quirúrgicos sean utilizados de una manera más amplia y con beneficios para todos los sectores de la población mundial. La primera de ellas es que, debido al catálogo reducido de funciones que todavía tenemos, no todos los casos pueden tratarse con asistencia robótica, al grado de que algunos procesos podrían complicarse innecesariamente.


Imagen de: www.snipview.com/q/Robotic_surgery

La otra desventaja es el costo; los problemas presupuestarios hacen que no se pueda utilizar asistencia robótica de manera más frecuente o que sea posible desarrollar más funciones e instrumental para ampliar el catálogo de procedimientos disponibles para los robots. Como podemos ver estas dos desventajas van de la mano: pocos procesos disponibles, poco presupuesto para desarrollo, y resultan en utilización limitada. Pero, ¿y si aplicásemos los principios del código abierto para la robótica? ¿Si en lugar de buscar la siguiente gran patente, desarrollamos la base mejorada para el robot cirujano y permitimos que todos puedan colaborar en el desarrollo de tecnologías adicionales, programas de reconocimiento espacial, protocolos quirúrgicos, instrumental multipropósito, etc.? ¿Si seguimos la tendencia a la micronización y la aplicamos a los drones, para que estos también reduzcan más su tamaño y además vayan cargados con instrumental médico? ¿Se dan cuenta de que si se encausan los proyectos de investigación, los drones militares o de servicio público no son la industria del futuro, sino que sólo serán los antecesores de los robodrones quirúgicos? No cabe duda que todo aquello que comenzara en el campo de la ficción especulativa, resultaron ser ideas que en algún momento parecieron desde

ridículas hasta imposibles, pero la mayoría siempre han tenido un fundamento científico que hace posible el avance, o bien la creación, de nuevas tecnologías que hagan posibles aquellos conceptos aparentemente salidos de la imaginación febril de algún autor. Después de todo, en 1865 Julio Verne escribió acerca de un viaje a la luna, relato que muchos tildaron de “fantasía absurda” y lo llamaron un “disparate científico”. Ahora 150 años después, nuestro país se prepara para realizar la primera misión lunar de la historia de los países latinoamericanos y hace menos de nueve meses la ISRO, que es agencia espacial de la India, demostró que no hacen falta presupuestos estratosféricos para alcanzar el espacio pues en su primer intento, logró mandar una misión espacial a Marte en su primer intento y además, sólo le costo 100 millones de dólares. ¿Por qué entonces no podemos pensar que también nos será posible desarrollar tecnología robo-médica que nos permita navegar el cuerpo humano y terminar, de una vez por todas, con la categoría de tumores inoperables? Una vez más, yo se los dejo como idea y reto para ustedes, futuros desarrolladores e ingenieros, o jóvenes profesionales en activo… Olvídense de mí y sorpréndanse ustedes mismos.

27


ROMPIENDO UN PSEUDOPARADIGMA LA TECNOLOGÍA NO SÓLO

ES CIENCIA APLICADA

D

Por: F. Javier Barriopedro

onde quiera que vayamos, es casi imposible que pase un solo día sin que tengamos que escuchar, leer o utilizar el término “tecnología” en alguna parte. Lo damos por sentado, es parte del mundo moderno, define los avances científicos y… ¡Momento! No es cierto que siempre defina los avances de la ciencia. Existe toda un historia alrededor del término que sería bueno comentar un poco. El término compuesto es de origen griego, τεχνολογία, y está formado los vocablos por téchnē (τέχνη que se traduce como arte, técnica u oficio, pero lo empleamos más para referirnos a una destreza específica) y logía (λογία, estudio de cierta cosa). Así pues, si nos vamos por la traducción más literal, la tecnología no es más que “el estudio de una destreza (o arte, técnica u oficio)”. Bien, ahora es necesario dejar en claro que nos hemos encargado de hacer que el uso de el término “tecnología”, haya sufrido cambios significativos durante al menos los últimos 200 años. Antes del siglo XX, este término era inexistente en japonés, de uso muy poco frecuente en los idiomas inglés y francés, y poco recurrente en el español y el alemán, donde se le tomaba por el “estudio de la técnicas útiles”. No obstante, los alemanes se encargaron de darle prominencia al término luego de la segunda revolución industrial, que tuvo lugar durante el siglo XX.

28

Al principios de 1920, un grupo de científicos sociales estadounidenses encabezados por Thorstein Veblen, realizaron una adaptación de las ideas que encerraba el concepto alemán de technik y se las adjudicaron al vocablo “technology”. Cabe hacer notar que en aleman y las demás lenguas Europeas, existen una gran diferencia entre technik y technologie, la cual no está presente en el idioma inglés. Por esta razón, para 1930, el término no se refería únicamente al estudio de las artes industriales, sino también a estas mismas artes. No obstante, en 1930, otro sociólogo estadounidense llamado Read Bain, escribió que “tecnología comprende todas las herramientas, máquinas, utensilios, armas, instrumentos, estructuras habitacionales, ropa, dispositivos para comunicaciones y transportes, y las habilidades por las que somos capaces de producir todo lo anterior”. Esta definición es la que sigue teniendo el respaldo de los académicos hasta nuestros días, en especial entre los científicos sociales y claro, ¿por qué no?, también lo utilizan de manera muy común para decir que la tecnología es ciencia aplicada, pero la física pura y las matemáticas podrían contradecir esta noción y con mucha razón. A niveles experimental y especulativo, la física y las matemáticas no dejan de ser ciencias aun cuando no existan “tecnologías o artes industriales” que las apoyen o faciliten su desarrollo, y no por esto dejan de ser ciencias aplicadas.


Entonces, es posible desarrollar tecnología sin un uso excesivo de ciencias duras (pensemos en el principio de la palanca), de la misma manera que es posible desarrollar avances científicos puros que después transformaremos en tecnología al momento de aplicar los conceptos desarrollados en ellos. Así pues, el aparente paradigma de que la tecnología es ciencia aplicada, no se cumple en 100%. Sí, cierta tecnología es un conjunto de conocimientos técnicos que pueden estar ordenados de manera científica, pero un telar de mano como el que utilizan las indígenas tzotziles y tzeltales de la zona chiapaneca también es un avance tecnológico aunque no exista ciencia dura detrás del desarrollo de los principios para su funcionamiento. De la misma manera ocurre con las tecnologías de la industria alimentaria básica, la agricultura es una tecnología no una ciencia, en tanto que la ecología es una ciencia que se sirve de varias tecnologías para realizar sus estudios y avances. Las actividades tecnológicas tienen un enorme grado de influencia en el progreso socio-económico y la ciencia, incluso la aplicada, no tiene un impacto tan inmediato. Si bien una sociedad científicamente avanzada tiene más y mejores explicaciones para los fenómenos que le rodean, está en desventaja cuando se le compara con una sociedad tecnológica porque ésta última sí coadyuva en el desarrollo de economías avanzadas que son aquellas que conocemos como “sociedades de consumo”.

Cuando hablamos de TI, estamos refiriéndonos a uno de los pocos campos que han hecho posible la coexistencia tanto de la tecnología como de las ciencias aplicadas, en una unión sincrética que ayuda en la exploración y expansión del conocimiento, permitiéndonos desarrollar nuevas técnicas, construir nuevas tecnologías y encontrar posibles usos para las ciencias aplicadas. No obstante, el hecho de que esto sea posible no implica que se trate de una misma cosa. Las tecnologías no siempre requieren de la aplicación de las ciencias para desarrollarse y las ciencias puras pueden seguirse construyendo sin el apoyo de las tecnologías existentes. Por eso es necesario no caer en ese pseudoparadigma que sostiene que toda tecnología es ciencia aplicada, ya que invertir el sentido de éste no resulta verdadero pues no toda ciencia aplicada resulta en tecnología. Estando en un campo que permite ver la diferencia entre técnicas (de programación), tecnologías (plataformas y dispositivos) y ciencias aplicadas (medicina, astronomía o física cuántica), es necesario delimitar muy bien cada esfera para que cuando comencemos a desarrollar nuestros proyectos sepamos exactamente qué es lo que estamos buscando y qué es lo que resultará de nuestros desarrollos. De esta manera, contribuiremos al avance de las técnicas, la tecnología y la ciencia, en pro de un mejor entendimiento del mundo que nos rodea y las sociedades que vamos formando.

29


TRES TIPOS DE

EXPERIENCIAS MÓVILES II

E

Por: Txabier Etxeberri

n el mes pasado, mencionamos dos de los tres tipos de experiencias móviles, dejando en claro las ventajas y desventajas tanto de las apps nativas como los sitios web móviles. Esta vez, finalizaremos el artículo hablando de la tercera experiencia que podemos ofrecer a nuestros clientes y usuarios.

Aplicaciones Híbridas

Una aplicación híbrida es una app móvil que contiene un proceso web view, que no es otra cosa que una instancia aislada del navegador, diseñado para correr una aplicación web dentro de una aplicación nativa. ¿Cómo? Es relativamente sencillo: se utiliza una aplicación web wrapper nativa a la que le es posible comunicarse con la plataforma nativa del dispositivo y el web view, de manera simultánea. Está bien, ¿pero eso qué significa? Pues de manera muy simplificada, esto significa que las aplicaciones web se pueden ejecutar en un dispositivo móvil y pueden tener acceso a los sistemas e información que en él se encuentran, como por ejemplo: las funciones de la cámara, el micrófono o el GPS. Piensen en sistemas de sondeo o encuestas avanzados, que requieren contacto con su cámara o requieren datos de geolocalización o bien su historial de llamadas. ¡No se pongan paranoicos! Esto se hace de manera común para el establecimiento de códigos de activación en promociones o cada que aparecen los sitios que visitan en FourSquare y como medidas de seguridad nacional; ahora sí pueden sentirse un tanto nerv… digo, seguros y protegidos. Este tipo de aplicaciones son posibles porque ya existen las herramientas diseñadas para facilitar la comunicación de datos entre el web view y la plataforma nativa. Dichas herramientas no son parte de los sistemas de las plataformas iOS o Android, sino que se trata de herramientas desarrolladas por terceros como es el caso de Apache Cordova (¿Lo recuerdan? También hablamos de ella el mes pasado). Cuando construimos una app híbrida, ésta se compilará, lo que dará como resultado una transformación de la aplicación web que pretendemos utilizar en una app nativa de la plataforma que hemos elegido. La parte más importante de cualquier desarrollo de apps híbridas es, por supuesto, valorar todas las ventajas y desventajas que ponen sobre la mesa, para determinar si en realidad son lo que estamos buscando. Las obvias ventajas de las aplicaciones híbridas son: • Su naturaleza multiplataforma: podemos desarrollar la app una sola vez y montarla en múltiples plataformas con mínimo esfuerzo.

30


• Requieren las mismas habilidades que el desarrollo web: esto nos permite construir aplicaciones móviles utilizando un conjunto de habilidades que ya hemos utilizado al momento de construir un sitio web o para desarrollar aplicaciones similares. • Dan acceso al dispositivo: como ya dijimos más arriba, dado que el web view está “empaquetado” dentro de una app nativa, nuestra aplicación tiene acceso a todos los sistemas y características que están disponibles para una aplicación nativa. • Son de desarrollo sencillo: este tipo de apps son de desarrollo fácil y rápido porque no existe la necesidad de estar reconstruyendo para tener una visión más clara del avance que llevamos. Además, tenemos disponibles las mismas herramientas de desarrollo que se utilizan para construir sitios web. Las apps híbridas nos proveen con una base muy sólida para el desarrollo al mismo tiempo que nos permiten utilizar la plataforma web. Es posible construir la mayoría de sus aplicaciones como si se tratara de un sitio web, pero cada vez que sea necesario que ésta acceda a un API nuevo, la infraestructura de la app híbrida nos servirá como puente para llegar hasta esa API mediante el uso de JavaScript. Además, podemos detectar los swipes, toques y demás gestos como si se tratara de la detección de clicks o eventos de teclado en un sitio web que está siendo utilizado en una computadora portátil o de escritorio. Todo esto suena maravilloso dado el grado de sencillez que representa desarrollar de esta manera, pero recordemos que siempre existen otras consideraciones críticas y las desventajas de las aplicaciones híbridas son: • Está sujeta a las limitaciones del web view: la aplicación sólo podrá correr tan bien como lo haga el web view y esto significa que el desempeño va a estar ligado a la calidad del navegador de cada plataforma. • Se hace nativa por medio de la utilización de plugins: el acceso a las APIs nativas que necesitamos, podría no estar disponible en ese momento específico y, si es así, implicaría el desarrollo adicional de un plugin para que funcione el proceso. • No existen controles de interfaz de usuario: al no tener una herramienta como el Ionic, los desarrolladores se verán obligados a crear todos los elementos de interfaz que requerirá el usuario. Para finalizar, me gustaría mencionar que si se usa Ionic, es posible desarrollar aplicaciones híbridas haciendo buen uso de las habilidades que ya tienen muy practicadas los desarrolladores web. Así pues, este tipo aplicaciones son las que nos ofrecen el mayor número de opciones aunque hay que estar preparados para hacer que le resulten fáciles de utilizar a nuestros futuros usuarios.

31


SOFTWARE Y CIENCIA DE LA HIPÓTESIS A LA REALIDAD

D

Por: Ayax Vasconcelos

entro del área de las Tecnologías de la Información, la investigación es un pilar fundamental para el desarrollo de infinidad de aplicaciones que permiten los avances tecnológicos. Es cierto que la tecnología puede desarrollarse sin una investigación científica; empero, al sustentar los avances tecnológicos dentro de un marco teórico, las bases sólidas que se generan, sirven para que otros científicos en el mundo puedan desarrollar más aplicaciones que sirvan a los humanos, desde teléfonos celulares hasta robots espaciales. Para verificar que las aplicaciones hechas dentro de los centros de investigación sean congruentes y válidas, existen tres técnicas de evaluación para realizar una investigación científica: la verificación por medio de un modelo matemático, la simulación y la experimentación física o creación del prototipo (Raj Jain, 2011); para ejemplificar de manera sencilla, se toma en cuenta la Ley de Ohm que se calcula matemáticamente, se analiza en un simulador y, por último, se arma un circuito en una tablilla de conexiones donde se experimentará tanto los valores calculados como simulados. Es necesario precisar que no siempre se pueden realizar esta tres técnicas debido al costo y alcance de la investigación. De igual manera no se debe perder de

32

vista que en las Tecnologías de la Información algunas veces el resultado único esperado es un algoritmo, el cual para ser validado sólo requiere de una plataforma sencilla y poder de cómputo muy potente con el que lograr el objetivo para el cual fue creado; tal es el caso de las aplicaciones de cómputo paralelo que van desde la predicción climática hasta el análisis del genoma humano o de las señales electro-encefalográficas. Otro camino es aquel en el que el software permite documentar los avances que se van obteniendo, como lo son hojas de cálculo, procesadores de texto y presentaciones. Por lo tanto se puede decir que el software que permite el avance de la ciencia, ayuda a validar y a documentar los adelantos científicos que se van desarrollando en los diferentes centros de investigación. En el campo de la validación, existe software que permite desarrollar y analizar los modelos matemáticos como: Octave, Scilab, Matlab o WolframAlpha (para celulares). Éstas son diferentes aplicaciones que pueden analizar distintos modelos matemáticos e incluso algunos algoritmos, los cuales tienen aplicaciones básicas como graficar una ecuación, hasta la simplificación de algunos algoritmos de clasificación utilizados en inteligencia artificial como son los métodos de agrupamiento. Este software nos ahorra tiempo en el análisis matemático de un problema específico.


La simulación o los simuladores por computadora, como Mulitsim para circuitos electrónicos, ns-2 (Network Simulator 2) para redes o incluso los simuladores aplicados a otras áreas de investigación como la biología y química, entre otras, ayudan a ver los posibles resultados de una hipótesis y pueden brindar un punto de vista cercano a la realidad; éstos tendrán un desempeño más eficiente cuando se le ingresan más variables o más condiciones que los influyan al sistema en un ambiente de operación normal, con base en esto actuaran más apegados a la realidad. Multisim de National Instruments, es un ejemplo del funcionamiento de un simulador de circuitos electrónicos (entre otras características), el cual bajo condiciones ideales permite vislumbrar un desempeño del sistema que se está diseñando, pero sólo se trata de un acercamiento a la realidad. Otro tipo de software aplicado a la simulación es el que hacen los investigadores para generar condiciones reales y específicas en un experimento, por ejemplo: la manera en que actuará un circuito que estará a la intemperie y del cual se esperan resultados muy específicos, o el tráfico de un cierto tipo datos en una red local utilizando una topología y transmisión específica. El software como un resultado único o formado como sustento a la investigación científica, es aquel que es creado por el investigador con el fin de validar una hipótesis

planteada a un problema específico. En este caso, el software puede tener un ambiente gráfico y listo para ser usado por algún usuario, o simplemente puede ser un algoritmo que resuelva una situación para ser aplicada como la identificación de rostros, el análisis de la intención de movimiento por medio de las señales electro-encefalográficas o el reconocimiento de cualquier tipo de canciones. Además estos algoritmos pueden ser incorporados después para alguna aplicación. Por último como nueva tendencia, existe el software para investigar ciencia por medio de todas las personas que lo deseen, un ejemplo es Foldit (Universidad de Washington, 2008), el cual es un software lanzado como cualquier otro juego para computadoras y celulares, que consiste en predecir la estructura tridimensional de las proteínas y cómo se pliegan las mismas a partir de aminoácidos. El usuario prácticamente hace estos dobleces en tercera dimensión y los resultados de lo que han realizado miles de usuarios en el mundo en este juego ha sustentado nuevos avances en la ciencia biomolecular. Se observa que el software ha evolucionado al mismo tiempo en que la manera de realizar investigación científica a cambiado, por lo que será importante ayudarse cada vez más del software para que los enigmas que la ciencia desea resolver, sea posible hacerlo de una forma más eficiente y rápida.

33


EL DAÑO AL CONSUMIDOR NO INFORMADO SOBRESATURAR NO ES INFORMAR

N

Por: Fernán DeMaría Flores

o es una sorpresa para nadie, nuestras sociedades son de híperconsumo: la mayoría de los países de los países industrializados (los antes llamados “desarrollados” o “de primer mundo”), tienen economías que giran alrededor de consumo de bienes y servicios que están dentro del sector terciario; esto es: son economías de servicios, que ya no tienen como prioridad la producción o extracción de recursos naturales y/o materias primas (sector primario) o su transformación (sector secundario), sino que al tener perfectamente cubiertas estas áreas, ahora están enfocadas en las necesidades “esenciales” de la población. Para este sector, el ciudadano se convierte en el usuario/consumidor y todas las empresas buscan obtener de él la mayor cantidad de recursos monetarios para asegurar su existencia continua. Por esta razón, nuestras sociedades han sido objetos de la publicidad desde hace más de un siglo y medio, y podemos ver cómo ésta se ha transformado conforme la comunicación masiva fue aumentando su alcance. El estallido de la publicidad moderna se da en la segunda mitad de la década de los años 50 durante el siglo XX. En esa época se comenzó a bombardear a la sociedad con mensajes aspiracionales, haciendo de los productos “elementos imprescindibles” para las personas a quienes iban dirigidos si quería “ser mejores”, “demostrar su poder”, “vivir con estilo” o cualquiera de los conceptos que se asociaban con el producto. Luego, durante la época de los 80, cuando llegamos al punto crucial donde la industria de la publicidad ya no podía anunciar productos con cualidades cuestionables o ficticias, debido a varias demandas en contra de los productores que había utilizado publicidad engañosa (el false advertising al que tanto huyen ahora los publicistas de Nueva York, París, Roma y Londres). Así que lo que vimos fue una cambio en la manera en que se exponían los productos a los consumidores potenciales y un viraje hacia una publicidad “más humana”… ya no le dice qué es lo que necesita, le hace ver cuánto mejor se sentirá cuando adquiera el producto X de la marca Y.

34


“

el ciudadano se convierte en el usuario/consumidor y todas las empresas buscan obtener de ĂŠl la mayor cantidad de recursos monetarios para asegurar su existencia continua

“

35


Esta nueva publicidad invoca emociones, sin dejar de presentar una meta aspiracional a la que sólo se puede llegar si se consume la marca que se presenta. En realidad no informa acerca de las capacidades del producto o la calidad del servicio, sólo busca que el espectador conecte emocionalmente con lo que se le presenta y entonces “quiera adquirirlo” mediante una respuesta meramente subjetiva. La publicidad actual no informa, apela a los sentimientos y no a la razón. La situación es que la comunicación global ahora hace que la cantidad de publicidad que recibimos sea cada vez mayor: en televisión y radio, la cantidad de cortes comerciales es ridícula. En la televisión por cable, comienza a convertirse en una plaga que crece cada día más. En internet, está presente de miles de maneras y es difícil no ver más anuncios luego de navegar cuatro páginas web que leyendo la mitad de una revista como ésta. Dentro del sector de las TI, el daño potencial de un consumidor no informado, por lo general se ve reflejado en la baja eficiencia ya sea del usuario o de su dispositivo. La productividad de un desarrollador está tan ligada a las capacidades reales de su equipo como a su habilidad para programar o llevar su equipo a los límites ideales para el proyecto que se encuentra desarrollando. Para los mercadólogos y publicistas, ésta es la era del consumidor. Ahora éste es un elemento importante (¡sólo hasta ahora!) porque tiene poder de decisión y determinación a la hora de hacer valer sus derechos. Para los pensadores mas “trendy” de la publicidad, es

36

obligatorio que las empresas cedan el poder y conozcan más a fondo a sus clientes. Se habla de la “confianza del consumidor” y por eso, las empresas están cambiando sus estrategias de comunicación para dar la impresión de que está en contacto con él, pero esta comunicación no sirve de mucho si la publicidad inicial no informa al consumidor. Ahora el secreto radica en que las empresas están obligadas a proporcionar datos verídicos acerca de sus productos o servicios, pero como consumidores es nuestra responsabilidad mantenernos informados acerca de los requerimientos que tenemos y las herramientas óptimas con las que podemos cubrirlos. El verdadero poder del consumidor no está en su decisión de compra, sino en que puede obligar al fabricante a dejarse de cuentos, de saturar de referencias irrelevantes y presentar sólo datos pertinentes que sirvan para tomar una decisión informada. Además, tenemos que salirnos del juego que nos presentaron los publicistas donde dejamos de lado la información relevante con la que formamos el conocimiento racional del objeto, y basamos nuestra decisión de compra en función de la relación que construimos con dicho objeto. Si seguimos decidiendo nuestras compras a partir de las representaciones emocionales y simbólicas que tenemos con respecto de una cosa, aunque tengamos muchos datos acerca de ella, no estamos aprovechando la información… en el mejor de los casos la estamos filtrando para justificar nuestra elección. Sin embargo, en la mayoría de estas situaciones la estamos ignorando.


El peligro para un consumidor está en el proceso de pensar rápido. Daniel Kahneman, un psicólogo cognitivo ganador de un premio Nobel de Economía, sostiene que existen dos modos de pensamiento: el “sistema 1” que es rápido, instintivo y emocional; y el “sistema 2” que es más lento, más deliberativo y más lógico. Cada sistema tiene sus sesgos cognitivos, pero la publicidad trabaja dirigida justo al sistema 1: saben que todos estamos propensos a las compras por impulso, por eso tratan de preparar el camino para que la próxima vez que tengamos oportunidad de comprar, sean nuestros sentimientos hacia la marca o producto los que dicten la decisión de compra. Si nos dejamos llevar por nuestras emociones o impulsos para comprar, el mayor daño que sufrimos como consumidores es que, al no evaluar todas las posibilidades, es muy posible que descartemos a priori alguna opción que se ajusta mejor a nuestro requerimiento específico. Vamos, a mi papá le acaba de suceder hace cosa de cinco semanas: fuimos a una tienda departamental a comprar porque necesitaba un par de pantalones y unas camisas. En general, cuando se trata de ropa formal, él tiene por costumbre saber por qué cosa va y cuál es el estilo específico que ésta debe tener. Estuvimos en la tienda durante una hora y media porque se tenía que probar las piezas para elegir aquellas que le quedaban mejor y él sentía más cómodas. Incluso, los pantalones estaban con 20% de descuento… a la semana siguiente, anunciaron una venta nocturna donde toda la tienda tenía rebajas de 20%, pero los pantalones de la marca que él compró, estaban con descuentos del 30% al 40%.

Yo sólo tomé los jeans del color que me gusta y que sean de mi talla, los pagué y ya. Asumí que sería lo mismo de siempre… lo hice y ahora tengo uno al que el cierre se le baja constantemente y ayer se me rompió la costura de otro. En el caso de mi papá, su decisión no implicó peligro alguno y no existe daño real por el hecho de que no se ahorrara más dinero durante la venta nocturna. En el mío el peligro era evidente y el daño fue mayor porque no sólo actué impulsivamente al seleccionar mis pantalones vaqueros, ni siquiera revisé que tuvieran buenos acabados a pesar de que ya los había seleccionado. La diferencia real es que él utiliza la información que tiene disponible y, además, comprueba que el producto la cumpla y se ajuste a lo que necesita. Yo asumí que con la información que tengo, las cosas siempre funcionan igual y como la marca me gusta, pues no requiero de nada más que seleccionar lo que quiero y así tengo cubiertas mis necesidades. El daño al consumidor no informado, siempre se lo provoca él mismo. En una sociedad de híperconsumo lo que nos sobra son datos, pero si no los procesamos entonces no tendremos información relevante y útil para nuestra toma de decisiones. Acaparar montones de datos sólo nos hace conocedores de estos; para estar informados debemos discriminarlos para saber cuáles y cómo podemos aplicarlos en nuestros procesos de decisión. En ese sentido, la máxima que dice que la información es poder, es muy cierta. Los datos por sí mismos, que son lo que nos alimenta la publicidad, sólo son bagaje. Entonces, ¿eres un conocedor que consume o un consumidor informado?

37


TECNOLOGÍA APLICADA CIENTÍFICA EN LA INVESTIGACIÓN

T

Por: F. Javier Barriopedro

e has dado cuenta que “La Ciencia va más lento que la tecnología”, ésta es una manera controvertida de comenzar con un artículo, pero aplica de manera muy específica a ciertas ramas de conocimiento científico. El avance de la ciencia no se ha detenido, no obstante parecería que la tecnología está innovando de manera constante. A partir de viejos modelos o principios científicos que llamaremos “básicos”, los diseñadores y desarrolladores aplican nuevas formas para hacer más prácticas o portátiles o eficientes las soluciones que ya estaban presentadas. A manera de ejemplo, vamos a hablar de la telefonía celular. La conocemos desde 1946 y la llamábamos “radiotelefonía” por aquel entonces. Pero existe documentación interna de la empresa American Telephone & Telegraph en la que se discute el desarrollo de un teléfono inalámbrico… ¡en el año de 1915! Para no extendernos mucho, sirva decir que los grandes saltos en materia de telefonía celular se dieron en 1958 que es cuando apareció el Sistema 1 conocido como South Lancanshire Radiophone Service, en el Reino Unido; después, en 1981, se logró la automatización completa con el Sistema 4. Cuatro años más tarde, se produce el otro gran salto a la telefonía celular de consumo masivo con la aparición del servicio creado en conjunto por las empresas Racal, MILI y Barclays, de VODAFONE (Voice+Data+Phone) y el servicio British Telecom/Securicor “Cellnet”, ambos basados en la tecnología estadounidense Advanced Mobile Phone Service (AMPS, o Servicio Avanzado de Telefonía Móvil

38

en nuestro idioma). Pero los desarrolladores ingleses modificaron la tecnología y terminaron con una a la que llamamos Total Access Communications System(TACS, Sistema de Comunicación de Acceso Total). Por supuesto, estos avances sólo se lograron conforme fuimos refinando nuestros conocimientos en telefonía y Acústica, además de la utilización de la red satelital y demás detalles… pero los aparatos móviles de ese entonces no sufrieron grandes cambios durante al menos una década y sólo hasta principios del siglo XXI, comenzaron a ser más eficientes y multifuncionales (al hacer posible navegar por internet) y sólo partir 2007, con la aparición del primer Smartphone integral con una pantalla de interfaz táctil (sí, el iPhone), se disparó el avance y la innovación tecnológica ligada a la telefonía celular, al grado de que desde 2012, no ha habido un año sin que al menos uno de los fabricantes no presente un nuevo modelo que innova y además supera a los de la competencia... hasta el siguiente año, claro está.
Con esta brevísima semblanza, nos podemos dar cuenta que los principios científicos empleados para desarrollar la tecnología necesaria para la telefonía celular, iban avanzando más rápido hasta que logramos un nivel de avance tecnológico que permitió el consumo masivo, que es el parteaguas de toda necesidad de innovación.
 No obstante, es necesario hacer notar que aun cuando la ciencia aplicada a cierto tipo de tecnología llega a un punto específico, no deja de avanzar… pero los descubrimientos tienen que llevar un proceso para que se les encuentre una aplicación práctica fuera del campo de lo teórico y éste se toma más tiempo que la innovación tecnológica.


Por eso, mi aseveración de que las tecnologías que conocemos avanzan sólo un poco más rápido que nuestras Ciencias y dicho lo cual, ahora sí procedo a presentarles un festín tecnológico al servicio de la expansión y reforzamiento de la investigación científica. Comencemos pues con el proyecto de Amazon Echo, que comprueba que es viable desarrollar computación activada por voz en nuestros hogares. Ya conocemos cómo funcionan las aplicaciones de Google Now y Siri, que son interfaces orales para nuestros dispositivos, que nos permiten controlar funciones específicas e interactuar con algunas otras aplicaciones. Seguro, por el momento aún vemos con cierto grado de desconcierto a alguien que está dictándole comandos o mensajes completos a su dispositivo (tengo un par amigos que son autores de ficción y así “escriben” los primeros borradores de sus obras), pero que no les quepa duda: ésta interfaz es la que apunta a convertirse en la norma del futuro. Tanto así que Amazon desarrolló su dispositivo Amazon Echo, que aun cuando su reconocimiento de voz no llega al 100% de efectividad y aún no es capaz de separar el sonido ambiente, no lo hacen ser menos útil para lograr una interacción más rápida con nuestros equipos de cómputo caseros. Además de que permite controlar los apagadores inteligentes que responden a la tecnología WeMo desarrollada por Belkin International, Inc, y que está pensada para ser la interfaz entre

los electrónicos que tenemos casa y nuestros dispositivos. Además, puede controlar los focos Hue de Phillips y usando Echo, puedes decirles cuánta brillantez quieres para tu luz o qué juego de colores deseas que empleen... así, como lo leen, sólo den la instrucción y Echo se encarga de que suceda, incluso si la pantalla de su dispositivo está bloqueada. Aún no se puede acceder directamente a servicios que requieren contraseñas (como Outlook mail, gmail o iMessage), pero sin duda se seguirán desarrollando maneras de trabajar con estos inconvenientes y, muy pronto, tendremos acceso a todos los servicios que empleamos. Pero la tecnología del futuro no tiene porque ser tan práctica pero banal. Existen grandes avances en el estudio de la dinámica de materiales y en las propiedades de estos, tantos como para pensar en sistemas que, además de autodiagnosticarse se reparan a sí mismos… ¡a 10,000 metros de altura, alojados en las alas de los aviones! Así es, se ha desarrollado un nuevo material que se autorrepara y que podría restaurar el daño sufrido por las alas de una aeronave durante el vuelo. La cosa funciona más o menos así: Ha llegado a suceder que las pequeñas fisuras que se crean en las turbinas y las alas de los aviones no sean notadas por el personal de tierra y esto puede tener consecuencias muy serias que va desde retrasos, pasan por cancelaciones y, sí, han llegado a convertirse en catástrofes si no se les aplican las medidas correctivas a tiempo.

39


Por esta razón, un grupo de investigadores en Inglaterra han inventado una sustancia que puede ser incorporada a la estructura de las alas de los aviones que les permite repararse así mismas, formando una “costra” sobre las fisuras igual que lo hace la sangre en una herida. La tecnología es sencilla y funciona mediante la incrustación de pequeñas esferas de líquido en el ala de la aeronave. Si ésta se daña las esferas en ese punto se revientan y la sustancia en su interior, que es una mezcla a base de carbono, se derrama para rellenar la herida. Entonces, otros catalizadores químicos presentes en el ala comienzan a endurecer el líquido, sellando cualquier cuarteadura o daño que haya ocurrido… a nivel estructural, claro está. Los sistemas hidráulicos y eléctricos no pueden repararse de esta manera, pero al ser internos, sí se evita que elementos atmosféricos puedan causarles daño directo. Este proceso es parecido a la aplicación de pegamento de cianoacrilato (kola-loka) al que se le añaden microesferas (o talco) y luego se le añade agua. El efecto es que el líquido fluye y crea una “junta”, los cuerpos sólidos hacen que la unión sea más resistente y el agua hace que el proceso de endurecimiento se acelere. El sistema es tan eficiente, que incluso se está desarrollando una tecnología de cápsulas muy similar para reparar grietas en el concreto. Dunca Wass, una de las cabezas de este equipo de científicos, sostiene que cualquier industria que utilice composites de fibra de carbono para la fabricación de sus estructuras, puede beneficiarse. Así que si lo vemos desde nuestro punto de vista como consumidores finales, este tipo de tecnología podría estar presente en cañas de pescar, bicicletas de alto rendimiento, cascos de protección, raquetas e incluso las carcasas y pantallas de algunos de nuestros celulares. Los especialistas de Forbes, especulan acerca de que su uso diversificado puede llegar a verse hasta el barniz para uñas… si el costo de fabricación de la sustancia se puede reducir lo suficiente como para que resulte viable desde el punto de vista financiero. A esto, los integrantes de grupo de científicos de Bristol han respondido con un muy claro “el barniz de uñas autorreparable, tendrá que esperar por algún tiempo”.

40


El avance de la ciencia no se ha detenido, no obstante parecería que la tecnología está innovando de manera constante.

Pueden ver más en http://techcrunch.com/2015/06/24 amazon-echo-proves-the-viability-of-voice-based-home-computing/

41


BIG DATA EN BIOINFORMÁTICA DESTINADA AL

E

ESTUDIO DEL CÁNCER

Por: Alejandro Rebollo

n los últimos años es más frecuente ver que el cáncer representa una de las enfermedades cada vez más críticas en la sociedad. La humanidad es más susceptible a desarrollar algún tipo de cáncer que, posteriormente, podría avanzar hasta provocar la muerte, lo cual supone un alto costo en temas médicos a nivel social en cada uno de los países, tanto los desarrolados como los que están en vías de desarrollo. El origen de un cáncer tiene dos tipos de factores importantes: la susceptibilidad genética relativa a la predisposición que cada individuo tiene para desarrollar tumores, y los agentes exógenos que, en determinados casos, favorecen el desarrollo de procesos de displacia y, posteriormente, carcinogénicos. La interacción de estos factores es la que da lugar a cambios a nivel genético en las células diana, las cuales se irán acumulando con el transcurso del tiempo hasta que el proceso se haga clínicamente visible. Hoy en día, se tiene conocimiento acerca de un gran número de genes que son responsables del desarrollo de tumores, los cuales están agrupados en diferentes familias (oncogenes, los genes supresores, angiogénesis, entre otros), y esto ha ayudado a su estudio y a tener tratamientos médicos y farmacéuticos oportunos. Empero, siendo el cáncer un proceso lento donde pueden transcurrir varios años desde que se origina la primera mutación hasta que es detectado clínicamente,

42

en esta etapa los es cuando los genes se ven alterados y, precisamente, la identificación de estas alteraciones en sus diferentes fases constituye uno de los mayores retos que se están abordando con las nuevas herramientas de información y la tecnología. Tal es el caso de la bioinformática y las herramientas de big data, que están basadas en las micromatrices, matrices o secciones de DNA, RNA o proteínas. El desarrollo tecnológico ha presentado la oportunidad de estudiar los genes de manera masiva, generando información nueva que ha facilitado el desarrollo paralelo de herramientas bioinformáticas para su análisis. Cuando se empezaron a desarrollar las primeras herramientas de bioinformática se presentaron varias problemáticas; por ejemplo, la capacidad de transferencia de datos, la privacidad de la información y la forma en cómo se almacenaría ésta. Por esto, podemos afirmar que el estudio del genoma es complejo, pues se presenta como información en volumen, variable y que puede modificarse con cierta velocidad. Los desarrolladores de instrumentos científicos en bionformática tuvieron que ver la forma en cómo se hacían el procesamiento de datos, su manejo y la infraestrucuta de los mismos. En primera instancia, las herramientas de informática que tenía un científico para hacer el estudio del genoma se basaban en una arquitectura centralizada de cómputo, y el estudio de un genoma podía llevar, incluso, años de estudio.


Los arrays, o micro matrices, inicialmente tuvieron el objetivo de analizar las diferentes expresiones de cientos o miles de genes a la vez, en tejidos específicos o muestras de tumores e ir definiendo un patrón de expresión genética del tumor, de tal manera que respondiera con las características moleculares y las asociara con características clínicas de supervivencia. En el año de 2002 el proyecto del Genoma Humano puso en relieve que los seres humanos compartimos el 99.99% del genoma, mientras que el 0.01% restante son polimorfismos de una única base que se conocen con el nombre de SNPs (single nucleotide polymorphisms, polimorfismo de nuecleótido único), y esto es lo que da una gran variedad y diversidad a la susceptibilidad al desarrollo de enfermedades y/o fármacos dentro de nuestro organismo. Como se señala, anteriormente hacer la secuenciación del genoma y ser capaces de encontrar los diferentes tipos de mutaciones que existen en un tumor primario, podía llevarse muchos meses. El principal problema está en que el trabajo de análisis se basa en equipos de cómputo que están conectados entre sí, pero hacen un trabajo de análisis secuencial y aunque de alguna manera divide la carga de trabajo, no se evita que se presenten tiempos de retraso y que estos dependan de la capacidad de procesamiento real y, en algunas ocasiones, de los tiempos de acceso y respuesta de acuerdo con los tipos de los discos duros del equipo de cómputo. Basados en la publicación de Google del algoritmo MapReduce, el cual le permitía a Google leer y procesar datos de 10,000 discos en paralelo, dio origen a la computación distribuida, poniendo especial énfasis en la tolerancia a fallos. Lo que se nos propone con el MapReduce es la capacidad para tomar una consulta de información aplicada a un conjunto de datos, dividirlo y ejecutarlo en paralelo sobre muchos nodos. Este procedimiento tiene dos fases: la fase de mapeo y la fase de reducción:

Una de las aplicaciones que hoy en día se está usando mucho como infraestructura para desarrollo de aplicaciones distribuidas es Apache Hadoop, la cual permite trabajar con miles de nodos y petabytes de datos. Está inspirado en la publicación de MapReduce de Google y Google File Systems; en términos prácticos para la arquitectura de cómputo, Hadoop cuenta con un clúster de información en el cual se tiene un nodo maestro y múltiples nodos esclavos. El nodo maestro es el rastreador y distribuidor de los trabajos y en los nodos secundarios se ejecutan las tareas. Adicionalmente, Hadoop usa archivos planos para procesar la información, no usa bases de datos relacionales (non-SQL) o con bases de datos con algún tipo de estructura, lo que permite que el procesamiento sea ligero y soporte grandes cantidades de información. Con este tipo de tecnologías se han podido reducir los costos de procesamiento de información dentro del estudio del genoma y su secuenciación; así mismo, es posible tener mayor información en los últimos años comparándolos con los primeros años en que dio inicio el estudio del genoma:

Referencias: • Benítez, Javier, Genómica del cáncer (2009), recuperado el 29 de junio de 2015 de: http://www. institutoroche.es/GenomicaAplicada/36. • National Human Genome Research Institute (NHGRI), recuperado el 30 de junio de 2015 de: http://www.genome.gov/sequencingcosts/ • Proyecto del Genoma del Cáncer, recuperado el 29 de Junio de 2015 de: http://cgap.nci.nih.gov/.

43


WEB SEMÁNTICA EN EL CAMPO DE LA MEDICINA

E

Por: Ing. Javier Solís González. Gerente de desarrollo de nuevos productos y servicios en INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación de CONACYT.

n el campo de aplicación de las tecnologías de la información, la “semántica” tiene un significado más concreto y se refiere al conjunto de tecnologías que proporcionan una manera de representar el conocimiento de un dominio en términos entendibles tanto por humanos como por máquinas[1]. Este principio es el fundamento de la Web Semántica y los sistemas de software semánticos. Para implementar este principio, ha sido necesaria la creación de nuevos modelos, herramientas y formatos de almacenamiento de información. Es así como han surgido estándares como RDF[2] y OWL[3], que permiten representar en una máquina el mundo que nos rodea mediante estructuras de datos basadas en grafos. La propuesta de la Web Semántica pretende reestructurar la web actual para agregar un nivel de abstracción mayor, de manera que, en lugar de conectar información mediante ligas de hipertexto, se puedan enlazar conceptos mediante relaciones con significado claro para el ser humano (figura 1). Estos conceptos tendrán asociados un conjunto de páginas HTML y recursos que aportan su significado o que se refieren al concepto.

Con esta nueva capa de abstracción, y utilizando la semántica desde el punto de vista de las tecnologías

44

de información, se puede dotar a las computadoras con la capacidad necesaria para realizar tareas de búsqueda eficiente, clasificación de información y descubrimiento de conocimiento nuevo. Todo esto, mediante un lenguaje entendible también para los seres humanos. Un ejemplo claro de las ventajas de esta propuesta es la precisión en la recuperación de información mediante un buscador semántico. De este modo, si una persona busca la lista de “vuelos a Praga mañana por la mañana”, de acuerdo a la información que proporciona su contexto y el significado de las palabras vuelo, Praga, mañana y por la mañana, los resultados de la búsqueda serán más exactos y acordes a las necesidades de la persona (figura 2).

Obviamente, hablar de la Web Semántica no se trata de hablar de “una inteligencia artificial mágica que permita a las máquinas entender las palabras de los usuarios”, es sólo la habilidad de una máquina para resolver problemas bien definidos, a través de operaciones bien definidas que se llevarán a cabo sobre datos existentes bien definidos. Para obtener esa adecuada definición de los datos, la Web Semántica utiliza esencialmente tres estándares para manejo de información en forma de grafos: RDF, SPARQL y OWL. Estos mecanismos ayudan a convertir la web en una infraestructura global en la que es posible compartir y reutilizar datos y documentos entre diferentes aplicaciones y usuarios.


45


La Web Semántica y la medicina

Aunque pareciera que la Web Semántica no tiene nada que ver con el campo médico, la realidad indica lo contrario. Por ejemplo, el Dr. Cimino expresa: “Un principio básico de la informática médica es que si los ordenadores han de ayudarnos en el proceso del cuidado de la salud, deben ser capaces de manipular información de forma simbólica y no sólo de almacenarla y regurgitarla”[4]. Tomando como base esta realidad, en el dominio médico se han hecho esfuerzos por formalizar el conocimiento de los expertos mediante ontologías que puedan ser explotadas por los sistemas y personas dedicadas al cuidado de la salud. Un ejemplo de ello es el trabajo de Javier Esquivias et. al. denominado “Representación del Conocimiento mediante Ontologías: Ensayo sobre Citología Tiroidea”[5], donde se expresa que el conocimiento que posee un patólogo sobre un diagnóstico es difícilmente transferible debido a dos cosas: a que este conocimiento está basado en su experiencia y a que la forma en que el patólogo lo comunica no es homogénea. Lo anterior supone un problema de comunicación con otros patólogos interesados en compartir y enriquecer su conocimiento acerca de sus diagnósticos. En el trabajo de Esquivias se propone utilizar las ontologías como lenguaje común para representar y compartir este conocimiento en internet. Otro esfuerzo con un enfoque distinto para la integración y recuperación de información médica es el UMLS (Unified Medical Language System)[6], que tiene como objetivo impulsar el desarrollo de sistemas que ayuden a los profesionales e investigadores en el manejo de información biomédica electrónica desde

46

distintas fuentes. Esto permitirá el fácil enlace de sistemas de información dispares, incluyendo registros electrónicos de pacientes, bases de datos bibliográficas, bases de datos factuales y sistemas expertos. El UMLS proporciona tres herramientas: 1. Un metatesauro. Es una base de datos multipropósito y multilenguaje con información acerca de conceptos biomédicos y conceptos relacionados al cuidado de la salud. Esta base de datos incluye también los varios nombres de los conceptos y las relaciones entre ellos. 2. Una red semántica. Es una colección consistente de categorías generales (tipos) y sus relaciones (relaciones semánticas). Esta red reduce la complejidad del metatesauro agrupando varios conceptos bajo un tipo. 3. Un diccionario especializado y herramientas léxicas. Proporcionan mecanismos para explotar, enriquecer el metatesauro y generar aplicaciones de procesamiento de lenguaje natural bajo la sintaxis y semántica del dominio médico. De la misma manera que UMLS, han surgido varios repositorios de información médica con el mismo propósito, como por ejemplo: MED (Medical Entities Dictionary)[7] que utiliza grafos conceptuales y un enfoque orientado a objetos; SOMED CT (Systematized Nomenclature of Medicine-Clinical Terms)[8] que concentra más de 311 mil conceptos activos, LOINC (Logical Observation Identifiers Names and Codes)[9], ICD9-CM (International Classification of Diseases, Ninth Revision, Clinical Modification)[10] y otros más.


El problema con la definición de todos estos repositorios es la integración y síntesis de información que se encuentra en medios y formatos heterogéneos, es ahí donde las ontologías y los estándares se vuelven un mecanismo poderoso de interoperabilidad.

Interoperabilidad semántica

Se entiende por interoperabilidad semántica a la capacidad de procesar de forma automática un conocimiento compartido entre sistemas heterogéneos. Actualmente, la interoperabilidad semántica es un problema que debe resolverse, pues es difícil compartir información médica entre distintas aplicaciones y entidades. Con esto en mente han surgido organizaciones que se encargan de definir mecanismos de interoperabilidad mediante la generación de estándares para el intercambio, compartición, integración y recuperación de información relativa al cuidado de la salud. Un ejemplo de este tipo de organizaciones es HL7 (Health Level Seven International)[11]. HL7 se fundó en 1987 como una institución sin fines de lucro y sus estándares son usados por más del 90% de los sistemas de información que prestan servicios para el cuidado de la salud; de la misma manera, cuenta con afiliados en todo el mundo. Entre los estándares del HL7 destacan, por ejemplo el estándar HL7 CDA [12] y HL7 RIM [13], que tienen mucha relación con la definición de conceptos en una ontología. El estándar CDA (Clinical Document Architecture) provee un modelo de intercambio de documentos clínicos y ayuda por lo tanto a la implementación de registros médicos electrónicos mediante el marcaje

y definición de la estructura y la semántica de un documento clínico en formato XML. El estándar RIM (Reference Information Model) es un estándar aprobado por el ANSI que constituye una enorme representación pictórica de los dominios del HL7 y define los ciclos de vida que los mensajes de información deben seguir. Esto es, define un modelo compartido entre todos los dominios que explicita las conexiones semánticas y léxicas existentes entre la información. Este modelo permite el intercambio de mensajes con información médica entre distintos sistemas.

Ontologías aplicadas

En el contexto médico existe ya un gran avance respecto a la estandarización de términos, sin embargo, no existe un vocabulario clínico universal, lo cual dificulta el intercambio de información médica entre expertos del dominio y aplicaciones de software. En este sentido, el uso de las ontologías puede ser aplicado para: La unificación de términos locales respecto fuentes externas. La integración de terminologías dispares para funciones comunes. El desarrollo de aplicaciones clínicas basadas en estándares como los del HL7. El desarrollo de mecanismos de intercambio de información entre aplicaciones de software existentes. La construcción de buscadores semánticos para explotar la información médica y hacer el cruce de información de registros médicos, información sobre enfermedades y sobre diagnósticos.

[1] Berners-Lee, T., Hendler, J., Lassila, O.: The Semantic Web. Scientific American pp. 34--43 (2001). [2] Consortium, W.W.W.: Resource Description Framework (RDF): concepts and abstract syntax. En línea (Febrero 2004), http://www.w3.org/TR/rdf-concepts/, visitado por última vez el 09-10-2010. [3] Consortium, W.W.W.: OWL 2 Web Ontology Language Structural Specification and Functional-Style Syntax. En línea (Octubre 2009), http://www.w3.org/TR/owl2-syntax/, visitado por última vez el 09-10-2010. [4] Lozano, R. Ontologías médicas. En línea http://www.forumcis.cat/Portals/1/SESSIONS/Sessions%2001-03/XavierPastor.pdf, visitado por última vez el 11-05-2011. [5] Esquivias, J., Zurita, J.M., Gómez, M., Villar, E., Sánchez, J.M., Alonso, J.: Representación del Conocimiento mediante Ontologías: Ensayo sobre Citología Tiroidea. VII Congreso Virtual Hispanoamericano de Anatomía Patológica. En línea http://www.conganat.org/7congreso/PDF/211.pdf, visitado por última vez el 11-05-2011. [6] U.S. National Library of Medicine. Unified Medical Language System. En línea http://www.nlm.nih.gov/research/umls/, visitado por última vez el 11-05-2011. [7] Medical Entities Dictionary. En línea http://med.dmi.columbia.edu/, visitado por última vez el 11-05-2011. [8] Systematized Nomenclature of Medicine-Clinical Terms. En línea http://www.ihtsdo.org/snomed-ct/, visitado por última vez el 11-05-2011. [9] Logical Observation Identifiers Names and Codes. En línea http://loinc.org/, visitado por última vez el 11-05-2011. [10] International Classification of Diseases, Ninth Revision, Clinical Modification. En línea http://www.cdc.gov/nchs/icd/icd9cm.htm, visitado por última vez el 11-05-2011. [11] Health Level Seven International. En línea http://www.hl7.org/, visitado por última vez el 11-05-2011. [12] Health Level Seven International.: Clinical Document Architecture. En línea http://www.hl7.org/implement/standards/cda.cfm, visitado por última vez el 11-05-2011. [13] Health Level Seven International. HL7 Reference Information Model.

47


48


49


Porque YOLO X

5 TIPS PARA SOBREVIVIR

a los Baby boomers y en tu empleo

P

Por: Karla Salinas Licenciada en Psicología y especialista en Reclutamiento y Selección de Tecnologías de la Información

or primera vez en la historia tenemos al menos 3 generaciones conviviendo en los mismos círculos, compitiendo por los mismos empleos, tratando de ganar terreno. Siendo un Millennial que tiene poco de haber terminado la carrera, ¿cómo puedes adaptarte a nosotros los chavorrucos para poder trabajar de manera adecuada y sobresalir? Primero sondearemos el territorio. Las famosas divisiones generacionales, fueron creadas inicialmente por Estados Unidos y adoptadas por el mundo: se delimitaban a partir de cambios fuertes a nivel poblacional que impactaban los modos de pensar, vivir y hacer las cosas. Los Baby boomers, por ejemplo, iniciaron a partir de la bonanza estadounidense y vivieron las guerras mundiales; luego llegan los de la generación X, quienes experimentan el tratar de sobresalir en un mundo desolado por la muerte, las crisis económicas y la creatividad, todos factores que dan nacimiento a tecnologías que ahora, la generación Millennial es capaz de modificar en cuestión de meses y usar de una manera tan básica y propia como respirar. En internet te vas a encontrar muchos estudios sobre esto y también verás que muchos autores no se ponen de acuerdo con las edades exactas, pero eso es lo de menos. No importa qué edad tenga la gente, viendo su comportamiento puedes identificar si fue educado como Baby Boomer, X ó Y, y serás capaz de usar su propio lenguaje para hacerte ver y escuchar sin ser percibido como rebelde y sin razón en tu empleo. Toma nota:

50

Los Baby Boomers tienden a ser tradicionalistas, acorde al manual, correctos y enfocados en la productividad. Siendo el trabajo lo más importante, no les gusta que pierdas (o parezca que pierdas) el tiempo, ni que les vengas con “atajos” porque “no le sabes” y mucho menos que no les pongas atención. Y no es que pierdas el tiempo, pero cuando les dices que quieres un empleo con horarios flexibles les estás hablando en ruso o mandarín, no les llegó el memorándum impreso a su escritorio con la notificación del whatsapp anunciándole la videoconferencia por Hangouts… ellos tienen como prioridad las cuotas y metas a cumplir; si no funcionas, nadie es indispensable. La buena noticia es que no se trata de que no les importes, sino que simplemente, ¡no te entienden! No hay malas intenciones ni dobles caras. Toma en cuenta que su generación tuvo que recoger las cenizas de la bonanza, que les costó mucho trabajo esforzarse y ganarle a otros baby boomers para tener la posición que tienen en las empresas (generalmente están en puestos directivos), que el trabajo no incluía una app para facilitar sus procesos y todo era manualito, que si son líderes de empresa no estuvieron en casa para criar a sus hijos pero sí se partieron el alma para pagarles su educación y que no faltara pan en la mesa. Entonces llegas tú, con tu tablet, tus tenis ejecutivos y playera de pixeles para decirle que si pueden tener la junta por hangout porque vas a ir al gimnasio/cine/concierto/ otros. Dales una ayudadita para que se den cuenta que sí le sabes y que lo que dices tiene un potencial enorme.


51


Adaptándote al Baby Boomer De la comunicación oral y escrita: cuando les mandes un correo para una reunión, búscalos y diles que les mandaste el correo con la reunión; llévales impresa la presentación con espacio para tomar notas, agrega números y gráficas sencillas pero correctas, cero errores ortográficos porque si no la junta se va a volver una clase de escritura correcta. Al hablar usa un lenguaje sencillo y correcto, en lugar de decir “app” usa aplicación; trata de no usar tecnicismos que usualmente ellos no manejan, pon atención a cómo se expresan con otros colaboradores. Más contacto personal y menos virtual, sabemos que para ti es más eficiente, pero para ellos va a ser mejor verte cara a cara o hablar por teléfono ya que así saben que eres honesto y confiable (no es que los medios electrónicos te vuelvan un mentiroso, si no que así aprendieron a hacer negocios y les es más sencillo). No te distraigas con el teléfono, míralos a los ojos al hablar y al escucharlos, estrecha firme la mano al saludar, saluda correctamente con un “buenos días”, “buenas tardes”, “hasta luego”. De la presentación: usa la ropa correcta, revisa los códigos de vestir y sin importar lo holgado del manual debes ir bien vestido a tus reuniones, limpio y con trajes de colores sobrios (negros, grises, azules); si usan jeans, ¡no los lleves rotos! Usa playeras sin estampados; ojo con el calzado: que tus zapatos siempre estén limpios y/o boleados, sin importar su precio, serán signos de que eres una persona orientada al detalle; si eres mujer no lleves el taconazo rojo con estoperoles dorados, usa

52

tacones que te permitan caminar adecuadamente. En lo que toca al cabello arreglado, vete por lo sencillo. Uñas cortaditas, limpias; si eres mujer con esmaltes serios así que guarda el anaranjado para la playa. Con éstos pasos te ganaras su confianza, obtendrás credibilidad y podrás introducirlos a tu mundo poco a poco, por ejemplo ya no habrá tanto problema por una videoconferencia porque ya te vio y te conoce, ya sabe que puede confiar en lo que dices y haces. Los Generación X tienden a ser escépticos, acostumbrados a trabajar duro para obtener reconocimiento, tratan de innovar e incorporar las nuevas tecnologías, actualizar el manual, se debaten entre la productividad y la innovación, creen que los Millennials no valoran lo que tienen porque “se les dieron las cosas más fácil”. ¡Obviamente como Millennial no la tienes fácil! Pero para entender por qué se percibe así tenemos que echarle un vistazo al camino que han tenido los Xs. Son como adolescentes o el hijo de enmedio: todos los ciclos de su vida tienen que ver con transiciones, por lo que se debaten constantemente entre el “deber ser”, el “es” y el “podría ser” que tratan de construir día con día. Los padres no siempre estaban en casa por lo que tenían que esforzarse para ganarse el tiempo de calidad que se les pudiera dar, el bullying -ahora tan tergiversado como concepto-, era un creador de carácter y de roles en la cadena de vida; vivieron el surgimiento de tecnologías y nuevas formas de hacer las cosas, por lo que cuando se están adaptando a una ya van atrasados porque han salido 5 opciones


nuevas; viven cambios de ideologías religiosas, sexuales, tecnológicas, musicales, famacéuticas y todo lo que le quieras agregar a esa gran canasta de instrumentos de supervivencia. Y mientras ellos se parten la cabeza hacer un flujograma en powerpoint para pasarlo más tarde al Visio, tú ya estás viendo el Facebook porque ya terminaste 3 y los subiste a la nube. No es que sean cerrados o exagerados en su conducta, ellos necesitan explicar todos los porqués, mientras tú lo que requieres es el “qué” para empezar a hacer las cosas de una buena vez. Adaptándote a la Generación X. De la comunicación oral y escrita: cuando tengas una reunión con ellos asegúrate de llevar el problema bien identificado, las soluciones propuestas y luego el desarrollo de las mismas. Se abierto a escuchar; es posible que traigas una solución muy buena pero recuerda que los X son el traductor de lo que los Baby boomers han diseñado a nivel corporativo y lo que está vigente, así que puedes determinar qué se requiere en realidad. Pon atención y determina si tu solución es innovadora o si tendrás que ajustar algunos botones. Usa referencias, nada de “lo encontré en google”, mejor “esto lo vi en el artículo de Juanito Pérez que es líder de implementación en X empresa” (y sí, me apoyé en google). Cuando organices una reunión hazlo por medios electrónicos y mándale un mensaje a tu audiencia un día antes para recordarles de la misma; al igual que con los boomers, es importante que tu presentación tenga sentido; no serán tan estrictos, pero sí van a revisar que todo lo que expones es cierto o tenga congruencia. Al hablar

con ellos puedes usar tecnicismos o modismos, pero no abuses de ello. Al acudir a una reunión, apaga el celular ya que aunque lo estés escuchando el X percibe como falta de interés y atención que te distraigas con tus gadgets y da por sentado que no te importa. No te enojes y te cierres cuando no seas escuchado, primero piensa si es posible que no te estés comunicando en el lenguaje adecuado con los X. Las papas fritas con cajeta son excelentes, pero no son tradicionales… aprende a venderles el concepto con ideas fáciles de comprender. De la presentación: pueden ser menos estrictos que los Baby Boomers y, de hecho, pueden hasta compartir gustos en la ropa; mientras tú sigas los lineamientos del código de vestir, a ellos no les va a causar problemas porque seguramente ellos lo hacen también. No abuses de la confianza extralimitando tu lenguaje corporal como dando una palmada fuerte en la espalda, reír muy alto o llevarte pesado (eso déjalo para tus cuates) porque en el ámbito laboral ante los X te resta puntos de seriedad. Estoy segura de que eres una persona que podrá adaptarse al medio laboral conquistando a tus líderes y logrando un excelente trabajo en equipo con tus pares y para estas generaciones es tan importante que lo hagas, que hay muchos artículos hablando acerca de cómo ellos pueden relacionarse con los Millennials. Espero que esta guía te permita aprovechar lo bueno de cada generación y fortalezca tus habilidades de adaptación en tu empleo. Y si sabes que la cajeta es un buen topping, ¡felicidades! Al menos mantuve tu atención y haz entendido la dinámica de las generaciones.

53


EDUARDO GUÍZAR

LA FIERA IDENTIDAD NACIONAL DE UN PIONERO EN MARTE

D Por: Alondra DeMaría F.

urante la pasada Robotix Faire 2015, celebrada en el CEC de Ciudad Universitaria, entre los muchos conferencistas que asistieron al magno evento, una de las conferencias más dinámicas e interesantes fue la que dio Eduardo Guizar Sáinz, ingeniero industrial sinaloense que fue el creador del sistema empleado en los motores de las llantas del robot Curiosity, las cuáles mejoran su movilidad, para que cada una de las seis ruedas actuara y tuviese manejo de dirección independiente, lo que lo convierten en una especie de vehículo-insecto…. ¡muy ad hoc para la superficie marciana! Ése es justo otro de los detalles que le dieron relevancia a su participación: además de hablar con detalle de muchos de los aspectos técnicos y científicos que implica la misión del Laboratorio de Ciencia de Marte, mejor conocido como “Curiosity”, lo más relevante y doloroso, sí, doloroso, es que Eduardo mencionó al menos en tres ocasiones la negativa tajante de organismos como el CONACYT para apoyar proyectos de desarrollo de tecnología -y sobre todo de robótica-, prefiriendo otorgar becas para estudios en el extranjero. “Yo no me explico cómo se puede tomar una actitud que hace de lado el desarrollo de la tecnología dentro del país. Parecería que todo es una cuestión de compadrazgos, de amiguismo, de dárselo al hijo de

54

sutanito o a la prima de fulanito… te digo la verdad, yo sí estuve decepcionado porque no fue sólo una negativa. Fueron varias. Pero yo seguía con mi proyecto. Un tanto en secreto y durante mis pocas horas libres porque, trabajando para el gobierno, tenía la impresión de que si se enteraban… pues se iban a burlar o podría tener alguna repercusión debido a los prejuicios que caracterizan a las personas en ciertos círculos laborales. No obstante, un día, luego de tres cartas… porque dos las tomé como una broma pesada de el único de mis amigos que sabía acerca de mi proyecto y las respondí, digamos que “muy floridamente”… pues llamé a la NASA y resulta que era cierto que estaban interesados en mi proyecto y querían que yo colaborara con ellos”, nos contó durante la plática después de su conferencia en Robotix Faire 2015. Los aspectos técnicos de su sistema y su mejora, parte del principio de su proyecto: necesitaba un motor más poderoso para lograr la mejor tracción posible y utilizarla en su plan de construir un robot de Rescate y Apoyo para los equipos de rescatistas y bomberos del país. “Ahora, pues lo que era un proyecto interesante, se ha convertido en una realidad distinta y una de mis ideas es parte de una misión que durará dos años y recorrerá 20 kilómetros en el primer planeta que alcanzamos. Todo luego de que salí del cine, cuando era niño, y le dije a mi mamá que yo quería construir un robot”.


Ahora, además de proyectos de robótica, está ayudando al desarrollo de satélites amateur para que estudiantes y profesionistas comiencen a ver que es posible realizar investigación y tener desarrollo profesional en la ciencia aeroespacial. Sobre todo porque el futuro no sólo le pertenece a programadores, ingenieros en robótica o mecatrónicos. “Hacen falta especialistas como ingenieros electrónicos, mecánicos, físicos, astrofísicos, geólogos, matemáticos, médicos, biólogos, pilotos… ¡por eso es importante que no cortemos los sueños de los niños, que apoyemos a las niñas! Si mi mamá no me hubiese dicho que yo podía lograr lo que me propusiera si estaba dispuesto a dedicarme de lleno a conseguirlo… pues no me hubiese puesto a diseñar mi robot que me llevó muchos años, muchos gastos y algunas decepciones porque al parecer no sólo les parecía imposible, sino que ya con las pruebas en la mano de que era posible, pues no les interesaba… ¡y al mismo tiempo hablaban de mejorar al país e impulsar la ciencia y la tecnología! Yo de verdad, no los entendía”. Lo que a nosotros nos pareció más indignante de la situación es que, si bien ahora ya existe un interés probado en conocer y analizar la viabilidad de proyectos tecnológicos de vanguardia, éste sólo se haya reforzado luego de que Eduardo Guízar y Rafael Navarro se convirtieron en especialistas reconocidos por otro país y sus esfuerzos los hayan llevado formar parte del equipo de profesionales que llevó y opera el Curiosity en Marte. Lo que Eduardo se atrevió a soñar cuando era un

niño de nueve años, lo llevó a hacer la contribución clave para el desarrollo viable el proyecto: el diseñó los motores que van dentro de las ruedas para que el Curiosity, que hacen posible que el Laboratorio Móvil se desplace sin problemas a través de la superficie marciana, pero lo que nos sorprendió de manera especial es su sencillez y orgullo. "Mi contribución no es algo que yo diga personal, que sólo me beneficia a mí. Es sólo una muestra, de las muchísimas que tenemos, de la capacidad que tenemos los mexicanos y de que en el país, podemos desarrollar tecnología innovadora o que no existía antes. Lo que sucede es que no existe el apoyo necesario para su desarrollo de manera industrial… pero no es por falta de talento. ¡Si uno de nuestros grandes problemas es la fuga de cerebros! Yo, me eduqué en escuelas públicas y estoy convencido de que mi trabajo es algo que le debo a mi país, que mi ejemplo puede abrirle los ojos a un niño o niña y entonces ella o él también van a soñar con construir algo, ir al espacio, mejorar un sistema, ser científicos... lo que espero es que las instituciones públicas y privadas comiencen a apoyarlos en serio para que se puedan desarrollar en nuestro país y lo que logren, se quede aquí para que podamos seguir progresando”, terminó Eduardo Guízar Sáinz, quien hoy por hoy es uno de los dos mexicanos que más lejos han llegado en la historia de la humanidad: una parte importante de su vida y trabajo está en Marte.


TECNOLOGÍA Y EDUCACIÓN DIGITAL PARA TRANSFORMAR LA

DIVULGACIÓN DE LA CIENCIA 56


Por: Victor Jesus Hernandez Salinas. Coordinador de Vinculación y Transferencia de Productos en la Gerencia de Desarrollo de Nuevos Productos y Servicios en INFOTEC.

La necesidad de cambiar modelos institucionales y paradigmas sociales

A

unque la fecha oficial es el día 17, el pasado 18 de mayo la AMIPCI en colaboración con diversas dependencias gubernamentales, organizó la celebración del Día Internacional del Internet (#DDI2015), en la Cámara de Diputados en la Ciudad de México, durante la cual se presentó el “11º estudio sobre los hábitos de los usuarios de internet en México 2015” (http://es.slideshare.net/droso101/amipci-habitos-2015ddi2015). A partir de este estudio se pueden obtener algunos datos y conclusiones interesantes. Para comenzar, podemos ver que hubo un crecimiento en la penetración de Internet en la sociedad, al pasar de 51.2 a 53.9 millones de usuarios de 2013 a 2014. También se hace notar que la edad en que los internautas mexicanos tienen su bautizo digital es cada vez más corta, pues el 12% tienen apenas 6 a 12 años, con lo que se observa que los niños son ya usuarios comunes de las TIC.

preferidos para dichas conexiones fueron la laptop con 68% y los smartphones con el 58%, resaltando que aunque otros dispositivos como consolas de videojuegos y smart TV’s no han tenido un incremento notable, ya comienzan a mostrarse en el panorama y seguramente será mayor a partir del próximo año tras el apagón analógico. Mientras que en contraste, la PC cada año y poco a poco pierde terreno y deja de ser utilizada por el público. Lo que demuestra que la movilidad es la tendencia de los usuarios de Internet en México y el mundo. Tendencia que crecerá conforme más dispositivos “wearables” aparezcan en el mercado y el Internet de las Cosas y dispositivos holográficos sean cada día más tangibles. Sin embargo, un aspecto interesante a denotar y que deberá ser tema de estudio para una ocasión posterior, es que la OCDE (Organización para la Cooperación y el Desarrollo Económicos) también ubica a México como el primer lugar en #cyberbullying y el segundo en pornografía infantil dentro de los países miembros. Lo cual tampoco es una posición en la que desearíamos estar, y que resalta que el tener el acceso a dispositivos y conexión, no son la única parte de la solución para el avance en calidad educativa como algunos políticos pretenden hacernos creer. Pues el reto es que la población en general no sólo adquiera herramientas y se le regalen laptops y tabletas, sino que además debe formarse en todas las personas habilidades digitales y principalmente desarrollar una mentalidad digital. Ya que si se analiza el fenómeno mundial, la tendencia de la #CulturaDigital es la creatividad colectiva.

Otro dato interesante es que el tiempo promedio diario de conexión fue de 6 horas y 11 minutos; 24 minutos más que en el año anterior; siendo la conexión a redes sociales la principal actividad de los internautas, superando al correo electrónico que había dominado en años anteriores. Los dispositivos

57


Otro punto a resaltar de este estudio es que los padres acostumbrados a usar Internet, comienzan a inculcar en sus hijos el uso de la tecnología, y por ello, el acceso a dispositivos inteligentes es cada vez más frecuente a menor edad, lo que genera una creciente necesidad que no podemos dejar de analizar, la educación digital. Ésta tiene dos aspectos básicos, el esquema de educación formativa y académica que todo mundo entiende; y el moral y ético sobre las responsabilidades y consecuencias que implica el uso de las TIC. Sin embargo, en esta ocasión centrémonos únicamente en los modelos educativos tradicionales vs la penetración de las TIC en el mercado y dejemos para debates posteriores los aspectos de ética y moral digital. No es desconocido para nadie que los niños y jóvenes utilizan los dispositivos electrónicos para casi todo y a todas horas, al grado que muchas escuelas y académicos todavía los prohíben terminantemente en sus instalaciones y cátedras. Sin afán de entrar en juicios sobre la validez o no de estas posturas, cuando ya son muchas las escuelas que al contrario lo utilizan y hasta fomentan, sólo mencionaremos que el nivel de información que tienen al alcance los jóvenes hoy día en sus móviles es mayor de lo que tuvimos las generaciones anteriores a los 90’s en nuestros

58

tiempos estudiantiles. Y que es imposible para un profesor por muy preparado que esté, saberlo todo sobre todo, y que por lo tanto no es una opción tratar de competir contra Wikipedia y otros sitios similares que se alimentan de la mencionada “Creatividad Colectiva”. Sin embargo, sí tienen la experiencia para poder distinguir y discriminar una buena fuente de información de otra que no lo sea. Por ello, los profesores no deben evitar el uso de la tecnología, sino promoverlo y volverse guías sobre cómo usarla, y enseñar cómo seleccionar las mejores fuentes de información, válidas, veraces y concretas. Con lo que los primeros en formar y desarrollar capacidades y habilidades digitales son precisamente los académicos de todos los niveles educativos. Proyectos como los “laboratorios vivientes” o “Living Labs” para la prueba y apropiamiento de productos y el modelo de “Clase Inversa” o “Flipped Classroom”, son grandes tendencias en los paradigmas educativos actualmente. Pues en el caso del modelo de clase inversa, la idea es que los profesores generen videos sencillos y diverso material multimedia o busquen y utilicen el existente en la red; que expliquen paso a paso los conceptos teóricos de sus materias y los publiquen en la red, donde sus alumnos pueden consultarlos en cualquier momento y lugar, las veces


que sea necesario para que los conceptos puedan ser entendidos, digeridos y sobretodo apropiados por los estudiantes. A la vez que en las mismas páginas web se puedan dejar notas, comentarios, preguntas, y demás recursos colaborativos a fin de retroalimentarse ellos mismos y a los demás usuarios de esas páginas, mientras que en las clases presenciales no se toca nuevamente la explicación de los temas, sino que se realizan actividades prácticas que refuerzan los contenidos digitales y permiten un reforzamiento de lo aprendido. Este esquema busca además que los propios alumnos interactúen con sus compañeros en clase y mediante discusiones, prácticas, ejercicios puedan asimilar mejor los conceptos, y el profesor se vuelve guía y moderador de los avances de sus alumnos. Con todo esto, podemos ver que lo que se requiere es un cambio total en lo que debe ser un modelo educativo del S. XXI, embebido en un mundo hambriento de servicios TIC y en el cual el profesor ahora sea un profesor 2.0 que esté preparado para ser siempre activo, iniciador e incitador de la curiosidad en sus alumnos. Que promueva y organice dinámicas que fomenten la inteligencia colectiva, mientras participa activamente en debates alrededor de su tema, que cuente con blogs, canales de video, cuentas de Twitter, buscando ser líder de opinión en su área, e impulsar

siempre el desarrollo del pensamiento crítico. Los modelos educativos ya no pueden ni deben seguir la dinámica actual y deben evolucionar a fin de aprovechar los nuevos modelos sociales que están surgiendo a partir de la penetración cada vez más evidente de las TIC, y que valores como la ejecución rápida, el poder de la colectividad, y la adaptabilidad e innovación, sean aspectos intrínsecos en la cultura de cualquier sociedad. Entender que habilidades como hablar inglés o saber computación hoy día, no serán los únicos valores requeridos para los aspectos laborales en el futuro, sino que las habilidades digitales, entre las que podemos incluso resaltar que aprender a programar, aun sin ser programador o tecnólogo de profesión será un requisito indispensable en los próximos años, y que la única forma de mantener a México como país y a cada individuo como competidores serios en el panorama de desarrollo en un mundo más complejo día con día, será simplemente aprovechando al máximo los beneficios que brinda la tecnología y la educación académicoformativa y de ética digital. El reto es lograr que instituciones y sobre todo el personal académico de todos los niveles educativos, acepten el reto de formación y transformación en sus paradigmas formativos, sociales y laborales… ¿lo tomaran?

59


En este número probaremos el poder de la GeForce GTX Titán X en el exigente mundo de los 4K. Es un tema bastante problemático y caro para los amantes de los videojuegos en pc, ya que se requiere un hardware potente y solo podríamos alcanzarlo por medio de GPUs en SLI o Crossfire.

¡4K sin Sli! Por: Gerardo Oxley

Nvidia solucionó la problemática a los 4K, con esta única GTX Titán X

E

n este número probaremos el poder de la GeForce GTX Titán X en el exigente mundo de los 4K. Es un tema bastante problemático y caro para los amantes de los videojuegos en pc, ya que se requiere un hardware potente y solo podríamos alcanzarlo por medio de GPUs en SLI o Crossfire. ¿Nvidia solucionó el alcanzar los 4K con esta única GTX Titán X?

DISEÑO

Ésta tiene la misma apariencia que sus hermanas de la generación pasada, sólo que las piezas que venían pintadas de plateado, como en la Titan original de hace 2 años atras y la versión black, ahora estos detalles decorativos pasaron a ser negros. El sistema mecánico de enfriamiento sigue siendo el mismo que en las anteriores. Creo que es algo decepcionante, ya que lo personal esperaba algunos cambios.

60


61


8 Billones de transistores dentro de la bestia Titán X

Las características de la GTX Titán X son bastantes altas, ya que en la actualidad no hay una GPU que se acerque a esas características sacando de la jugada a la Titán Z por su costo. Esta GPU es muy conocida como la Big Maxwell, por su optimización de la arquitectura Maxwell. Así lo hicieron con la línea Kepler; de esta forma Nvidia lanzó la GTX 680 y luego la GTX Titán. Esto vuelve a suceder con el chip GM204 que está al interior de GTX 980 y GTX 970 y se ve una clara evolución dentro de la GTX Titán X gracias a su chip GM200, que tiene tres mil billones de transistores más que sus hermanas de la generación Maxwell actual. Para comprender el poder de la GTX Titán X hagamos una comparación, la GTX 980 tiene 2.048 CUDA y la GTX Titán X tiene 3.072. La GTX 980 tiene 16 Multiprocesadores de streaming y la Titán X tiene 24 multiprocesadores streaming. Esto hace que cada widget de rendimiento disponible en la arquitectura Maxwell sea explotada hasta la llegada de la microarquitectura de nombre código Pascal, la cual llegará para el 2016.

RELOJES, MEDICIONES Y MÁS La velocidad de reloj de la Titán X parece un tanto conservadora ya que está en 1000MHz para el reloj base y 1075MHz para el reloj de impulso. Estas velocidades son inferiores a lo que hemos visto con otras tarjetas de Maxwell; por ejemplo, la velocidad del reloj base de la GTX 980 es más alta que la del reloj de Impulso de la Titan X. Supongo que es debido a que esta tarjeta tiene tres mil millones de transistores más que la GTX 980 y, como resultado, requiere mucha más electricidad y tenía que mantener los relojes un poco lentos, con el fin de que ésta no excediera las temperaturas durante cargas bastantes altas. Una de las característica más notables dentro de la GTX titán X son sus 12 GB de memoria GDDR5 funcionando a 7 Ghz. Tener 12 GB de memoria RAM, básicamente te permitirá ejecutar cualquier resolución que desees sin tener que preocuparte por quedarte sin VRAM, y lo mismo pasa con el funcionamiento de antialiasing en las resoluciones más bajas. Puedes ejecutar anti-aliasing 8X con suficiente potencia y memoria para manejar la situación en cualquier juego.

62

FICHA TECNICA


La Fuerza bruta de Big Maxwell

TEST DE RENDIMIENTO

Es sorprendente el rendimiento de la GTX Tita X, ya que esta GPU rompe todos los registros de referencia que tenemos hasta el momento en términos de un chip único dentro de una tarjeta gráfica, llevándose por delante a la GTX 980 y la R9 290x por un margen bastante grande. Fácilmente, la característica más interesante de la Titán X es que en realidad ejecuta juegos en 4K en framerates más que aceptables. Es la primera tarjeta de un solo GPU que hemos visto que es capaz de lograr eso. Claro, no se ejecuta todos los juegos a 60 fps todavía, pero el Titán X fue capaz de mantener en el rango 30-60fps para todas nuestras pruebas, lo cual es sumamente estable e impresionante. Con las tarjetas anteriores, como el R9 290x o la GTX 980, la tasa de fotogramas para 4K estaban siempre el límite de lo aceptable. Antes solíamos decir siempre: “el 4K apenas está llegando”, pero con la Titan X ha llegado… y de forma gloriosa.

OVERCLOKING Las Maxwell son conocidas por su alta estabilidad de overcloking e inclusive mucho más que las Kepler o las actuales tarjetas basadas en Hawaii de AMD. Con esta nueva GTX Titan X logramos alcanzar 1.377 Mhz en el reloj, obteniendo una temperatura algo alta de 86 °C. Pero hay que ser conscientes de esta tarjetas tiene 3 mil billones más de transistores que la GTX 980.

TABLAS DE COMPARACION

CONCLUSIÓN

El precio de la GTX Titán X es algo elevado, ya que podrías adquirir 2 GTX 980 por un poco más de dinero y obtener una leve ventaja sobre la Titán X, pero esto ya se trata de comodidad y presupuesto, una Titán X requiere de una fuente de 600 W mientras que 2 GTX 980 requieren de una fuente mucho más grande provocando una mayor inversión. Así que la elección, como siempre, es de ustedes amigos lectores de developNetwork.

63


64


65


Profile for developNetwork

Developnetwork julio  

Tecnología Aplicada para Investigación Científica

Developnetwork julio  

Tecnología Aplicada para Investigación Científica

Profile for masgeek
Advertisement

Recommendations could not be loaded

Recommendations could not be loaded

Recommendations could not be loaded

Recommendations could not be loaded