Page 1


1


STAFF CONSEJO EDITORIAL

Noviembre 2015 Año 2 Número 13

Alejandro Brera

Presidente del Consejo

Gerardo Oxley César O. Rodríguez

EQUIPO EDITORIAL

Salvador Ordóñez

salvador@developnetwork.com

Director Editorial

Javier Barriopedro

editor@developnetwork.com

Editor

Edgar Loeffelmann

eloeffelmann@develop.com.mx

Coeditor

EN PORTADA COMPUTACIÓN CUÁNTICA EL HORIZONTE CERCANO AL 2020

FOTOS DE: Shutterstock

Aitor Sobera Fernán DeMaría Yessica Sánchez Javier Barriopedro Juan Vidal Carlos Rivera Alejandro Rebollo Txabier Exteberri José Luis Valeriano

Paulina Alvarado Alondra DeMaría Yessenia Maldonado Karla Salinas Víctor Hernández Leonardo Ríos Ilidan Nona Xochicuahuitl Gleason Colaboradores

Salvador Ordóñez Angélica Tovar

Diseñador Editorial

Sandra Benitez

sbenitez@develop.com.mx

Redes Sociales

Shutterstock

Fotografías

University Tech Day www.issuu.com Distribución

AGRADECIMIENTOS ESPECIALES

Ariel Rodríguez (DEVELOP), Edgar Loeffelmann, Carlos Fernández , Arturo Campos Fentanes, Ana Paula Konrad, Pedro Flores, Juan Saldivar, Alejandro Villanueva, Cristina Cervantes y a todas las personas que han hecho posible este número tan especial de developNetwork

“developNetwork” es una publicación literaria que puede ser distribuida, previa autorización de sus representantes, de manera física y electrónica. El nombre “developNetwork”, diseño y contenido se encuentran en proceso de registro y son protegidos por la Ley Federal de Derechos de Autor, encontrándose vinculados a una marca en proceso de registro ante el Banco Nacional de Marcas perteneciente al Instituto Mexicano de la Propiedad Industrial. Todos las artículos aquí descritos están sujetos a sufrir cambios y/o variaciones, sin previo aviso. La información, datos estadísticos, reportajes y fotografías contenida en los publirreportajes es resultado de un trabajo de recolección de información en la que terceros, colaboradores o personalidades públicas otorgan sus opiniones y/o datos de un tema en específico, por lo que bajo ninguna circunstancia reflejan la opinión de “developNetwork”, de sus editores, representantes o accionistas, así mismo, “developNetwork” no asume responsabilidad respecto del contenido y veracidad de dicha información. Revista impresa por “Impresora y editora INFAGON SA de CV” Alcaiceria No. 8 Col. Zona Norte Central de abastos Iztapalapa C.P. 09040 México, D.F. Para conocer más sobre los derechos de autor de algunas de las imágenes, fotografías y trabajado literarios publicados a través de “developNetwork” consulta nuestra página web en www.developnetwork.com

“developNetwork”, es una revista mensual, publicación impresa y electrónica. 5557-5012 / 5395-2791 Contacto Web: hola@developnetwork.com

www.developnetwork.com

2


CARTA EDITORIAL

H

ace ya casi más de un año, existió la oportunidad de hacer una publicación electrónica que estuviera dirigida a los estudiantes universitarios que cursan las carreras en tecnologías de la información. Sabíamos lo que queríamos, pero era difícil poder entender como una revista de tecnología debía de estar conformada por temas de investigación y reportajes… la solución, se encontró cuando día con día, gente de la industria, especialistas y reporteros descubrieron en developNetwork un recurso para publicar sus notas. Al pasar de los meses descubrimos un estilo propio que ha caracterizado a esta revista, aprendimos a combinar el diseño editorial simple, con imágenes que reforzaban las palabras de los colaboradores, haciendo de cada página una cualidad única representada por años de esfuerzo. La palabra que define un año de trabajo ha sido fluir, que en el diccionario se define como “surgir de forma fácil o natural”, esto ha desarrollado en nosotros la visión de crear una revista que se defina por sus reportajes e investigaciones, ofreciendo al lector un medio de comunicación confiable y único que se enfoca en la vinculación de la academia con la industria así como los gobiernos Estatales y Federales. Fluir a sido el medio por el cual nos reinventamos y en este nuevo número nos enfocamos en los pequeños detalles que han establecido grandes cambios. Hemos creado dos nuevas secciones que sabemos complementarán el acervo informativo en developNetwork y por primera vez les presentamos a TECH WOMAN un espacio donde hablaremos de los logros que las mujeres han cuantificado en el ramo científico y como su influencia ha permitido crecer a la industria de la tecnología computacional; también los invitamos a conocer EN CUESTIÓN un espacio donde el análisis técnico de experto nos invita a conocer los cambios psicológicos aplicados en la sociedad por parte de los cambios tecnológicos actuales. Estimado lector como siempre es para nosotros un gusto poder transmitir la información e investigaciones que nuestros colaboradores han compartido. El número que tienen en sus manos representa nuestro segundo año de trabajo y esperamos que éste siguiente año, descubramos juntos los cambios que la industria de la tecnología de la información tiene para todos nosotros. Salvador Ordóñez Toledo Director

3


ÍNDICE

Editorial 3 Carta Fluir es la Clave

6 Breves Videojuegos, música y películas Ghoul 8 Tokyo ¿Será lo que esperábamos?

BREVES

Noviembre

Segunda Temporada

TECH NEWS

10 Gadgets Lo mejor de la tecnología para esta temporada Drone 12 Lily Promete seguirte a todos lados... pero ¿cumplirá? Noviembre

14 Gi Flybike

Tecnología en Movimiento

30 Computadoras en Automóviles

Programadas para Salvar Vidas

36 Gigamon Capa de Visibilidad Softskills

UNIVERSITY

¡Qué deberías tener o Desarrollar YA! 42 No todo es pegarle a la tecla

46 Dismaland Un Paseo por la “Realidad” 50 UAEH Una Apuesta al Futuro Académico

CÓDIGO INNOVARE

de Sentimiento 52 Análisis Usando Teorías de Cópulas

ANECDOTARIO

TECH WOMAN

56

Niñas Mexicanas 16 Las Con el mismo potencial para la ciencia

CENTRAL DE HERRAMIENTAS

Visual Analytics 18 SAS Solución analítica para negocios

MASTER GURÚ

de Innovaciones 20 Implementación ¿Estás seguro de cómo hacerlo? Operativos para Drones 22 Sistemas ¿El software del futuro? Libre 24 Software Entregando el código Administración de Procesos de negocios

26 Una Ventana Abierta

28 Microchips De las Computadoras al Cuerpo Humano 4

El Mosco

Reflexiones de una Mente Creativa

58 Develop Líder en Certificaciones en T.I.

DEVELOP

EN CUESTIÓN

y Tecnología 62 Cultura La eliminación de la Colonialización Cabulario 62 El Vas Papú que Vu

EL RECREO


MASTER GURÚ Computación Cuántica El Horizonte Cercano del

32 5


Salvador Ordóñez

HOMEFRONT THE REVOLUTION

La humanidad una vez más a caído en una guerra que sólo dejo muerte y destrucción a su paso en una guerra donde una corporación internacional Coreana logra derrotar a la gran potencia militar de Estados Unidos, sin embargo, las personas que han resistido los estragos de las terribles batallas, han decidido tomar en sus manos la responsabilidad de liberar a su país cueste lo que cueste. Toma el control de la resistencia y guíalos hasta la victoria; la forma en cómo lo harán, dependerá de tus decisiones y acciones. Este título saldrá en el 2016 y está siendo desarrollado por la compañía Deep Silever la cual, nos promete poder interactuar en un mundo abierto con la posibilidad de tomar rutas alternas para completar las misiones. El verdadero reto está ahora en saber que camino debes tomar para lograrlo.

http://bit.ly/1L2BNNB

BATMETAL CHILDREN OF BATMAN

Por fin a llegado el lado oscuro de BATMAN y ésta vez no será como te lo esperas, ya que viene acompañado del poderoso ritmo del metal. La banda Children of Batman a creado un nuevo subgénero basado en el personaje del cómic y los poderoso rifts del Dark Metal y el Heavy Metal. La representación de la banda pareciera ser una parodia a este personaje sobrevalorado con más de 75 años de trayectoria, sin embargo, la aparición de villanos y aliados de BATMAN hacen de sus videos algo entretenido de ver al ritmo del más enérgico género de música.

http://bit.ly/1NkQvWS

EN LA CUERDA FLOJA (THE WALK)

Para éste mes llega a la pantalla grande una historia que te adentrará en la vida de Philippe Petit, un hombre que fue catalogado como demente, ya que el único motivo que impulsaba su vida era la necesidad de encontrar el lugar preciso y único para realizar una de las hazañas jamás ejecutadas y convertirse así en ser la primera persona en cruzar a través de una cuerda, las torres gemelas de Nueva York (Wall Trade Center). La película está basada en el libro To Reach the Clouds en cual narra los hechos que acontecieron en la década de los 70 y cómo éste Philippe hizo lo imposible por lograr alcanzar su sueño, la inmortalidad de su nombre en las páginas de la historia.

6

http://bit.ly/1MexOmi


´

7


Tokyo Ghoul Segunda Temporada

K

¿Será lo que esperábamos?

Aitor Sobera Ortiz de Zárate

en Kaneki es un joven mitad ghoul y mitad humano que después de una experiencia traumática, transformó su modo de vida y cambió en definitiva su forma de ver el mundo. En él despierta un deseo insaciable de poder, con el único fin de no cometer los mismos errores del pasado y proteger por encima de todo a los que le han ayudado durante su vida. Esto le llevará a luchar contra nuevos enemigos y tirar nuevas barreras; además, crece en su interior, una lucha contra su "yo" interno que no filanizará hasta encontrar su sitio en el mundo. Lo cierto es que cuando terminó la primera temporada nos dejó con una intriga que sólo nos la podía saciar la segunda entrega, denominada Tokyo Ghoul √A. Todo pintaba bonito y épico, el primer capítulo de esta secuela nos lo deja bien claro; pero si hay algo que se carga este estupendo ánime, aparte del final que ya trataremos después, es su opening. Cuando uno toma un ánime viendo como termina su primera temporada, siempre nos deja muchas preguntas sin respuesta; esto nos permite la espera para una segunda parte, sin embargo, lo que se espera en toda secuela es que todo sea épico, y su opening visible y emocionante desde el primer episodio por el cual tenemos puestas todas nuestras ilusiones. He de admitir que sólo he llegado a ver una vez entero el primer capítulo. Por lo demás, el ánime siguió su ritmo de acción con mucha sangre, una muy buena animación y demasiada censura, así como algunos toques de misterio que nos generaban preguntas nuevas a cada capítulo que pasaba. El problema viene cuando finaliza y todas nuestras preguntas se quedan sin respuesta. No es sólo que nos

8

quedemos con la insertidumbre de qué sucedio, sino que el tiempo que podrían haber utilizado para despejar dudas y desvelar información, lo emplean para que veamos pasear a Kaneki. Entiendo que pretendan que ese desfile nos haga correr alguna que otra lagrima, pero ¿de verdad no se les ocurrió qué el tiempo empleado es demasiado? Un personaje que debo mencionar en esta reseña y que me decepciono profundamente fue Juuzou. Me esperaba muchísimo más de él, no sólo por cómo se nos presenta en el ánime, sino por cómo va evolucionando y lo demente que está, sacándose armas de cualquier parte, así como por lo bien que se lo pasa cuando lucha y mata ghouls. Todo pintaba excelente, pero tal vez es por el final demasiado raro que tiene este ánime, que me dejo muy destemplado. Lo dicho, me esperaba muchísimo más de Juuzou. Siendo optimistas, podemos pensar que tenían la intención de hacer algo como la primera temporada, y tratarón de dar la información que faltaba en los capítulos anteriores, aunque por otro lado la intención se convirtió en algo muy aburrido al ir desvelándola poco a poco, temporada a temporada. Es más, en mi opinión, la historia llego a un punto en el que no pudo avanzar más por toda la información que mostraron de golpe. En definitiva, el ánime pintaba muy bien, pero un mal opening, una historia contada demasiado rápido en algunos puntos decisivos y muy extenso en otros sin importancia, así como un final malo, han hecho que nos deje con un sabor de boca igual al de la primera parte. La historia a final de cuentas no resulta ser mejor o peor, pero si me desilusiona después de todas las esperanzas que teníamos puestas en la segunda temporada de Tokyo Ghoul √A.


http://bit.ly/1MaWXcM

9


GADGETS NOVIEMBRE

Lo mejor de la tecnología para esta temporada

Salvador Ordóñez

APPLE iPAD Pro

Para esta temporada te recomendamos que aproveches la llegada del nuevo iPad Pro que revolucionará la industria de las Tablets gracias a su pantalla retina de 12.9”, tecnología Multi-Touch, un chip A9X con arquitectura de 64 bits, memoria interna de 128 Gb, cámara 8 Mp y frontal de 1.2 Mp. Cuenta además con un sistema envolvente de cuatro bocinas.

1

http://apple.co/1KuJ8F7

2

DAEWOO FRIGOBAR RETRO 4.2 P3 MENTA

Este frigobar con diseño curvo combina el aspecto tradicional con la nueva tecnología. Por dentro cuenta con parrillas antiderrapantes, iluminación LED. Control de enfriamiento de tres niveles y Fresh Keeper.

http://bit.ly/1kAs0sM

ASUS LAPTOP 14”/ X455LA/CORE i3

Esta Laptop en color negro será práctica para poder llevar a la escuela. Cuenta con una pantalla LED HD de 14”, procesador Intel Core i3 memoria RAM de 4 Gb, disco duro de 1 Tb, lector DVD, cámara web HD y sistema operativo con Windows 8.1

4

http://bit.ly/1MJp17P

EPSON MULTIFUNCIONAL INKJET WIFI XP411

Este multifuncional cuenta con tecnología inalámbrica por lo que podrás mandar a imprimir fotografías o documentos desde cualquier dispositivo conectado a tu red local, incluso podrás mandar a imprimir desde cualquier lugar del mundo gracias a su software Epson Connect. Cuenta con escáner con una resolución de 5760 x 1440 dpi

http://bit.ly/1jEAvTl

10

3


5

PERFECT CHOICE MESSENGER LAP 14” TAB 10” FREEWAY El maletín Perfect Choise es perfecto para transportar tu laptop. Esta fabricado con materiales sintéticos resistentes al agua. Su diseño ultra ligero te permitirá transportar una computadora de 14” o una Tablet de tamaño similar. http://bit.ly/1jZhxGt

6

SAMSUNG GALAXY S6 32GB NEGRO

El smartphone que combina perfectamente el metal con el cristal. Tiene una pantalla de 5.1” Quad HD súper AMOLED, procesador Octa-Core de 64 bits, 3 Gb en RAM y 32 GB en memoria interna. Cuenta además con una cámara de 16 Mp y 5 Mp en cámara frontal. http://bit.ly/1GwmhxD

7

JABRA AURICULAR INALÁMBRICO STORM

Este auricular inalámbrico te permitirá total libertad de comunicación. Cuenta con una batería para más de 10 horas de conversación, tecnología NFC y Wind Noise Blackout que permite eliminar los ruidos de fondo para una mejor comunicación. http://bit.ly/1GwmP6N

SAMSUNG PANTALLA CURVE UHD SMART 65”

La nueva generación de pantallas curvas llega con una resolución Ultra HD 4K para visualizar imágenes más nítidas. Su conectividad Wi-Fi te permitirá enlazarte a tus canales favoritos de televisión por internet. Cuenta además con 4 entradas HD y tres USB, así como la oportunidad de actualizar su software.

9

8

http://bit.ly/1OWR607

COOKOO COGITO CLASSIC MORADO DEEP

El smartwatch Cookoo cogito está diseñado para la nueva generación digital. Recibe notificaciones de redes sociales, mensajes de texto, E-mail, recordatorios y calendarios. Puede controlar la música de los dispositivos que se encuentran enlazados a el, además que puede localizar tu dispositivo fuera de rango.

http://bit.ly/1LLHNvj

GOPRO PHANTOM

El drone Gopro Phantom se ha convertido en el dispositivo más fácil de poder volar. Puede realizar tomas aéreas con absoluta precisión. Su velocidad de ascenso y descenso es de 6 m/s. Ofrece un tiempo de vuelo de 25 minutos y una velocidad máxima de 10 m/s gracias a su batería recargable y sus 8 hélices. http://bit.ly/1R1XQc0

10 11


LILY DRONE ¿CUMPLIRÁ?

Promete seguirte a todos lados, pero…

D

Fernán DeMaría F.

esde hace décadas, las tomas aéreas han capturado la imaginación de millones de personas y cientos de miles han deseado grabar videos con panorámicas o travellings aéreos. Bueno, desde hace algunos años, esto ya es posible a nivel de mercado de usuarios masivos, pero ahora nos topamos ante a una opción que, nos dicen sus creadores, podría innovar y redefinir la foto y videografía desde el aire. Se trata de Lily, la cámara drone pensada para que puedas tener opción de grabar desde el aire, que viene a redefinir el mercado porque su precio es mucho más “accesible” y resulta más fácil de volar. Justo este último detalle es uno de los más importantes porque si bien existen ya muchos drones disponibles en el mercado, se requieren muchas horas de práctica para aprender a volarlos y la falta de habilidad en el control de estos dispositivos da como resultado fotografías y videos… digamos que no muy buenos. La empresa que diseñó a Lily, busca dejar mucho del vuelo a procesos automatizados que hagan más sencillo que tú te concentres en el “levantamiento de imagen” (forma en al que los especialistas se refieren a la grabación y toma de fotografías). Pero, al menos para mí, la forma en cómo se utiliza es donde mucho del atractivo se acaba: Lily sólo necesita que lo lances y el dispositivo comienza a volara y fotografía por sí mismo. Así es, sólo se lanza. Aburridooooo… Pero bueno, Lily se une al grupo de drones como el Zano (que cabe en la palma de la mano) y Nixie (que vuela de manera autónoma). Todos se caracterizan porque su diseño está pensado para facilitar el vuelo y permitir que el sujeto de nuestra grabación se mantenga bien enfocado. Antoine Balaresque, egresado de la Universidad de California, Berkeley, es el desarrollador de Lily y cuenta que luego de un viaje de vacaciones en 2013, donde su mamá no sale en una sola de las fotos porque ella era

12

quien las tomaba, pensó en una manera de hacer que todos los presentes pudieran estar en la fotografía sin depender de la ayuda de algún extraño. En ese momento, fue que comenzó a pensar cómo podría uitilzar robots y computadoras para aportar una solución a este tipo de situaciones. El resultado de sus esfuezos ahora se encuentra disponible como preorden a partir de pincipios de Octubre, y es una tetrahélice de policarbonato negro de 26.1 centímetros por lado y 8.18centímetros de alto. Esto lo hace relativamente pequeño y bastante ligero. Su tiempo de carga es de 2 horas y puede mantenerse operando durante 20 minutos. No tiene una batería desmontable por lo que no es posible realizar grabaciones continuas… tienes que volver a cargarlo para que vuelva a estar en el aire. Máaaaas aburridooooo. Al menos tiene la ventaja de que está sellado y es resistente al agua hasta una profundidad de 1 metro, y está programado para detectar que su dueño lo lanzó al aire y está comenzado su caída libre. Una vez que lo resgitra, se activa y comienza volar por su cuenta. Algo que hasta la fecha, nadie había pensado en hacer. A partir de que comienza su vuelo, Lily se comunica un dispositivo de rastreo con forma de disco que puedes llevar en la muñeca o guardarlo en uno de tus bolsillos. Con él puede hacer que la cámara se menatenga enfocada en tus movimientos en distancias que van de 1.75 metros y hasta los 30 metros y a alturas de 1.75 y hasta 15 metros porn encima de tu cabeza. Lo interesante es que va equipado con micrófono y eso permite que el audio luego se sincronice con la imagen capturada por la cámara. Las fotos se graban con una resolución de 12 megapixeles y tienes dos opciones para resolución de video: 1080p a 60 fps (cuadros por segundo) o 720p 120 fps. La posición de la cámara es frontal y tiene un campo de visión de 94º, pero no tiene gimbal (estabilizador)… así que habrá que esperar ver cómo funciona la captura de imágenes en condiciones que no sean las “ideales”.


Puede funcionar con apps diseñadas para iOS y Android, así que la compatibilidad no es un problema y con ellas, puedes ajustar la cámara para logra distintos tipos de encuadres y algunos efectos. Tiene memoria integrada de 4 GB y se le puede expandir mediante tarjetas micro SD por medio de su único slot. El contenido después puede editarse y compartirse a parir de la app. ¿Su precio? Puedes pre-ordenar tu drone Lily en el sitio web de la empresa por US$499 que se cobran de inmediato y no una vez que esté listo para su envío. Pero,

¡ojo! El fabricante espera ser capaz de comenzar con los envíos internacionales a partir de Febrero de 2016. La otra sorpresa es que una vez que salga al mercado, el precio será de US$999. Es decir, “aprovechen el precio de ganga ahora”… ¿Mi recomendación? Estudien la información muy bien y decidan si quieren o necesitan un drone de este tipo. O esperen a que alguien más lo comience a usar una vez que salga y, mientras tanto, vayan ahorrando para comprarlo. Yo, paso. Si no tiene estabilizadores a ese precio, no es para mí.

13


GI FLYBIKE

Tecnología en movimiento

L

Yessica Sánchez Cure

uego de tener algunos problemas con la patente mundial debido al nombre anterior (Gi Bike), la iniciativa de tres jóvenes argentinos está de nuevo “lista” para hacerse realidad. Esto era si la campaña de financiamiento en Kickstarter y ya logró cumplir la meta y recaudar $75,000 dólares para desarrollar el proyecto. De hecho, hasta hoy que estoy terminando el artículo, quedan 19 días para que termine la campaña y llevan comprometidos $234,046 dólares. Si acaso les interesa, adquirir una, tienen hasta el 3 de noviembre para hacer su pre-orden… además está el detalle poco claro de la cantidad real de bicicletas disponibles, pues cuando se dio la noticia de la campaña de financiamiento, se hablaba de que sólo se producirían 300 unidades, sin embargo hay sólo 153 disponibles (150 para contribuidores “estándar”, 2 para contribuidores que sólo aportan más dinero y reciben lo mismo, y una que incluye un viaje a Argentina para convivir con los diseñadores). Lo que a mí me parece un poco escandaloso es el precio: la Gi FlyBike cuesta $1,990 dólares (antes de aplicar impuestos y aranceles por importación), a pesar de que a los creadores del proyecto les parezca que se trata de un precio “económico”. ¿Qué es lo que ofrece Gi FlyBike? Bueno, a decir de quienes la desarrollaron, se pliega en “un segundo” y aunque tarda Dos… ¿quién toma en cuenta una diferencia de segundos? Así que en ese aspecto, sí es la que se pliega con mayor rapidez de las que existen en el mercado actual. Su diseño es sencillo, sus ruedas tienen un diámetro de 66 centímetros, es decir rodada 26 y por los tanto fácil de encontrar en caso de necesitar una refacción, tiene ocho pares de rayos que la hacen resistente para viajes sin

14

mayores sobresaltos y para superficies asfaltadas; es decir, es completamente urbana. Su peso programado será de 17 kilos y cuenta con una batería de litio ferropolímero, con carga suficiente para lograr autonomía de 60 a 80 kilómetros (y, los que saben, verán que la diferencia 20 kilómetros es mucha cuando se trata de transporte autónomo). Una vez que está plegada, la bicicleta mide 90 centímetros de largo y un metro de alto, así que se le puede meter sin problemas a un elevador, guardarla en un departamento relativamente pequeño y trasladarla en el metro o un colectivo (siempre que no vaya muy lleno o, en el caso del metro, sea domingo… dudo que hagan excepciones entre semana y los sábados aunque las bicis sean plegables). Además, está equipada con sistema antirrobo, luces laterales para hacerla más visible, cadena que no requiere mantenimiento (supongo que se referirán a engrasado y limpieza constantes) y es posible conectarla a un Smartphone para aprovechar funciones como selección de rutas óptimas, monitoreo del consumo de calorías y kilómetros realizados… cosa que se puede hacer sólo con el teléfono inteligente aunque no se conecte a las otras bicicletas que ya existen en el mercado, pero bueno… hay a quien le gusta la “multiconectividad”. Sigo pensando que el precio es excesivo (estamos hablando de que en México, antes de impuestos y costos de envío), la Gi FlyBike costaría $34,228 pesos (tomando un tipo de cambio de $17.20 pesos por dólar a la hora del cierre de la campaña), pero bueno se trata de una edición limitada y un producto eléctrico que gasta energía, pero no tanta como un auto. Seguro habrá a quien esto le resulte justificación suficiente para adquirirla.


15


E

Javier Barriopedro

l día 11 de Octubre, se conmemora el Día Internacional de la Niña, de acuerdo con la fecha instituida por Naciones Unidas el 19 de diciembre de 2011. La fecha es crucial porque tiene como objetivo crear consciencia y reconocer sus derechos, así como sensibilizar a toda la población acerca de las dificultades a las que aún se enfrentan en nuestras sociedades: aún son víctimas de discriminación, violencia de género y falta de oportunidades en términos generales. Por esta razón el CONACYT lanzó un programa llamado “1,000 niñas, 1,000 futuros”. ¿Les digo lo que pienso? No es suficiente. Sin embargo, es un comienzo… no bueno, pero es un comienzo. Para nadie es una revelación que nuestro gobierno no tenga la educación o la equidad de género como parte importante de sus prioridades, sabemos que le importa poco y por eso, se hacen anuncios triunfalistas acerca de programas que son reducidos y, dicho con todas sus letras, son ridículos porque no se alcanza ni siquiera al 0.01% de la población femenina del país, que haciendo un cálculo rápido de niñas en edad escolar que pueden comenzar a prepararse para desarrollarse en carreras científicas, como investigadoras, ingenieras y académicas… según los datos del INEGI publicados en 2014, tenemos que la población total de mujeres mexicanas es de 61,277,304 (que son 2,8 millones más que los hombres), y la población estudiantil de primaria a secundaria reporta que 99.4% de las niñas entres 6 y 11 años asiste a la escuela. Después vamos a suponer que se sigue la progresión de los estudios conforme avanza la edad de las niñas, y en secundaria 93.1% de las niñas de 12 a 15 años, asisten a la escuela. Noten que en algún momento del paso de primaria a secundaria. perdimos a 6 niñas. No obstante, lo que es causa de alarma es que para cuando entran a preparatoria y que es cuando se pueden encausar al estudio de ciencias, sólo 68.5% de las adolescentes siguen con su educación. De golpe, de cada mil estudiantes mujeres, perdimos a 315 niñas más. Pero lo terrible es ver que para las edades universitarias, que van de los 18 a los 24 años, sólo queda 30.1% de la chicas estudiando una carrera. ¿Los estudios de posgrado? Sólo los cursa el 7.3% de las mujeres de 25 a 29 años. Lo curioso es que son las mujeres quienes tienen un porcentaje de deserción escolar que siempre es menor que el de los hombres.

16

Ahora, el total de mujeres que cursan el bachillerato, es de 2.1 millones. El programa del CONACYT (que es una lotería: las interesadas se postulan y después un consejo determina si pueden o no ser beneficiarias), inicia justamente con las estudiantes que están a punto de ingresar o lo están cursando y cubre a… Mil. Del total de mujeres jóvenes que están en bachillerato, sólo mil podrían ser beneficiadas y, sin embargo, esto se presenta con bombo y platillo por parte de las autoridades y fundaciones que participan del programa. Yo sólo tengo que decir: Pensar que se trata de un programa relevante, es ridículo. No llega ni siquiera al 0.1% de la población objetivo. De hecho, apenas alcanza el 0.049%. Es una cifra por demás desalentadora. Pero es lo que tenemos y es una oportunidad que no sólo tenemos que vigilar que se mantenga vigente, sino pugnar para que se extienda. Una gran parte del discurso lleva el tenor de “se apuesta por la ciencia”. No, señoras y señores… no se “apuesta”, se trabaja en aras de formar cada día más científicos mujeres, que son el grupo que más permanece en la escuela. Me pidieron hablar del potencial de las niñas en el campo comprendido por las carreras de ingeniería, matemáticas, ciencia y tecnología… ¿potencial? Pues hay mucho. Todo es latente, hay muchísimo que pueden hacer. Una pregunta encausada sería: ¿cuál es la capacidad de las niñas para la ciencia? La misma y, con las cifras en mano, quizá más que la de los estudiantes varones (recuerden, somos los que más abandonan los estudios). Las verdaderas preguntas son: ¿por qué no estamos apoyando más mujeres para que desarrollen sus capacidades? ¿Cuándo vamos a dejar de relegarlas en los ámbitos de investigación o profesionales de las Ciencias Duras? ¿Cómo lo hacemos? Yo sólo tengo respuesta para la última: reconociéndoles igualdad de oportunidades y capacidades, y fomentándoles desde pequeñas la curiosidad científica, el espíritu innovador y los modelos femeninos positivos para su superación y empoderamiento como personas. De lo contrario, los planes y programas de nuestro gobierno, seguirán siendo “apuestas” y no obligación para con nuestras conciudadanas, primero, el resto del país, después.


LAS NIĂ‘AS MEXICANAS Con el mismo Potencial para la Ciencia

17


E

DATAPRIX

Juan Vidal

s una solución de analítica de negocio que permite explorar visualmente todos los datos con un interfaz fácil de usar y accesible a usuarios de todos los niveles, sin necesidad de conocimientos estadísticos, técnicos o de diseño. Visual Analytics dentro de las soluciones B.I. disponibles en el mercado se posiciona dentro de las soluciones de visualización analítica. En este grupo tenemos soluciones como Qlikview, Tableau, Tibco Spotfire y otros. De forma resumida la propuesta de este tipo de soluciones es la siguiente: • Las herramientas de visualización analítica permiten realizar análisis interactivos apoyándose en ágiles funcionalidades de visualización y gestión de datos, permitiendo realizar un análisis libre sobre el modelo de datos importado en la herramienta. • La orientación de estas herramientas suele ser de autoservicio B.I., facilitando la integración y análisis de datos con poca intervención de IT • Las capacidades de visualización, permiten así mismo realizar presentaciones claras y eficaces que ayuden en la toma de decisiones. • Agilidad y rapidez en el manejo de datos apoyándose en tecnologías in-memory. • Estas herramientas se apoyan en una interfaz intuitiva que facilita la exploración de datos orientada tanto a perfiles TI como analistas de negocio. SAS Visual Analytics ofrece una plataforma completa para la visualización analítica, lo que permite identificar los patrones y las relaciones de los datos que antes no eran evidentes. Las capacidades interactivas de BI y reporting de autoservicio se combinan con la analítica avanzada para que todos puedan descubrir conocimientos de cualquier tamaño y tipo de datos. Vamos a conocer las características de la herramienta, analizando cada uno de sus módulo principales, así como su arquitectura técnica: Preparación de datos: importación y preparación de datos para su posterior visualización y análisis. Análisis exploratorio: módulo para explorar, analizar y visualizar los datos, con objeto de identificar patrones, tendencias y conocimiento en los dato. Diseñador de informes: módulo de reporting para diseño de informes y dahboards.

18


Preparación de datos SAS/VA dispone de un módulo de importación de datos y otro de preparación de datos basado en SQL que permite adecuar los datos importados a la estructura óptima para su explotación. Para obtener la mayor potencialidad de análisis es recomendable que la herramienta trabaje sobre una tabla agregada que consolide la información de varias tablas y fichero de partida. Se trata de el clásico tablón obtenido como cruce de N tablas de hechos y dimensiones. La herramienta también habilita la opción de trabajar con un modelo en estrella en el que la tala de hechos y las dimensiones serían tablas independientes. La herramienta dispone de un módulo para preparación de datos que permite realizar transformaciones sobre los datos importados basadas en SQL realizados en un query builder. Es posible que este módulo se quede un tanto escaso cuando las transformaciones a realizar son medianamente complejas, en este caso SAS propone el uso de Enterprise Guide, ofreciendo la opción Visual Analytic Pro (Visual Analytics + Enterprise Guide). Sobre los campos de las tablas importadas es relativamente sencillo derivar campos utilizando los elementos calculados que de una forma sencilla da acceso a un potente editor de expresiones.

http://bit.ly/1H3KxCj

Análisis exploratorio Una de las principales diferencias de SAS con respecto a otras herramientas de visualización analítica son su capacidades de análisis avanzado (técnicas predictivas, series temporales, asociaciones, etc..) basándose en la larga experiencia de SAS en herramientas de este tipo como SAS/Enterprise Miner. Los algoritmos a aplicar en análisis predictivo se detectan automáticamente, pudiendo obtener info de detalle del algoritmo seleccionado. Es posible crear de forma sencilla árboles de decisión para realizar grupos o clasificaciones en los datos, así como diagramas de box-plot para conocer en profundidad la distribución de los datos. Posibilidad de obtener de forma sencilla series

temporales para realizar proceso de forecasts. Estos procesos son muy sencillos de implementar, pero se quedarían cortos si pensamos en un forecast más industrializado que permitiera realizar un forecast masivo cuyo resultado sería entrada para otros sistemas (ejemplo previsión de necesidad de stocks), en estos casos es más recomendable ir a soluciones tipo SAS Forecast Server. En los procesos predictivos, podemos emplear la funcionalidad "factores subyacentes" que nos permite evaluar cómo afectan otras variables a nuestra predicción pudiendo realizar análisis de escenarios y simulaciones “what-if ”. Posibilidad de conectarse mediante add-in a Visual Statistics para procesos de análisis estadístico más avanzados. Utilidades para conocer las relaciones entre las variables, tales como matrices de correlación. Estadísticas descriptivas que permiten conocer la distribución de valores en las variables (mínimas, máximas, media, nulos, etc..)

Diseñador de informes Diseñador de informes de uso muy intuitivo (arrastar y soltar). De forma sencilla podemos crear informes o dashboard utilizando los objetos de gráficos y visualización en lo que incluimos los indicadores o clasificadores que seleccionemos. Posibilidad de incorporar a los dashboards documentos de análisis obtenidos en los procesos de análisis exploratorio. Una vez diseñados un serie de objetos gráficos sobre un documento podemos definir interacciones entre ellas, para relacionar las selecciones realizadas en algunos de ellos con otros objetos o para definir una navegación entre los mismos. SAS Visual Analytics incorpora múltiples posibles visualizaciones diagramas de cajas, mapas de calor, gráficas de burbuja animadas, diagramas de red, árboles de decisiones, geolocalización. Así mismo, las capacidades de autocharting que ayuda a determinar la gráfica más adecuada para desplegar los datos según los elementos seleccionados para el análisis. Una barra de visión general permite hacer zoom sobre los rangos de datos que se deseen sin perder la visión completa. Organización en dimensiones y jerarquías para realizar análisis OLAP multidimensional. Creación, visualización, publicación y distribución de análisis e informes multidispositivo. Integración con Office: Outlook, SharePoint, Excel y Power Point. Arquitectura técnica Los tiempos de respuesta son ágiles debido a que los datos son cargados en memoria, basándose en SAS LASR (servidor analítico en memoria de alto desempeño). Solución orientada a Cloud con opción también on premise En resumen, se trata de una potente herramienta de visualización analítica, que es una interesante opción para aquellas empresas que sin tener que realizar una gran inversión inicial, quieran empezar a realizar analítica, con la posibilidad de escalar y crecer hacia otras herramientas.

19


E

Carlos Rivera

n tiempos recientes, el término innovación se ha popularizado de una manera notable, tanto que se ha llegado a abusar del mismo. En ocasiones hay quienes llegan a confundirlo con otras palabras como creatividad, improvisación o inventiva. Debido a lo anterior, resulta importante retomar un par definiciones de innovación. Por un lado podríamos retomar la definición contenida en el Manual de Oslo (OCDE, 2006), la cual se encuentra muy orientada al sector empresarial y menciona lo siguiente: “Una innovación es la introducción de un nuevo, o significativamente mejorado, producto (bien o servicio), de un proceso, de un nuevo método de comercialización o de un nuevo método organizativo, en las prácticas internas de la empresa, la organización del lugar de trabajo o las relaciones exteriores”1. Por otro lado, podemos encontrar una definición con un espectro un tanto más amplio aportada por la Comisión Europea en el “Libro Verde de la Innovación” (CE, 1995), en el cual se considera a la innovación como “sinónimo de producir, asimilar y explotar con éxito una novedad, en las esferas económica y social, de forma que aporte soluciones inéditas a los problemas y permita así responder a las necesidades de las personas y de la sociedad”2. Al analizar ambas definiciones es posible identificar que la innovación implica en gran medida el agregar valor, ya sea a las empresas, a las organizaciones, a la sociedad o a las personas y (para fines del presente texto) es dicho valor el que da sentido a la implementación de la innovación. Actualmente vivimos en un mundo con una gigantesca oferta de productos y servicios nuevos o mejorados, la cual crece a cada segundo. Este ritmo vertiginoso nos obliga a administrar las innovaciones que adoptamos en nuestras empresas, organizaciones e incluso en nuestra vida cotidiana. En principio pudiera resultar un tanto confuso el pensar en el porqué debe ser administrada la innovación, pero cobra sentido al tener como base que esta debe aportar valor.

20


Una de las mejores maneras para ayudarnos a decidir si es el momento adecuado para adoptar o no una determinada innovación es el formularnos algunas preguntas que nos permitan identificar su valor

En este ejemplo se señalaron en color verde los puntos favorables de cada opción, en amarillo los neutrales y en rojo los negativos.

Una de las mejores maneras para ayudarnos a decidir si es el momento adecuado para adoptar o no una determinada innovación es el formularnos algunas preguntas que nos permitan identificar su valor, ya sea para nosotros mismos o para nuestra organización. Para clarificar un poco más este punto, supongamos que el director de sistemas de una empresa debe decidir si mantener el software especializado con el que cuentan actualmente sus empleados y que tiene un costo por usuario; o si debe cambiar a un nuevo software con características similares pero gratuito. En este ejemplo (arriba) podemos ver que si solo se considera de manera cuantitativa los puntos positivos contra los negativos la decisión del director de sistemas del ejemplo sería quedarse con el software que actualmente maneja, aún considerando que existe un el costo por usuario, lo que convertiría al novedoso sistema gratuito 1 2

en una innovación no implementada y por tanto sin valor. Sin embargo, como ya se mencionó la importancia de la innovación reside en el valor que puede aportar, por lo que si al ejemplo agregáramos como criterio adicional que en este momento la principal prioridad de la empresa es la seguridad, el resultado sería probablemente muy distinto, por lo que el sistema gratuito sería una innovación implementada por su valor y por tanto exitosa. Por todo lo anterior, cada día cobrará mayor relevancia el contar con herramientas y conocimientos adecuados que nos permitan administrar de manera eficiente nuestra manera de adoptar e implementar productos, servicios o procesos novedosos, de manera que se conviertan en innovaciones exitosas al aportarnos un valor significativamente mayor que el que actualmente tenemos.

Organización para la Cooperación y el Desarrollo Económicos (OCDE). (2006). Manual de Oslo. Guía para la recogida e interpretación de datos sobre innovación. Comisión Europea. (1995). Libro Verde de la Innovación. Junio 5, 2015, de Centro Europeo de Empresas e Innovación de Albacete Sitio web: http://bit.ly/1GEfu57

21


22


S

Alejandro Rebollo

e dice que los mayores avances en el mundo de las Tecnologías de Información se han dado gracias a las guerras y el avance de los negocios en el ámbito administrativo; así pues, hemos sido testigos de cómo las computadoras pasaron de ser usadas en el medio bélico, pasando luego por el medio corporativo hasta convertirse en dispositivos de uso personal. Algo similar a lo que ocurrió con las computadoras está pasando con lo que se puede denominar como VANT (vehículo aéreo no tripulado), UAV (Unmanned Aircraft Vehicle) o dron. Originalmente estos drones nacieron como aviones que eran piloteados de forma remota, con el paso del tiempo se hicieron más sofisticados y hay algunos que vuelan de forma autónoma de acuerdo con un plan y un sistema de vuelo preprogramado. Históricamente los drones surgieron a raíz de la segunda guerra mundial, eran usados como medios de reconocimiento para posteriormente entrenar a los operadores de cañones antiaéreos. Fue hasta finales del siglo XX cuando los VANT se empezaron a usar como naves de radiocontrol y con cierta autonomía; posteriormente, y aunado al avance en teleinformática y transmisión de datos, estas naves tenían la posibilidad de transmitir gran información, incluso con mecanismos de encriptación, por si esta fuese interceptada. A inicios del siglo XX se vio que estos drones podían tener otras aplicaciones de uso civil y recientemente, incluso, como aplicaciones comerciales. Algunas de las aplicaciones que se reconocieron para efectos civiles son: la distribución de señal gratuita de internet, la gestión de los cultivos en la agricultura, el control de incendios en áreas boscosas y en general, aquellas situaciones en que el llevar una aeronave tripulada ponga en riesgo la vida de la o las persona(s) que la manejan. En ámbitos comerciales, a últimos años han surgido aplicaciones de los drones como es: la supervisión del avance de obras en ingeniería civil y construcción en general, el monitoreo de almacenes grandes y que suponen una alta rotación de inventario, la purificación del aire para industrias y el hogar. En lo que se ha descrito hasta ahora, vemos como los drones empezaron siendo usados en un ámbito bélico y hoy, en nuestros días, ya tenemos acceso a la compra de un dron que puede variar en precio entre los 150 dólares hasta alrededor de unos 1000 dólares, en términos de uso personal y recreativo. Pero es, precisamente, el nuevo uso, digamos un tanto personal y recreativo que se le está dando a estos dispositivos que ha ayudado a diversificar su campo de aplicación. El problema que ha tenido esta masificación de la distribución de drones es que siguen siendo productos hechos meramente con las especificaciones de hardware y software de cada manufacturero que los distribuye. Esto es, hasta últimos años no ha existido un medio de software que unifique las

aplicaciones que se pueden usar en un dron, es decir, no existía un sistema operativo para los drones. En últimos años dos empresas han venido trabajando fuertemente en el tema de un sistema operativo para drones: Ubuntu y AirWare. Ubuntu que lanzo a inicios del 2015 el sistema operativo Snappy Ubuntu Core que cuenta con un código abierto y que está pensado para drones y cualquier herramienta que trabaje en línea, tal como pueden ser robots y dispositivos de lo que llamamos “el Internet de las Cosas”. Ubuntu es un sistema basado en GNU/Linux y que ofrece altas prestaciones de seguridad, capacidad de que los desarrolladores tendrán disposición de la plataforma, actualizaciones constantes y acceso al ecosistema de la empresa. Actualmente la empresa española Erle-Core y Canonical ya aplican este sistema operativo en sus drones y están creando una tienda en línea para aplicaciones de drones basadas en Ubuntu. Por otro lado, AirWare es una empresa estadounidense que lleva desde el año 2011 desarrollando un sistema operativo para drones, ha recibido apoyo de fuertes inversores como es el caso de General Electric Ventures y Kleiner Perkins. A inicios del 2015 publicaron la liberación de su nueva plataformasistema operativo denominado Aerial Information Platform (Plataforma de Información Aérea). Este sistema operativo, a diferencia de Ubuntu, no es un software de código abierto, y está pensando más en ámbitos de que se desarrolle una nueva figura en el ámbito de los drones: el programador de drones. Esto es, a partir de la plataforma de AirWare se podrán desarrollar aplicaciones que definan el campo de acción y planifiquen la ruta, la zona de vuelo y las decisiones que pueda tomar el dron: el uso específico que se le dará al dron. Además, la plataforma de AirWare está diseñada para cumplir con elementos de legislación y regulación de este tipo de aeronaves, permite, además, la integración de servicios Cloud, para almacenamiento y registro de datos durante el tiempo de vuelo, así como aquellos elementos que puedan captar los sensores del dron y asegurar la transmisión y el análisis de la información, y así generar la colaboración. El sistema operativo AirWare tiene tres módulos: el primero es una caja pequeña que contiene los componentes electrónicos y el software de piloto automático, el segundo es un paquete de software para una computadora o una tableta para realizar la planificación de vuelo y el tercero es un servicio en línea para ayudar a gestionar la operación del dron, permitiendo almacenar planes de vuelo, datos recogidos. La suscripción anual al sistema AirWare cuesta 2,500.00 dólares por vehículo. Sin lugar a dudas estos nuevos sistemas operativos van a traer consigo la liberación de los drones hacia el público en general y no solo para personas que tengan cierta especialización en el hardware y en aeronaves controladas por radiocontrol, como en su momento ocurrió con la computadora personal.

23


L

Txabier Exteberri

uego de horas y horas de trabajo, que sí pueden ir de unas 10 hasta cientos dependiendo de el código que hayas desarrollado, ya estás listos para lanzar el programa, liberar la app o entregar el paquete para quien te lo pidió. En los primeros dos casos, no tienes mayores complicaciones porque, dando el crédito correspondiente a todos los desarrolladores de quienes tomaste las herramientas que integraste a tu creación y añadir tu nombre a la lista de colaboradores, sólo decides el tipo de licencia con el que vas a liberar tu código y listo. Los cargas a la nube, anuncias que está disponible y para qué sirve, y dejas que los usarios lo descargue, evalúen y recomienden… o le metan mano y los apadptes, reconfigueren o utilicen en una aplicación más compleja porque, al fin y al cabo, es SL. Pero, ¿y si se trata de un proyecto de desarrollo para una empresa o un usuario que lo empleará de manera mayoritariamente propietaria? ¿Cuál es el procedimiento? ¿Qué limitantes existen? Primero que nada, ya dijimos anteriormente que SL no tiene porque ser gratuito, así que sí, se puede vender un desarrollo cuya base sean herramientas diseñadas con SLu (unresticted), que son aquellas cuyas licencias te permiten emplear SL en sofwtare propietario con fines comerciales. Este tipo de licencias son raras, pero existen y es importante mencionarlas. Una vez que tú vendes tu desarrollo, pasas de utilizar SL, a sólo utilizar SLu, OS o CA (Open Source, Código Abierto). Ya no estás trabajando bajo la premisa de libre distribución y gratuidad, ahora trabajas con herramientas que tienen código abierto para que la tecnología se siga desarrollando por el usuario o terceros a quienes él los distribuya. Este usuario, como

24

ya dejamos claro, tiene la intención de usarlo con fines mayoritariamente propietarios (como es el caso de la empresa RedHat, que desarrolla software propietario con herramientas de código abierto, a partir de unix y linux, que son gratuitos), y que incluso puede incluir tu desarrollo en sus productos de software cerrado (o privativo). Por eso es importante hacerte notar que los términos de la licencia a la que se adhiere tu paquete, ahora es LGPL (Lesser General Public Licence) o BSD (Berkeley Software Distribution), las cuales que no obligan a mantener status de software libre y en el caso de la BSD, permiten la utilización de código fuente de libre acceso en desarrollos propietarios. Una vez que esto queda claramente establecido, tu labor como desarrollador está casi concluida: sólo resta ultimar los detalles de responsabilidad, entregar el programa concluido y un paquete de desarrollador donde estén todas las herramientas específicas que fueron utilizadas para el desarrollo de tu desarrollo, pero sólo las SLu y CA; si tú empleaste una que es propietaria tuya y que no estás licendiando o vendiendo, no tienes porqué librarla a tu cliente. Con esto, tu desarrollo está concluido y sólo falta que revises bien los términos y condiciones del contrato que firmarás, y las cartas de cesión de derechos de explotación (yo no recomiendo que también renuncies a los derechos de autor o sobre la PI, razón por la cual aunque trabajes con la licencia BSD, siempre menciona a los desarrolladores de quienes tomaste herramientas para hacer tu trabajo). Con eso, tu paquete estará listo para ser entregado. Para conocer un poco más sobre los elementos básicos de las distintas licencias, puedes visitar : http://bit.ly/1MfbSCW


25


L

INFOTEC

José Luis Valeriano López

as organizaciones hoy en día están en una carrera de generar valor, mejorar la calidad, disminuir tiempo y costo de sus productos y servicios con la finalidad de ser competitivas en un mercado evolutivo, en pocas palabras ser eficaz y eficiente. Es por eso deben adoptar una metodología que los ayude a lograr los objetivos de la organización. En la década de 1990, se introdujo la orientación hacia procesos (Michael, 1990) para lograr una visión holística de una empresa, con los procesos de negocio como el principal instrumento para la organización de las operaciones de una empresa. Orientación a Proceso significa ver una organización como una red o sistema de procesos de negocio. Dicha orientación considera a las tecnologías de la información (TI) como un habilitador clave y así siguió con la introducción de la Administración de procesos de negocio (Business Process Management – BPM) y de sistemas de administración de procesos de negocio (BPMS) como medios para apoyar a la organización. El Business Process Management (BPM) es un conjunto de métodos, herramientas y tecnologías utilizados para diseñar, representar, analizar y controlar procesos de negocio operacionales, que mejora el rendimiento que combinan las tecnologías de la información con las metodologías de proceso y gobierno, fomentando procesos efectivos, ágiles y transparentes; abarcando personas, sistemas, funciones, negocios, clientes, proveedores y socios. (Kiran Garimella, 2008)

26

Como ya conocemos, en una organización su operación está articulada por procesos de negocio, mismo que se ejecutan de forma horizontal y vertical. Cuando la organización tiene la posibilidad de iniciar con esta disciplina, se topa con una serie de dificultades que propician la decadencia de esta iniciativa en la organización. Es por esto que debe de contar con el apoyo de los altos directivos. Algunas de las dificultades que se encuentran en la organización pueden ser: • No tiene procesos estandarizados. • Indica que sí tiene procesos documentados – realidad (no los tiene, o están desactualizados). • Muestra los procesos documentados – realidad (se opera de una forma distinta a lo documentado). • Se presenta resistencia al cambio. • Existe poca comunicación y difusión de los procesos. • Evitan las revisiones para una mejora continua. • No llegan a la automatización de los procesos.


Para la operación de los procesos se establece el ciclo de vida tomando como base lo que W. Edward Deming afirma que, la calidad total requiere de un proceso constante llamado mejoramiento continuo donde la perfección nunca se logra pero siempre se busca. (Deming, 1982) presenta el modelo Kaizen “Cambio – a mejor” el BPM toma esta metodología para establecer su ciclo de vida del proceso de manera continua en inglés PDCA – Plan, Do, Check, Act, se describe a continuación: • Planificar: Establecer los objetivos y procesos necesarios para obtener los resultados, de conformidad con los requisitos del cliente y las políticas de la organización. • Hacer: Implementar procesos para alcanzar los objetivos. • Verificar: Realizar seguimiento y medir los procesos y los productos en relación con las políticas, los objetivos y los requisitos, reportando los resultados alcanzados. • Actuar: Realizar acciones para promover la mejora del desempeño del (los) proceso(s).

Debemos considerar que al adoptar esta metodología vienen asociados algunos cambios como: • La dirección es por procesos, no por tareas o por funciones. • Se tiene procesos documentados. • Se gestionan equipos, no empleados. • Se da una visión de cómo ocurren las cosas y quién la ejecuta. • Permite establecer indicadores claves de desempeño (Key Performance Indicartors – KPI). • Alinea el negocio con la Tecnología de Información – TI. • Establece las bases para una automatización de procesos. • Se entra en un ciclo de mejora continua. Finalmente, las ventajas hacia el futuro con la adopción de la metodología Business Process Management son innumerables, sin embargo aquí te presentó sólo algunas: precios competitivos, mejora de la calidad, adiciona buenas prácticas de manufactura, mejora la productividad, disminuye los tiempos de operación, aumenta de la rentabilidad, amplía la satisfacción del cliente, crecimiento de los ingresos, genera nuevas técnicas de mercadeo (marketing), obtiene una ventaja competitiva, genera mayor rendimiento sobre la inversión, impulsa la innovación de productos y servicios, impulsa la innovación tecnológica y finalmente fomenta la globalización del negocio. En fin, una gama de beneficios disponibles que sólo queda darnos la oportunidad de tomarlos.

27


L

Ma. Paulina Alvarado

a historia de los circuitos integrados, comienza en 1949 cuando Werner Jacobi (empleado de Siemens AG) solicitó la patente de un dispositivo semiconductor, hecho a partir de algo que se asemejaba un circuito integrado para amplificar señales. En 1952, Geoffrey W. A. Dummer realizó una serie de conferencias para proponer su modelo de circuito integrado y, en 1956, fracasó al intentar la construcción del circuito propuesto. En 1957. Jack Kilby propuso la creación de un CI hecho con varios componentes únicos “miniaturizados” que estarían contenidos en pastillas de cerámica… en 1961, aparece el primer CI con base de silicio en lugar de germanio (que era lo utilizaban los modelos propuestos por Kilby). A partir de ese momento, la carrera se inició para lograr la integración de mayor número de transistores por chip, lo que nos llevó de la miniaturización a la micronización y, en nuestro días, ya estamos hablando de nanotecnología. Así que habiendo superado la “integración a pequeña escala” de 1964, donde teníamos de 1 a 10 transitores y de 1 a 12 puertas lógicas, hasta el punto “culminante” logrado en 1984 cuando teníamos microchips de integración a ultraalta escala, con mínimo un millón de transistores y al menos 100,000 puertas lógicas… ahora nuestra carrera es reducción aún más el tamaño de estos dispositivos para aumenta la portabilidad y aumentar su eficiencia. Ya hablamos de microfluidez y cómo permite que existan microlaboratorios que emulan sistemas completos de nuestro cuerpo. Ya hablamos de placas de metal que responden a cargas eléctricas y cambia la alineación de sus moléculas para adquirir mayor resistencia o crear patrones que reflejan la luz de distintas maneras para formar imágenes en superficies ultradelgadas. Hemos mencionado la posibilidad de comenzar a trabajar con nanomáquinas quirúrgicas las cuales apoyarán la labor médica en tiempo real.

28

Ahora la realidad que estamos presenciando es que ya existen microchips dentro del cuerpo de animales y seres humanos. Estos obedecen a rutinas de monitoreo de su condición física general (sabemos si están vivos o muertos) y su geolocalización (rastreamos sus movimientos), pero la tendencia de esta tecnología va hacia el biohacking como sucede con Epicenter, un complejo de alta tecnología donde los empleados tienen un chip insertado (de manera voluntaria) que les da acceso a las puertas de las áreas permitidas para ellos y a las fotocopiadoras (ahora que ya casi todo se hace vía PDfs, pero bueno). Además, los empleadores prometen que más adelante sus trabajadores podrían ira a la cafetería y pagar sólo con poner su mano en un lector idéntico al que tienen las puertas y las copiadoras. En el terreno de la medicina, se comienza a hablar de “subestaciones de medicación”, las cuales son instalaciones micronizadas que serán operadas por chips que, de acuerdo con lo prescrito por los médicos, liberarán las dosis fármacos necesarios para el paciente. Dichas subestaciones podrán ser rellenadas con los mismos fármacos para tratamientos prolongados o “purgadas” y empleadas con nuevas recetas. Esto abre la puerta para tratamientos de punta en enfermedades crónicas y la posibilidad de suplir deficiencias orgánicas que impiden la generación de hormonas, enzimas o neurotransmisores, lo que indicaría un avance en el tratamiento de enfermedades mentales y una nueva forma de inhibir el crecimiento de tumores en casos de cáncer. Si me tienen que monitorear 24/7 para que yo mantener un buen estado de salud, creo que se trata de un intercambio justo. Muy pronto comenzaremos a ver el uso generalizado de chips y nanomáquinas en la medicina y el deporte, sí la frontera de la computación se sigue expandiendo... y eso, siempre es bueno.


29


C

Fernán DeMaría F.

uando pensamos en el auto del futuro, la imagen de una vehículo al estilo de Minority Report (Steven Spielberg, USA, 2002) con autos que se conducen solos y ahora ya se habala de autos que podrán reconocer nuestras preferencias a la hora de transportarnos en ellos y prepararse cada vez que los aborde un conductor distinto. Y eso está muy bien, pero... ¿y la seguridad? Como diría la difunta Maude Flanders: “¿alguien quiere pensar en los niños?“ Por fortuna, están los que piensan no sólo en ellos. A partir de la tecnología inalámbrica, existen los que están pensando en diseñar vehículos que, gracias a la interconectividad, dirigirán el tránsito comunitario para que pueda fluir sin complicaciones. Se acabaron los que se estacionan en doble fila, los que dan vuelta prohibida y sin direccional, quienes circulan a exceso de velocidad y se pasan cuanto alto se les cruza en el camino, quienes van como supositorio y no respetan la distancia mínima de seguridad y de cortesía… y los accidentes provocados por conductores en estado de ebriedad. Los dispositivos “intangibles” de seguridad en los vehículos más nuevos, está instalados como accesorios electrónicos o bien, ya vienen integrados a la computadora de navegación de la unidad. Esto va más allá de tener pantallas digitales de mayor resolución en los autos. También aplica a la sustitución de interfaces como lo está haciendo el Modelo S de Tesla, que sustituyó todos los botones físicos de un tablero de auto por una pantalla de 17 pulgadas desde donde se controla todo lo que antes requería un botón. De la suspensión hasta el quemacocos, pasando por los seguros, la calefacción y la música.

30


Por su parte, el prototipo F105 de Mercedez Benz, habla de que el interior del vehículo será un “espacio habitable digitalizado”, en el cual los pasajeros interactuarán con el armatoste por medio de gestos y pantallas táctiles. En tanto que el Prologue de Audi, ya transformó todo el tablero en una enorme pantalla táctil. Pero los sistemas de interfaz para seguridad, aún no pasan de reconocimiento biométrico y control de velocidad bajo ciertas condiciones. Se tienen contempladas muchas opciones, pero por el momento todo va por el sentido “funcionalestético” que de seguridad integral. Además, lo que quizá no es tan alentador, es que la mayoría de las iniciativas más ambiciosas las empezaremos a ver a partir de 2020 y se harán generalizadas hasta 2030… y los fabricantes están trabajando con una base Windows Embedded y eso… bueno, digamos que Windows 10 no resultó libre de bugs. Ojalá para 2020 ya se hayan librado de esos “errorcitos” o no vamos a ver una conducción tan segura y sin incidentes como la prometen. ¿Se imaginan ir a una velocidad de 120 km/ h y de pronto, de la nada, entra una llamada de su mamá, el auto contesta por ustedes y ¡pum!, se traba el sistema y aparece la “Blue Screen of Death” justo cuando están entrando a una curva peligrosa y el auto no desacelera ni vira lo suficiente? Aquí sí sería literal que la pantallita azul era la de la muerte. Aún falta mucho, pero no creo que la salida sea un manejo completamente automatizado, sino una buena combinación entre hombre y máquina, con la máquina cuidando los límites aceptables de navegación segura y el ser humano reaccionando ante las eventualidades. De todas maneras, el futuro pinta interesante para todos en TI.

31


Si estás interesado en el mundo de las tecnologías de la Información, seguro ya has escuchado o leído algunas referencias acerca de la Computación Cuántica.

Y

Alondra DeMaría F.

o vaya que he escuchado que se habla de ella como si se tratara de la nueva moda que pronto estará disponible para nuestros dispositivos… y es momento de decir que no. No es una moda, ni tiene la intención de llegar al gran público consumidor de dispositivos. Aún no. Sobre todo porque la CC aún es un campo de estudio mayoritariamente teórico relacionado con la creación de sistemas de cómputo que hagan uso de fenómenos de mecánica cuántica tales como la superposición (la suma de dos estados cuánticos que generan un tercer estado cuántico válido; algo parecido al incremento de las ondas de audio donde varias ondas se pueden superponer y crean una onda mayor) o el entrelazamiento (que se da cuando en un grupo de partículas entrelazadas, ninguna de ellas puede definirse como una partícula individual con un estado definido; es decir son un sistema que opera con una función de onda única); los cuales se aplican para realizar operaciones específicas en grande bloques de datos. ¿Qué quiere decir esto? En esencia, significa que superponiendo conjuntos de datos o entrelazando sistemas de datos, nuestra capacidad para analizar grandes volúmenes de información se acelera… exponencialmente. ¿Cómo lo lograríamos? Bueno, primero que nada hay que entender la diferencia entre nuestra computación digital y la computación cuántica. La computación digital está basada en transistores y los datos que estos ocupan deben estar codificados de forma binaria; es decir en bits, donde cada uno se presenta en uno de dos estados definidos posibles: 0 ó 1. Por su parte, la CC utiliza bits cuánticos o qubits, los cuales pueden ser

32

superposiciones de estados (donde cada qubit puede cambiar su estado en un proceso específico o bien amalgamarse con otros para crear un estado nuevo o determinado artificialmente). Todo este aparato teórico comenzó a tomar forma a partir de las investigaciones que Yuri Manin publicó en 1980. En 1982, Richard Feynman amplió el marco teórico y en 1985 David Deustch generó el primer modelo teórico sustentado a partir de las similitudes teóricas entre la máquina Turing cuántica y las computadoras no-deterministas (máquinas de cómputo que tienen un conjunto de reglas que recomienda más de una acción para una situación dada; o “multicondicionales”) y las probabilísticas (las cuales funcionan a partir de matrices estocásticas o de transición, que funcionan con un conjunto finito de estados posibles, un conjunto finito de entradas de datos, una función de transición y un conjunto de estados a los que se les distingue como estados de aceptación o finales)… Pero querías estudiar Sistemas Computacionales, ¿verdad? En pocas palabras: la CC funciona con qubits y, a diferencia de nuestras computadoras convencionales que almacenan información como 1 ó 0, estos pueden ser un 1 o un 0 o ambos al mismo tiempo. Ésta es la superposición de datos, la cual combinada con el entrelazamiento y el efecto túnel (que se da cuando una fracción del paquete de onda, un electrón, atraviesa una barrera de potencial energético… como lo haría un “fantasma” con nuestras paredes, pero sólo que la mayor parte del fantasma se queda del lado donde hizo contacto y una pequeña fracción de él atraviesa la barrera sólida), permite a las computadoras cuánticas considerar y manipular todas las combinaciones de bits de manera simultánea.


33


¿El resultado? Procesamiento de enormes cantidades de datos en tiempos cortos. ¿Cómo? Imagínense esto: vamos a hacer un mapa con nuestro enorme conjunto de datos y, como es de suponerse, éste tiene la forma de un paisaje natural. En él hay valles, montañas y algunas depresiones porque cada posible solución está a un altura distinta (en un nivel específico de energía). Este nivel es el “costo” de la solución. Bien, para una computadora cuántica, la tarea consiste en encontrar las coordenadas del punto más bajo del mapa que provea la solución porque éste será el nivel mínimo de energía requerido o “la solución óptima” para el problema planteado. Hasta aquí de teoría. Hablemos de los avances prácticos que se han logrado hasta la fecha… seguimos en pañales. Tomemos en cuenta que la teoría inicial es de 1980 y a partir de 2009, se comenzó a trabajar muy duro para consolidar los modelos teóricos… estamos en 2015 y el desarrollo de computadoras cuánticas sigue siendo poco más que una serie de experimentos que se llevaron a cabo con un número muy reducido de qubits. Si bien la propaganda habla de que hay muchos gobiernos y sus respectivas industrias militares (así como fabricantes militares no afiliados a un gobierno en específico) que están aportando fondos para que se creen computadoras cuánticas para el consumo civil, con propósitos de negocios, comercio y seguridad nacional (ya no es tan civil, ¿cierto?), los avances son mínimos y poco claros. En esencia, lo que se pretende con la CC es avanzar en el campo de la optimización, promover un aprendizaje acelerado en las máquina, hacer más “eficiente” y rápido el reconocimiento de patrones y la detección de anomalías (el primero es sinónimo de intrusión, espionaje y categorización de un usuario específico), análisis financiero (para “prevenir” incidentes ligados al comercio de acciones que afecten la economía mundial… pero en realidad se trata de control del mercado accionario) y la verificación y validación de software y hardware (adiós piratería y adiós troyanos… que no sean los del gobierno, claro está). La necesidad de un mayor poder de procesamiento/ computo es inversamente proporcional a la cantidad de datos que generamos día a día y conforme se unen más usuarios al mundo digital. Dada la Ley de Moore, que menciona que la cantidad de transistores en un microprocesador se duplica cada 18 meses, para el año 2020, tendremos que utilizar nanotransistores si queremos que siga aumentando a este ritmo y para el año 2030, vamos a trabajar con microprocesadores tendrán circuitos de escala atómica. Por esta razón, la CC resulta el paso lógico es desarrollar las computadoras cuánticas, las cuales podrán realizara labores de registro (almacenamiento de memoria) y procesamiento, empleando las propiedades moleculares, atómicas y subatómicas (estas últimas son las verdaderamente cuánticas). Ya se logró el almacenamiento de datos en DNA (700 Tb de datos), así que ya estamos

34


trabajando a niveles moleculares. Según los parámetros actuales, ya tenemos modelos muy elementales de computadoras cuánticas que pueden realizar ciertos cálculos, pero en términos prácticos aún estamos a un o dos de lustros, mínimo, de construir computadoras cuánticas personales. Además la finalidad real de estas máquinas es sólo tener una enorme capacidad de procesamiento de volúmenes muy grandes de datos, que a nivel de personas comunes y corrientes, quizá los animadores CGI y programadores de videojuegos sean quienes puedan obtener la mayor parte de los beneficios del procesamiento a hípervelocidad de los datos que generan. Quizá, para los programadores también sea más sencillo llevar a cabo su labor pues, imagino, que podrían desarrollar sus aplicaciones viendo los resultados posibles de cada punto de progreso en su código en tiempo real, además de que una vez terminada la codificación, los procesadores cuánticos podrían acelera el proceso de detección y corrección de bugs. Quizá ayude a realizar prognosis más acertada para la detección de padecimientos y corrección de complicaciones durante operaciones quirúrgicas. O apoye a los controladores aéreos y a los sistemas de navegación área, terrestre y marítima que tienen que trabajar con muchas variables simultáneas, todo el tiempo. Pero, siendo sinceros, para el ciudadano promedio la CC no tendrá mayor uso a menos que se dedique a obtener bitcoins. Quisiera terminar con un ejemplo muy visual: en una escena de El Imperio Contraataca, C-3PO le dije a Han que las probabilidades de navegar con éxito el campo de asteroides son aproximadamente de 3,720 a 1. El androide dorado es una máquina calculadora (imprecisa, además), en tanto que Han opera como una computadora no-determinista (actúa tomando en cuenta parámetros multicondicionales, ¡por eso no se estrella!). Si el Halcón Milenario estuviera equipado con una computadora cuántica, no sólo no se hubiese estrellado, sino que hubiera determinado una ruta para salir del campo de asteroides, evitando los más posible el conflicto con los Tie-Fighters y llegado a Bespin, sin tener que detenerse en el cráter para que la tripulación revisara daños internos y externos, porque los diagnosticaría de manera inmediata. Así de compleja es la naturaleza de una computadora cuántica que procesa la información discriminando todos los datos disponibles y calculando cuáles son que proveen la solución óptima. Suena bien, pero al igual que con la IAA (Intelgencia Artificial Avanzada), no creo que la tengamos al alcance de todos para el año 2020 ni que sus usos sean tan inocuos para nuestra forma de vida... porque producimos millones de terabytes de información diaria y quien analiza y comprende esta, puede predecir y, de hecho, manipular nuestras actividades diarias, cosa que debemos tener muy en cuenta para proceder con cautela ante las “iniciativas de investigación del gobierno”. ¿La CC servirá? Seguro que sí. La pregunta que siempre tenemos que hacernos es: ¿a quién y para qué?

35


N

Yessenia Maldonado

etwork Packet Brokers (NPBs), ¿conoces el término? también es conocido como capa de visibilidad, entre otros nombres. . Este concepto fue creado por Gigamon en 2004. Básicamente es un agregador de servicios, es decir, es un dispositivo basado en hardware que ayuda a proporcionar el acceso y la visibilidad para una variedad de supervisión de la red. Es una línea intermedia poco intrusiva que penetra la red una sola vez a través de dispositivos TAP. Los TAP crean un espejeo del tráfico de la red y hace una réplica del 100% hacia ciertos hardwares de propósito específico que tienen funciones de análisis, filtrado, transformación y entrega de forma selectiva. Cuando se realizan esas cuatro funciones hacia las herramientas de seguridad y monitoreo, esas herramientas reciben la información de forma mucho más eficiente, rápida y digerida. Gigamon es una compañía que nace en el Sillicon Valley California con el objetivo de descubrir la capa de visibilidad, una necesidad nueva en 2004 y que hoy día representa uno de los segmentos de mercado de mayor crecimiento desde el punto de vista analítico en los procesos de red. Gigamon es el líder en el mercado de capa de visibilidad en los EEUU y sus ventas mundiales han representado 85% desde el punto de vista de generación de demanda en EEUU y Canadá. En Junio 2015 se comienza el proyecto de operaciones para América Latina, el cual representa uno de los posibles mercados con mayor crecimiento. En esta ocasión tuvimos la oportunidad de entrevistar a Carlos Perea, Vicepresidente de Ventas a nivel Latinoamérica de Gigamon, quien nos platica parte de los planes y retos a los que se enfrentan al inicio de sus operaciones en México, Colombia, Brasil, Chile, Perú y Argentina developNetwork. ¿Cuáles son las tres principales razones por las cuáles Gigamon expande sus operaciones en el mercado Mexicano? Carlos Perea. La estrategia global del crecimiento del

36

prospecto de negocio al 2015, es justamente hacer una expansión hacia mercados internacionales para preparar la plataforma de crecimiento de lo que van a ser los siguientes 5 años hacia el rumbo de llegar a una compañía de un billón de dólares en facturación. Como parte de esa estrategia en Abril de 2015 se abren las operaciones para Europa, contratando a un vicepresidente en Londres y otro en Singapur para abrir las operaciones de Asia Pacifico y a partir de Junio se comienza el proyecto de operaciones para América Latina el cual representa uno de los posibles mercados con mayor crecimiento, justamente por el tema de las posibles brechas de seguridad y la falta de inversión que hay en términos de tecnología principalmente en México y Brasil, acompañado de Argentina, Colombia, Chile y Perú que son los países foco en donde estamos poniendo el objetivo. El crecimiento viene acompañado de dos cosas en particular. La primera es específicamente abrir operaciones directas con entidad legal propia tanto en México como en Brasil y hacer la contratación de personal calificado y ejecutivo desde el punto de vista comercial y de ingeniería. La segunda avenida es expansión en los otros países que mencione antes, a través de canales de distribución con un nivel de especialización bastante sofisticado con el que podamos contar realmente con una operación replicable en esos países sin que tengamos la necesidad de tener empleados directos en esos países. La tercera avenida es la implementación de la expansión de nuestra capacidad de producción a nivel mundial donde estamos incluyendo una relación que tenemos con una compañía de manufactura a nivel global que tiene presencia en Guadalajara. Esto quiere decir que la manufactura que estamos haciendo en San Jose California la vamos a complementar de forma muy fuerte y con gran volumen en Guadalajara y a partir de ésta ciudad vamos a fabricar toda la línea de productos que tenemos para poder lograr la satisfacción de demanda tanto en el mercado doméstico de EEUU, Canadá y en el mercado latino. Apartir de Guadalajara vamos a hacer exportación hacia el resto del mundo.


dN. ¿Cuáles son los principales retos que han identificado en la seguridad en redes en los últimos años? Carlos Perea. Varios retos. Número uno: el mundo de seguridad definitivamente ha tenido un cambio dramático y sustancial en los últimos tres a cinco años. Anteriormente la seguridad, cuando se tocada desde el punto de vista informático, se hablaba de seguridad perimetral y seguridad en base a segmentos de usuarios, perímetro de la compañía desde el punto de vista de su interconectividad hacia el mundo exterior en internet. Hoy día la seguridad tiene una brecha mucho más grande, porque tiene diversidad de servicios, de dispositivos conectados, de formas de entregar servicios a clientes y todo eso va compuesto con una gran cantidad de tráfico que va creciendo cuando menos año con año en un nivel de 40 a 50%. Cuando tienes ese nivel de sofisticación en los últimos años con clientes grandes, con grandes tipos de redes, con grandes volúmenes de transacciones, con millones de usuarios creciendo, cualquier tipo de dispositivo puede ser vulnerable a traer algún tipo de problema de seguridad. Ese desafío representa que cada vez

más las instituciones de informática y telecomunicaciones de las grandes corporaciones, de los Carriers, inclusive de las grandes instituciones de gobierno, tienen el problema de que mientras no tengan visibilidad y no tengan alcance de lo que está sucediendo en su red, es imposible que puedan llegar a tener una protección total de lo que sucede dentro de la misma red, esto significa que mientras menor nivel de visibilidad tengan, mayor nivel de exposición tienen las empresas y las instituciones, significa también que cada vez más la sofisticación de los ataques vienen de forma oculta, de forma encapsulada y se tardan entre tres y seis meses, en algunos casos, en ser descubiertos. Ya no es un tema de si vas a ser atacado como institución sino más bien es un tema de: “te van a atacar, ¿cuánto tiempo te vas a tardar en descubrir de que magnitud es ese ataque y cuál es el riesgo en el que estas poniendo tu institución, tu operación y tu nivel de transacciones económicas a nivel global de la misma corporación? Lo que nosotros hemos encontrado es que, mientras más grande es la red y mientras más sofisticada sea mucho más vulnerable se convierte.

37


dN. En el consumo de datos en redes como el 3G y el 4G, ¿qué tipo de retos les ha venido a plantear para satisfacer la demandar diaria del consumidor promedio? Carlos Perea. Esa es una gran pregunta porque uno de los grandes desafíos que vienen acompañados como complemento de lo antes mencionado es que el acceso a la conectividad cada vez más es a través de la red inalámbrica pública. Las redes 3G, 4G, LT, sobre todo en los países en vías de desarrollo desde el punto de vista informático como nosotros, cada vez más se conectan a los sistemas o a internet lo hacen a través de un dispositivo móvil mediante la red pública. Esto significa que cada transacción que se genera a través de cualquiera de esos dispositivos móviles puede representar un riesgo para la institución que no está protegida. Si la institución esta solamente enfocada a poner firewares, antivirus, etc. a nivel infraestructura, seguro tiene alguna brecha de seguridad y seguro está viviendo ya algún tipo de ataque en estos momentos sin que se den cuenta. Si no tiene protegidos los usuarios inclusive a nivel de máquinas virtuales remotas, lo más seguro es que si no lo ven a ese nivel, en la nube, o desde un dispositivo electrónico en otro país a través de una red pública de celular, seguramente pueden tener un ataque de forma inmediata sin que se lo sepan. Hoy día hay ataque de seguridad que pueden estar incluidos en un clic en una transacción vía teléfono inteligente en cualquier momento. Entonces, las compañías que no tienen eso resuelto, están altamente expuesta a que puedan tener ataques de seguridad. América Latina es uno de las regiones a nivel mundial con mayor crecimiento en volúmenes de ataques porque es en donde menos inversión en tecnologías de seguridad existe. Los mercados en alto desarrollo como el americano, el europeo y algunos países asiáticos más o menos lo tienen resuelto. América Latina está, la vedad, aún en pañales. Mientras más conectividad exista, con mayor cantidad de dispositivos más vulnerabilidad existe y eventualmente vamos a ver inclusive posibilidades de brechas de seguridad o de malware o de virus o de algún tipo de troyano tal vez con una conexión de internet a una cafetera. dN. La expansión de información en la nube, representa un reto de almacenamiento de información todos los días pero en México, ¿cuáles han sido los principales retos a vencer para que las empresas puedan subir su información de manera rápida y segura? Carlos Perea. El computo en la nube, por un lado tiene un reto y el desafío más grande es la interacción entre quien es el responsable de la frontera de seguridad y la frontera de la operación, es decir, tu puedes ser dueño de tu propia infraestructura y montarla en la nube en un centro de datos que ofrece servicios en la nube, pero otra de las formas es que tengas una solución tipo hibrida en donde utilices los

38

servicios y la infraestructura del proveedor de servicios en la nube pero los aplicativos son tuyos. Otra es, lo que muchas empresas medianas están haciendo a nivel mundial, utilizan el 100% de los recursos del proveedor de servicios en la nube y a través de ellos es como realizan prácticamente todas las transacciones sin tener un departamento de sistemas, un centro de datos o algún tipo de infraestructura. Cada uno de esos escenarios representa un desafío diferente. En ese sentido, la responsabilidad del límite o de la frontera de seguridad depende de donde reside justamente el corazón de las transacciones de la empresa o de la institución con la que estas teniendo interacción. En un ambiente 100% propietario en donde solamente rentas el espacio de un proveedor de cómputo en la nube, tú eres el responsable al 100% de frontera de seguridad y de la protección de información. En un ambiente hibrido se vuelve bastante complejo, porque tienes que definir claramente hasta donde llegan tus servicios y hasta donde llega la responsabilidad de protección de tráfico y transacciones del proveedor. En un ambiente 100% de cómputo en la nube el responsable 100% es el proveedor. Ahora, lo que no sabemos lo usuarios es que tipo de proveedor y que tipo de servicios está teniendo el banco con el que tenemos transacciones, la compra en línea que estamos haciendo en este momento con nuestra tarjeta de crédito, la llamada telefónica con la que levantamos algún tipo de servicio o con la que compramos algún ticket para algún evento. Regularmente no sabemos cómo están operando de ese lado. Entonces vuelvo al punto anterior, tenemos un riesgo y vulnerabilidad cada vez mayor por las sofisticación es cada vez más abierta, entonces el nivel de conectividad es tan grande que el usuario no sabe dónde acaban sus datos y las instituciones, mientras no tengan visibilidad de lo que sucede adentro de esas redes, no importa si eres proveedor con infraestructura propia, proveedor con infraestructura hibrida o proveedor 100% con computo en la nube, mientras no tengas visibilidad de lo que puedes hacer en la red, no puedes asegurar absolutamente nada. Lo que nosotros hacemos en Gigamon es justamente, extender ese nivel de visibilidad, no importa el tipo de servicio, de proveedor, de infraestructura o de conectividad que tengas. dN. Dentro de nuestro país qué tipo empresas representarán sus principales clientes dentro de los primeros 5 años. Carlos Perea. El perfil de usuario que tiene nuestra solución regularmente reside en cuatro segmentos verticales. Los proveedores de servicios, es decir los Carriers, las compañías telefónicas, las compañías de telefonía móvil, proveedores de centros de datos, los proveedores de servicios de cómputo en la nube, es uno de los grandes segmentos que tenemos como grandes usuarios a nivel mundial.


Otro es el sector financiero transaccional ya que es uno de los grandes usuarios de nuestra tecnología por dos razones: una de ellas es el alto volumen de transacciones que tienen y la otra es un tema de compliance legal. Nuestra tecnología tiene ciertas funcionalidades que pueden ayudar a los Carriers y proveedores de servicios como los bancos e instituciones financieras a hacer compliance desde el punto de vista de su regulación. Muchos de los bancos e instituciones financieras buscan hacer PCI (Payment Card Industry) compliance y con nuestra tecnología les ayudamos a alcanzar ese nivel desde el punto de vista operativo. Por otro lado por el alto volumen de transacciones que tiene las instituciones financieras y la gran cantidad de recursos que se requieren para poder tener este alcance de seguridad y de visibilidad, se ahorran millones de dólares con la instalación de nuestra tecnología con un bus de conectividad, de herramientas de seguridad, de monitoreo y de manutención a la información El tercer segmento es de clientes institucionales de gobierno federal o instituciones de seguridad dentro de los gobiernos federales. Por ejemplo en EEUU todas las agencias que tienen tres letras son clientes nuestros porque justamente a través de nuestra tecnología facilitamos la profundidad de la visibilidad de información dentro de todos los puntos de seguridad que ellos tienen a lo largo y ancho de la Nación Norteamericana. El otro segmento son las grandes corporaciones de iniciativa privada. En este caso, las dos o tres empresas grandes de telecomunicaciones y sistemas que cotizan en bolsa. Ese tipo de perfil de empresa requiere un alto nivel de sofisticación y también en el alcance de visibilidad en seguridad porque tiene diversos tipos de servicios y diversos tipos de transacciones que necesitan garantizar la seguridad de su información, la protección de sus usuarios y la integridad de los datos de la información que tienen en sus centros de datos. Entonces con esos cuatro segmentos es en donde nosotros nos enfocamos. Mientras más grande sea el cliente, más compleja sea su red y más compleja sea su operación informática, mayores problemas podemos resolver y más rápido el retorno sobre la inversión se refleja dentro de su operación dN. ¿Cuáles podrán ser los principales retos a vencer en la construcción de redes físicas dentro de las empresas en México? Carlos Perea. Yo creo que hay dos problemas grandes en México particularmente. Uno de los más grandes es justamente la disponibilidad de recursos, iniciando por el mismo gobierno ya que cada vez le pone más prioridad a infraestructura pública en lugar de infraestructura de conectividad e informática en un mundo 100% digitalizado. Como país, nuestra agenda digital, aunque tiene algún avance, no está al nivel competitivo con otros países con los que

tenemos tratados de libre comercio. Ese es el driver número uno, pero trae como consecuencia que las instituciones privadas no vean una presión fuerte para mantener una agenda digital estricta y acelerada mientras el gobierno no sea el principal promotor de una iniciativa agresiva en ese sentido. El problema es por la colocación de recursos. Los recursos que existen son limitados, estamos presionados por cambios a nivel global, no existe disponibilidad de recursos informáticos en términos generales y la consecuencia final es que somos un país que esta netamente atrasado en recursos informáticos disponibles. Por otro lado esta laxitud de cumplimiento legal que hay en ciertos segmentos. Eso hace que las empresas, sobre todo aquellas empresas que están basadas en transacciones electrónicas, tengan menos urgencia para poder tener ese nivel de sofisticación en sus redes para poder ser tan compliance como lo son países europeos o EEUU. Por ejemplo, una de las grandes evoluciones que hemos presenciado es Corea del Sur. Era un país que venía de una crisis muy grave hace 20 años en donde el gobierno tomo la iniciativa de hacer un evolución tecnológica, informática, desarrollo científico, inclusive para los universitarios que ahora son los mejores técnicos de ingeniería y lo que ha logrado es un alto nivel de sofisticación en gobierno y por consecuencia las compañías y las grandes corporaciones globales coreanas tiene por fortuna la obligación de tener este nivel de sofisticación técnico. En México no sucede y en ningún país de America Latina sucede a ese nivel todavía, pero quizás el más cercano podría ser Chile, el más evolucionado tecnológicamente podría ser Argentina y el más grande por volumen de transacciones seria Brasil. dN. En materia de soluciones de visibilidad de tráfico, ¿cuáles serán los principales retos para satisfacer la demanda del mercado en México? Carlos Perea. El reto más grande sería que las instituciones de gobierno, los proveedores de servicios y las grandes corporaciones tengan conciencia de que la profundidad de la visibilidad de lo que sucede en las redes les va a permitir disminuir su presupuesto de inversión La posibilidad de crear una capa de visibilidad en la misma infraestructura del cliente habilita varias cosas. Una es que disminuye la cantidad de recursos que puede tener generar acciones de troubleshooting, de reparación dentro de la misa red y de los usuarios. Por otro lado, incrementa la disponibilidad de la red ya que eliminas tiempos muertos y disminuye hasta en un 50% los costos de inversión en la expansión de las herramientas de monitoreo y de seguridad de los clientes, extiende la vida útil de las herramientas actuales y le da la oportunidad al cliente que a través de la capa de visibilidad tenga llegada hasta los niveles más profundos sin necesidad de hacer inversiones cuantiosas en cada herramienta o dispositivo.

39


40


41


L

Karla Salinas

os Soft Skills son el término gringo para referirse a, lo que los RH llamamos competencias y no es otra cosa que un conjunto de habilidades que definen tu personalidad y la forma en la que ves las cosas, como reaccionas, como te comportas ante determinada situación, como resuelves los problemas. Los soft skills se pueden ver en cualquier persona todo el tiempo y el ámbito laboral no es la excepción. Las empresas aunque no lo publiquen, cada que abren una posición además de buscar un perfil técnico determinado también requieren de ése grupo de soft skills para cada puesto y no es por berrinche: Las competencias definen varios ejes respecto a la posición laboral que vas a ocupar, como la jerarquía o influencia del puesto, la comunicación del puesto con otras áreas, con clientes externos, con tipo de cultura laboral o de cultura regional entre otros. Cada uno requiere de un set de soft skills e incluso la combinación de varios puede prepararte para encarar dos o más perfiles en una empresa. Independientemente de la actividad que realices, tus soft skills van a dibujar el camino al que va tu carrera profesional. Vamos a revisar cuatro perfiles que comúnmente se ubican en las empresas, sus conductas y softskills. Ubica en cuál te identificas y las bondades de los otros para enriquecer tu perfil profesional. Ninguno es mejor o peor, todos tienen sus pros y contras, lo importante es tomar lo mejor de cada uno.

42

Los Soft skills impacta en la jerarquía, influencia del puesto y en tu carrera. No todos los programadores junior son iguales, o los testers… o los desarrolladores senior por mencionar algunos. Dependiendo de tu historia personal de vida y desarrollo es que vas a contar con algunas competencias que definirán tu lugar en un equipo de trabajo. Puedes ser súper tímido para hablar de ti con otros o para hacer amigos pero cuando se trata de hablar algo técnico no hay quien te calle o te gane. • El Técnico: a todo le sabe y a lo que no le busca: Es esa persona que tiene la competencia de la autonomía y es curioso, quiere entender cómo funcionan las cosas por lo que se documenta e investiga, también tiene muy desarrollada la competencia del autoaprendizaje y estudia por su cuenta diversos temas que al final del día complementan sus conocimientos técnicos ya sean nuevas tecnologías o metodologías. Puede que no tenga desarrollada la competencia de enseñar a los demás pero ante el conocimiento que domina puede influenciar a los demás a que aprendan, a que quieran competir por ser el mero mero, inspira a otros a estudiar y no quedarse con lo que hay. De manera negativa puede terminar por aislarse y no crecer en un puesto, ser el cortado o apático del grupo, el sabelotodo grinch que odia a los pitufos. Pero si se anima a demostrar y compartir su conocimiento es el puesto clave en cuanto a lo técnico se refiere. En el nivel más alto de puestos


43


se convierte en el arquitecto o líder técnico de los proyectos, consultor senior, gerente técnico, o director técnico (no del fucho). Incluso sin ser el líder por nombre del puesto es a quien buscan los vendedores y Project managers para que les explique cómo se hacen las cosas, tiene el mejor nivel técnico. El relaciones públicas: no le sabe tanto, pero sabe quién si y conoce a todos: Es quien se lleva bien con todos, a todos los lugares que llega en cuestión de minutos ya hizo amigos, igual saluda de mano a la de limpieza que al CEO de la empresa; con una simpatía mágica que hace que lo odies pero al final lo escuches, te convenza, te haga sentir especial por haber platicado con él o ella. Esta persona es experta en relaciones públicas sin haberlo estudiado. Tiene competencias como relacionamiento, orientación a las relaciones, al servicio, a la escucha, convencimiento, entre otras. Siempre está en movimiento, además tiende a ser creativo e integrador de gente y puede dedicarse a las ventas, pre-venta (acompaña al de ventas a encantar al cliente explicando lo técnico que le preguntó al técnico), e influencia al equipo de trabajo a entregar bien las cosas para quedar bien él también ante el cliente. Éste perfil de manera negativa es quien es puro verbo y al final del día no hace nada, pero desarrollado de manera positiva es quien puede traer dinero a la empresa: sabe vender aunque su puesto no sea el de ventas, se lo llevan a las cenas con clientes, ayuda a extender el networking de otros puestos, puede fungir como el vínculo del técnico y el cliente,

44

puede ayudar a balancear la energía del equipo • El líder: no sabes por qué pero lo seguirías hasta a Mordor. Aquí no estamos hablando del jefe o líder que habla y nadie lo pela si no de esa persona que tiende a influenciar a los demás de modo que hacen lo que se necesita hacer. Al igual que el perfil anterior tiene poder de convencimiento pero curiosamente, no necesita convencerte: lo que te dice te hace toda la lógica del mundo. Éstas personas ven el cuadro completo y cual matrix están viendo caracteres verdes ante sus ojos que se traducen identificar problemas, saber hacia a donde hay que ir, identificar a los personajes clave para que las cosas pasen, y hacer que pasen de buen modo, que la gente colabore, coopere, que su palabra se escuche y que incluso ante debates perdiendo gane el favor del ganador para que haya armonía. El soft skill principal en éste perfil es el liderazgo, pero se combina con otras como convencimiento, honorable, (a su palabra y compromisos) constante, congruente. El lado negativo del líder es aquel que convence a todos de que la empresa o el proyecto apestan y mejor se vayan temprano o no trabajen, que se tomen más tiempo de comida, que se boicotee al jefe o gerente para meterlo en problemas, un grillero pues. En el aspecto positivo es el mejor jefe o colaborador porque va ayudarte a resaltar tu trabajo, a identificar fallas, cuando te equivocas no te echa la culpa, te acompaña porque sabe del trabajo en equipo. Este perfil puede ser un buen Gerente, líder de equipo,


Identifica los soft skills que tienes y desarróllalos a través de cursos que tenga la empresa o que puedas tomar por fuera

Project manager, o director en su nivel más alto. Cabe mencionar que un buen líder también sabe ceder y dejar que otros sean los líderes si no es su rol. • El Integrador: Réferi, terapeuta, y tu amigo fiel. A diferencia del “relaciones públicas”, es alguien que en efecto se preocupa por lo que está pasando alrededor y cómo impacta en toda la operación. Es quien se da cuenta de cuando el jefe te regañó y que por eso estás enojado sin poder terminar bien las cosas, y plática contigo para que te sientas mejor y ejecutes. Es quien se da cuenta que las sillas son incómodas y levanta una queja, quien al ver a dos colaboradores peleando piensa de qué forma puede arreglar las cosas para que no ponga pesado el ambiente que de por si por la carga de trabajo ya está cañón, organiza la comida del cumpleañero, siempre hay gente en su escritorio y no le falta quien quiera salir a comer con él para platicar. Los soft skills de éste perfil son empatía, liderazgo, atención al detalle, orientación al servicio y a la gente entre otros. Un desarrollo negativo de las habilidades y competencia se éste perfil es el clásico chismoso, que además de chismoso se la pasa resolviendo problemas de todos mientras se llena de los propios por no hacer nada (o poco) relativo al trabajo. De manera positiva puede llegar a ser un gran consejero para la toma de decisiones que impactan a la empresa, ya que al final del día en una empresa de servicios como los que se dan en TI, la gente es el factor clave. Puede llegar en sus niveles altos a aconsejar qué miembros del equipo deberían

estar en qué proyecto y los recursos como Project manager, puede ser tu Asesor de carrera, tener roles de Líder de proyecto porque tendrá buenas relaciones con los otros perfiles y podrá dar puntos de vista asertivos en el qué se debe hacer, identificar riesgos como QA no solo en lo técnico sino en cómo va a impactar el issue en las relaciones con el cliente y el equipo de trabajo. Seguramente te has identificado con rasgos de alguno o varios de éstos perfiles. No es necesario encasillarte en alguno para actuar o crecer en una empresa. De hecho el profesionista ideal puede ser un 80/20 con tendencia en un perfil y rasgos de los demás para poder adaptarse mejor a los diferentes ambientes de trabajo que vas a enfrentar en tu carrera. Identifica los soft skills que tienes y desarróllalos a través de cursos que tenga la empresa o que puedas tomar por fuera, de conversar con tus compañeros, de hablar con alguien a quien veas bien posicionado en cada perfil y pedirle consejo, y luego exponte: empieza a usar esos soft skils. Poco a poco van a empezar a notarse cada vez más y te van a ir abriendo nuevas propuestas laborales o proyectos, promociones y retos. Independientemente del perfil que tengas siempre piensa en que TODO lo que haces es importante: eres un engrane de la gran máquina que es el equipo de trabajo y tu aportación puede hundir el proyecto o maximizar los resultados haciéndote una persona clave en cualquier empresa y un mejor profesionista para tus propias metas.

45


L

Txabier Etxeberri

o voy a decir de una vez: no me impresiona mucho la obra “aparentemente irónica” de Bansky. No lo encuentro tan contestatario, ni activista ni innovador y mucho menos “socialmente consciente”. Para muestra, tenemos las cortinillas de entrada que bocetó, produjo y dirigió para The Simpsons… son una de esas penosas bromas que se voltean contra su creador porque justo entró en el juego que critica (la producción en masa de la animación de Fox Broadcasting Company en países de Asia Corea del Sur y, se “sospecha”, Corea del Norte; en estudios con jornadas laborales que sólo se pueden definir como esclavitud moderna) y ni siquiera es nueva: las caricaturas clásicas de Looney Tunes de Warner Bros., allá por la década de 1940, tienen muchas referencias bastante mordaces a su proceso creativo y las brutales jornadas de trabajo de su equipo creativo y de producción. Así que el anuncio acerca de la creación de Dismaland no me pareció tan interesante. No se trató un proyecto gigantesco, pero si ha sido el más ambicioso que ha coordinado hasta ahora, y se comenzó a montar a principios de agosto de este año. De manera oficial, se inauguró el 21 de ese mismo mes, para ser cerrado definitivamente el 27 de septiembre de 2015, y tampoco secreto pues Holly Cushing (su manager) fue vista en varias ocasiones antes de la gran apertura. En el fondo, se trató de una más de las exposiciones efímera que Bansky y sus artistas invitados han creado (sus graffitis duran más) para promocionar su trabajo. Ya lo vimos hace exactamente dos años en las calles de Nueva York con su Better Out Than In (octubre 2013). Vamos, su primer intento de una muestra colectiva fue del 3 al 5 de mayo de 2008, con su The Cans Festival, donde invitó a más graffiteros a pintar en el túnel de Leake Street justo debajo de estación London Waterloo, en Londres. El punto es que Dismaland, luego de hacerse pasar por un proyecto cinematográfico de “Grey Fox Productions” que iba a filmar un thriller policiaco llamad “Grey Fox”, comenzó a construirse en el pueblo costero de Weston-super-Mare, en el condado de Somerset, Inglaterra. Usando como sede el Tropicana, que es un balneario (lido, como lo llaman por allá) abandonado, Bansky y 58 artistas más (de los 60 que invitó porque dos rechazaron participar) abrieron este “parque de distracciones familiar que no era apropiado para niños”.

46


47


Cada uno de los 36 días que duró la exposición, había sólo 4,000 boletos disponibles por día, un precio de £3 (76.25 pesos) cada uno. Lo curioso es que sólo entraban 500 personas cada día y al final se reportó que lo visitaron cerca de 150,000 personas… lo que significa que en realidad lo visitaba un promedio de 4,167 personas diariamente y el sitio web donde se podían adquirir las entradas, se caía frecuentemente por la “alta demanda”… y creo que seguramente era parte de la estrategia del mismo Bansky para reforzar lo irónico de toda la “experiencia Dismaland”. En el sitio se pudieron ver 10 obras nuevas de Bansky y esculturas “mayoritariamente irónicas con respecto de la situación que se vive en la actualidad con respecto del entretenimiento que consumimos”… para ser sinceros, la mayoría de verdad eran poco imaginativas y un par de críticos las clasificaron de “arte malo frente al mar” y “de sarcasmo fácil”… y yo me preguntó si no vieron acaso que a eso se hacía referencia cuando Bansky y su equipo hablaban la calidad del entretenimiento que consumimos y por el que pagamos de muchas maneras. Sí, la ironía (que no el sarcasmo porque lo que vemos en Dismaland no hiere) está ahí. El trabajo es evidente en varias piezas, pero no comunica gran cosa. Salvo por un par de piezas, lo que vemos es aparatosos, pero carente de sentido o ramplón y sin aporte real. Justo como lo que podemos ver el librerías, o en el cine o la televisión y hasta el radio… hueco, estéril, a ratos con mucha producción, en otras se ve tan simple que parece que lo improvisaron y ahí es donde se descubre que es el público quien espera que pase algo, lo que sea… y se queda mucho tiempo así.

48

En mi opinión la mejor de las piezas es “una mujer atacada por las gaviotas” de Bansky… no dejo de reírme con ella y de pensar que justo eso es lo que sucede con los medios y la saturación de información que atacan a quien por su parte quiere estar tranquilo. Toda la escena retratada es poética, graciosa y desalentadora. Pero es la única pieza que me pareció buena. Vamos ni siquiera “la orca y su domadora muestran su gran truco” es tan certera… Lo demás, es perfectamente olvidable. Así, Dismaland es uno de esos extraños reflejos de lo que ocurren con el mundo a niveles de medios de comunicación y, bueno, si de verdad lo analizamos a profundidad, la vida personal y profesional de cientos de millones de personas también se ven reflejadas aquí: demasiadas expectativas, muchas promesas… resultados “evidentes y tangibles” y, por supuesto, insatisfactorios en su mayoría. Quizá lo más sorprendente de todo es el éxito que tuvo la exposición temporal tanto a nivel interno (£450,000; es decir: $3,811,500 de nuestros pesos) como en cuestiones de derrama económica para Weston-super-Mare (£20 millones o $508.2 millones de pesos) y creó 10 empleos permanentes para la zona. Igual que Dismaland, se trata de un impacto inicial, pero no tan efímero e insustancial. Parafraseando a The Globe, un periódico canadiense, cuando hablaba de The Simpsons: “la tragedia central de [The Simpsons] es que ha pasado de hacer llamados de atención a sólo estar buscando atención”. De Bansky siempre dicen lo mismo. Ahora el sitio web, igual que el proyecto y el sentido del humor de todos los participantes, está ahí pero no llega a ninguna parte… Dismaland ha muerto, pero no deja de sucedernos.


FRATERNITYPLANA

49


L

Salvador Ordóñez

a Universidad Autónoma del Estado de Hidalgo, es una institución que se ha ocupado de preparar la los estudiantes para enfrentar los retas que actualmente la globalización plantea en todos los niveles de la ciencia, la investigación y el desarrollo de nuevas tecnologías; es por eso que se debe de contar con personal altamente calificado que pueda dirigir los esfuerzos en conjunto de los académicos y demás interesados para lograr las metas que hagan de las nuevas generaciones, personas con un nivel de preparación óptimo para enfrentar los retos de la vida diaria. En developNetwork nos interesa la opinión de los expertos y en esta ocasión tuvimos la oportunidad de conocer y entrevistas al Dr. Ávila Pozos quien nos compartió la visión que la UAEH tiene para el desarrollo de los estudiantes que cursan las carreras de T.I., en el estado de Hidalgo. developNetwork. Dr. Ávila Pozos, por favor platíquenos brevemente acerca de la trayectoria profesional que lo condujo a su actual función Dr. Orlando Ávila. Realice un posgrado en la Universidad de Tlaxcala en donde realice actividades de docencia de nivel superior. Con el tiempo me incorporé a la Universidad Autónoma del Estado de Hidalgo y desempeñé diferentes funciones asociadas a la docencia y la investigación lo que me permitió llegar a ser cofundador de las licenciaturas de química en alimentos, turismo y de matemáticas aplicadas. También me desempeñe durante nueves años como delegado Estatal de la Sociedad Matemática Mexicana en el Estado de Hidalgo. He realizado además estancias de investigación en Universidades como Oxford, Liverpool, entre otras. dN. Descríbanos su rol / responsabilidades dentro de la UAEH Dr. Orlando Ávila. Actualmente soy director del Instituto de Ciencias Básicas en Ingeniería para el periodo 2011-2017. Entre las diligencias más relevantes que desempeño, esta el presidir el consejo técnico que representa la máxima autoridad colegial del instituto dónde se discuten los temas académicos, programas educativos, y entre otras actividades, las funciones administrativas de la institución. dN. ¿Considera que las Instituciones Académicas proporcionan las suficientes herramientas a los alumnos para enfrentar el mercado laboral?

50

Dr. Orlando Ávila. Desafortunadamente no siempre ocurre esto, la dinámica de la ciencia y la tecnología muchas veces rebasa los tiempos que tienen estructuradas las instituciones para hacer su actualización de planes y programas, por lo que regularmente existe un desfase hacia la tecnología. En ocasiones dependiendo la tecnología, nuestros egresados tienen un déficit significativo para responder a las expectativas que tiene el mercado laboral. dN. ¿Podría describir cómo funciona el Programa de Certificaciones implementado por Develop en el que se genera una sinergia de colaboración Academia / Gobierno y Marcas? Dr. Orlando Ávila. La institución académica y Develop ofrecen la oportunidad de obtener a los estudiantes universitarios, herramientas en tecnologías de la información que les permiten a través de cursos complementarios la obtención de certificaciones, que les permiten incrementar y actualizar sus conocimientos. dN. ¿Qué opina de dicho Programa?, ¿cuáles considera son los beneficios que genera esta relación para la Universidad y para su población estudiantil? Dr. Orlando Ávila. En definitiva permite que nuestros estudiantes tengan la oportunidad de conseguir diferentes certificaciones a costos muy competitivos y conseguir puestos laborales mejor retribuidos. A nosotros como institución nos ayuda a preparar mejor a los estudiantes para que enfrenten el mundo laboral con mejores herramientas. dN. ¿Recomendaría usted a otras instituciones académicas formar parte de esta sinergia? Dr. Orlando Ávila. Los cursos de certificación de Develop son un valor agregado que tenemos para nuestros estudiantes de nivel superior del área de computación y electrónica, por lo cual es importante que más instituciones académicas aprovechen los beneficios que los programas de gobierno como MexicoFirst, la Secretaria de Economía y empresas certificadoras ofrecen. dN. ¿Qué otros esfuerzos desarrolla la UAEH para complementar la formación de sus estudiantes? Dr. Orlando Ávila. Nuestro modelo educativo promueve una educación integral para nuestros estudiantes y por tanto más allá de la parte profesional y disciplinaria que tienen cada uno de los programas educativos; la institución posee eventos que tienen el propósito de que nuestros alumnos dispongan de acciones muy concretas que les permite una formación integral.


51


I

Victor Hernández Maldonado1 y Leonardo Ríos Solis2

nvariablemente cada vez que hago mención acerca de la teoría de Cópulas escucho dos tipos de comentarios: El primero tiene que ver con dudas respecto al término, y el segundo, entre risas, tiene que ver con bromas de tipo sexual. Curiosamente esto último pudiera acercarse más a su definición. Pero más importante, es saber para qué sirve y como se puede utilizar. A mediados del siglo XIX, cuando audaces reverendos en toda Europa profetizaban el fin del mundo, nació el concepto de correlación lineal [Galton (1885)]. No hace falta mencionar que dicho término dominó la estadística durante casi todo el siglo XX. Sin embargo, lo más sorprendente del asunto es que a pesar de su aplicabilidad tan limitada y desventajosa, la correlación lineal ha servido como la única medida de dependencia generalmente aceptada, a pesar de resultar en ocasiones claramente inapropiada [Samuel Kotz (2001)]. Digamos que en una encuesta los resultados arrojan que la gente dice mejorar el sabor de sus alimentos al agregarles “sal”. Usar el concepto de correlación lineal para modelar este comportamiento, equivale a asegurar que agregar sal a la comida de forma indefinida mejorará siempre su sabor. Todos sabemos que no es cierto, que llegará el momento en que la comida quedará saturada y tendrá un sabor espantoso. Dados los datos de la encuesta, la falla en este concepto radica en considerar que a mayor

52

cantidad de sal, mejor sabor ¡Y eso es un error! Según Embrechts, profesor de Matemáticas de la Escuela Politécnica Federal de Zúrich, la correlación lineal es un campo minado para el desprevenido y no debiera tomarse como la medida canónica de dependencia, por lo tanto habrá que considerar dejarla descansar en paz [Embrechts (1999)].

Actualmente la manera moderna de modelar estructuras de dependencia entre variables aleatorias es a través de Cópulas. Nacida del teorema de Sklar (1959) una cópula es una función que liga o acopla el comportamiento de dos o más variables en forma conjunta. Dicho de otro modo, una Cópula posee la información de cómo interactúan sus variables conjuntamente [Sklar (1959)].


53


Para lograr hacer un buen análisis es necesario modelar la relación Sentimiento-Intensidad la cual exhibe una dependencia de tipo compleja y que no puede ser modelada a través de los métodos tradicionales

Imaginemos que tenemos una muestra de datos bivariados (X, Y) y queremos estudiar su dependencia. Usando la teoría de cópulas, y sin entrar en detalles acerca su tipo, tendríamos como resultado la imagen de la Figura 1. En esta figura se presentan 3 diferentes cópulas generadas a partir de distintas cantidades de datos: La cópula de la izquierda tiene 5 datos, la del centro 20 y la de la derecha tiene 380. La idea de presentar estas imágenes es hacer notar dos cosas: Primero, la interacción real entre X y Y, la cual es resultado de ligar o acoplar sus comportamientos individuales. La segunda, que a mayor cantidad de datos dicha interacción se vuelve más fina y por lo tanto más precisa, cosa que no necesariamente sucede con los modelos lineales.

precepción que la gente tiene de ellos. Para lograr hacer un buen análisis es necesario modelar la relación Sentimiento-Intensidad la cual exhibe una dependencia de tipo compleja y que no puede ser modelada a través de los métodos tradicionales. La figura 2 muestra el gráfico de dispersión de un conjunto de datos de esta relación. En ella se muestra claramente la insuficiencia del modelo de correlación lineal para representar a los datos (línea roja).

Figura 1. Tres Cópulas empíricas construidas con diferente cantidad de información. De izquierda a derecha: 5, 20 y 380 datos

La necesidad de establecer modelos de correlación o dependencia entre múltiples tipos de variables es muy poderosa, tanto que prácticamente existe en cualquier campo de las ciencias. Por ejemplo, en el Procesamiento de Lenguaje Natural (PLN), en particular en el análisis de sentimiento, existe la necesidad de establecer modelos de dependencia entre variables que contribuyen fuertemente a conocer una opinión. Con esta información es posible ayudar a compañías, marcas o gobiernos a mejorar la

54

Figura 2. Diagrama de dispersión de la relación Sentimiento – Intensidad modelada con regresión lineal. La línea roja representa dicho modelo.

Dada la naturaleza de esta relación es necesario establecer modelos que sí reproduzcan la variabilidad de


1 INFOTEC Centro de Investigación e Innovación en Tecnologías de la Información y Comunicación, México. 2 Universidad de Berkeley. Physical Biosciences Division, Lawrence Berkeley National Laboratory, Berkeley, USA.

los datos de forma natural, sobre todo en aquellos casos en los que está involucrada una emoción humana. En la Figura 3 tenemos una representación muy cercana a los datos reales lograda con Cópulas. Las líneas de la Figura 3 representan un “encapsulamiento” de los datos por parte del modelo, de manera que se puede asegurar que ha sido atrapado su comportamiento natural.

Figura 3. Diagrama de dispersión de la relación Sentimiento – Intensidad modelada por cópulas. Cada línea representa una regresión a un cuantíl dado: Roja-cuantíl 0.1, verde - 0.5 y Azul – 0.9.

En el modelo pueden ser introducidas cuantas variables sean necesarias. Por lo que es posible generar la predicción de sentimiento de un texto usando información de distintas

fuentes, en INFOTEC se está innovando la utilización de este tipo de modelos, en combinación con algunos métodos ya establecidos para la detección de sentimientos, y los avances que hasta ahora se tienen generan predicciones de hasta un 79% de exactitud (lo cual es muy elevado). El uso de cópulas poco a poco ha comenzado a desplazar a los modelos tradicionales en distintas áreas de la ciencia. Justo ahora se están generando nuevas colaboraciones con investigadores de la Universidad de Berkeley para implementar dichos modelos. En específico en el área de la biología sintética, la cual busca diseñar nuevos sistemas biológicos programables que no existen en la naturaleza. Estos biosistemas pueden ser desde biosensores ambientales, hasta “micro-fabricas para la producción de medicamentos que serían imposibles obtener con la química tradicional (Keasling, 2012) . Cuando un investigador de biología sintética está intentando diseñar una nueva función en un microorganismo, un gran reto es lograr identificar el efecto multivariado de una gran cantidad de genes en elementos observables específicos, como son la capacidad de producción de un medicamento por parte del microorganismo sintético. Sin embargo, la capacidad de producción de este medicamento depende de un gran número de factores genéticos y moleculares, y es necesario considerar todas las posibles interacciones (Ajikumar et al., 2010). Es aquí donde las bondades de la optimización a través de la teoría de cópulas está permitiendo al investigador discernir y predecir con éxito estas relaciones, promoviendo un rápido avance en el desarrollo de nuevos medicamentos y tratamientos (Kim et al. 2008).

55


A

Ilidan Nona

zoté la puerta del baño con fuerza. La noche no fue la mejor, no pude dormir debido a una elevada fiebre ocasionada por una infección estomacal. Es tiempo de lluvias, el pasto, los árboles y la vegetación del área que rodea mi casa reverdecen, pero con ello los infames moscos también. Hace unos días, maldije a mi vecino mientras lo miraba desde la ventana, la razón, su enorme perro, un San Bernardo que babeaba a litros, me despertaba estrepitosamente una vez más con sus ladridos justo afuera de mi recámara. Recordaba eso mientras el dolor de estómago regresaba pero esta vez alimentado por una descarga de karma mientras me miraba en el espejo con enormes piquetes de mosco en la mejilla y en la frente y es que, unos días después de lanzar mí maldición al vecino, lo picó el Chikungunya. - Sería muy improbable… – pensaba mientras me lavaba los dientes. En eso estaba cuando frente al espejo, mientras me miraba a los ojos, me sumergí dentro de mí mismo. Aquel reflejo enfrente de mí arrancó su discurso con la premisa de Nietzche “El amor es aquel estado en que el hombre está más propicio a ver las cosas como no son ” es decir, la afectividad pudo distorsionar tu conocimiento y también pudo favorecerle. Al carecer de inteligencia emocional tienes una gran deficiencia de desarrollo social e intelectual, no se crea conocimiento interior humano ni se crece sin que la experiencia esté ligada a las emociones. ¿Cómo aprender algo que no te llama la atención?, es más, ¿cómo aprehender una enseñanza de alguien que no te inspira? Radicalmente el hilo que separa la intelectualidad de lo afectivo es demasiado frágil y a veces no puede reconocerse, creando espejismos que al disfrazarse de verdaderos te han conducido a los senderos de una aparente irracionalidad, de esta manera aprehendes cosas solo por requisito que terminarán desapareciendo de tu atrofiado archivo de conocimientos más adelante en tu vida, porque no los utilizarás o porque no sabrás cómo y en que situaciones aplicarlos. Yo estoy aquí, o tal vez no, tal como lo hace socialmente el concepto religioso que bien puede ser uno de tantos ejemplos de lo que te digo, pues el concepto o la idea de una entidad suprema es algo que no puede

56

ser general por más que se le intente, de otra manera, la diversidad de culturas e ideologías no existiría, ya que el contexto de desarrollo de todos ustedes, los seres humanos, sea histórico o ambiental, no es el mismo, ni siquiera dentro de los pequeños núcleos a los que denominan familias. Así, poco a poco irás llegando a los errores intelectuales y mentales de no aceptación de nuevos conocimientos que derrumbarán los ideales que toda la vida has defendido, pienso que la posibilidad de mentirse a uno mismo es lo que realmente falsea la información recibida y asimilada, porque tendemos a adularnos y a diferenciarnos de los demás. – ¡Hey mírame, marica! – gritó con firmeza aquél reflejo apenas intenté desviar la mirada. Buscas separarte de otros, has ido ocultando de forma significativa la verdad de cómo se debería concebir tu formación a según de tus procesos y disposiciones tanto síquicas como culturales que no te permiten arriesgarte. Vives el error mientras matas la ilusión. Aun así me encanta la aberración de la condición humana, si no, no existiría. Pero tú, necio, discutes lo indiscutible, defiendes lo indefendible peleas con titanes y navegas mares furiosos lejos, muy lejos de la cordura y por eso no debes dormirte. Ahora tengo que irme, pero volveré. Te advierto antes de partir que entre más neuronas ejercites más infeliz serás – no miento en eso. Un grito se me salió de la garganta con la piel erizada. Una de las protuberancias, la de la frente, se inflamaba al compás de los latidos del corazón. La defensa de mis ideas quedó anulada y reducida al mero análisis de mi “Hiper conciencia”, de un fanatismo dañino o de un amor propio meramente insufrible arrinconándome al borde de la extinción, ya que mis ideas dogmáticas de lo sagrado no deseaban la adición de ese “otro” que no pensaba como ¿yo?, ¿él?, ¿ustedes?, simplemente buscaba su exclusión. Abrí la regadera y me puse debajo del agua fría volteando de vez en vez al espejo por entre la abertura de la cortina de baño. Y aquello se asomaba cerrándome el ojo… solté otro gritillo tímido. San Agustín exponía la premisa “si no crees, no entiendes”. La evolución es comprensión a nosotros mismos, para evitar la mentira, para mantener la lucidez de nuestra inteligencia crítica.


Reflexiones de una mente creativa 57


H

Salvador Ordóñez

ace más de 10 años se inició una revolución tecnológica que habría de cambiar las reglas de la comunicación y la convivencia humana; fue el lanzamiento de los smartphones lo que impulsó la necesidad de una comunicación móvil que nos permitiría llevar nuestras vida social y laboral en un solo espacio. Su capacidad de manejar múltiples aplicaciones fue lo que en poco tiempo lo volvió el gadget más popular de su época. Con la introducción a los mercados internacionales del nuevo celular inteligente, este trajo consigo una serie de aplicaciones móviles que en poco tiempo se convertirían en las herramientas más importantes de la tecnología, provocando con esto, la necesidad de llenar las tiendas virtuales de una infinidad de programas para la vida diaria. A partir del lanzamiento de las apps se llego a contabilizar más de tres millones de aplicaciones dentro de las tiendas en el 2014, teniendo una cifra record de ventas y descargas. Pero para lograr éstos números fue necesario contar primero con gente que visualizara la necesidad del mercado y posteriormente transformará esa insuficiencia en un servicio. Para lograr crear apps era necesario contar con los conocimientos técnicos que permitieran al desarrollador de aplicaciones crear un entorno gráfico entre el usuario y el smartphone, sin embargo, lograr cubrir todos los lenguajes de programación se fue convirtiendo poco a poco en un gran reto, pues las certificaciones en las nuevas tecnologías de la información se encarecían con el paso del tiempo, generando una brecha entre el conocimiento y su aplicación. Para revertir el efecto que generaban los altos costos de las certificaciones en T.I., en el año 2007 en la Ciudad de México se fundó la compañía de certificaciones en lenguajes de programación DEVELOP talent & tecnology quien comenzó un importante reto a lograr, la certificación de los alumnos de las instituciones académicas de nivel superior en los diferentes lenguajes de sistemas tecnológicos, y a través de programas de gobierno como MexicoFIRST y tratados con los bancos internacionales, lograr impartir los cursos hasta con un 90% de descuento sobre los precios en esos años. A partir del primer

58


59


modelo de certificación implementado por DEVELOP se buscó crear sinergias de trabajo que vincularan al gobierno, las empresas y las instituciones académicas en un programa que impulsara el talento de nuestro país hacia a la necesidad de una capacitación especializada que posteriormente abriría las puertas a los estudiantes certificados al mercado laboral nacional e internacional. Con el paso del tiempo, DEVELOP se ha posicionado como una de las principales empresas de un grupo de sociedades dedicadas al desarrollo del Sector de T.I. en México. Su principal actividad es la aplicación de programas masivos de capacitación y certificación en las tecnologías más demandadas por el mercado Mexicano. Alrededor de los últimos 5 años han creado sinergias laborales con el Gobierno Federal por medio de la Secretaría de Economía y del Fondo PROSOFT, así como también la institución no lucrativa MexicoFIRST (siendo el proveedor más grande del país), para obtención de fondos y recursos públicos Federales y Estatales que han beneficiado a los alumnos, docentes y personal administrativo de las principales Instituciones académicas del país, poniendo a su alcance en todo este tiempo programas de especialización, con el beneficio de que dichos cursos lleguen a las aulas de cada una de esas Universidades facilitando la logística y económica de los aspirantes. Su modelo operativo contempla: • Negociación con las marcas desarrolladoras de software más importantes en México como son: ORACLE, MICROSOFT, GOOGLE, ANDROID, etc., con quienes trabaja para obtener precios preferenciales con hasta un 60% de descuento sobre el precio de mercado actual. • Gestión de Recursos Federales a través de MexicoFIRST (50% de subsidio aplicado al precio preferencial otorgado por la Marca) • Gestión de Recursos Estatales. Entendiendo los intereses del Estado para lograr que el proyecto refleje entregables de alto valor agregado (e.g. empleos potenciales, colocación de recursos certificados en la industria local, etc.) • Vinculación con las principales Universidades del país para la generación de convenios colaborativos que permitan poner al alcance de los alumnos los cursos de capacitación y certificación en TI en las instalaciones donde normalmente toman sus clases, facilitando su traslado sin impactar su economía. Actualmente cuentan con una relación de más de 400 universidades en todo el país. • Impartición de cursos presenciales con programas y materiales autorizados por cada marca

60

• Aplicación de exámenes simuladores como herramienta de preparación al examen de certificación • Levantamiento de centros certificadores móviles temporales en cada universidad donde se imparten cursos • Aplicación de examen de certificación A partir del 2014 DEVELOP inició con cinco proyectos que complementan un cluster dedicado a impartir diferentes servicios de comunicación y certificación orientados en su totalidad al estudiante universitario con la finalidad de impulsar las certificaciones y beneficiar a las instituciones académicas donde se implementan. Los proyectos se catalogan como: 1. UNIVERSITY TECHDAY: Es una empresas dedicada a impartir conferencia de tecnología dentro de las instituciones académicas de nivel superior. Su objetivo es llevar información a las estudiantes universitarios sobre la situación laboral a nivel mundial y con esto ofrecer un panorama general sobre la necesidad de certificarse en diferentes lenguajes de programación en T.I. Su principal ventaja es la exposición de eventos interactivos en todas las universidades del país. 2. DEVELOP NETWORK: Es una publicación impresa mensual utilizada como espacio para la difusión de reportajes, investigaciones o entrevistas con empresas de T.I. Esta enfocada al estudiante universitario permitiéndole estar informado sobre los avances más importantes relacionados a su nivel de estudio e interés. 3. GROW: Es una empresa comprometida en la donación de Centros de Certificación a Universidades y entidades publicas, donde los alumnos podrán certificarse dentro de su institución académica. 4. FRATERNITY ADVISOR: Programa de reclutamiento de Universitarios para que participen en actividades de apoyo a la educación a cambio de beneficios como becas o aparatos electrónicos, etc. 5. PROGRAMA 1X1. Cada alumno que toma un curso en aplicaciones móviles es vinculado a una empresa, la cual al final de la certificación, recibe una aplicación móvil hecha a la medida por partes de los estudiantes. DEVELOP como parte de un generador de cambio en las estructuras académicas de nuestro país en T.I., ha logrado el liderazgo como marca, permitiendo certificar a más de 20,000 alumnos universitarios en tan sólo unos cuantos años, por lo cual se posiciona como la compañía líder en la generación de talento, a través, de la capacitación y certificación a nivel nacional, siendo además la única empresa que implementa el modelo integral de academia, gobierno e industria en alta escala a nivel nacional.


61


E

Xochicuahuitl Gleason

n los últimos meses he tenido una discusión muy acalorada y enriquecedora con un gran compañero de trabajo sobre qué fue primero el huevo o la gallina, referencia histórica que todos hemos usado al menos una vez en nuestra vida, y más en esos momentos donde nos ponemos filosóficos. En nuestra discusión más reciente poníamos sobre la mesa la capacidad o no del sujeto social para definir su interacción con el otro y a partir de que valores hacerlo… no llegamos a algo concreto (claro imagina que tan complicado es poner de acuerdo dos pensamientos tan divergentes como el de un ingeniero en sistemas y el de una socióloga); pero lo interesante de este intercambio de perspectivas fue el reflexionar desde donde y como entendemos a la cultura y la influencia de la tecnología en ella. Cada momento en la historia y la complejidad de la vida social se abren a una pluralidad de interpretaciones que suceden dentro de distintas trayectorias, puntos de vistas, valores e interacciones. Esta diversidad prueba la resiliencia de la sociedad. La cultura y sus formas de expresión cambian en respuesta a las estrategias de la gente para adaptarse y para comunicarse Como ejemplo claro tenemos que los efectos de la globalización ofrecen perspectivas útiles por las cuales se puede evaluar el impacto de la cultura en el desarrollo nacional e internacional. La globalización no sólo aumenta la sensibilidad hacia las diferencias, sino también hacia las interdependencias (Shanker, 1998). Donde la idea de cultura deja de ser puritana para transformarse en distintos hilos de interacción a partir del desarrollo tecnológico de las últimas décadas, dando con esto un proceso de popularización de la cultura y de las bellas artes. La idea de la cultura como mera abstracción de identidades debe de olvidarse para dar paso a su entendimiento como un sistema de símbolos distintivos junto con herramientas, físicas o digitales que capturan y codifican las experiencias importantes y comunes de un grupo. Símbolos y significados que desarrollan información, reglas de interacción y discursos de identidad dando con esto estructura a cualquier comunidad. Y cuando logramos transformar estos símbolos a productos de aprendizaje se genera una arquitectura cultural absorbiendo el punto de vista del diseñador institucional, sus valores, ideologías, cultura, clase social y género así como su paradigma

62


personal.“Todos estos factores culturales que interactúan tienen una importancia particular para la difusión y la eficacia en el uso de la información, la comunicación y los sistemas de aprendizaje como la "web" o red electrónica, y los productos y materiales de aprendizaje provistos en esos sistemas” (Wild, 1999). En la realidad global en la que vivimos y cohabitamos un sin fin de culturas, sub culturas, tribus culturales, etc.. la tecnología se posiciona como la amalgama adecuada para la definición de reglas de interacción respeto y muto enriquecimiento, posibilidad que se explica a partir de entender la Tecnología como un sistema de símbolos potente y globalmente entendible, donde las barreras del lenguaje pueden ser superadas por un lenguaje común de programación, algoritmos y símbolos. Sin embargo y pido no se mal entienda, la idea del establecimiento del lenguaje universal por medio del uso adecuado de la tecnología no puede, ni mucho menos debe abaratarse con un mal ejercicio de competitividad nacional o individual, ya que una comercialización sin sentido de las culturas y de la Tecnología únicamente ensanchara la brecha entre unos y otros, olvidando que la cultura, los símbolos, la arquitectura de interacción debería de permitir la construcción de un mundo basado en el respeto del otro, de lo diferente de la integración a partir del entendimiento de la no colonialización. Es decir una de las razones más importantes para el establecimiento de una relación entre culturas y tecnología debería de ser que la segunda tenga el enfoque de difusión y valorización de cada una de las expresiones culturales que desarrolle el ser humano, posicionando a todas en el mismo plano de importancia y desarrollo, olvidando ese pensamiento del siglo de las luces de la colonialización de la cultura sobre otras… por cierto muy ad hoc para la conmemoración del “Día de la raza” (¿será?) Por tanto, habría que crear consciencia de que el uso de la tecnología tiene que ser en bien de la humanidad y en la conservación de nuestra cultura y de nuestros valores, no importa el país que sea. Tenemos que conservar la ética, aunque no nos veamos por la "internet." Necesitamos conservar, preservar y defender el valor de lo diferente, del otro, de la diversidad, aunque no tengamos fronteras comunes; seamos países desarrollados o menos desarrollados y respetar esas diferencias. Tenemos que usar la tecnología a nuestro favor para preservarla. Al final la cultura es la práctica más perfecta para invitar a soñar.

63


64


65


Profile for developNetwork

Developnetwork noviembre  

Computación Cuántica El horizonte cercano al 2020

Developnetwork noviembre  

Computación Cuántica El horizonte cercano al 2020

Profile for masgeek
Advertisement

Recommendations could not be loaded

Recommendations could not be loaded

Recommendations could not be loaded

Recommendations could not be loaded