a product message image
{' '} {' '}
Limited time offer
SAVE % on your upgrade

Page 1


1


Septiembre 2015

STAFF CONSEJO EDITORIAL

Año 1 Número 12

Alejandro Brera

Presidente del Consejo

Gerardo Oxley César O. Rodríguez

EQUIPO EDITORIAL Salvador Ordóñez

sordonez@develop.com.mx

Director Editorial

Javier Barriopedro

fbarriopedro@develop.com.mx

Editor

Edgar Loeffelmann

eloeffelmann@develop.com.mx

Coeditor

EN PORTADA

ANIEI Preparando un Futuro Tecnológico FOTO DE: Shutterstock

Alejandro Rebollo Karla Salinas Verenise Sánchez Ayax Vasconcelos Juan Robles Alondra DeMaría F Txabier Etxeberri Ana Luisa Guerrero Fermin Flores

Ana Luisa Guerrero Víctor Hernández Xochicuahuitl Gleason Armando Bonilla Gabriela Campos Illidan Nona Colaboradores

Salvador Ordóñez

Diseñador Editorial

Sandra Benitez

sbenitez@develop.com.mx

Redes Sociales

Shutterstock

Fotografías

University Tech Day www.issuu.com Distribución

AGRADECIMIENTOS ESPECIALES

Ariel Rodríguez (DEVELOP), Lourdes Sánchez Guerrero (ANIEI), Edgar Loeffelmann, Carlos Fernández , Arturo Campos Fentanes, Ana Paula Konrad, Pedro Flores, Juan Saldivar, Alejandro Villanueva, Cristina Cervantes y a todas las personas que han hecho posible este número tan especial de developNetwork

“developNetwork” es una publicación literaria que puede ser distribuida, previa autorización de sus representantes, de manera física y electrónica. El nombre “developNetwork”, diseño y contenido se encuentran en proceso de registro y son protegidos por la Ley Federal de Derechos de Autor, encontrándose vinculados a una marca en proceso de registro ante el Banco Nacional de Marcas perteneciente al Instituto Mexicano de la Propiedad Industrial. Todos las artículos aquí descritos están sujetos a sufrir cambios y/o variaciones, sin previo aviso. La información, datos estadísticos, reportajes y fotografías contenida en los publirreportajes es resultado de un trabajo de recolección de información en la que terceros, colaboradores o personalidades públicas otorgan sus opiniones y/o datos de un tema en específico, por lo que bajo ninguna circunstancia reflejan la opinión de “developNetwork”, de sus editores, representantes o accionistas, así mismo, “developNetwork” no asume responsabilidad respecto del contenido y veracidad de dicha información. Revista impresa por “Impresora y editora INFAGON SA de CV” Alcaiceria No. 8 Col. Zona Norte Central de abastos Iztapalapa C.P. 09040 México, D.F. Para conocer más sobre los derechos de autor de algunas de las imágenes, fotografías y trabajado literarios publicados a través de “developNetwork” consulta nuestra página web en www.developnetwork.com

“developNetwork”, es una revista mensual, publicación impresa y electrónica. 5557-5012 / 5395-2791 Contacto Web: hola@developnetwork.com

www.developnetwork.com

2


E

CARTA EDITORIAL

stimados lectores, el otoño está muy cerca y es justo en esta temporada cuando podemos apreciar los nuevos lanzamientos que las empresas de tecnología nos tienen preparados para finales de año. La larga espera que se ha generado para el despliegue de diferentes sistemas operativos, creó grandes expectativas de lo que puede venir para los ordenadores y los smartphones de última generación. Estos cambios e innovaciones, por lo tanto, están definiendo el futuro de la tecnología y de nuestra interacción en el mundo, tal y como lo hizo hace unas décadas la idea de impulsar el internet a todos los rincones del planeta, sin embargo, actualmente vivimos la era de la miniaturización de las máquinas, permitiendo que la nanotecnología hoy se integre y se vuelva una realidad como lo fueron hace 60 años las computadoras. Desde que los soñadores vieron la posibilidad de hacer nuestro mundo más pequeño, han salido de la imaginación grandes ideas para mejorar nuestro entorno y la manera en la que almacenamos la información. De igual forma, se ha logrado llevar la microtecnología al campo de la ciencia aplicada, permitiéndonos conocer nuestro universo desde una perspectiva hasta ahora totalmente desconocida. Es por esta razón que la era digital ha conseguido integrar la tecnología y la sociedad a niveles de conocimiento que jamás habíamos alcanzado, logrando que las viejas y nuevas generaciones convivan en un mundo donde las fronteras se rompen ya no sólo entre países, sino a niveles moleculares y macro-universales. En este número de septiembre los invitamos a conocer los nuevos avances científicos sobre la nanotecnología y sus aplicaciones. Esperamos como siempre que sea de su agrado la revista que tienen en sus manos. Director Salvador Ordóñez Toledo

3


ÍNDICE

La Biotecnología, la Ética y la Bioética en su aplicación

28

Carta editorial

3 Tecnología en Reducción

BREVES Breves

6 Película, música y videojuego. TECH NEWS

8

Zankyuo No Terror

Tecnología Aplicada a la Ciencia

Los Mejores Gadgets para

10 Septiembre JIBO

12 Como Compañía Humana MASTER GURÚ Avanza México en Ciencia y

14 Tecnología

Sistema de Transporte Inteligente

Ingeniería Social

34 Qué tan Vulnerable es el Factor Humano 36 La Ciencia es sólo un poco más lenta que la tecnologia

UNIVERSITY No siempre es culpa de RH 5 Verdades de tu Proceso de Reclutamiento

42

16

Micro-Nanoesferas

46 Liberadoras de Insulina

¿Marca Digital Personal?

48 Yo no la necesito ¿O sí? Almacenamiento de Datos en DNA

18 Un horizonte cercano de 700 Tb

20 NanoTec Convergiendo hacia las Estructuras Biotecnológicas

Chips Inteligentes

22 Computación Cuántica,

52

Impulsará ADIAT Innovación

54 Tecnológica en PyMES através del Consorcio ELAN

CÓDIGO INNOVARE

La Importancia de la Analítica 56 en Redes Sociales

Pensando como Humano

Eliminan Contaminantes del

60

Tecno Conciencia

62

24 Agua con Microorganismos 26 4

La Sociedad de Red

El Incidente

ANECDOTARIO EL RECREO


MASTER GURÚ

ANIEI

30

PREPARANDO UN FUTURO TECNOLÓGICO

5


Por: Salvador Ordóñez

UNTIL DAWN

¿Podrás sobrevivir al terror? Esa es la pregunta que generalmente te hacen en los carteles de películas de este género, y ahora la gente de Sony ha decidido traernos a las consolas el cliché de las historias de Hollywood y ponernos a dirigir la vida de ocho estudiantes universitarios que visitan una cabaña en el bosque con el fin de celebrar una fiesta. La historia, aunque parece que ya la has visto en otras películas, nos adentra en las decisiones que el grupo debe tomar para intentar sobrevivir a los peligros que los acechan constantemente y habrá puntos en donde una acción podrá afectar el final del videojuego. Sin duda, crear una historia de terror se ha vuelto un reto para las compañías, pero esperemos que en Until Dawn la propuesta avive a los http://bit.ly/1KbakMe gamers de este género.

BYZANTINE: TO RELEASE IS TO RESOLVE Después de cinco años de ausencia regresa al escenario del Heavy Metal la banda Byzantine, originaria de West Virginia, y trae este año su quinto álbum inspirado en fuertes riffs para la guitarra que transportarán el interés de los fanáticos de este género por un disco creado con melodías que se interna en el Metal, con una conjunción armónica de voces e instrumentos. A pesar de que su música se ha llegado a considerar como un híbrido de bandas como Pantera o Meshuggah, su estilo limpio en la guitarra y las voces nos permiten descubrir una propuesta evolutiva en el género. Sin duda, To Release Is To Resolve es un disco que no debes http://bit.ly/1M7q7MR dejar pasar para este fin de verano.

ROGER WATERS: THE WALL Una vez más regresa a la pantalla grande una de las obras de arte musicales más importantes de finales de la década de los 70 y es The Wall, creada originalmente dentro de la banda emblemática de progresivo Pink Floyd. Ésta es una película del concierto majestuoso que se llevó a cabo en la gira que comenzó en el 2010 y concluyó en el 2013, convirtiéndose en uno de los conciertos más esperados de todos los tiempos y visto por más de 4 millones de personas en todo el mundo. En esta ocasión será la oportunidad perfecta para ver a Roger Waters y Nick Mason juntos una vez más en la repetición de un concierto que generó ganancias por más de 458 millones de dólares. Esta película tendrá su estreno el día 29 de septiembre y ha sido planeada para su exhibición en más de 2 http://bit.ly/1eWoCoP mil salas de cine a nivel mundial.

6


´

7


ZANKYOU NO TERROR LA CATÁSTROFE QUE RINDIÓ A TOKIO

U

Por: Salvador Ordóñez

no de los temas que más ha impactado al siglo XXI ha sido la serie de ataques terroristas llevados a cabo en las principales ciudades de países como Estados Unidos, Reino Unido o España, en donde las principales víctimas suelen ser la población civil y los televidentes que miran horrorizados los impactos que la guerra de grupos armados producen contra los gobiernos, tomando represalias por acciones socio-políticas de hace muchos años; pero, qué sucedería si un día de verano en el centro de la ciudad de Tokio se orquestara un plan que pondría a toda una población en alerta total: una serie de explosiones destruyen varios edificios sin causa alguna, dejando atrás la tranquilidad de un pueblo para llevarlos al extremo del terror, pues los ataques seguirán destruyendo todo lo que representa esta sociedad. Zankyou no Terror es una historia que nos transporta a la mente de dos adolescentes que han dirigido uno de los actos terroristas que llevan a la población de Tokio a experimentar el verdadero terror que puede tener la oscuridad de la mente humana, sin embargo, este anime nos plantea la posibilidad de creer que detrás de todo acto violento puede existir una causa que injustificadamente cambia la vida de las

8

personas para llevarlas, por instantes, a cuestionar el verdadero significado que la vida puede tener en los momentos de la desesperación colectiva. Si te gustan las historias de suspenso, la obra de arte del director Sinchiro Watabe te trasladará en todo momento por la mente de Nine y Twelve, los responsables de terminar con la aparente vida tranquila de la población en Tokio. Los estudios MAPPA fueron quienes llevaron a cabo esta serie creada en 11 capítulos, siendo estrenada el 10 de julio de 2014. El diseño y trazo de los personajes lo realizó el artista japonés Kazuto Nakazawa y la increíble banda sonora fue realizada por Yoko Kanno. Algo que apreciarás mucho en Zankyou no Terror, es la atmósfera bizarra que se desarrolla durante toda la historia, permitiendo que sus personajes principales y secundarios entren en un conflicto psicológico por descubrir la principal identidad del enemigo, lo que nos lleva a recordar series como la Death Note, en donde el clímax se desarrolla generalmente a la mitad de la historia. En conclusión, es interesante ver la propuesta que Watabe nos trae a la pantalla y nos permite apreciar cómo la mente de las nuevas generaciones se desarrolla en un mundo donde los valores tecnológicos se abalanzan sobre el verdadero significado de los sentimientos humanos y la irracionabilidad de sus actos.


9


LOS MEJORES GADGETSPARA

Por: Salvador Ordóñez

1

SEPTIEMBRE

ASUS VivoWatch

Este nuevo smartwatch de la familia ASUS se convertirá en toda una promesa al ofrecer una batería con una duración de 10 días, capacidad para monitorear el ritmo cardiaco, bitácora de sueño y una aplicación Happiness Index que analiza tu nivel de bienestar. Este gadget será sin duda uno de los favoritos para la temporada de otoño. http://bit.ly/1NYbSx4

AfterShokz AS500 Bluez 2

Estos son unos audífonos de alta tecnología que no van dentro del oído, sino que se pegan frente a la oreja y a través de vibraciones manda la señal hasta el tímpano. Su calidad no puede compararse con los audífonos convencionales, sin embargo, su conectividad inalámbrica por Bluetooth es sencilla.

2

http://amzn.to/1VLj2Gc

3

GARMIN Dash Cam

Recientemente ha salido mercado esta nueva cámara de video que te asistirá a la hora de manejar, ya que se coloca en el retrovisor mirando hacia enfrente, lo que le permite grabar los sucesos de conducción, alertarte si considera que estás muy cerca de otro auto y tener una grabación de cualquier situación con sistema GPS. Soporta una tarjeta SD de 64 GB. http://bit.ly/1hTJvT5

PROTAB TABLETA 7” MARVEL

Para los fanáticos de los súper héroes llega esta tablet diseñada con una funda de los personajes de MARVEL. Cuenta con un procesador QUAD-CORE, 1 GB de memoria en RAM y 8 GB de memoria interna expandible a 40 GB gracias a su doble ranura de SD. Tiene además doble cámara, Wi-Fi, G-sensor y una batería de larga duración. http://bit.ly/1M8pBkG

10

4


5

LENOVO DESKTOP HORIZON

Esta computadora de escritorio cuenta con una pantalla de 21.7” FHD Led, lo que promete una definición de imágenes más nítidas, tiene un procesador Intel Core i5, una memoria en RAM de 8 GB y un disco duro de un 1 TB. Viene además con una cámara integrada de 2 MP y bocinas Dolby Home Teather.

http://bit.ly/1M8qIkg

LG CELULAR R9 LTE H815P G4

7

Este nuevo smartphone LG te permitirá tomar fotografías de nivel profesional gracias a su cámara trasera de 16 MP. Cuenta con un procesador Qualcomm de 1.8 GHz Hexa-Core que le dará más duración a la batería. Su segunda cámara de 8 MP será una buena herramienta para las selfies. Tiene además una pantalla de 5.5 pulgadas QHD.

6

http://bit.ly/1VLoRU9

LG PANTALLA OLED 55” UHD

Para esta temporada te invitamos a que conozcas la nueva Smart TV de LG, una pantalla OLED de 55 pulgadas que redefine la imágenes a través de su sistema curvo y la aplicación de la tecnología 4 Color Pixel que agrega un subpixel blanco modificando los tres colores convencionales obteniendo una mejor precisión de color.º http://bit.ly/1IW9CyB

8

APPLE AIRPORT TIME CAPSULE 3TB

Con este sistema de transmisión de datos podrás almacenar hasta 3 TB de información gracias a su disco duro integrado, además puede transmitir la señal de internet por Wi-Fi en dos bandas de 5 y 2.4 GHz. Su sistema de antenas ubica al dispositivo receptor y mandan toda la potencia de la señal. Cuenta además con puertos Ethernet y uno para USB donde podrás conectar otros periféricos.

http://bit.ly/1Ov5uKU

9

YAMAHA SISTEMA DE AUDIO INTEGRADO CON BLUETOOTH Este sistema de audio en forma de torre podrá transmitir tu música a través de su sistema de conexión por Bluetooth, cuenta además con entrada para CD, radio FM, entrada para USB y controles inteligentes para apps con iOS o Android.

http://bit.ly/1iuCsko

SONY BANDA UNIVERSAL PARA LA CABEZA

Con esta banda para la cabeza que ha diseñado SONY podrás conectarle una pequeña cámara de video y salir a practicar deportes extremos pudiendo grabar todas las escenas que veas. Su sistema de inclinación y vuelco te ayudarán a no perder detalles de todas las maniobras que realices.

10

http://bit.ly/1NnNCUW

11


JIBO COMO COMPAÑÍA HUMANA

H

Por: Salvador Ordóñez

ace sólo 15 años comenzó el siglo XXI y con ello trajo la propuesta de un mundo globalizado, donde el interés tecnológico ha impulsado el desarrollo de medios de comunicación masivo, permitiéndonos estar conectados a una red de información que cada día crece a una velocidad que puede superar los 600 exabits por día. Todos estos datos que recabamos nos han permitido crear sistemas de comunicación o asistentes de voz como Siri, Cortana o Sherpa Next, quienes han revolucionado la guerra de sistemas operativos para los smartphones y han creado un análisis sobre las necesidades que los consumidores llevan día a día, sin embargo, el medio donde se desarrolla esta supuesta inteligencia artificial suele ser frío e indiferente en diseño, y es ahí donde el mercado de los robots asistentes entra para llenar los vacíos de interacción que necesitamos como seres humanos. Las series de televisión de los años 70 nos trajeron personajes como Robotina, que era prácticamente la asistente personal de los Supersonicos, una caricatura que mostraba la vida de las personas en el siglo XXI. Pero 40 años después de estas divertidas historias, la realidad no está muy alejada de la ficción pues actualmente contamos con un asistente personal para la familia llamada JIBO, un robot amigable que fue creado por la profesora Cynthia Breazeal quien se ha convertido en la pionera de la robótica social. Su creación de aproximadamente 28 cm y 2.7 kg nos recuerda al personaje EVA de la película de Wall-E, ya que su diseño es muy similar en estructura. Cuenta

12

con una pantalla táctil de 5,7 pulgadas con una resolución de 1920 x 1080 pixeles en lo que sería su rostro, lo que le permite comunicarse con el usuario utilizando gestos y expresiones casi humanas. Pero, ¿qué es lo que hace tan interesante a JIBO? En primera instancia su capacidad para estar conectado a internet es lo que le permite tener esa interacción, pues está actualizado en todo momento de lo que sucede en el mundo y de lo que muy seguramente estarás necesitando en cualquier momento. Esta característica también le permite enlazar video llamadas con tus seres queridos gracias a la cámara, micrófono y altavoces integrados en su estructura. Dentro de su software podemos encontrar un sistema operativo basado en Linux, lo que permitirá a los desarrolladores crear aplicaciones llamadas “habilidades” que harán de JIBO un sistema más inteligente. Actualmente este robot puede identificar los rostros de las personas, saber quién es quién en la familia, sacar fotografías cuando detecta a alguien sonriendo o estar conectado a los servicios de la casa para encender o apagar las luces de una habitación, mandar mensajes a tus contactos o programarte citas de manera que nunca olvides un compromiso otra vez. Para concluir, debemos resaltar que hoy en día estamos entrando en la era de los robot caseros, donde la necesidad de estar conectados ha sobrepasado nuestras expectativas, para ahora tener una interacción humano-robot y permitirnos enlazar nuestra vida diaria a sistemas de inteligencia interactiva que nos asistirán en todo momento con las tareas de nuestra vida diaria. ¿Te gustaría al final de este año tener un robot como JIBO?


13


AVANZA MÉXICO EN CIENCIA Y TECNOLOGÍA

E

Agencia Informativa Conactyt Por: Verenise Sánchez

l coordinador general del Foro Consultivo Científico y Tecnológico, José Franco López, destacó que México avanza en investigación, desarrollo e innovación. Durante el III Seminario Iberoamericano de Periodismo de Ciencia, Tecnología e Innovación, Franco López subrayó que en los últimos tres años México ha registrado los niveles más altos de inversión en dichos rubros, lo cual ha permitido que se mejore y amplíe la infraestructura de los laboratorios. Asimismo, ha permitido que se incremente el número de estudiantes becados que realizan un posgrado ya sea en México o en el extranjero y de científicos miembros del Sistema Nacional de Investigadores (SNI) del Consejo Nacional de Ciencia y Tecnología (Conacyt). Al dictar la conferencia magistral El estado de la ciencia, la tecnología y la innovación en México, subrayó que de 2012 a la fecha se ha incrementado 27 por ciento el número de becarios y 26 por ciento los miembros del SNI. Destacó que si bien el gobierno federal ha incrementado de manera histórica el presupuesto para ciencia y tecnología, no basta con esos recursos, las empresas deben invertir más, pues en países como Corea del Sur, Finlandia, Suecia y Japón los empresarios son los que inyectan más capital a la investigación y desarrollo. En Japón, indicó, 77 por ciento del gasto en investigación y desarrollo experimental (GIDE) proviene de las empresas, en China y Corea del Sur,

14

74 por ciento y Suecia, 73 por ciento; mientras que en México no asciende a más de 40 por ciento. “En los países más desarrollados en ciencia, tecnología e innovación, la inversión privada es la imperante, ya que dos tercios del gasto total vienen de las empresas, mientras que en México es al revés”. Destacó que la innovación es lo más caro y son las empresas las que deben estar inyectando los recursos, porque “a fin de cuentas, ellos son los que hacen los negocios”. Y agregó que si no se logra incrementar la inversión privada en investigación y desarrollo y cambiar los modelos económicos que actualmente imperan en México, el país está condenado al fracaso y al rezago económico. “Mientras no logremos hacer que la inversión privada aumente, México va a seguir rezagándose económica y socialmente, simple y sencillamente porque no hay empresas de alta tecnología que estén desarrollando la economía... Tener una economía basada en el petróleo, en los recursos que provienen de la migración o en el turismo, no es una economía que sea sana, como ya lo hemos visto”, consideró. Concluyó diciendo que los gobiernos federal, estatal y municipal pueden aumentar sus presupuestos para ciencia y tecnología, pero mientras no exista un mayor interés por parte de las empresas para hacer ciencia y tecnología no se dará una economía del conocimiento. “Podemos pedir al gobierno federal que aumente el presupuesto todo lo que se quiera, pero mientras no aumente la inversión privada México no va a ser un país viable económicamente”, finalizó.


XXVIII XIV

CONGRESO NACIONAL CONGRESO y INTERNACIONAL de Informática y Computación de la ANIEI

OCTUBRE 28-30 Puerto Vallarta, Jal.

Pto. Vallarta Instituto Tecnológico Superior

ANIEI 2015

Innovación y alternativas en la vida digital

• FERIA DEL EMPLEO • CONFERENCIAS MAGISTRALES • CURSOS CON CERTIFICACIÓN • TALLERES • CONCURSOS Para alumnos de carreras de Tecnologías de Información y Comunicación

Informes y registro:

www.aniei.org.mx Tels. (55) 5202 0852, (55) 5202 0865 • dulce@aniei.org.mx SEP

SECRETARÍA DE EDUCACIÓN PÚBLICA

JALISCO G O B I E R N O D E L E S TA D O

15

Secretaría de innovación Ciencia y Tecnología GOBIERNO DEL ESTADO DE JALISCO


C

Por: Ayax Vasconecelos

SISTEMAS DE TRANSPORTE INTELIGENTE

uando se piensa en sistemas de transporte inteligente, seguramente vienen a la mente el automóvil autodirigible de Google, los grandes trenes que se dirigen por sí solos regulando su velocidad de acuerdo a las variables del lugar donde se encuentran, como el clima, desgaste del camino y tráfico; o también los drones que son capaces de navegar por sí mismos y mapear cualquier situación geográfica en la que se encuentren o bien identificar rostros en manifestaciones humanas por medio de algoritmos basados en reconocimientos de patrones, por lo que un sistema de transporte inteligente abarca otras aplicaciones que ayudan a generar mejores condiciones vida. En la actualidad y con los problemas de tráfico que hay en muchas ciudades en el mundo, los sistemas de transporte inteligente están tomando un gran auge debido a la resolución de diversos problemas viales existentes, a continuación se describen algunas de las tendencias de las problemáticas resueltas con estos sistemas: 1. Tráfico excesivo: En la actualidad, cuando se desea ir a algún lugar determinado, podemos iniciar una aplicación que indique cuál es la ruta más rápida o con menos tráfico para llegar al lugar deseado, sin embargo, puede que pasando algunos momentos después de emprender la marcha, la ruta que se haya elegido se encuentre saturada y por lo tanto haya dejado de ser viable en el momento que se empieza a recorrer. La solución a este problema es la instalación de nuevos mensajes de señalización dinámicos sobre la velocidad a la que debe ir un automóvil, esto se logra cuando un procesador central tiene información en tiempo real y de los históricos del comportamiento del tráfico, con los cuales y por medio de algoritmo inteligentes y ayuda de métricas como la Manhattan, indican a los usuarios las

16

mejores rutas para ir de un lugar a otro, si hay incidentes dentro de la ruta y la velocidad a la que se debe realizar el desplazamiento. El problema central en esta solución es que verdaderamente las personas respeten los límites establecidos. Algunos ejemplos de esta aplicación se encuentran en algunas autopistas en Europa, donde se definen, por carril, máximos y mínimos de velocidad para circular por determinadas arterias vehiculares. 2. Trasporte público saturado: Un problema que aqueja a las grandes ciudades es el transporte público, que en muchos casos resulta deficiente y además carísimo respecto al servicio que brindan. La solución que está empezándose a desarrollar, es una aplicación móvil con la cual los diferentes usuarios de las rutas de transporte público y las diferentes personas que se desplazan en automóvil puedan viajar conjuntamente, ¿cómo es posible esto? La aplicación se encamina a contar con una base de datos confiable de personas que deseen compartir su automóvil, también una base de datos de usuarios que confíen en viajar en el vehículo de un desconocido. Todo comienza cuando la persona del automóvil, mediante la aplicación, marca su destino y la ruta que tomará al igual que se puede hacer hoy en día, pero con la variante de que sí está dispuesta a compartir su automóvil; esta ruta le será comunicada a otros usuarios que habitualmente usan el transporte público y que les quede el trayecto por el que pasará, por lo que al estar de acuerdo en tomar la ruta del automóvil podrán mandar una notificación al conductor para indicarle que puede pasar a recogerlo en alguna lugar determinado y dejarlo en otro; con base en esto el conductor aceptará o no pasar por el usuario. Las ventajas son el optimizar un recurso como lo es el coche y viajar en mejores condiciones, sin embargo, las desventajas que esto puede representar sobre todo en ciudades donde impera la inseguridad pueden volver esta aplicación inviable por el temor de ser mal aplicada.


Imagen de Steven Bostock

3. Transporte autodirigido: La prevención de accidentes, optimización de combustibles o evitar desvíos del transporte arbitrariamente, se vuelve una realidad cuando equipamos a todo tipo de transporte con un sistema de navegación inteligente como el auto Google; aviones, barcos y automóviles (aunque algunos de ellos ya están muy automatizados como los aviones no tripulados o drones) se pueden desplazar libremente y con toda la confianza de que no chocarán con otros transportes, el manejar o volar un avión será encargado a las computadoras que por medio de una buena red de comunicaciones podrán

hacer rutas, cambios y optimizar combustibles de un lugar a otro. La desventaja de esta aplicación será que realmente la humanidad esté preparada para tal cambio, pero sobre todo el estar también preparada una vez que el sistema se encuentre operando, en ¿qué hacer si este sistema falla? Como se puede observar, los avances en sistemas de transporte inteligente, aunque van a pasos agigantados, en la aplicación de la vida cotidiana todavía tienen un gran tramo por recorrer, mientras tanto en muchos laboratorios de TI en el mundo se sigue investigando en cómo poder mejorar las condiciones de transporte.

17


ALMACENAMIENTO DE

DATOS EN DNA UN HORIZONTE CERCANO DE 700 TERABYTES

L

Por: Javier Barriopedro

a búsqueda de nuevas maneras de almacenar los volúmenes de información que componen el total del conocimiento humano hasta el momento y que aumentan cada día más gracias a las operaciones de Big Data, no es algo tan reciente. Desde haces tres décadas hablamos de la manera de crear un dispositivo que tenga una capacidad de almacenar datos parecida a la del cerebro humano—que sigue siendo el parámetro establecido para hablar de PetaData potencial. En un número anterior, hablamos de la microfluidez y el diseño de chips que emulaban sistemas orgánicos para las pruebas farmacológicas. En esencia, se trata de guardar la información acerca del funcionamiento de cada uno de los órganos del cuerpo humano que componen un sistema y de la forma en la que operan los fármacos administrados. Se trata de una operación doble: almacenan datos específicos y luego producen datos acerca de las reacciones, facilitando así la desarrollar, modificar o transformar la acción terapéutica de un fármaco en pruebas con tejido humano, sin tener que poner en riesgo a pacientes o requerir de pruebas previas en animales, lo que acelera el proceso de estudios y aprobación de nuevos medicamentos. No obstante, este tipo de iniciativas recientemente ha permitido que George Church, bioingeniero, y el genetista Sri Kosuri, ambos del Wyss Institute la Universidad de Harvard, tuvieran éxito al lograr almacenar 5.5 petabytes (los 700 Terabytes del título) en sólo un gramo de DNA. Esto podría sonar obvio, pues sabemos que el número de combinaciones genéticas contenido en las moléculas de DNA es enorme, pero para poner en el contexto adecuado hay que mencionar que este nuevo récord supera 1000 veces a los experimentos de almacenamiento

18

que se habían hecho hasta hace sólo unos meses. Así es, desde hace media década, el DNA es tratado como otro dispositivo digital de almacenamiento. Ahora es importante entender cómo se realiza el proceso de acopio de datos. Primero que nada hay que olvidarse de la noción de datos binarios que son codificados como regiones magnéticas en un disco duro. En lugar de esto se sintetizan las hebras (o porciones de la cadena) de DNA las que tienen capacidad para almacenar 96 bits. Cada una de las bases (etiquetadas como TGAC) representa un valor binario: T y G, valen 1, A y C tienen valor 0. Así, sólo hace falta secuenciar los datos que están almacenados en el DNA, convirtiendo las bases TGAC a lenguaje binario para que la máquina pueda leerlo. Para decirlo de manera sencilla, se trata de un proceso de traducción en el cual pasamos del lenguaje máquina a lenguaje “biológico” y viceversa. Lo que ayuda a realizar este secuenciado, es que el comienzo de cada hebra de DNA tiene una dirección de bloque (al estilo de un disco duro) de 19 bits, que funciona como su identificador único. De esta manera resulta posible procesar todo un contenedor de DNA en desorden y luego asignarlo ya categorizado, gracias a estas direcciones, para que se pueda trabajar con datos utilizables.


De esta manera, se empieza a ver una forma concreta de utilizar el DNA como un potencial medio de almacenamiento —como se ha venido haciendo desde hace muchos años— porque los científicos han encontrado tres buenas razones para considerarlo: 1.- Es de altísima densidad. En serio, es increíblemente denso porque es posible almacenar un bit por base y cada base sólo mide… ¡“unos cuantos átomos”! 2.- Es volumétrico (se le contiene en probetas) en lugar de plano (almacenado en un disco duro). 3.- Es increíblemente estable. A otros dispositivos de vanguardia desarrollados para el almacenamiento, es necesario mantenerlos en temperatura por debajo de 0° C y al vacío; en cambio, el DNA puede sobrevivir durante MILES de años, en una caja de cartón y a temperatura ambiente. Como les comentaba, es sólo gracias a los recientes avances en microfluidez y su aplicación en los “laboratorios en un chip”, que la sintetización y secuenciado de DNA ya es una tarea ordinaria. Aunque nos llevó trece años analizar un solo genoma humano por medio del Proyecto Genóma Humano original y éste estaba compuesto de cerca de 3 billones de pares básicos de DNA, ahora un laboratorio con el equipo más moderno basado en chips. Este es el momento pertinente para aclarar que el almacenamiento en DNA diseñado por Church y Kosuri no es “rápido”, pero si maneja una velocidad suficiente para un archivado a muy largo plazo. Vamos a ponerlo en términos muy objetivos y mesurables: un gramo de DNA puede almacenar 700 terabytes de data. Eso equivale a 14,000 discos Bluray de 50 gigabytes ¿Necesitan más proporciones para darse una idea? Aquí va: en una gota de DNA que cabe en la punta de su dedo meñique, puede estar contenido toda la filmografía producida por la India y Estados Unidos de los últimos siete años. Si nos propusiéramos guardar

esa misma cantidad y tipo de datos en discos duros (que son el medio de almacenamiento más denso que se utiliza en la actualidad), estaríamos hablando de que serían necesarios 233 discos de 3 TB cada uno… unos 151 kilos y un espacio equivalente a una pared de 6 metros de largo por 3 de alto (pensando en darles el espacio mínimo para que tengan ventilación) y un habitación enfriada a -25° C de manera constante, para que el calor generado por los dispositivos eleve la temperatura a uno 32° C. ¿Ya empezamos a ver la conveniencia de un medio fluido y megadenso para almacenar datos? Regresando al caso práctico de Church y Kosuri, ellos lograron almacenar cerca de 700 kilobytes de datos en DNA (el libro más reciente de Church) y luego procedieron a hacer 70,000 millones de copias (lo que ambos sostienen, en son de broma, lo hace el libro más publicado en la historia del mundo). De esta manera, tenemos un total de 44 petabytes de datos almacenados y relativamente seguros, si se les almacena en un lugar alejado de llamas directas, por los próximos 3,500 años antes de que el medio comience a degradarse de manera imperceptible. Esto abre la puerta para que en un futuro lejano, igual que en una película de ciencia ficción, alguien o algo encuentre una unidad biológica de almacenamiento que, de verdad, contenga el total de la historia, el conocimiento y la actividad humana grabada a partir de 2020, que es cuando se cree que estará lista la versión “comercial” de este avance importantísimo de la biotecnología y la futura computación cuántica. Sobre todo porque, este descubrimiento, permitió verificar que es posible almacenar datos en el DNA de células vivas, aunque sólo de manera temporal, pero de todas maneras es posible almacenar datos en nuestra piel… lo que podría ser una manera casi prefecta para transferir datos de manera segura… Hola, Johnny Mnemonic , ¡te acabas de quedar sin trabajo!

19


NANOTEC CONVERGIENDO HACIA LAS ESTRUCTURAS

D

Por: Alondra DeMaría Flores

esde hace casi una década, distintos grupos de científicos y especialistas de distintas ramas del quehacer humano, están concentrándose en el estudio de un mundo microscópico donde operan átomos y las nanoestructuras que estos forman. Este grupo de visionarios se dio cuenta de que es posible interactuar con dichas nanoestructuras y han estado diseñando varias tecnologías para llevar a cabo distintas tareas y refinar dichas maniplaciones. Para dejar en claro la escala de la que estamos hablando, podemos mencionar que la nanomáquina más común en la Naturaleza es la célula. Cuando un grupo células se agrupa para cumplir con una función específica, puede formar un órgano y varios órganos crean un sistema diferenciado. Si nosotros sólo usamos un grupo de células del mismo tipo y las hacemos trabajar del mismo modo que lo haría en mayores concentraciones, podemos ver que estamos creando una nanoestructura y con varias de ellas, sería posible crear una nanomáquina y con varias de éstas lograríamos crear un nanosistema. Noten que todo hasta el momento, sigue siendo una estructura creada a partir de materiales biológicos. En esencia, ésta es la base de la nanobiotecnología, que planeamos utilizar con funciones tan diversas como corrección de defectos

20

BIOTECNOLÓGICAS congénitos, reposición de órganos o sectores dañados en alguno de ellos, creación de alimentos mediante sistemas de nanoréplica, mejores tratamientos antivirales o antibacteriales, generación y regeneración de tejidos… Lo importante es entender que, hablando de escalas, tenemos tres niveles de acuerdo con lo diminuto del objeto observado: átomica, nano y micro. El punto a partir del cual podemos comenzar con la construcción de algo, es la nanoescala porque en el momento en que comenzamos a manipular objetos de este tamaño, empezamos a crear cosas útiles. Hace dos meses en esta revista, mencionábamos un textil capaz de proyectar una imagen diminuta. Esto se logró gracias a aplicación de la nanotecnología y la forma en que ciertas moléculas reaccionan a las cargas eléctricas cuando están en una estructura conductora parecida a un waffle y en realidad, este tipo de proyectos no son tan novedosos. Las primeras nanoestructuras no biológicas que se crearon fueron los nanocables; sin embargo, la primera vez que los investigadores se dieron cuenta del verdadero potencial de la nanotecnología, fue cuando crearon primero una plancha de átomos de carbono y luego la “enrollaron” formando un tubo… un nanotubo de carbono por el que pasan los nanocables. Con estas dos nanoestructuras, ahora se está trabajando en la creación de nanochips.


Lo más interesante de todo es que si bien todos los nanotubos de carbono están hechos del mismo material, sus propiedades dependen de la manera en que se alinean los átomos. Igual que en el caso de la “pantalla textil”; según se orienten estos, se puede crear un nanotubo que es cientos de veces más resistente que el acero pero seis veces más ligero. Ya hay proyectos para utilizar esta alineación en aviones y automóviles, pues vehículos más ligeros implica mayor eficiencia en el consumo de combustible y el que estén hechos de materiales más resistentes, implica mayor seguridad para los ocupantes de dichos vehículos. En el terreno de los sistemas que es el que nos interesa a la mayoría de los lectores y escritores de la revista, variando la alineación se están creando nanotubos que son semiconductores muy eficientes. Aún se está trabajando en la manera de hacerlos una opción real para utilizarlos en microprocesadores y otros dispositivos electrónicos, pero eso nos lleva a la siguiente aplicación práctica de las nanoestructuras: su aplicación biológica. Ya existen vendajes antimicrobianos que tienen nanoestructuras de plata. Si bien no son “intelgentes”, los iones de plata bloquean la respiración celular de los microbios y entonces los “ahogan” hasta

matarlos, rediciendo hasta en un 85% la posibilidad de infecciones (dependiendo de la severidad de la lesión, el entorno inmediato del paciente y el grado de higiene que se tenga). Por último, también es necesario mencionar que ya existen varios programas para crear “replicadores de materia” puesto que ya sabemos que los átomos y las moléculas se unen gracias a que poseen “formas complementarias” o cargas eléctricas que se atraen. De manera que si nanomáquinas (llamadas “ensambladores”) comienzan a ordenar millones de átomos de cierta manera, se podrá dar forma a cierto producto específico. La meta última de este proceso, ya conocido como nanomanufactura, es la manipulación de átomos individuales para colocar en un patrón específico y construir así la estructura que se desee. Esto nos permitirá utilizar átomos para crear compuesto de carbono y de ahí, en combinación con otros elementos, aminoácidos y con ellos, proteínas y luego, materia orgánica para , eventualmente, crear un corazón biológico artificial o un kilo de carne, o un litro de leche y así acabar con la escasez de alimentos, el SIDA, la gripa o el cáncer. El futuro de la medicina y la bioingeniería, resulta brillante. Esperamos a ver qué tan lejos podemos llegar.

21


CHIPS INTELIGENTES

C O M P U TA C I Ó N C U Á N T I C A , PENSANDO COMO HUMANO

E

Por: Txabier Etxeberri

ste es un fenómeno que, dado el número de noticias al respecto y conferencias que se han hecho en los últimos seis meses, ya no es una moda cinematográfica o literaria, sino que se presenta como una necesidad tecnológica. Parece que lo que alguna vez fue un motivo en las historias de Ciencia Ficción, presentado tanto como panacea a los problemas del ser humano como enemigo máximo de la humanidad, ahora es una búsqueda constante en miles de centros de investigación y laboratorios alrededor del mundo: la creación de la primera AI que de verdad piense como lo hace el ser humano. ¿Para qué? Hace casi un año, Google anunció que está desarrollando un chip cuántico de altísima velocidad, con miras a que en un futuro no muy lejano, este artilugio “sea capaz de pensar como un ser humano”. Mediante un procesamiento de datos que se realiza a nivel sub-atómico, los ingenieros de Google están desarrollando chips que en teoría son mucho más rápidos que los procesadores más potentes que tenemos disponibles en la actualidad. La diferencia esencial entre los procesadores normales y estos chips cuánticos está en que mientras los procesadores manejan datos binarios ( 1 y 0), los chips codifica los datos a partir del comportamiento de las partículas subatómicas. ¿Por qué? Porque se está buscando crear “un mejor sistema de procesadores de inferencia”. ¿Inferir? Sí, inferir. La palabra es de origen latino (inferre) y de manera literal significa: llevar a. El prefijo In indica “estar dentro” y el verbo Ferre significa “llevar”. Pro lo tanto al primera definición de éste término implica observar a detalle las cosas que forma un suceso y obtener una conclusión de lo que podría ocurrir en un futuro a partir del acontecimiento. De una manera, inferir es muy cercano a deducir, pero también se le utiliza en el sentido de causar o conducir hacia un resultado específico.

22


Aquí es donde me parece que encontraremos el doble juego y el riesgo inherente a la utilización de chips inteligentes: se está buscando que las máquinas “deduzcan” a partir de la observación (análisis, en realidad) de sucesos (datos, para ser precisos) y de esta manera formen sus propios juicios y con base en ellos, tomen las decisiones pertinentes. Como lo hace cualquier persona, sin importa su nivel de inteligencia o la cultura a la que pertenezca… Entonces tendremos máquinas que piensan, no sólo procesan, piensan y luego deciden cómo emplear los datos a su disposición. Además, a partir de datos limitados, podrán inferir y entonces formarán una cadena de pensamiento que las llevará a predecir las posibles consecuencias de determinadas acciones… para luego elegir la más propicia para llevar a cabo la tarea que necesitan realizar. Todo suena maravilloso; máquinas que nos ayudan a determinar la mejor estrategia de mercadotecnia, el sistema de enfriamiento de calderas más eficiente, la ruta más efectiva en función de consumo de combustible, tiempo y costo de transportación, asistencia en tiempo real durante procesos quirúrgicos porque el robot podría reaccionar ante las eventualidades… Pero lo que no estamos considerando es que los datos disponibles para cada chip serían modificados de manera continua de acuerdo con las experiencia que van adquiriendo (haciendo de este un procesos de aprendizaje eficiente) que ya no requeriría ningún tipo de control por parte de los seres humanos (de la misma manera en que otras personas no pueden controlar lo que pensamos) y esto, inevitablemente conduciría a la

creación de otras entidades capaces de pensar y decidir por sí mismas, que podrían o no ser autoconscientes (la tan mencionada “singularidad primaria”), coexistiendo con la humanidad en términos de igualdad (e incluso superioridad) intelectual. ¿Realmente queremos eso? Como ya mencioné, las aplicaciones positivas pueden ser muchas y maravillosas, pero también están las aplicaciones bélicas y aquellos comportamientos que nos resultan imposibles de predecir ante cierta combinaciones de factores o eventualidades. Sin tomar en cuenta que aún no nos ponemos de acuerdo para definir qué es la inteligencia. No obstante, lo que me parece más interesante es considerar que un chip requiere de datos para tener utilidad y que, al ver el sentido en el que se desarrollan las investigaciones y ver a los principales grupos que las realizan, todo indica que lo que se está buscando es aumentar exponencialmente la capacidad de procesamiento de Big Data, para que la información generada cada día resulte utilizable con miras predictivas… Google podría querer que un chip almacene la información acerca de las actividades y preferencias de un individuo, de hecho grabándolo, para luego someter al chip a ciertos escenarios y ver qué decisiones toma. Si esta información se la venden a las empresas de consumo, éstas sabrán de antemano quiénes van a comprar sus productos e incluso las causas más probables del porqué lo hacen. Nuestra vida diaria predicha a través de un chip, controlada con base en posibles respuestas… ¿De verdad se trata de una estrategia inteligente?

23


ELIMINAN CONTAMINANTES

DEL AGUA CON MICROORGANISMOS

L

Agencia Informativa Conactyt Por: Ana Luisa Guerrero

os procesos de la naturaleza siempre han jugado de nuestro lado y para aprovecharlos, científicos del Centro de Investigación en Materiales Avanzados (Cimav) desarrollan métodos de biotransformación en los cuales utilizan microorganismos para eliminar contaminantes inorgánicos del agua, como metales pesados, entre ellos el arsénico. La doctora María Antonia Luna Velasco, integrante del Departamento de Medio Ambiente y Energía, detalla que en el laboratorio desarrollan procesos biológicos para transformar dichos contaminantes de su forma tóxica o móvil a una forma inmóvil o benigna; en el caso del arsénico lo inmovilizan del agua a través de su precipitación con sulfuro generado por microorganismos anaerobios. El trabajo tiene como propósito obtener una tecnología o un proceso que sea utilizado en campo y de fácil implementación, dado que se pretende aplicar para eliminar, remover o quitar el arsénico presente en aguas contaminadas que llegan a sitios rurales y donde no se aplican tratamientos para eliminar el arsénico. En entrevista para la Agencia Informativa Conacyt, la investigadora del Cimav —que pertenece al Sistema de Centros Públicos de Investigación del Consejo Nacional de Ciencia y Tecnología (Conacyt)—, detalló que en el procedimiento hacen pasar el flujo de agua contaminada por barreras biorreactivas tipo cama, las cuales contienen hierro

24

elemental y microorganismos de cultivos anaerobios mixtos. “En este procedimiento alimentamos los microorganismos con sulfato, y lo que hacen es tomarlo y transformarlo en sulfuro, tomando energía del hierro. El sulfuro tiene un olor característico a huevo en descomposición. Pero, en este caso, el sulfuro reacciona con el arsénico”, señala. Y es que, detalla, en este proceso el arsénico se precipita en forma de compuestos arsénico-sulfuro en forma mineralizada.

Tratamientos biológicos

Integrante del Sistema Nacional de Investigadores (SNI) nivel I, Luna Velasco explica que el sulfuro biogénico o producido por las bacterias sulfatoreductoras (BSR) tiene la capacidad de precipitar la mayoría de los metales, es decir, cambiarlos a su forma muy poco móvil y con ello disminuir su toxicidad. Es este el principio que siguen y por el cual se considera un tratamiento biológico. A decir de la doctora en Biotecnología por el Centro de Investigación y de Estudios Avanzados (Cinvestav) del Instituto Politécnico Nacional (IPN), en estos procesos de biotransformación se realiza una conversión de los contaminantes en condiciones ambientalmente seguras gracias a la intervención de microorganismos. Y para que estos cumplan su función, los investigadores prueban con diversos factores, como variaciones de temperatura, potencial de Hidrógeno (pH) o exposición del contaminante para favorecer su actividad.


“En las barreras biorreactivas nosotros estamos determinando las condiciones de operación que podrían tener mejores resultados, como el tiempo de retención, el flujo y la concentración de los contaminantes, para conocer los límites de operación del proceso. Todos esos parámetros los determinamos a nivel laboratorio y a nivel piloto, que es el siguiente paso que vamos a hacer”, señaló.

Innovación

En los procesos de biotransformación las sustancias tóxicas no son degradadas sino transformadas en otras menos dañinas y menos móviles mediante el uso de microorganismos, los cuales tienen la capacidad de concentrar e inmovilizar los metales pesados. La doctora Luna Velasco señala que estas prácticas han sido utilizadas para fines distintos, por lo que la innovación de su trabajo es aplicarlo con sustratos inorgánicos contra el uso de sustratos orgánicos que dejan residuales de estos y el hecho que utilizan microorganismos enriquecidos para procesos específicos. Debido a que los resultados pueden ser sujeto de patente, no se dan mayores detalles de la forma en que realizan los trabajos. “Es un proceso que ya se conoce y que he aplicado en otros tipos de contaminantes, por ejemplo, en la biotransformación de nitrato a nitrógeno gaseoso, bromato a bromuro y biotransformación de uranio hexavalente (móvil) a uranio tetravalente (inmóvil)”, indica. Y añade, en el caso de la inmovilización de arsénico se han utilizado sustratos o donadores de electrones orgánicos, como la glucosa y el etanol, los cuales son muy fáciles de usar por varios tipos de microorganismos y

pueden crear competencia en los procesos, además dejan residuos.

Siguientes pasos

La investigadora, que realizó su doctorado con apoyo de las becas del Conacyt, puntualiza que en los tres años en que han desarrollado el trabajo se han obtenido cultivos enriquecidos capaces de biotransformar arsénico, así como las condiciones de operación de las columnas tipo barreras biorreactivas, en que se alimentará agua contaminada real para comprobar que realmente funciona el proceso y emprender esfuerzos para aplicarlo a escala mayor. “El siguiente paso es aplicarlo con agua real, entre los resultados que hemos obtenido es el desarrollo de cultivos enriquecidos y expuestos al arsénico. Partimos nosotros de cultivos mixtos de lodos anaerobios, donde hay una gran variedad de microorganismos y a lo largo del proceso van predominando aquellos que hacen este proceso”, narra. Para comprobar la eficacia de los cultivos enriquecidos en las biobarreras, estiman que en el último trimestre del año arranquen pruebas con agua real contaminada con arsénico y se hará el monitoreo por tiempo determinado, cada dos o tres días. El proyecto se realiza en colaboración con académicos de la Universidad Autónoma de Chihuahua y se plantea identificar la presencia de los minerales de sulfuro de arsénico con apoyo de la Universidad de Arizona, en Estados Unidos, para lo cual buscarán hacerlo a través de la Convocatoria de Cooperación Bilateral Científica y Tecnológica que emite el Conacyt.

25


TECNO CONCIENCIA

L

Por: Fermín Flores Jasso

a biotecnología en la actualidad es considerada multidisciplinaria, ya que, para sustentar los avances científicos que se proponen, deben estar respaldados por teorías y técnicas que se practican en otras ramas de la ciencia. La biotecnología roja, especializada en cuestiones de salud, ha estado desarrollando nuevas técnicas para suplementar medicamentos en personas que por sus condiciones no podrían autoadministrarse dichos medicamentos. Con esto, una de las enfermedades crónico-degenerativas que más aqueja a los seres humanos, la diabetes, podría cambiar la forma de ser tratada. Investigadores de la Universidad de Carolina del Norte han desarrollado nano robots capaces de liberar insulina de forma automática cuando aumentan los niveles de glucosa en la sangre, siendo ésta una forma eficaz de tratar a los pacientes con diabetes de forma indolora, higiénica y en parte económica, ya que los pacientes omitirían la extenuante tarea de perforar con dolorosas inyecciones de insulina más de una vez al día. Dichos nano robots o nanobots pueden ser administrados directamente por el torrente sanguíneo o por medio de cápsulas. A grandes rasgos, los nanobots son pequeñas máquinas programadas para ejecutar una tarea específica; parte interesante es que pueden ser reprogramados a distancia por Wi-Fi para realizar otro tipo de actividades que favorezcan a la salud de la persona, siendo ésta una práctica con un alto nivel de beneficio que en mayor producción disminuiría los costos para el público. Este tipo de proyectos son los que de verdad tienen un impacto tangible y

26

favorable en nuestra sociedad, tomando en cuenta que enfermedades como la diabetes no siempre son adquiridas de forma hereditaria. Siguiendo la práctica de los nanobots en favor a la población con diabetes, se pretende que estas pequeñas máquinas no sólo se encarguen de suministrar, sino que cambien el rol y se conviertan en especialistas reconstructores y subsanen fallos en el páncreas, órgano vital que nos provee de pequeñas dosis de insulina necesaria para que el cuerpo funcione con naturalidad; cuando este órgano falla, se desencadenan aspectos importantes para favorecer la aparición de la diabetes. El desarrollo de nonobots contribuiría a la extinción de este tipo de enfermedades, dando pie a pensamientos sobre la verdadera existencia humana, tomando en cuenta que sólo hemos descubierto una pequeña porción del pastel, ¿qué tan lejos podemos llegar con este tipo de tecnologías? La ética en prácticas médicas está a flor de piel, nos deja con algunas preguntas, ¿si tuviéramos la posibilidad de apoyar directamente estas investigaciones, ya se económicamente o con información lo haríamos?, en caso de responder afirmativamente ¿estaríamos dispuestos a confrontar a los emporios farmacéuticos que tienen sus propios intereses?, en caso contrario seríamos conformes con rentabilizar nuestra salud y abonar mes con mes de forma en que nunca sabremos cuándo obtendremos la verdadera salud hablando de la enfermedad que sea. Apoyar a esos emporios, que en teoría realizan investigaciones en pro a la humanidad, pero en la práctica muchos de los investigadores al parecer han corrompido su ser y dan pie a pesar que el juramento hipocrático que alguna vez pronunciaron fue para ellos sólo un requisito más.


27


LA LABIOTECNOLOGÍA, BIOTECNOLOGÍA, LA LAÉTICA ÉTICAYYLA LABIOÉTICA BIOÉTICA EN ENSU SUAPLICACIÓN APLICACIÓN

E

Por: Alejandro Rebollo

l concepto de biotecnología no es nada nuevo en el mundo. Se tiene considerado que la cerveza y el pulque son productos de la biotecnología ancestral , ya que usan un proceso de fermentación, así mismo, las vacunas contra la viruela y contra la rabia que datan de los años 1796 y 1885 respectivamente. Luego, la biotecnología hasta nuestros días ha tenido una evolución significativa, tiene diferentes aplicaciones que van desde las telecomunicaciones, la nanotecnología y el uso del ADN (ácido desoxirribonucleico) recombinante que es lo que se denomina biotecnología moderna. Por el alcance y el desarrollo que se ha tenido en esta materia, para su campo de estudio y concentración se ha hecho una división en cuatro áreas: la biotecnología roja o de la salud, que ha servido para la búsqueda de nuevas alternativas de medicamentos y pruebas clínicas; la biotecnología verde, que se ha destinado a la agricultura, la ganadería y las actividades forestales; la biotecnología azul, que se dedica a los productos del mar y a la acuicultura; y, finalmente, la biotecnología blanca y de aplicaciones industriales, que tiene el objetivo de buscar la fabricación de nuevos tipos de materiales y biocombustibles. De las diversas aplicaciones que ha tenido la biotecnología, quizá la que ha tenido más eco a últimos años ha sido en lo que refiere a la ingeniería genética y las técnicas de ADN recombinante aplicado a los seres vivos, esto ha traído diversas discusiones respecto al factor “ético” en productos de la biotécnica transgénica y Organismos Genéticamente Modificados (OGM). Además han surgido diferentes preocupaciones dentro de las agendas ambientalistas de organizaciones no gubernamentales (ONG) y otras organizaciones defensores de la producción, en cierta forma “artesanal” u orgánica, sobre todo, argumentando los posibles efectos que productos que usan modos de OMG puedan tener para la salud y el bienestar de las personas. La ética que ha sido descrita como un conjunto de costumbres que dirigen y valoran el comportamiento del ser humano: las acciones del bien y del mal, las relaciones con la moral, y, por otro lado, la bioética que no tiene una definición, digamos, exacta, que puede ser vista, según el campo en el que se use como referencia, puede ser vista desde una perspectiva de la ética médica, o incluso puede tener un ámbito de aplicación muy amplio que va

28


más allá de extenderla a un campo técnico, llegándolo a considerar, de forma global con las relaciones de supervivencia de la humanidad y el mundo. En una sociedad como la mexicana, en la forma en cómo trabajan las instituciones de salud pública y que pueden tener malas repercusiones sobre los tratamientos o intervenciones médicas que se llevan a cabo a pacientes en estado de emergencia (por falta de recursos humanos, materiales o por burocracia), muchas veces, en este tipo de malas experiencias (que pueden llevar hasta la muerte de los pacientes), hablamos de negligencia médica, y en el campo profesional, si la última decisión sobre qué tratamiento se debió usar con un paciente en estado crítico fue meramente del médico, se dice que incurrió en una falta de ética; por ejemplo, al sugerir una intervención quirúrgica sin tener los medios, pruebas y análisis suficientes para realizarla. En el escenario descrito, se podría decir que aplica una situación de bioética. Las recientes formas en cómo se ha dado la biotecnología usadas en el ámbito de la reproducción humana ha traído consigo unos potenciales efectos positivos, pero también, a ciencia cierta no se conocen, a futuro, los efectos que estas alteraciones genéticas puedan tener o desencadenar para el ser humano; por lo mismo, no se puede cuantificar, de manera inmediata, los daños que podrían traer estos cambios a generaciones futuras y, en caso de que así fuese, estas podrían ser irreversibles. Empero, en otros rubros de aplicación de la biotecnología, como es, la producción de alimentos, el estudio y producción de nuevos medicamentos ha sido estudiado minuciosamente, sin considerar que las alteraciones para realizar la producción de estos, tenga un daño secundario o colateral para el ser humano. Se han realizado diferentes análisis aquí en México, al ser un país rico en recursos

naturales, pudiera llegar a tener un mejor panorama económico y social, si usara la biotecnología en la agricultura, la ganadería y en general en aplicaciones de la biotecnología verde, roja y azul. Así se expone el caso especial de otros países en Latinoamérica (con menores riquezas en recursos naturales), que ya han tenido una aceptación de la biotecnología en estos campos de aplicación, tal como es, Argentina, y cómo ha beneficiado en su economía nacional . En conclusión, podemos decir que encontramos campos de aplicación de la biotecnología que actualmente ya se encuentran ampliamente explotados y en algunos países regulados (en México se aprobó la Ley de Bioseguridad para el Manejo de Organismos Genéticamente Modificados en el año 2005), a pesar del poco uso y aceptación de ésta. Asimismo, hay empresas, como Monsanto que públicamente han usado la biotecnología para la producción de maíz transgénico. Por otro lado, hay otras aplicaciones de la biotecnología que por factores como la sociedad y cultura, todavía no son aceptados, y aparecen como un análisis en la línea de lo que es o no es ético o bioético. Un ejemplo, de lo que describo, se detalla que en el año del 2008 nació un niño mediante diagnóstico genético preimplamantatorio (DGP) ; en el año 2009 se alcanzó el objetivo que era curar a su hermano de seis años, que padecía una enfermedad hereditaria grave, la beta-talasemia. El DGP es una técnica que consiste en el análisis genético de embriones obtenidos por fecundación in vitro con el fin de transferir al útero sólo aquellos libres de la enfermedad. Este suceso fue realizado y bien visto en España, sin embargo, en otros países, aun en Europa, tales como Alemania o Italia, con patrones ideológicos diferentes, el tratamiento hubiera sido (más allá de lo ético o lo bioético), totalmente ilegal.

29


ANIEI PREPARANDO UN FUTURO

L

Por: Salvador Ordóñez

TECNOLÓGICO

a ANIEI desde sus inicios ha procurado resguardar el avance y conocimiento en materia de tecnologías de la información a todos los niveles dentro de nuestro país y es por eso que en este número de la revista nos acercamos a ellos con la intención de mostrar la historia de la asociación, los retos que enfrentaron y el alcance que ven ellos en el desarrollo de México como productor de tecnología y en la certificación de gente preparada para los retos del futuro. Para esta entrevista nos apoyó la presidenta de ANIEI, Maestra Lourdes Sánchez Guerrero. developNetwork En 1982, ¿cuál era la situación tecnológica de nuestro país que impulsó la creación del ANIEI? Maestra Lourdes Sánchez Guerrero El origen de las carreras de Informática y Computación en México datan del año de 1967, cuando el Instituto Tecnológico y de Estudios Superiores de Monterrey crea la carrera de Ingeniería en Sistemas Computacionales, marcando así el inicio para que diferentes universidades mexicanas, como la Universidad Autónoma de Puebla y la Universidad Autónoma de Nuevo León, implementaran programas de estudio relacionados con la informática y computación. También se crean en algunas de las instituciones, los grados académicos de maestrías y doctorados como el caso de la Universidad Nacional Autónoma de México, donde existe el antecedente de un programa de Maestría en Ciencias Computacionales que estuvo en funciones en la década de los sesentas, financiada por la UNESCO. Los estudiantes de esta maestría provenían, en su gran mayoría, de las escuelas de ciencias e ingeniería de la Universidad Nacional Autónoma de México. Esto se puede marcar como el inicio de las carreras de Informática y Computación. A partir de esa fecha, principia el crecimiento excesivo

30

de oferta de carreras relacionadas con la informática y computación, con una diversidad muy grande de nombres. Otro aspecto importante fue la necesidad cada vez más imperiosa de formar recursos humanos sólidos y adecuadamente preparados para manejar de forma apropiada las nuevas tecnologías. Esta inquietud de la buena formación profesional existía tiempo atrás en la comunidad educativa, cuando en noviembre de 1981 se articuló el primer intento significativo de realizar un aporte formal de criterios y normatividad de la educación, en el seno del ‘Primer Foro sobre Formación de Recursos Humanos en Informática’, convocado por la Secretaría de Programación y Presupuesto y la Secretaría de Educación Pública, celebrado en Monterrey, Nuevo León. Surgió así, como resultado del Comité integrado en dicha reunión, el Reporte de Definición de la Informática. Un año más tarde, fruto del ‘Segundo Foro sobre Formación de Recursos Humanos en Informática’, convocado por las mismas secretarías en Mexicali, B.C., en abril de 1982, la idea inicial cobró forma y se concretó en el Reporte de Definición de los Campos de Acción de la Informática. dN

¿Cuál fue el factor principal para que surgiera el ANIEI en nuestro país? MLSG Como se comentó anteriormente, en el año de 1982, con el documento de Definición del Campo de Acción de la Informática surge la necesidad de establecer un organismo con el objetivo de reunir a los principales actores de las instituciones relacionados con la informática y computación para apoyar a la definición de perfiles profesionales de informática y computación. La Asociación Nacional de Instituciones de Educación en Informática nació en Guadalajara, Jalisco, el 8 de Octubre de 1982, dando así forma y cauce a los anhelos de los foros sobre formación de recursos humanos celebrados


Lourdes Sรกnchez Guerrero

31


durante los meses precedentes en Mexicali y Monterrey. Su esencia y su espíritu están dados por el objetivo de contribuir a la formación de profesionales en Informática y Computación sólidamente preparados, y de impulsar la difusión y la asimilación de una cultura computacional en la sociedad, acorde a lo que el mundo actual, cada vez más informatizado, y el futuro emanado de la revolución informática presente, exigen. Una vez constituida la ANIEI en su "Segunda Asamblea General" celebrada en Mérida, en junio de 1983, el foro hizo hincapié en que la ausencia de la definición de un núcleo básico de conocimientos y funciones que determine con precisión qué debe saber y hacer un(a) profesional de la computación o de la informática, ya que era una deficiencia que debía superarse con urgencia, en los niveles de enseñanza que son del dominio de la ANIEI: superior, medio superior y posgrado. Para abordar el primero, nivel superior, se formó el comité de ‘Modelos Curriculares, Nivel Licenciatura, Informática y Computación’, que ha trabajado desde entonces, integrado inicialmente por veintitrés docentes de doce universidades del país. ANIEI está formada por las instituciones educativas que buscamos estar a la vanguardia tecnológica de los niveles medio superior, técnico superior universitario, superior y posgrado, ofrecemos planes y programas de estudio en las áreas de computación e informática, organizadas con base en los ordenamientos federales y estatales de educación. Nuestra misión es "Propugnar para que las instituciones de educación en informática del país preparen profesionales con sentido de servicio a la comunidad, capaces de actuar como agentes de cambio para el desarrollo del país." Los objetivos de la ANIEI son: 1. Orientar, proponer y difundir las actividades que en materia de docencia, investigación y extensión educativa se realizan en el área de Tecnologías de la Información. 2. Contribuir a la integración, actualización y superación de la educación en Tecnologías de la Información, en todos sus niveles. 3. Servir como órgano de consulta a la administración pública central, estatal, paraestatal, municipal y demás instituciones. 4. En materia de docencia: analizar los problemas relacionados con la enseñanza de Tecnologías de la Información, proponer soluciones y colaborar en su implantación. 5. En materia de investigación y desarrollo: promover y apoyar la investigación vinculada con la educación en

32

Tecnologías de la Información. 6. En materia de difusión: promover la realización y divulgación de actividades, libros, artículos y trabajos relacionados con la educación en Tecnologías de la Información. 7. En materia de relación interna: promover actividades encaminadas a la unificación de criterios entre las instituciones de educación en Tecnologías de la Información. 8. Finalmente, promover su vinculación con las comunidades nacionales e internacionales. Se tiene como estrategias: • Consultoría: sirve como órgano de consulta del sector privado y de la administración pública en general. • Docencia: analiza los problemas relacionados con la enseñanza de la informática y computación, propone soluciones y colabora en su implantación. (Redunda con E de objetivos) • Investigación: promueve y apoya la investigación vinculada con la educación en informática y computación. • Difusión: promueve la realización y divulgación de libros, artículos y trabajos relacionados con la educación en informática y computación. Organiza reuniones, congresos, certámenes y foros de ganadores. (Redunda con G de objetivos) • Unifica: participa en actividades encaminadas a unificar criterios entre las instituciones de educación en informática y computación. • Vincula: formaliza espacios y mecanismos de interacción entre diversos sectores de la sociedad. dN

Nos podrías contar ¿cuáles han sido los retos más importantes que han afrontado como organización? MLSG En materia de vinculación el reto ha sido desarrollar la confianza entre el sector educativo, la industria de TI y el gobierno. El establecer la Asociación Academia Industria Gobierno en Tecnologías de la Información A.C. (IMPULSA TI). Pero uno de los retos de mayor envergadura, o mejor dicho atrevimiento, es haber propuesto el proyecto: Modelo de vinculación empresaacademia-gobierno para el desarrollo en capacidades de capital humano en Tecnologías de la Información “Talento en TI” ante Fondo Multilateral de Inversión (FOMIN) Banco Interamericano de Desarrollo (BID). Además de haber sido coordinadora general del proyecto.


Otro reto fue haber concluido el proyecto, en otras palabras, fue un desafío el contar con los productos desarrollados para su operación de los cuatro componentes que conforman el proyecto Talento en TI. Estos cuatro componentes son: • Diseño y construcción del Sistema de Información en Línea para apoyar la alineación de Capacidades de Capital Humano (SICAPH-TI). • Desarrollo de perfiles del modelo paracurricular y Diseño de Certificación en TI. • Formación de evaluadores. • Creación de Centros de Certificación en normas de TI En este momento el reto más importante de este proyecto es lograr que se aproveche en los tres sectores (academia, industria y gobierno). Como ANIEI el reto a superar es lograr que las instituciones educativas continúen trabajando conjuntamente con nuestra organización. dN

Gracias al trabajo que desempeñan, ¿cuál ha sido el sector que más se ha visto beneficiado? MLSG Las instituciones que imparten programas de estudio relacionado con las Tecnologías de la Información (TI): • Los estudiantes y profesionales de TI. • Los académicos de TI. • La industria y las entidades de gobierno relacionadas con las tecnologías de la información. dN

¿Qué tipo de organizaciones o instituciones pueden acercarse al ANIEI para solicitar apoyo? MLSG • Las instituciones educativas de nivel superior, técnico superior universitario, medio superior, maestrías y doctorados con programas de estudio en Tecnologías de la Información. • La industria de TI y la que requiere de servicios de TI. • Las entidades del gobierno y las sociedades relacionadas con las TI. • Las organizaciones sociales o gremios y asociaciones de TI y de otras áreas.

dN

El apoyo de los gobiernos federales en materia de tecnología, ¿los ha contemplado para apoyarlos de manera financiera para su crecimiento? MLSG Fondos del Programa para el Desarrollo de la Industria del Software (Prosoft), con el apoyo de la Secretaría de Economía. Principalmente el Fondo: Fondo Multilateral de Inversión (FOMIN) - Banco Interamericano de Desarrollo (BID). dN

¿Cuáles son los Estados de la República donde se desarrolla una mayor investigación científica en materia tecnológica? MLSG Esto es difícil de decir porque la universidad que produce mayor número de investigaciones es la Universidad Nacional Autónoma de México (UNAM). Además, existe en México una diferencia entre lo que se llama investigación científica y desarrollo tecnológico. Es por eso difícil de determinar cuál es la institución con más productos tecnológicos en nuestro país. dN

Se cree que en los próximos 5 años la tecnología dará nuevamente un salto evolutivo ¿Creen que México está preparado para aportar desarrollos tecnológicos que nos pongan como un país productor de tecnología? MLSG En mi opinión, la tecnología está constantemente evolucionando, actualmente el desarrollo de Internet (en materia de difusión y desarrollo) ha permitido que las nuevas tecnologías lleguen más rápido a nuestras manos, pero ha provocado una desigualdad importante entre los habitantes de los países subdesarrollados. México debe preparase principalmente para los cambios tecnológicos, y esto sólo se puede logra a través de la educación. Considero de suma importancia que la educación es la clave del éxito, es por ello que las instituciones educativas juegan un papel muy importante para el desarrollo de un país. Dentro de las instituciones educativas debemos alinear los planes y programas de estudio al entorno de su localidad. Existen actualmente temas que son importantes dentro de los planes de estudio de las instituciones educativas como es el de la seguridad informática, Big Data, Internet de las cosas, por nombrar algunos, que debemos incluir para estar preparados hoy y para el futuro cercano.

33


INGENIERÍA SOCIAL

¿QUÉ TAN VULNERABLE ES EL FACTOR HUMANO?

34

Instructor Certificado Juan Robles Sánchez


L

a información es poder, por lo que la necesidad de obtenerla o protegerla se ha convertido en una lucha incesante, por ello las instituciones buscan la manera de resguardarla implementando mecanismos de seguridad como firewalls, IDS (Sistemas de Detección de Intrusos), honeypots, Sistemas Biométricos, etcétera. Sin embargo, sin importar cuantas medidas físicas o lógicas se implementen, siempre se encuentra presente el factor humano, el cual ha sido en todos los tiempos el eslabón más débil y difícil de controlar, convirtiéndose en un punto muy vulnerable a ataques como la Ingeniería Social, la cual consiste en la manipulación de las personas mediante técnicas psicológicas y habilidades sociales cuyos objetivos son: obtener información, el acceso a sistemas con información muy sensible e incluso el robo de activos, siendo esto muy perjudicial para las organizaciones. La Ingeniería Social es un arte basado en la inconsciencia del factor humano que utiliza técnicas que exhiben la inocencia que podemos tener, algunas de estas técnicas utilizadas son: • Pasivas: La observación. • No presenciales: Recuperación de contraseñas, cartas, fax, correos, llamadas telefónicas, chats, SMS, etcétera. • Presenciales no agresivas: Seguimiento de personas y vehículos, mirando por encima del hombro, vigilancia de edificios, inducción, ingeniería social en situaciones de crisis, agendas y teléfonos móviles. • Métodos agresivos: Suplantación de personalidad, chantaje o extorsión, despersonalización, presión psicológica. Los ataques de Ingeniería Social son aplicables para cualquier campo e independientes de cualquier plataforma tecnológica y dependen de la imaginación y el interés de cada atacante. Los más recurrentes son los no presenciales, como el envío de correos electrónicos con contenido de felicitaciones de año nuevo, cartas de amor, frases del tipo “hola, ¿cómo estás? Te mando este archivo para que me des tu punto de vista”; mensajes relacionados con personajes famosos; algunos eventos como acontecimientos de estrenos de películas, fotografías, videos de desastres naturales, etcétera. Todo perfectamente planeado para que muchos de los usuarios abran el mensaje de correo y provoque una infección en su equipo. Cabe destacar que en la actualidad muchos virus se propagan a través de este tipo de correos que falsean la dirección del remitente, seleccionando algunos contactos del equipo infectado y dificultando la localización del origen de la infección. Incluso esto tipo de virus tiene la

capacidad de enviar correos electrónicos relacionados con la actividad que desempeña el usuario infectado y además cambia de contenido a medida que se va propagando por distintos equipos, incluyendo archivos adjuntos y fragmentos de texto seleccionados de otros mensajes guardados en las carpetas del lector. Otro de los ataques más eficientes es el envío de un SMS, en el cual el intruso hace parecer que el mensaje es una promoción o servicio, entonces, si la persona responde puede revelar información personal y/o empresarial (muchas personas almacenan información sensible en sus Smartphone), siendo víctima de robo o dar pie a una estafa más elaborada. Existe una gran variedad de ataques de ingeniería social que implementan técnicas que tal vez no nos podríamos imaginar, un ejemplo de ello son: • Lectura del lenguaje corporal. Corresponder a sonrisas, gestos afectivos, coqueteo, amabilidad, reconfortar a una persona non acciones nos convierten en personas frágiles y expuestas a cualquier ataque. • Explotar la sexualidad. Técnica que juega con los deseos sexuales, posee una gran capacidad de manipulación y pérdida de percepción de las cosas. La mejor manera de protegerse contra técnicas de ingeniería social es concientizar a las personas a utilizar el sentido común. Sin importar el tipo de situación o información solicitada los expertos en el tema recomiendan: • No divulgar información sensible con desconocidos o lugares públicos, incluyendo redes sociales, anuncios, páginas web, etcétera. • Averiguar la identidad de la otra persona que solicita información precisa: apellido, nombre, compañía, número telefónico. • Antes de proporcionar cualquier tipo de información, preguntarnos ¿qué importancia tiene la información requerida? • Llevar a cabo programas de concientización y capacitación sobre seguridad informática. • Realizar auditorías usando ingeniería social para detectar huecos de seguridad de esta naturaleza. Sabemos que el término “cien por ciento seguro” no existe, sin embargo, se pueden tomar las medidas adecuadas para minimizar los riesgos y evitar exponerse de manera innecesaria. Todo es parte de un proceso cultural de personas y organizaciones donde deben existir controles técnicos, físicos y concientización de usuarios preparados que sepan actuar ante este tipo de situaciones.

35


TECNOLOGÍA APLICADA A LA CIENCIA:

E

LA CIENCIA ES SÓLO UN POCO MÁS LENTA QUE LA TECNOLOGÍA

Por: Javier Barriopedro

n efecto, ésta es una manera controvertida de comenzar con un artículo, pero aplica de manera muy específica a ciertas ramas de conocimiento científico. El avance de la ciencia no se ha detenido, no obstante parecería que la tecnología está innovando de manera constante. A partir de viejos modelos o principios científicos que llamaremos “básicos”, los diseñadores y desarrolladores aplican nuevas formas para hacer más prácticas o portátiles o eficientes las soluciones que ya estaban presentadas. A manera de ejemplo, vamos a hablar de la telefonía celular. La conocemos desde 1946 y la llamábamos “radiotelefonía” por aquel entonces. Pero existe documentación interna de la empresa American Telephone & Telegraph en la que se discute el desarrollo de un teléfono inalámbrico… ¡en el año de 1915! Para no extendernos mucho, sirva decir que los grandes saltos en materia de telefonía celular se dieron en 1958 que es cuando apareció el Sistema 1 conocido como South Lancanshire Radiophone Service, en el Reino Unido; después, en 1981, se logró la automatización completa con el Sistema 4. Cuatro años más tarde, se produce el otro gran salto a la telefonía celular de consumo masivo con la aparición del servicio creado en conjunto por las empresas Racal, MIllicom y Barclays, de VODAFONE (Voice+Data+Phone) y el servicio British Telecom/Securicor “Cellnet”, ambos basados en la tecnología estadounidense Advanced Mobile Phone Service (AMPS, o Servicio Avanzado de Telefonía Móvil en nuestro idioma). Pero los desarrolladores ingleses modificaron la tecnología y terminaron con una a la que llamamos Total Access Communications System(TACS, Sistema de Comunicación de Acceso Total).

36

Por supuesto, estos avances sólo se lograron conforme fuimos refinando nuestros conocimientos en telefonía y Acústica, además de la utilización de la red satelital y demás detalles… pero los aparatos móviles de ese entonces no sufrieron grandes cambios durante al menos una década y sólo hasta principios del siglo XXI, comenzaron a ser más eficientes y multifuncionales (al hacer posible navegar por internet) y sólo partir 2007, con la aparición del primer Smartphone integral con una pantalla de interfaz táctil (sí, el iPhone), se disparó el avance y la innovación tecnológica ligada a la telefonía celular, al grado de que desde 2012, so ha habido un año sin que al menos uno de los fabricantes no presente un nuevo modelo que innova y además “supera” a los de la competencia... hasta el siguiente año, claro está.
Con esta brevísima semblanza, nos podemos dar cuenta que los principios científicos empleados para desarrollar la tecnología necesaria para la telefonía celular, iban avanzando más rápido hasta que logramos un nivel de avance tecnológico que permitió el consumo masivo, que es el parteaguas de toda “necesidad de innovación”.
No obstante, es necesario hacer notar que aun cuando la ciencia aplicada a cierto tipo de tecnología llega a un punto específico, no deja de avanzar… pero los descubrimientos tienen que llevar un proceso para que se les encuentre una aplicación práctica fuera del campo de lo teórico y éste se toma más tiempo que la innovación tecnológica. Por eso, mi aseveración de que las tecnologías que conocemos avanzan sólo un poco más rápido que nuestras Ciencias y dicho lo cual, ahora sí procedo a presentarles un festín tecnológico al servicio de la expansión y reforzamiento de la investigación científica.


37


Comencemos pues con el proyecto de Amazon Echo, que comprueba que es viable desarrollar computación activada por voz en nuestros hogares. Ya conocemos cómo funcionan las aplicaciones de Google Now y Siri, que son interfaces orales para nuestros dispositivos, que nos permiten controlar funciones específicas e interactuar con algunas otras aplicaciones. Seguro, por el momento aún vemos con cierto grado de desconcierto a alguien que está dictándole comandos o mensajes completos a su dispositivo (tengo un par amigos que son autores de ficción y así “escriben” los primeros borradores de sus obras), pero que no les quepa duda: ésta interfaz es la que apunta a convertirse en la norma del futuro. Tanto así que Amazon desarrolló su dispositivo Amazon Echo, que aun cuando su reconocimiento de voz no llega al 100% de efectividad y aún no es capaz de separar el sonido ambiente, no lo hacen ser menos útil para lograr una interacción más rápida con nuestros equipos de cómputo caseros. Además de que permite controlar los apagadores inteligentes que responden a la tecnología We-Mo desarrollada por Belkin International, Inc, y que está pensada para ser la interfaz entre los electrónicos que tenemos casa y nuestros dispositivos. Además, puede controlar los

38

focos Hue de Phillips y usando echo, puedes decirles cuánta brillantez quieres para tu luz o que juego de colores deseas que empleen... así, como lo leen, sólo den la instrucción y Echo se encarga de que suceda, incluso si la pantalla de su dispositivo está bloqueada. Aún no se puede acceder directamente a servicios que requieren contraseñas (como Outlook mail, gmail o iMessage), pero sin duda se seguirán desarrollando maneras de trabajar con estos inconvenientes y, muy pronto, tendremos acceso a todos los servicios que empleamos. Pero la tecnología del futuro no tiene porque ser tan práctica pero banal. Existen grandes avances en el estudio de la dinámica de materiales y en las propiedades de estos, tantos como para pensar en sistemas que, además de autodiagnosticarse se reparan a sí mismos… ¡a 10,000 metros de altura, alojados en las alas de los aviones! Así es, se ha desarrollado un nuevo material que se autorrepara y que podría restaurar el daño sufrido por las alas de una aeronave durante el vuelo. La cosa funciona más o menos así: Ha llegado a suceder que las pequeñas fisuras que se crean en las turbinas y las alas de los aviones no sean notadas por el personal de tierra y esto puede tener


consecuencias muy serias que va desde retrasos, pasan por cancelaciones y, sí, han llegado a convertirse en catástrofes si no se les aplican las medidas correctivas a tiempo. Por esta razón, un grupo de investigadores en Inglaterra han inventado una sustancia que puede ser incorporada a la estructura de las alas de los aviones que les permite repararse así mismas, formando una “costra” sobre las fisuras igual que lo hace la sangre en una herida. La tecnología es sencilla y funciona mediante la incrustación de pequeñas esferas de líquido en el ala de la aeronave. Si ésta se daña las esferas en ese punto se revientan y la sustancia en su interior, que es una mezcla a base de carbono, se derrama para rellenar la herida. Entonces, otro catalizadores químicos presentes en el ala comienzan a endurecer el líquido, sellando cualquier cuarteadura o daño que haya ocurrido… a nivel estructural, claro está. Los sistemas hidráulicos y eléctricos no pueden repararse de esta manera, pero al ser internos, si se evita que elementos atmosféricos puedan causarles daño directo. Este proceso es parecido a la aplicación de pegamento de cianoacrilato (kola-loka) al que se le añaden microesferas (o talco) y luego se le añade agua.

El efecto es que el líquido fluye y crea una “junta”, los cuerpos sólidos hacen que la unión sea más resistente y el agua acelera el proceso de endurecimiento se acelere. El sistema es tan eficiente, que incluso se está desarrollando una tecnología de cápsulas muy similar para reparar grietas en el concreto. Dunca Wass, una de las cabezas de este equipo de científicos, sostiene que cualquier industria que utilice composites de fibra de carbono para la fabricación de sus estructuras, puede beneficiarse. Así que si lo vemos desde nuestro punto de vista como consumidores finales, este tipo de tecnología podría estar presente en cañas de pescar, bicicletas de alto rendimiento, cascos de protección, raquetas e incluso las carcasas y pantallas de algunos de nuestros celulares. Los especialistas de Forbes, especulan acerca de que su uso diversificado puede llegar a verse hasta el barniz para uñas… si el costo de fabricación de la sustancia se puede reducir lo suficiente como para que resulte viable desde el punto de vista financiero. A esto, los integrantes de grupo de científicos de Bristol han respondido con un muy claro “el barniz de uñas autorreparable, tendrá que esperar por algún tiempo”.

39


40


41


NO SIEMPRE ES 5 VERDADES DE TU CULPA DE RH PROCESO DE RECLUTAMIENTO

S

Por: Karla Salinas Licenciada en Psicología y especialista en Reclutamiento y Selección de Tecnologías de la Información

i bien es cierto que en el medio hay reclutadores que no son muy experimentados, la verdad es que NO andamos despertando en las mañanas pensando en cómo fastidiar la vida de nuestros candidatos, todo lo contrario: la esencia de nuestra existencia en las empresas (nuestra chamba pues) es encontrarte e integrarte a nuestros proyectos. Sé que a veces lo que te pedimos puede sonar absurdo pero créeme que tiene una razón de ser, por lo que aquí te van 5 quejas comunes de reclutamiento, sus porqués te ayudarán a entendernos un poquito, desesperarte menos y ver realmente qué impacto tienen en tu proceso. Si el reclutador no te está tratando con respeto o amabilidad tienes todo el derecho de cerrar tu proceso; si todo va bien y te sientes a gusto podrás obtener nuevos contactos y ampliar tus redes o conocimientos de cómo anda el mercado laboral: si no te contratan o no te conviene ahorita, ya tienes el expediente completo para futuras ocasiones. 1.- “Los reclutadores son flojos y por eso te piden que llenes sus formatos de CV, para no llenarlos ellos: yo no les voy a hacer su trabajo”. El reclutador generalmente es psicólogo, administrador, o carreras afines. Aunque se documenten mucho, difícilmente llegarán a conocer con profundidad todo el abanico de tecnologías que pusiste en tu cv. Si el reclutador llena tu cv, lo cual a veces termina haciendo porque tú no le has mandado el formato y el cliente lo está pidiendo a gritos, tiene que acudir al copy paste. Si el formato no refleja realmente tus conocimientos para la vacante en

42

específico, no importa que sí seas la persona indicada: esta fase del reclutamiento consiste en que tu futuro jefe o colega lea en unos minutos el formato y si lo que viene ahí no hace sentido para su puesto, quedarás descartado de inmediato y el reclutador tendrá que seguir buscando al candidato ideal cuando a lo mejor ya había encontrado a la eminencia en ese perfil. Sólo tú sabes a detalle qué hiciste en tu experiencia laboral, el qué y cómo manejas esas tecnologías. Cuando creas tu cv pones un perfil en general, pero al llenar estos formatos y dado que ya sabes para qué vacante es, tienes la oportunidad de personalizarlo para esta posición en particular. Ayúdanos a ayudarte y llena tu formato de cv presumiendo tus conocimientos. 2.- “Ya llené el formato de cv… ¿Para qué me piden llenar una solicitud de empleo? Un aviso de privacidad? Que flojera, esa información ya se la di en mi cv y en su formato… mucho rollo”. ¡Estoy total y absolutamente de acuerdo contigo, demasiado rollo! Y todo reclutador estará de acuerdo con nosotros. Sin embargo estos documentos obedecen a dos leyes: la ley federal del trabajo (LFT) y la de protección de datos personales en posesión de los particulares (LFPDPPP). La LFT se relaciona con la solicitud de empleo: si la empresa a la que te postulas está debidamente constituida, el tener tu expediente completo y en orden es un requisito obligatorio para auditorías de Hacienda y del IMSS, además de que le permite a la empresa concursar en licitaciones. Esto les evitará problemas pero también les da la oportunidad de ganar nuevos proyectos. ¿El beneficio para ti? Mas asignaciones, más proyectos, más experiencia, nuevos conocimientos, nuevos


43


roles y por ende mejor perfil profesional. El segundo requerimiento, el aviso de privacidad, permite que tus datos estén realmente protegidos ante la LDPDPPP: antes los reclutadores hacíamos juntas de intercambio de cvs lo cual te daba más oportunidades laborales, pero si el cv cae en manos de alguien que maneje tus datos para otros fines como venderlos a bancos para ofrecerte tarjetas de crédito, o peor aún, que caiga tu información en manos de un ocioso para estarte molestando después, ¡qué horror!… con el aviso de privacidad firmas que autorizas que tu información sea usada con fines de reclutamiento para esa empresa, pero además te explican qué métodos de seguridad tendrán implementados para evitar estas situaciones indeseables. Puedes elegir el manejo de tu información personal, si encriptas tu celular ¿por qué no tus datos? 3.- “Los reclutadores te preguntan todo pero eso sí: les preguntas el rango de sueldo y no te dicen nada, o peor aún, que hasta que termines las entrevistas”. Los reclutadores son el primer contacto con una nueva oportunidad laboral. Si hicieron bien su chamba previa, tienen bien definido el perfil y el nivel (senior, recién egresado, etcétera). Esto equivale a un rango de sueldo que ellos buscan negociar y contrario a lo que pensarías su intención no siempre es la de darte el mínimo, al contrario, si por ejemplo es un headhunter le conviene que te den el máximo. Pero los tabuladores también establecen qué conocimientos va a pagar la empresa y los costos extra que se generen con esta nivelación: invertir en capacitación técnica, de idiomas, certificaciones, cursos externos, plan de carrera, promociones e incrementos de sueldo, cuidar

44

la equidad interna; hay un sinfín de factores que a lo mejor no ves reflejados en tu ingreso neto, pero al ser monetizadas aumentan la cantidad a pagar por tu contratación. Por otro lado, el mercado está muy lastimado y hay empresas que te dan lo que pidas con tal de cubrir la vacante y resulta que tu sueldo fue de senior pero tu nivel real es junior: te va a tocar vivir frustrado en ese empleo porque constantemente tendrás que esforzarte por algo que realmente no puedes hacer (aún). No se trata de mendigar tu sueldo: de hecho la negociación es uno de los procesos más incómodos para el reclutador. Desafortunadamente no falta el reclutador que no le sabe a su chamba y aunque sabe que su vacante es de 3 pesos te integra a su proceso con todo y que aclaraste desde un inicio que buscas 25. En resumen: Sí requerimos tu nivel técnico evaluado en entrevista para ubicar tu tabulador y saber cuánto se te puede ofrecer. 4.- “… y luego tampoco te quieren decir el lugar de trabajo, igual: que hasta que termines las entrevistas, o cuando te mandan con el cliente final a evaluación es cuando por fin descubres que el lugar donde vas a trabajar te queda súper lejos”. Hay empresas que se dedican a algo en específico y contratan gente para trabajar directamente con ellos, otras donde se dedican a subcontratar el servicio y cada que termina un proyecto se te asigna a otro (posiblemente en otra ubicación, otro cliente y otro giro). Las primeras te dan mayor estabilidad en cuanto a movilidad pero es posible que a veces termines dando más soporte que haciendo cosas nuevas; las segundas de plano hay veces que estás más horas con


el cliente que con tu familia y viajas mucho, a donde el cliente te requiera, pero por ende aprendes más en menos tiempo. En cualquier caso, el reclutador generalmente tiene varias vacantes abiertas con el mismo perfil pero hay ciertas particularidades que hacen distinto un requerimiento de otro. Por ejemplo, no es lo mismo un programador de J2EE que un J2EE con Netweaver. Gracias a las entrevistas técnicas se calibra tu perfil y el reclutador te podrá colocar en el proyecto que mejor se acomoda a tus conocimientos y experiencia. Por eso cuando termines las entrevistas técnicas es más viable para el reclutador definir de manera asertiva a qué proyecto te postula y por lo tanto la ubicación. Puedes ayudarle bastante al reclutador a pre-definir esto si desde un inicio le mencionas en qué zonas, ciudades o países no trabajarías. Si estás iniciando tu carrera profesional, yo te recomiendo que pruebes explorar proyectos aunque te queden lejos para que adquieras más experiencia y puedas, por lo tanto, aplicar a más vacantes en el futuro. 5.- “Te hacen ir a muchas entrevistas, ya ni sabes a qué puesto vas y luego no te dicen si te quedaste o no, pura pérdida de tiempo”. Ok, comencemos por las entrevistas. Como lo mencioné en el punto anterior, usualmente tenemos varias vacantes en las que te vemos como un candidato potencial y por eso te mandamos a varias entrevistas, así tenemos diversas opciones a ofrecerte. También suele pasar que no nos basta con los resultados de tu primera entrevista y pedimos una segunda opinión. Otra situación usual es que los mismos líderes nos piden programar entrevistas con otros que, aunque no vayan a estar en tu proyecto, tienen interacción con tu puesto y ayudan a los líderes a decidir sobre tu

contratación. Aunque no lo creas, también sufrimos de cancelaciones de los entrevistadores a última hora por que están ocupados con el cliente y al tratar de no quedarte mal buscamos como desquiciados a alguien más que nos ayude. Tú dirás, ¿qué les pasa a los líderes, no que les urge? Pues nosotros pensamos lo mismo, pero sabemos que no lo hacen por maldad sino porque el proyecto en el que están tiene una demanda importante, ya te tocará estar en ese lugar y cancelarnos… por favor no lo hagas. En caso de que no seas seleccionado tengo un mensaje importante para ti: A nombre de todos los reclutadores de nuestro país, quiero ofrecerte una disculpa enorme. Decirte si te quedaste en un proceso o no pareciera que es muy sencillo de hacer, y de hecho es nuestra obligación a hacerlo. Sin embargo, muchos reclutadores fallamos en darte un seguimiento personalizado inmediato por temas de tiempo y logística, no porque no nos importe. Con todo, no hay excusa: el reclutador tiene que decirte si te quedaste o no y por qué, para que lo tomes de referencia en futuros procesos. Pero si esto no sucede, márcale al reclutador o escríbele para que te dé respuesta. Como verás, no todos los factores son controlados directamente por RH o reclutamiento, pero si nos ayudas con lo que te corresponde intentaremos hacer lo mejor de nuestro lado. Al final del día es un ganar – ganar: tú obtienes un mejor empleo y nosotros nos lucimos con tu contratación. Si tienes dudas sobre tu proceso de reclutamiento pregúntale directo a tu reclutador: nosotros sabemos que necesitas tener todas las cartas sobre la mesa, al final del día cambiar de empleo es una decisión de vida y carrera. ¡Mucha suerte!

45


MICRO-NANOESFERAS

LIBERADORAS DE INSULINA

C

Agencia Informativa Conactyt Por: Ana Luisa Guerrero

on el propósito de dotar la nanomedicina de una herramienta más para el tratamiento de diversas enfermedades, científicos del Centro de Investigación en Alimentación y Desarrollo (CIAD) crearon micro y nanoesferas capaces de liberar sustancias como la insulina para el control de pacientes diabéticos. A cargo del doctor Agustín Rascón Chu, durante el proyecto de investigación "Micro/nanoesferas basadas en pectinas de bajo metoxilo/arabinoxilanos ferulados como sistemas de liberación controlada de insulina", se desarrolló el método para el diseño y fabricación automática de partículas acarreadoras que tienen un amplio campo de aplicación en la biomedicina. En entrevista para la Agencia Informativa Conacyt, el doctor en Ciencia de los Alimentos por la École Nationale Supérieure Agronomique de Montpellier, en Francia, explicó el impacto de esta innovación financiada por el Fondo Institucional del Consejo Nacional de Ciencia y Tecnología (Conacyt) en 2012, en el que destaca el control en la talla y morfología de partículas en la meso y nanoescala que pueden alojar distintas moléculas de interés terapéutico. Integrante del Sistema Nacional de Investigadores (SNI) nivel I, Rascón Chu detalló que este trabajo es complementario a otro en el que se estudia la liberación de

46

insulina para administración oral, así como su eficacia in vivo, y que también se desarrolla en el CIAD, instancia que pertenece al Sistema de Centros Públicos de Investigación del Conacyt. La investigación se desarrolló en el seno de la Red Temática de Nanociencias y Nanotecnología (Nanored) de Conacyt, y en ella participaron científicos del Centro de Investigación de Materiales Avanzados (Cimav), de la Universidad Autónoma de San Luis Potosí (UASLP) y de diversas coordinaciones del CIAD. Agencia informativa Conacyt (AIC): ¿En qué consistió el proyecto? Agustín Rascón Chu (ARCh): En este trabajo desarrollamos el método de fabricación de micro y nanoesferas con el propósito de resolver los problemas que se tienen con otros procedimientos. Uno de ellos es la dispersión de tamaños, porque en el análisis de la liberación de proteínas, vitaminas y otros compuestos de interés terapéutico eso nos causaba inconvenientes porque no podíamos tener un área constante de interacción entre la partícula y su medio, lo cual alteraba la liberación. Fue así que nos dimos a la tarea de evaluar la técnica de electroaspersión y desarrollamos un método para la fabricación de las esferas, en el que controlando las distintas condiciones pudimos disminuir la dispersión de tamaños con la ventaja de que lo realizamos de manera automática.


AIC: ¿Con qué técnica realizan las esferas? ARCh: El procedimiento que realizamos se basa en un movimiento electrohidrodinámico producido por la electroaspersión. Esta es una técnica del siglo XIX que fue descubierta al aplicar una carga sobre una solución, y ver que esa carga rompe la tensión superficial. Mediante la electroaspersión se generan micro y nanogotas y se basa en los mismos principios del electrospinning. Con nuestro método podemos tener arreglo dentro de la esfera, lo que logramos fue generar núcleo y coraza. Tenemos núcleos donde hemos atrapado diversas moléculas modelo, tales como insulina, enzima pronasa, licopeno y también hemos atrapado probióticos. AIC: ¿El aporte de su trabajo es el control del tamaño? ARCh: En efecto. Anteriormente se fabricaban las esferas de forma manual con una jeringa, lo cual resultaba poco eficiente; entonces mediante el equipamiento que logramos podemos ahora, de manera automática, fabricar y controlar la dispersión de tamaños. Algo interesante de nuestro modelo es que no se trata de autoensamblaje, sino que podemos determinar un tamaño conveniente a las aplicaciones de interés. Mediante distintas condiciones es posible determinar el tamaño que queremos de la partícula, dejando atrás la distribución aleatoria de tallas. Ahora se puede determinar si el tamaño conveniente es, por ejemplo, de una micra, y qué condiciones de fabricación resultan más convenientes. De hecho, ya probamos esa medida para ser aplicada a condiciones de colon, como una parte complementaria a otro proyecto que era liberación dirigida a colon. En ese caso pensamos en tamaños de una micra y logramos tener partículas de 1 ± 0.24 micrómetros (µm) de diámetro, y eso nos abrió nuevas aplicaciones. Lo más pequeño que hemos obtenido es de hasta cuatro nanómetros, de ahí nos extendemos, tanto en la nanoescala como en la mesoescala. AIC: ¿Cuáles serían las aplicaciones de este desarrollo? ARCh: Estas micro y nanopartículas pueden tener distintas aplicaciones y en ese caso en específico era para liberación dirigida a colon; sin embargo, puede haber aplicaciones diversas. Hay proyectos relacionados donde son aplicados para la piel o a nivel intravenoso, pero eso ya depende de otras ideas que tengan los investigadores. Por ejemplo, está pensada para pacientes diabéticos, en el caso de aplicar insulina, o apósitos en la piel para la gente

con psoriasis. Debido a que hemos logrado atrapar diversas sustancias y por el material con que están hechas, podemos tener una amplia gama de aplicaciones, ya que las fibras que usamos tienen mucoadhesividad y biocompatibilidad ya probada. AIC: ¿De qué están hechas? ARCh: Las elaboramos con polímeros que provienen de paredes vegetales, que normalmente no tienen un valor comercial alto; algo que nos parece un gran aliciente es que a partir de residuos agrícolas y de la agroindustria podemos recuperar polisacáridos de alto valor agregado y darle una aplicación de alto impacto, como es la biomedicina. Estos polímeros neutros en olor y sabor son parte de la dieta del mexicano, pectinas y arabinoxilanos que están en frutas e incluso en las tortillas de maíz. Estas fibras están reportadas como prebióticas y disminuyen el colesterol en la sangre, es decir, ya está reportado su efecto benéfico a la salud por sí mismas. AIC: ¿A qué retos se enfrentaron en el transcurso de la investigación? ARCh: Hubo muchos retos a lo largo del camino. Tuve la suerte de contar con muy buenos colaboradores y con estudiantes muy comprometidos. El mayor reto fue la importación del equipo porque CIAD no contaba con un electroaspersor, y afortunadamente pudimos tenerlo. Otro reto fue el diseño de las agujas porque no existían aún en el mercado, por lo que un colaborador en el extranjero las diseñó específicamente para este equipo; ahora ya las fabrican a nivel comercial. AIC: ¿Cuál será el siguiente paso? ARCh: Estamos en el proceso de solicitar la patente en biomedicina, con la posibilidad de que hagamos la transferencia de tecnología, especialmente con los resultados de los proyectos complementarios. Nuestro proyecto termina en el diseño y fabricación de la partícula, determinando el tamaño y morfología. Pero a la par se ha relacionado con proyectos para vehículos de liberación de fármacos dirigida a colon, en donde ya se llevó la prueba a nivel in vivo en modelo murino (probado en ratas), y dependiendo de los resultados de ese trabajo, que se vislumbran muy favorables, posiblemente haya interesados en la transferencia de tecnología.

47


¿MARCA DIGITAL PERSONAL? YO NO LA NECESITO

C

INFOTEC Por: Víctor Hernández

aminando con la cabeza agachada y absorto en sus pensamientos, Juan salió del edificio de la empresa donde recién le habían dicho que su perfil no era el que estaban buscando para un empleado de la prestigiosa compañía. No lo terminaba de entender. ¿Qué habría pasado? Todas las pruebas y exámenes los había aprobado excelentemente según le habían dicho, y hasta era el candidato con más probabilidades, de acuerdo a su entrevistador. Sin embargo después de que la chica de RH entró con el reporte de su perfil en redes sociales, todo había cambiado. No lo entendía. ¿Que tenían que ver sus redes sociales? Esas eran personales y no debían afectar a su candidatura para el puesto. ¿Pues qué tenían que ver una cosa y la otra? ¡Nada!… ¡¡Ni hablar!! Ellos se lo perdían y ya habría alguien a quien sí le interesara todo lo que él podía ofrecer. Levantó la cabeza con decisión, sacó su celular y comenzó a escribir un post. -Empresas ridículas que no le dan oportunidad al talento joven. Nos discriminan y sólo se fijan si nos vemos bonitos en nuestros perfiles. Tontos. Ellos lo pierden y yo lo ahorro-. Al cabo de una hora varios de sus amigos ya habían dado like y comentado apoyando su postura crítica y defensiva… Con la llegada de las redes sociales y su gran penetración en las sociedades modernas, y su posicionamiento como un punto neurálgico de interacción para aspectos tan diversos como diversión, negocios, política, cultura, etcétera, han surgido gurús, expertos y líderes de opinión en diversos temas como

48

¿O SÍ?

son los bloggers, youtubers, twitteros, etc. Y se hacen célebres por ello, generando una marca personal que es importante para ellos cuidar y crecer, pues es su medio de vida y fuente de ingresos. Con esto se hace evidente que no sólo las empresas usan las redes como canales de ventas e interacción directa con clientes, y que no sólo las empresas tienen una “marca” que cuidar, sino también aquellas personas que deciden usar a las redes sociales, como su canal de trabajo. ¿Pero sólo las celebridades y las empresas tienen una “Marca” digital? ¿Sólo las empresas, artistas, deportistas, políticos, y demás figuras públicas tienen que cuidar su imagen en los medios? O… ¿Acaso cualquier persona con una cuenta en redes sociales debe hacer lo mismo? “¡Pero si yo soy un simple mortal! ¿A quién le importa lo que yo publique en mis redes, que no sea a mis amigos?” dirán algunos. Es posible que quizás de manera cotidiana no te importe para nada lo que la gente piense de ti en tu vida real, así que, ¿por qué habría de importarte lo que se piense de manera digital? Desafortunadamente el Internet tiene un alcance mucho más grande de lo que los chismes locales pueden tener y sus efectos son mucho más duraderos. Desde el momento en que cualquier persona crea una cuenta en redes sociales y elige la cuenta que ha de usar, cómo se identificará, qué avatar elije para distinguirse, o qué fotografía pone como portada en su perfil, está construyendo una imagen, una línea de comunicación, un mensaje que trasmite la forma en que desea que el mundo lo vea y perciba. Es decir, está construyendo su marca digital personal.


Esto es importante porque esa es precisamente la forma como nos verán, y las implicaciones de ello van mucho más allá de un grupo de amigos o aspectos sociales como prospectos románticos. Influye incluso en ámbitos académicos, laborales y de oportunidades en general. El crear una marca de manera regular implica tener una estrategia, un plan de difusión, un objetivo, un área de interés, acciones, metas, definición de indicadores, un mensaje, etcétera. Todo lo que hace una gran empresa para posicionar tanto su nombre como sus productos, debe ser realizado por cualquiera que pretenda tener una buena reputación en línea. De ahí la importancia de elegir desde el principio un nombre digital atractivo, serio, que transmita formalidad y confianza, evitando usar palabras altisonantes o de doble sentido en ellos, o similares. Hoy día las empresas están utilizando análisis de perfiles en redes sociales, para hacer un diagnóstico de la personalidad de sus candidatos y de sus empleados en activo. Es importante saber si una persona puede ser un terrorista en potencia sobre la marca o un fanático evangelista de la marca corporativa, en una época donde la competencia tanto comercial como laboral, no es sólo dentro de la localidad, sino verdaderamente a nivel global, y contar con los mejores colaboradores es importante para lograr la seriedad y compromiso del personal de una empresa. La buena o mala reputación que una persona pueda tener en Internet definitivamente es un reflejo de lo que es tanto la personalidad de casa individuo, sino incluso del grado de su éxito académico o laboral. El desempeño digital es investigado por los reclutadores y abusar del

poder digital puede ser muy perjudicial para nuestra reputación. El supuesto anonimato que existía en las redes, ya ha desaparecido y ahora todo es perfectamente rastreable hasta su origen mismo. Sólo en la Unión Americana se estima que en los últimos años el 8% de las compañías ha despedido empleados por manifestar abusos o comportamientos, éticamente cuestionables o políticamente incorrectos a través de social media.

Problemas comunes de mala reputación en línea que se puede enfrentar

¿Qué se puede esperar si por alguna razón se adquiriera una mala reputación digital? Aunque cada caso es diferente, aquí están algunos de los problemas más comunes que hemos encontrado: • Fotos inapropiadas que están usando sin tu permiso o en situaciones inadecuadas. • Información o comentarios “poco favorables” acerca de tu carácter o desempeño profesional. • Información de incriminación o vinculación en proceso de una acción legal o queja, ya sea como demandante o demandado. • Ser digitalmente inexistente. No tener una presencia social puede ser un gran perjuicio actualmente.

¿Qué puede hacer al respecto?

Una de las reglas básicas de toda actividad digital es que uno debe ser dueño y responsable de cualquier actividad en nuestras propias cuentas de redes sociales. Nunca hay que permitir que nadie maneje nuestras

49


Usar redes es muy fácil pero debemos aprender que bajo ningún concepto debemos revelar información demasiado personal

cuentas personales, y menos si son con fines laborales o profesionales, además de cuidar que lo que otros publiquen sobre uno sea apropiado y debidamente puesto en el contexto correcto de la información. Recuerda que uno debe ser el único responsable de establecer nuestra reputación tanto digital como real. Con esto hay que cuidar la imagen que vamos formando de nosotros mismos, nombre, imágenes, avatars, publicaciones, comentarios en otras publicaciones, con quién se vincula digital y profesionalmente, etcétera. Dicen que “renovarse o morir”, y esto es cierto en lo que se refiere a mantenernos actualizados respecto de la información que se publica sobre nuestras áreas de especialidad o interés, pero también sobre los círculos en los que nos relacionamos, sobre las personas u organizaciones con quienes nos vinculamos, o incluso de lo que se dice de nuestro nombre, persona o marca en el mundo digital, a fin de estar enterados y prevenidos para manejar adecuadamente una oportunidad o una eventual crisis. Para ello es vital “googlear” constantemente nuestro nombre o marca en internet, y tomar nota de cuántas veces aparecemos, dónde y la forma en que lo hacemos. Aproveche las utilerías que las mismas redes sociales ofrecen como mecanismos de análisis de la propia marca. A veces es importante no quedarnos solamente con lo que vemos en los sitios web comunes. En ocasiones es importante y necesario, dependiendo de las necesidades de cada persona o empresa, contar con herramientas que nos ayuden a realizar un monitoreo y análisis constante de las referencias publicadas en internet. Asegúrate de conseguir la que mejor le convenga según sus intereses, presupuesto y capacidades tecnológicas. En este caso recomendaré SWB Social, un producto de código abierto que entre muchas cosas permite un análisis muy detallado y en tiempo real de lo que se dice de tu marca. Pero reitero que la mejor recomendación es siempre analizar todas las herramientas que existen en el mercado

50

y elegir la que mejor se adapte a nuestros intereses.

Asegúrate de tener más “Bueno” que “Malo”

Para concluir, sólo daré algunas recomendaciones generales, que aunque parezcan de sentido común, debemos recordar que éste resulta ser el menos común de los sentidos: • Publicar información en las redes de manera regular, simple y directa. Sin que se preste a malas interpretaciones o malos manejos. Además de evitar ser políticamente incorrecto. • Mantener la seguridad en lo más alto. Tomar medidas para procurar que nuestras cuentas sean seguras y evitar que algún hacker pueda usarlas para publicar cosas desagradables. • Usar redes es muy fácil pero debemos aprender que bajo ningún concepto debemos revelar información demasiado personal como fechas de nacimiento completas, direcciones, teléfonos, cuentas bancarias, posesiones u otra información personal que pueda ser sensible. El hackeo social es el método más efectivo de robo de información e identidades. • Debemos monitorear constantemente sobre publicaciones, tags o referencias a nuestra persona y tomar acciones al respecto. • En caso de encontrar imágenes, tags, o referencias donde no nos sentamos cómodos, o sepamos que la publicación pueda ser causa de algún inconveniente, es preferible pedir a los demás que las eliminen. • Protege tu e-reputación y aumenta tu presencia digital. • Desarrolla una estrategia digital real. Hazlo por ti, para tu vida profesional, para tus amigos y familiares y sobre todo para tu tranquilidad y tu cordura…


51


LA SOCIEDAD DE RED

N

Por: Xochicuahuitl Gleason

o hay mucho más que la simple imagen de dos adultos mayores que beben café a mi lado, él se levanta, la toma de la mano y la besa mientras salen de la cafetería y se pierden entre el mar de gente que mira sin mirar, que está más preocupada de que si su móvil suena que de la persona que está a su lado; quizá esperando una sonrisa… Los grupos sociales, principalmente los occidentales, así como sus miembros, nos hemos beneficiado de los avances de la tecnología, la velocidad de respuesta, el intercambio de información y la apertura a nuevos negocios con el uso de las nuevas herramientas de interacción social como son el Internet, los sistemas abiertos de negocio, la infinidad de redes sociales, etcétera. Donde el mundo y la distancia parece que se acortan con cada clic o nueva app que se descarga en cuestión de segundos. Sin embrago, esta nueva forma de intercambio no sólo ha traído beneficios en el acceso de la información, la eficacia en los negocios y la posibilidad de conocer personas y culturas que habitan del otro lado del mundo; en los últimos 10 años se ha dado una modificación en el núcleo social latinoamericano, donde las relaciones intrapersonales han sido modificadas, ejemplo claro es lo que plantea Castells como las tres macro-esferas: • Relaciones de producción. La segmentación de la mano de obra y la individualización del trabajo han influido en la eliminación gradual de la estructura de clases de la sociedad industrial. • Relaciones de poder. La globalización del capital, la multilateralización de las instituciones de poder y la descentralización de la autoridad a los gobiernos regionales y locales producen una nueva geometría de poder, eliminando la idea del estatismo. • La Sociedad de Red. Relaciones de experiencia, las personas producen formas de sociabilidad por medio de la idea de la experiencia en lugar de seguir modelos de conducta. El que estas esferas sean las definitorias de los nuevos ejes de interacción sociedad-Estado, Estado-individuo e individuo-individuo, ha acelerado la modificación y transformación de las sociedades. Ya no podemos referirnos a sociedades modernas (sobre todo por implicar la contradicción en su postulado principal del orden y control, así como la eliminación del límite entre el mundo simbólico y el mundo instrumental, pobre Touraine…), es necesario comenzar a entender que la interacción nuclear y global parte de la idea de red, La Sociedad de Red, donde la tecnología y la técnica se convierten en el abono perfecto para la superación y el olvido de la ciencia, la cultura, el arte y la socialización.

52


Sociedad donde la reflexividad, posibilitada por el uso de la razón, no necesariamente tendría que generar orden, por lo que la pretensión de un orden lineal se ve cuestionada justamente porque el desarrollo de las sociedades no es lineal. Las sociedades se desenvuelven en un ir y venir, en medio de muchos caminos y posibilidades, y hoy vemos que se ha llegado a un punto en que la forma de control de las desviaciones del orden al desorden se ha escapado de las manos de la modernidad, por lo que la interacción horizontal y multilineal se plantean como las más adecuadas en una época donde las antiguas estructuras jerárquicas son continuamente cuestionadas, modificadas y descalificadas… Ahora el poder es el de la habilidad de adaptarse. En estos días, las relaciones sociales se construyen y definen por medio de la tecnología móvil, incluida en los teléfonos, las computadoras, chips integrados en la memoria humana, y no en el sentido de pertenencia que se sazona compartiendo un café, una revista o una sonrisa. Si bien la tecnología ha facilitado el acceso a la información, a las noticias, así como la técnica ha logrado mejorar la vida del ser humano, su aplicación y sobre explotación sin un sentido humano está generando la primera etapa de un aislamiento tecnológico, donde ahora el excluido, el aislado, el sin voz es todo aquel que no ha tenido acceso a formar parte de la SOCIEDAD DE RED. Un gran pensador del siglo XX, plantea cuál es y será la dinámica de la Sociedad de Red, siguiendo a Dominique Wolton: “Es más fácil dotar a las escuelas de computadoras y conectarlas a la red que pensar una filosofía global de educación… así está ocurriendo, en una fuga hacia delante que recuerda la que tuvo lugar hace cuarenta años, cuando en las empresas se introdujo una pronunciada automatización del trabajo industrial y de servicios”. Cuando ésta deja de ser tangible y se convierte únicamente en una experiencia que se “comparte” o se imprime en un sin sentido de cualquier referente humano. -¿Gusta más café? -pregunta la moza vestida de un uniforme durazno que me sonríe. -No gracias, la cuenta por favor -pido para terminar de regresar de esa momentánea pérdida de conciencia. Lo bueno es que después de esta complicada y hasta cierto punto dolorosa reflexión termino mi café, ya frío por cierto, pago la cuenta que han dejado sobre mi mesa, me echo la chaqueta encima y salgo a sonreír por la primera lluvia de septiembre que me recuerda que aun con sociedad de red, aun con técnica y tecnología, aun con avances e injusticias, aun con eso buscamos el tomar la mano de alguien, verlo a los ojos y saber que está… quién sabe, tal vez el vaciamiento del sin sentido de la modernidad lo podamos detener.

53


IMPULSARÁ ADIAT INNOVACIÓN TECNOLÓGICA

EN PYMES A TRAVÉS DEL CONSORCIO ELAN

U

Agencia Informativa Conactyt Por: Armando Bonilla

no de los retos más significativos en el campo de la investigación científica y el desarrollo tecnológico en México consiste en lograr el involucramiento del sector productivo en dichas áreas, es decir, la integración de la llamada triple hélice (academia + gobierno + iniciativa privada). La falta de integración entre los tres actores obedece a diversos factores, siendo uno de los más importantes que muchas de las empresas que operan en el país no cuentan con la capacidad para realizar investigación e innovación tecnológica propia y tampoco con el conocimiento para cooperar con proyectos de la academia y gobierno debido a que se trata de pequeñas y medianas empresas (pymes). De acuerdo con el Instituto Nacional de Estadística y Geografía (Inegi), en México existen aproximadamente cuatro millones 15 mil unidades empresariales, de las cuales 99.8 por ciento son pymes, mismas que generan 52 por ciento del producto interno bruto (PIB) y 72 por ciento de los empleos en el país. En ese contexto, la Asociación Mexicana de Directivos de la Investigación Aplicada y el Desarrollo Tecnológico (Adiat) concretó un acuerdo de colaboración que permitirá a empresas mexicanas vincularse con empresas de la Unión Europea, las cuales realizan investigación y cuentan con mayor expertise en cuanto a vinculación con el gobierno y la academia para llevar a cabo sus proyectos. En entrevista exclusiva con la Agencia Informativa Conacyt, el vicepresidente de la Adiat, Daniel Villavicencio Carbajal, explicó que el año pasado la Unión Europea lanzó una convocatoria para crear un consorcio para que se presentaran proyectos orientados al desarrollo de plataformas de capacitación y de creación de redes empresariales entre la Unión Europea y América Latina.

54


“En esa ocasión se presentaron ocho proyectos diferentes. La convocatoria tenía dos vertientes, una orientada al desarrollo de soluciones a problemas de trámites aduanales y demás; y una segunda enfocada al diseño de alianzas estratégicas en materia tecnológica entre pymes de ambos continentes”, detalló. Añadió que el proyecto ganador fue el presentado por Tecnalia, desarrollado junto con las instituciones de otros 11 países —por México participaron la Adiat y el Instituto Politécnico Nacional (IPN)—, el cual involucra siete sectores fundamentales que son: energías renovables, tecnologías de la información, nuevos materiales, tecnologías relacionadas con el sector salud, tecnologías ambientales, nanotecnología y todo lo relacionado con la bioeconomía.

Nace el Consorcio ELAN

De ese modo es que nació el Consorcio ELAN, integrado por instituciones de países europeos y de América Latina, el cual busca sumar esfuerzos para generar transferencia tecnológica, pero también el desarrollo de nuevos proyectos, así como estrechar lazos de negocios. “El objetivo principal es constituir una red de empresas y de clústers empresariales que hagan desarrollo tecnológico e innovación”. Detalló que la idea es aprovechar los tres años que durará el proyecto que cuenta con un financiamiento de 5 millones de euros, para construir mecanismos de colaboración y

lograr la consolidación de alianzas estratégicas entre las empresas para que al cabo de ese lapso de tiempo, las redes sean capaces de involucrarse en proyectos conjuntos.

Los problemas por resolver

De acuerdo con el vocero de la Adiat, en México existen muchos proyectos de investigación e innovación tecnológica que incluso han derivado en patentes, pero a los cuales no se les da seguimiento, no trascienden por diferentes motivos como falta de interés, de recursos, de capacidad para escalarlos y ponerlos en marcha. Esa, dijo, es otra de las áreas donde el Consorcio ELAN pondrá especial atención, es decir, en la integración de redes orientadas a llevar esos proyectos a una siguiente fase. “Lo que hará la plataforma ELAN es precisamente poner en contacto empresas que quieren vender su tecnología, comprar tecnología o explotar su tecnología de manera conjunta con empresas en otras regiones del mundo”. Añadió que también ofrecerá capacitación a las empresas participantes a través de diferentes eventos, de los cuales ya se tienen planeados cuando menos tres. “En México se llevarán a cabo tres, uno en octubre de este año enfocado a biotecnología, uno más la primavera del año próximo relacionado con el sector salud y tecnologías de la información; mientras que uno más en otoño de 2016 enfocado a nanotecnología”.

55


LA IMPORTANCIA DE LA ANALÍTICA EN REDES SOCIALES

L

Por: LCC Gabriela Campos Torres

as redes sociales son una tecnología que está poniendo a prueba las tradiciones, reglas y prácticas empresariales que conocemos. Las empresas utilizan al Social Media para transformar la manera en la que ejecutan la filosofía del negocio, transformando su relación con sus stakeholders, tanto externos como internos, lo que les permite convertirse en empresas más transversales y ágiles que se guían en las necesidades de sus clientes... pero sobre todo, obteniendo mejores resultados. Sin duda alguna, las organizaciones que han alcanzado la socialización de su negocio han sido las primeras en entender tres ventajas: 1. Mejorar el acceso a la información. 2. Reducción de costos en la comunicación. 3. Acceso a catalizadores de innovación. Las redes sociales corporativas son una palanca para convertir el negocio en Social Business, una transformación que afecta a la estrategia, la cultura, los procesos, las personas y la tecnología. Desde la perspectiva empresarial, el Social Business nos induce a pensar en nuestros procesos y flujos sociales, es decir, pasamos de una colaboración de “uno a muchos” a una colaboración “de todos para todos”, lo que hace que la gestión sea más rápida y efectiva. Hoy en día los números son muy importantes para cualquier organización que quiera sacar partido de las redes sociales. Muchas empresas han invertido grandes sumas de dinero para tener presencia en las redes sociales, pero no siempre se logra cumplir objetivos claros

56


57


y sobre todo que sean redituables para la empresa. Esas empresas actualmente están haciendo grandes esfuerzos por generar contenidos de calidad y atractivas campañas publicitarias en los medios sociales. Por ello, es de suma importancia focalizar esfuerzos para analizar y medir resultados tangibles, que permitan visualizar y evaluar los objetivos de nuestra estrategia digital en redes sociales. ¿Por qué queremos medir? Todo lo que podemos medir se puede mejorar y gestionar, por ejemplo, la satisfacción, nuestra reputación en línea, fidelización, satisfacción, engagement, etcétera, y por eso es importante medir. El análisis web surge como necesidad del ROI (por sus siglas en inglés, retorno de inversión) que estamos realizando en la web, con la finalidad de optimizar nuestra estrategia digital y sacar mayor rentabilidad al dinero invertido. Para lograr tener un buen ROI, es necesario decidir correctamente qué es lo que queremos medir a partir de la claridad de nuestros objetivos y conocer qué estrategia nos funcionará mejor para poder reducir los gastos y conseguir los resultados esperados.

58

Parte fundamental de la medición de resultados es el establecimiento de los indicadores clave de desempeño (KPI), ya que éstos nos permitirán medir el nivel de desempeño para saber si las estrategias y los objetivos fijados han sido alcanzados de manera exitosa. Es fundamental definir qué queremos evaluar para establecer los indicadores que vamos a monitorear al momento de realizar un análisis en los medios sociales. ¿Cómo lo hago? Lo primero que debemos hacer es tener presencia de marca a través de los medios sociales, posteriormente captar “seguidores” para comenzar a crear una comunidad y finalmente analizar la efectividad de los “esfuerzos sociales” para continuar interactuando con esa comunidad. Encontrando en la web, me di cuenta de que la mayoría de las empresas no tienen tanta dificultad en ejecutar las primeras dos acciones, pero cuando se trata de analizar a las redes sociales, se dan cuenta que no es sólo monitorear un “engagement”, sino comprender el impacto global de las iniciativas sociales que hemos realizado y ponerlas en contexto.


Cómo extraer más valor a las empresas en materia de analítica con respecto a lo que decían de ellas en las redes sociales, aquí cuatro puntos importantes: • Análisis de campaña: Se desea conocer cuánto dinero se ha invertido en una campaña y cuánto se ha generado. Los datos que se pueden mostrar a través de las redes sociales, ayudan a analizar cuánta actividad se produce y cuándo. Pero para poner esta información en contexto se debe de recurrir a herramientas de análisis de tráfico web y de rendimiento financiero. • Análisis de crisis de marca: Los datos provenientes de las redes sociales son muy propicios para identificar problemas u oportunidades, pero en numerosas ocasiones hace falta contexto. Por lo que debemos analizar al usuario, si éste es cliente, si sólo fue una ocasión específica, entre otras cosas más. La habilidad para integrar la información de las herramientas sociales, permitirá que la organización sea más eficiente en este tipo de escenarios. • Análisis del feedback en base al canal: Las redes sociales se han convertido en otro canal más en el que las empresas interactúan con sus clientes, por lo que este tipo de analítica es de gran valor si se tienen claro

los objetivos que se deben de cumplir. • Análisis comparativo de la competencia: Una de las ventajas de las redes sociales es que nos permiten conocer quién está interesado en nuestros productos y en los de nuestra competencia. Esto nos permite obtener información valiosa para armar una estrategia digital que ataque a ese nicho de clientes. Cada una de estas vías refleja cómo la analítica en las redes sociales puede ayudar a extraer conclusiones interesantes. La mayoría de las herramientas ofrecen acceso a una zona de estadísticas en la que ya vienen predefinidos algunos KPI. Esto no determina que todos debamos utilizar los que ya vienen cargados, por lo que es importante definir tus propios objetivos y encontrar la mejor herramienta de analítica de acuerdo a tus necesidades. Como puedes ver, lo que pueda ocurrir alrededor de una marca en redes sociales se queda corto con lo que te imaginas, no basta con conocer las métricas básicas, puesto que tendrás que profundizar en los temas de conversación que la comunidad mantiene. Los resultados obtenidos y presentados en reportes, créeme que serán más sencillos de lo que te imaginas.

59


EL INCIDENTE

D

Por: Ilidan Nona

espués de haber trabajado 5 años para una empresa de consultoría actuarial en la que me especialicé en investigación documental y de mercados, en Octubre de 2004 fui invitado a pertenecer al equipo de una recién creada empresa, cuyo giro principal era en ese entonces el desarrollo de Software. Cuando yo empecé a “necesitar” dinero, para otras cuestiones que no eran las escolares, propias de un jovencito de 12 años, trabajar de casi cualquier cosa que produjera billetes, era aceptable. Entonces comencé vendiendo dulces típicos mexicanos en una reconocida plaza comercial que hoy es popular por albergar a las “estrellas”; después fui botarga de Santa Claus en una cadena de tiendas de ropa del grupo Slim, luego fui encuestador y viajé por gran parte la República Mexicana. Entonces, formalmente mi primer trabajo, aquél donde me formé como profesional, lo obtuve en el despacho H&H Consultores cuando tenía 17 años. Aquella formación, por decirlo de alguna manera, se desarrolló en gran parte bajo la influencia del sentido de la responsabilidad – analizar la información para aprender a leer los números y olfatear las oportunidades, cometer la menor cantidad de errores para hacerme más preciso y optimizar mis tiempos y la toma de decisiones sin titubeo, fueran buenas o malas -, la otra influencia fue la adaptabilidad ante

60

las circunstancias adversas, por ejemplo el arte de la improvisación magistral. Ambas influencias eran representadas por mis dos jefes que eran en ese entonces una pareja perfecta. Uno alto de tez blanca, el otro lo contrario, uno impecable en su vestimenta y el otro… no tanto, uno analítico y el otro… inventivo, uno era respetuoso con toda la gente y el otro… no tanto. Eran inseparables, pues su relación se basaba en el respeto de las cualidades de las que gozaba cada uno, ninguno se metía en las decisiones del otro, uno operaba y el otro vendía y ambos estaban a gusto con sus puestos y responsabilidades, las directrices eran claras y unidireccionales. Si alguna de esas cosas se transgredía, entonces había guerra… discutían pasionalmente, pero entre ellos, sólo entre ellos. Nadie nunca nos enterábamos de los acuerdos o resultados de aquellas batallas. Era una empresa chica, en lo que a personal se refiere, pero que facturaba muy bien. Los socios en su primer año se compraron departamento, después otro auto mejor y sus bienes fueron mejorando con el pasar del tiempo. Pero hubo un fenómeno que llamó mi interés: si las cosas iban tan bien, ¿por qué las discusiones entre ellos subían de tono?, ¿por qué el estrés crecía diseminándose hacia el equipo de trabajo? Bien, simplemente las piedras grandes de la jarra habían


desocupado su lugar para dar paso a la arena y al agua. Es ahora que debo mencionar que desde que comencé a trabajar tuve que escalar con mucho esfuerzo y sacrificio hasta el puesto directivo que tengo ahora; supe distinguirme por tener una personalidad rebelde y apasionada, cargada de fortaleza y enfoque en lograr mis objetivos. Sé que muchas veces tuve razón y gané discusiones importantes que me posicionaron entre mis superiores, sin embargo, la incertidumbre y la conciencia de la responsabilidad que adquieres mientras más alto estás en la pirámide profesional me ha hecho madurar y ver aún con mayor mesura la vida y el trabajo. Steve Jobs, que se veía a sí mismo como un artista de la perfección - cualidad que llevó a su compañía a innovar en campos donde la estética la dotó de un estatus casi místico en el mercado – y cuya personalidad era capaz de fijar de una manera impresionante las prioridades ignorando con firmeza las distracciones, le permitió decir “NO”, a muchas propuestas que lo desenfocaban, e incluso “molestar” con fuertes críticas o comentarios soeces a su equipo de trabajo - el cual por cierto debido a esas gestiones “de terror” hizo cosas que jamás pensó que haría - , este personaje que viene a colación en esta oportunidad, también fue capaz de reconocer en su biografía oficial dos posturas relevantes para mi análisis personal: • Su sueño siempre fue hacer de Apple la mejor compañía del mundo, y reconoció que a lo largo de

35 años nunca pudo haber una transición ordenada de poderes, y era momento de hacerlo, pero justo cuando él, debido a su estado de salud, tuvo que verse obligado a dimitir en su puesto de consejero. Pienso que tal vez hasta entonces, en tal deterioro, tomó en serio dicha transición porque era consciente de que ya no tendría la misma energía para arreglar las cosas si algo salía mal nuevamente. • La motivación era lo que movía la creación de grandes productos dentro de Apple, pero su director ejecutivo de ese entonces, John Sculley, le dio la vuelta a esa filosofía convirtiendo al dinero en la meta. Eso afectó todos los campos, la gente a la que contrataban, quien recibía ascensos y hasta que se discutía en las reuniones. Me pregunto si este pasado 09 de septiembre, Steve desde dondequiera que nos mirara, habrá sentido admiración o decepción de su legado. Insisto, hoy me he detenido. He hecho una pausa en mi andar. Volteo a ver mi jarra tomando como referencia lo expuesto líneas arriba y una experiencia más sale a la mesa ahora, la de mi amigo y casi socio de esta empresa que me invitó a ser parte de ella, hace ya más de 11 años, para ver si mis piedras grandes son las mismas de hace un tiempo o peor aún, se han convertido en arena. Redondea el artículo conociendo la anécdota de la jarra y las piedras: http://bit.ly/1V0KzGJ

61


62


63


FRATERNITY ADVISOR

Profile for developNetwork

Developnetwork Septiembre  

ANIEI Preparando un Futuro Tecnológico

Developnetwork Septiembre  

ANIEI Preparando un Futuro Tecnológico

Profile for masgeek
Advertisement