__MAIN_TEXT__

Page 1

Visualización de datos con 3D.js Pag. 34

Métricas de calidad de software Pag. 38

Gestión de requerimientos Pag. 40

40

NO.

Especial

Seguridad Informática

CONOCIMIENTO EN PRÁCTICA

INFORMACIÓN VALIOSA CON BIG DATA

México, $65.00

Emprendiendo

Capital de Riesgo en México

www.sg.com.mx |

DESCUBRE

Software Guru

Mayo-Julio 2013 www.sg.com.mx


www.sg.com.mx |

Software Guru


40

CONOCIMIENTO EN PRÁCTICA

.CONTENIDO

Mayo-Julio 2013 | www.sg.com.mx

PÁG.

20

En Portada Descubre Información valiosa con Big Data

20

La era del Peta-byte ha llegado y con ello grandes retos ya que para poder transformar una enorme cantidad de datos en conocimiento quepermita una toma de decisiones que logren mantener la competitividad a corto plazo e innovar a largo plazo.

Especial: Seguridad Hacia una Cultura de la Seguridad

Columnas 12

Por Yuri González

Criptografía de Caja Blanca

06

Por Hanna Oktaba

14

Por Mauricio Hernández

Cibercrimen y Cómputo Forense: Avances y tendencias

Tejiendo nuestra red

Tendencias en Software

09

Por Luis Daniel Soto

Mejora continua 15

10

Por Luis Cuellar

Por Andrés Velasquez

¿Seguridad Informática o Seguridad de Información?

Columna Invitada: Apuntando los nuevos retos de TI 16

18

Por Carlos Love

Por Carlos Kornhauser

Columna Invitada: Mi Big Data personal ¿Por qué es Imposible la Seguridad Total? Y por qué eso es bueno Por Edmundo Reyes

30

Por Rubén García Díaz

17 Columna Invitada: Mobile - Una herramienta para el futuro

32

Por Gastón Milano

Tecnológico

42

Por Mauricio Angulo

Programar es un modo de vida

44

Por Gunnar Wolf

Código Innovare Por Blanca Hilda Vázquez Gómez

02

46


.CONTENIDO

PÁG.

11

Herramientas y Novedades

Emprendiendo Capital de Riesgo en México “A Little Less Talk and a Little More Action”

11

Lo que viene

08

Prácticas

¿Qué es software libre?

52

Por Alberto Ramírez Martinell

Programación

34

Visualización de Datos con D3.js Por Hector Cuesta-Arvizu

Prueba de Software

En Cada Número 36

Automatización de Pruebas Por Federico Kreush

Calidad

38

Caso de Estudio: Midiendo la Calidad de Software Por Francisco Valdez Souto

Requerimientos

04

Noticias

05

Gadgets

50

Carrera 40

Juntas de Requerimientos ¿Cómo lograr que realmente sean efectivas? Por Manuel Garcia Sanchez

Un asunto muy peculiar: La relación interna entre los profesionales de la informática y el resto de profesionales de una empresa Por José Ramón Jiménez de Garnica y Blanca Jiménex Anabitarte

Talento Periles destacados

48

Grandes mundos para crear software

49

03

Editorial

56

www.sg.com.mx |

Fundamentos

Software Guru

Por Andy Kiefer


.EDITORIAL BIENVENIDA

. Olas gigantescas y la pasión del saber “La acumulación de datos no es lo mismo que adquirir conocimiento.”

T

odos los días navegamos entre olas de datos. Las dificultades no solo son las mareas que se van cruzando entre sí a cada momento, sino también nuestro hábitos de consumo de información. En dichos hábitos la tecnología y las redes sociales están jugando un papel vital desde hace tiempo, y con ello los profesionistas de TI nos estamos convirtiendo en expertos que ayudan a los clientes a surfear ágil e inteligentemente las olas por más grandes y caóticas que éstas sean. Claro está que la acumulación de datos no es lo mismo que adquirir conocimiento. Por más datos, noticias, libros, informes que nos bombardeen, nada tendrá efecto sin la pasión del saber y por nuestra profesión. Y son estas pasiones las que nos mueven a buscar medios que nos permitan surfear esas olas de información efectivamente y lograr que no solo sean datos sino lograr adquirir conocimiento y capitalizarlo en nuestra vida profesional. Para todos los apasionados, SG tiene muchas formas de obtener conocimiento valioso: La revista que tienes en tus manos, los cursos en línea en vivo de SG Campus, las noticias de nuestro portal y nuestros congresos. Nuestro próximo congreso será el 4 y 5 de Julio en la Ciudad de México. Es un gran esfuerzo el que hacemos por llevar para todos nuestros seguidores las conferencias, talleres, paneles y expo, lo hacemos porque el crecimiento profesional no funciona siendo solitarios ¡Tenemos que reunirnos! Te invitamos a surfear las olas de las máximas tendencias y disfrutar mareas de conocimiento dentro de SG Conference & Expo 2013.

››Equipo Editorial SOFTWARE GURU

DIRECTORIO SG Dirección Editorial Pedro Galván / Dirección de Operaciones Mara Ruvalcaba Coordinación Editorial Vanessa Amaya / Arte y Diseño Oscar Sámano / Suscripciones Karina Saad Consejo Editorial Jorge Valdés - PMI / Luis Cuéllar - Softtek / Luis D. Soto - Microsoft / Hanna Oktaba - UNAM / Emilio Osorio - Sistemas Humanos / Luis Vinicio León - e-Quallity / Gloria Quintanilla

Colaboradores Alberto Ramírez Martinelli, Andrés Velásquez, Andy Kiefer, Berenice Ruiz Eguino, Blanca Jiménez Anabitarte, Carlos Kornhouser, Carlos Love, Celeste North, Edmundo Reyes Cuellar, Ernesto Ceballos, Esther Riveroll, Federico Kreush, Francisco Valdez Souto, Gabriel Almeida, Gestor Milano, Gunnar Wolf, Hector Cuesta, Janet Amezcua Rogel, Javier Solano Vázquez, Jorge Alejandro Hernández, José Ramón Jiménez de Garnica, Manuel Garcia Sanchez, Masa K Maeda, Mauricio Angulo, Mauricio Hernández, Miguel Chanona Carmona, Rado Kotorov, Ricardo Barranco Fragoso, Rubén García Díaz Sislila García y Yuri Adrián González Robles

Ventas Claudia Perea / Alianzas Daniel Velazquez / Webmaster Karen Rodríguez - Luis Sánchez SGCampus Ana Karen Rosales Contacto info@sg.com.mx SG Software Guru es una publicación trimestral editada por Brainworx, S.A. de C.V., San Francisco 238 Altos. Col. Del Valle. Los contenidos de esta publicación son propiedad intelectual de los autores y están licenciados bajo Creative Commons Atribución-No comercial 2.5 México. Todos los artículos son responsabilidad de sus propios autores y no necesariamente relejan el punto de vista de la editorial. Reserva de Derechos al Uso Exclusivo: En trámite. ISSN: 1870-0888. Registro Postal: PP15-5106. Distribuido por Sepomex. Se imprimió en junio de 2013 en Edamsa.

04


.NOTICIAS

. International Space Apps Challenge

En el marco del encuentro IBM Business Connect 2013 que se llevó a cabo el 28 de mayo en la Ciudad de México, se presentaron las tendencias y retos de TI con mayor impacto hacia los próximos años, tales como movilidad, analítica y big data. Pedro Galván, Director de SG, dio apertura a este evento en el que participaron ejecutivos locales e internacionales de IBM. Como invitado especial participó Chris Anderson, ex editor en jefe de la revista Wired y ahora CEO de 3D Robotics, quien nos hizo ver que estamos en el nacimiento de una nueva revolución tecnológica.

Software Guru

.IBM BusinessConnect 2013

El International Space Apps Challenge es un hackathon con el fin de desarrollar proyectos orientados a la exploración del espacio. Se realizó el pasado 20 y 21 de abril de manera simultánea en 83 ciudades del mundo. América Latina se hizo presente con más de 15 sedes, 4 de ellas en México. SG, en conjunto con Social TIC organizó la sede en Ciudad de México. Manuel Rabade fue el ganador en Ciudad de México, y quedó como finalista a nivel global obteniendo mención honorable.

El 15 y 16 de Mayo se llevó a cabo el Microsoft Solutions Symposium en las instalaciones de Microsoft México. El evento estuvo dirigido a CIOs y ejecutivos de negocio interesados en soluciones estratégicas de TI para impulsar el crecimiento de sus negocios. La agenda fue dominada por temas relacionados a la toma de decisiones de inversión en TI, ya que es una necesidad de las estrategias inteligentes el estar informadas para lograr ROI generosos y aprovechar las TIs para impulsar el crecimiento de los negocios.

.Apptualizate 3

En el marco del World Innovation Expo, del 24 al 26 de mayo se llevó a cabo en el World Trade Center de la Ciudad de México la tercera versión de Apptualízate, un hackathon orientado a conectar a desarrolladores de aplicaciones móviles con clientes corporativos. A lo largo de 48 horas los participantes trabajaron en proyectos para construir aplicaciones móviles para empresas como Alsea y Scotiabank. Destacó también la participación de conferencistas como Divya Narendra, Ben Obear, Ian Bernestein y Morten Primdahl.

www.sg.com.mx |

. Microsoft Solutions Symposium

Google Analytics User Conference

La práctica de la analítica web ha despegado significativamente en nuestra región, y prueba de ello es el interés que generó el Google Analytics User Conference, realizado el pasado 13 y 14 de Mayo en Ciudad de México. El congreso presentó un espacio para entender los cambios en el análisis digital, más centrado en el usuario, resaltando la importancia de medir la usabilidad de forma cuantitativa. Los asistentes también obtuvieron tips y recomendaciones sobre cómo definir métricas efectivas y monitorearlas utilizando distintas herramientas.

Para mayor información, noticias al día y actualizaciones de la industria visita: www.sg.com.mx

05


.COLUMNA TEJIENDO NUESTRA RED

Festejemos a SG Y ORGANICEMOS A LA INDUSTRIA Y SUS PROFESIONALES

E

La Dra. Hanna Oktaba es profesora de la UNAM, miembro del IPRC, y directora técnica del proyecto COMPATISOFT. hanna.oktaba@ ciencias.unam.mx

06

l número anterior de Software Gurú lo leí de cabo a rabo. Es verdad que el número estaba dedicado a mi tema favorito —certificaciones—, pero me di cuenta de que no era la única razón. También encontré cosas interesantes sobre el uso de métodos ágiles, pruebas, casos de uso, tendencias tecnológicas y una conmovedora historia del suicidio de un joven genio comprometido con la sociedad. SG durante más de ocho años ha logrado unir en su publicación de revista varios elementos: temas de interés, autores y columnistas muy variados —gente de la industria, consultores y académicos, que escriben en forma sencilla y no aburrida, además involucran cada vez más a los participantes latinoamericanos. Ni hablar de la calidad gráfica de la revista que ha sido su distintivo desde el inicio. El esfuerzo que han hecho de iniciar una encuesta de salarios en la industria de software mexicana es invaluable. Ya tenemos evidencia objetiva de que en México en esta industria se gana bien y cuáles perfiles son los más cotizados. Para los nuevos aspirantes de las carreras de TI es un incentivo y, para los que ya están trabajando, es un parámetro de referencia de a qué sueldo pueden aspirar. Tal vez esta información no siempre les conviene a los empleadores. Pero la revista es apenas una punta del “iceberg”. Mara y Pedro, esta pareja de incansables entusiastas e innovadores, nos asombran constantemente: eventos presenciales y virtuales con gurús internacionales y nacionales, eventos para jóvenes emprendedores, SG

Campus con webinars gratuitos y cursos en línea, la bolsa de trabajo SG Talento y un sitio web con mucha información útil. Por si fuera poco, todo lo tratan de hacer de manera muy profesional pero a la vez lúdica. Sus eventos siempre tienen partes divertidas para atraer a los jóvenes y lo están logrando. En mi opinión, SG es ahora el mayor aglutinador de los profesionales de la industria de software. El trabajo que están haciendo con tan pocos recursos es titánico. Necesitan apoyo o más bien una contraparte que reconozca su papel y colabore seriamente con ellos. ¿En que estoy pensando como contraparte? Nos falta la organización como industria de software para aprovechar la oportunidad del avance que tenemos y apuntalar a los esfuerzos como el de SG. El primer punto importante es el de reconocimiento de la industria de software como tal. El problema es que todo mundo utiliza los productos de nuestra industria pero nadie los reconoce como importantes, por ser intangibles. Todos pagan por un teléfono celular (hardware) pero muy pocos están conscientes de que a la vez compran el software. Parece que este es de a gratis por su “levedad de ser”. Para tener un reconocimiento social de la industria de software se requiere de una labor que organice a la industria como tal. Respeto a todas las organizaciones existentes de TI, pero vuelvo a insistir, como lo dije hace más de 10 años en Querétaro, que ninguna de las existentes representa específicamente a los intereses de la industria de software. Por lo que aplaudo el esfuerzo iniciado desde Ta-


››”N

OS FALTA LA ORGANIZACIÓN

COMO INDUSTRIA DE SOFTWARE PARA APROVECHAR LA OPORTUNI-

Para finalizar, les comparto una noticia …

KUALI-BEH y ESSENCE El 20 de marzo de 2013 en la reunión de OMG en Reston, se aprobó la adopción de ESSENCE con KUALI-BEH integrado como el estándar (ver SG #39). Según el procedimiento de OMG, a finales de abril se publicará la propuesta como versión beta para su prueba y crítica por la comunidad. La versión retroalimentada se publicará como versión 1.0 en marzo de 2014. Para más detalles consultar http:// sg.com.mx/buzz/essence-beh-es-aprobadopor-omg y http://www.kuali-kaans.mx

>> Por Hanna Oktaba

www.sg.com.mx |

maulipas de crear una Cámara de la Industria de Software e invito a todos los empresarios a que la conozcan y que se sumen a ella. Una Cámara de la Industria de Software puede abogar por sus intereses en las instancias políticas, pero su voz va a ser más fuerte si cuenta con un respaldo de profesionistas reconocidos. Por eso creo, que es igual de importante la organización de un gremio de los propios Ingenieros de Software. El papel de este gremio sería definir los criterios, y eventualmente los famosos certificados, para asegurar la calidad de sus servicios profesionales. Creo que ya es el momento de que entendemos que el impacto en el bienestar de la sociedad de un ingeniero de software es comparable al de un médico o un ingeniero civil. La Cámara de la Industria de Software, la asociación de los Ingenieros de Software, las carreras que ya tenemos en la academia mexicana y SG podrían ser la mancuerna de colaboración que necesitamos para fortalecer a la industria de software mexicana. ¿Y usted qué opina? dígame a @hannaoktaba

Software Guru

DAD DEL AVANCE QUE TENEMOS.”


.HERRAMIENTAS Y TECNOLOGÍAS LO QUE VIENE

1

Conforme el concepto de DevOps comienza a ser aceptado y ganarse su lugar en las organizaciones de software, está surgiendo una nueva categoría de herramientas: las plataformas DevOps. Las plataformas DevOps vienen a proveer un flujo de trabajo integrado para la construcción, prueba y despliegue de aplicaciones de software. Aunque desde hace tiempo existen diversos IDEs y herramientas que ofrecen la capacidad de construcción de proyectos, las plataformas DevOps están diseñadas para operar en contextos modernos que involucran características tales como: infraestructura en la nube (IaaS y PaaS), integración continua (CI), programación colaborativa, control de versiones distribuido, pruebas automatizadas, ambientes de prueba virtualizados creados de forma dinámica, entre otras. Al ser una categoría nueva, hay poca claridad sobre qué proveedores se establecerán como líderes. Sin embargo, tres que nos llaman la atención son: CloudMunch (www.cloudmunch.com), App Factory (http://wso2. com/cloud/app-factory) y Urban Code (http://www.urbancode.com). Buscaremos publicar algún artículo sobre alguna de ellas en el futuro, mientras tanto los invitamos a explorarlas.

Xamarin Test Cloud Pruebas tus apps en cientos de dispositivos

2

3

Próximo a ser estándar OASIS

08

La nueva ola de herramientas

Xamarin, empresa proveedora de herramientas para desarrollo de aplicaciones móviles, recientemente presentó el Xamarin Test Cloud, un servicio basado en la nube para pruebas automatizadas de aplicaciones móviles. Este servicio brinda acceso a un laboratorio con una gran variedad de dispositivos móviles reales, que son hospedados por Xamarin y accesibles por medio de la nube. Los desarrolladores simplemente suben su aplicación desde su IDE, seleccionan la lista de dispositivos donde quieren que sea probada su aplicación, y entonces el servicio se encarga de probar la aplicación recorriendo sistemáticamente todas las pantallas y acciones posibles en todos los dispositivos seleccionados. Al finalizar las pruebas se presentan los resultados de éstas, donde el desarrollador puede ver cuáles pasaron y cuáles fallaron a través de los distintos dispositivos, pudiendo consultar el detalle en cada uno y detectar cual fue el problema. Xamarin Test Cloud utiliza el framework Calabash para pruebas automatizadas de aplicaciones móviles, creado por la empresa LessPainful que recientemente fue adquirida por Xamarin. Xamarin Test Cloud actualmente se encuentra como beta con disponibilidad limitada, y se espera que durante el tercer trimestre del año se abra al público en general. Más información en http://xamarin.com/test-cloud

FoundationDB es un nuevo motor de base de datos que pretende traernos lo mejor de dos mundos: la velocidad y escalabilidad de las bases de datos NoSQL combinada con la consistencia de datos de las bases de datos tradicionales. En términos técnicos, FoundationDB es un almacén de tipo llave-valor (key-value) que soporta transacciones ACID multillave. Como ustedes saben, los almacenes NoSQL tienden a conformarse con lo que llaman “consistencia eventual”, es decir que los cambios a los datos no se aplican inmediatamente en todos los nodos, sino que “eventualmente” se propagan. Este periodo de tiempo típicamente es menor a un segundo, así que si estamos hablando de algo como Facebook, entonces no hay mayor problema si un servidor de mensajes está fuera de sincronía durante un segundo. Pero en otros escenarios, como transacciones financieras, esto puede causar problemas graves. A diferencia de la mayoría de las bases de datos que se han popularizado en los últimos años, FoundationDB no es software libre. Existe una versión de uso gratuito, pero no es libre. Será interesante ver qué tanto esto limita o no su adopción. Más información en http://foundationdb.com

OData 4.0

Plataformas DevOps

4

FoundationDB ¿Lo mejor de dos mundos?

La versión 4.0 de la especificación de OData fue aceptada por OASIS y actualmente se encuentre en periodo de revisión. Se espera que antes de que termine el año sea aceptado como estándar. OData es un protocolo diseñado para permitir realizar operaciones CRUD (Create, Read, Update, Delete) en fuentes de datos accesibles vía web por medio de llamadas tipo REST. Microsoft ha dirigido hasta ahora el desarrollo de OData. Otros patrocinadores de la iniciativa incluyen a empresas como SAP, IBM, Progress Software y Citrix. La iniciativa competidora es GData, creada por Google. Más información en http://www.odata.org


.COLUMNA

TENDENCIAS EN SOFTWARE

La Internet de las Cosas ›› “EL CÓMPUTO EN LA NUBE ES EL COMPLEMENTO PERFECTO PARA DAR UNA ESPINA DORSAL A LA ADMINISTRACIÓN DE APLICACIONES Y DISPOSITIVOS.”

Origen Fue en el MIT a fines de los noventas cuando dio inicio la conversación. En un principio se consideró la tecnología de radiofrecuencia (RFID) pero posteriormente WiFi, celular, Bluetooth y broadband como opciones en módulos tan pequeños como 1 mm cuadrado. El cómputo en la nube es el complemento perfecto para dar una espina dorsal a la administración de aplicaciones y dispositivos. Una encuesta realizada por Accenture en el 2010, reflejó que ya desde entonces el 76% de los consumidores “esperaban” que los dispositivos que adquieren se puedan conectar a Internet. Algunos gobiernos han anunciado programas de estímulo de enrejados digitales. Los operadores de redes desean establecer nuevas unidades de negocio basadas en este modelo. La “Internet de las cosas” traerá muchos posibles beneficios. En el ámbito personal, ayudará a brindar salud preventiva a menores costos, ahorro de energía en el hogar, conducción más segura y más formas de interactuar con la familia. Colectivamente ayudará al ambiente, mejorará el servicio al cliente y aumentará la seguridad en varias dimensiones. 09

Retos La privacidad es siempre tema de debate. Los lectores de RFID a distancia han limitado la capacidad de obtener datos e interactuar con la información. Es necesario asegurar al usuario que sus datos se encontrarán resguardados. Otro reto fundamental es la conectividad. Aunque hay grandes avances de enlace, muchos lugares todavía no cuentan con acceso a Internet generalizado entre la población. Hay que considerar también diversos tipos de redes: pequeñas, celulares y fijas alambradas. El problema cíclico de lectores versus señales primero. Si el gobierno desea usar sensores para recolección de tarifas, la mayor parte de la población deberá utilizarlo. La interacción entre dispositivos dedicados y dispositivos de propósito específico. Muchos sistemas pueden “ejecutar cualquier programa” y por tanto “ser cualquier cosa”. M2M se refiere a la comunicación “máquina a máquina” a diferencia del actual uso de Internet que es primariamente de personas. Hace 5 años la diferencia entre vendedores de cómputo empresarial y dispositivos especializados (embedded system makers) era clara. Hoy en día las fronteras no son tan claras.

Conclusiones Alrededor del 2008 cruzamos la barrera en donde hay más dispositivos que humanos conectados a Internet. Estamos progresando rápidamente al “Internet de las cosas” y nos llevará al menos una década alcanzar el auge. La visión unifica tecnologías, filosofías de diseño, expectativas sociales y regulaciones gubernamentales. Esto resultará en nuevos modelos de negocio y un nuevo ecosistema digital.

››Por Luis Daniel Soto

Luis Daniel Soto Maldonado (@ luisdans) labora en la división de negocio de servidores y herramientas de Microsoft Corp.

Software Guru

l término “la Internet de las cosas” se refiere a diversas tecnologías y dispositivos que permiten conectar cualquier objeto a la nube. Seguramente este será un tema central en este siglo. LG ha estimado que para el año 2020 habrá 8 mil millones de dispositivos conectados a la red; Cisco es mucho más agresivo en su proyección, estimando que serán 50 mil millones y que para el 2050 cada hogar contará con al menos 50 dispositivos conectados. Entre esas “cosas” se encuentran las chapas de las puertas, monitores personales de salud, medicinas, sensores de movimiento en el hogar, sistemas de aire acondicionado, automóviles, personas y mascotas. En los comercios cada objeto tendrá sensores: las repisas podrán visualizarse en zonas de mayor o menor actividad. Virtualmente cada escalón registrará cuántas veces ha sido pisado, es decir, todo se podrá medir.

www.sg.com.mx |

E


.COLUMNA MEJORA CONTINUA

La Leyenda del Patito Feo

A

lo largo de los años he estudiado diversos modelos de calidad, y en todos se insiste en crear un área de calidad para auditar los proyectos de la organización. Sin embargo, en las organizaciones de software el área de calidad acostumbra ser de las menos apreciadas. A todos nos molesta que aparezca un auditor a criticar nuestro trabajo y reportar problemas a nuestros jefes. Aunque estoy seguro que en parte se debe al carácter humano, me parece que también está relacionado con un cambio de paradigma al que no estamos acostumbrados. Como saben, uno de los objetivos esenciales de todo modelo de calidad es tener un servicio confiable y eficiente, a través de predecir desde el principio el resultado a obtener y reducir la variación con respecto a este resultado. En un proyecto, la variación se reduce a través de pre-establecer una serie de acuerdos sobre cómo vamos a resolver los problemas que se nos presenten, a estos acuerdos les llamamos comúnmente procesos. Dichos procesos definen de antemano cómo vamos a coordinar el proyecto y cómo vamos a interactuar entre nosotros para asegurar la mayor eficiencia, rapidez y exactitud, aplicando todo lo que hemos aprendido como organización sobre cómo operar. Dado que todo esto se planea previamente, el éxito del proyecto depende de qué tan bien adaptamos los procesos al problema actual, qué tan bien ejecutamos esos procesos y qué tan bien se van administrando los riesgos que van surgiendo, lo que podrían afectar nuestro plan y los incidentes que ya afectaron nuestro plan. Esta filosofía de confiar en el proceso, sabiendo que representa el aprendizaje acumulado de la organización, es un cambio de paradigma importante, y es independiente de si usamos una metodología en cascada, ágil, un proyecto de desarrollo o un servicio de pruebas. Este es uno de los principales puntos de entrada de la función de auditoría; contrario a lo que se cree, el principal objetivo de la auditoría no es detectar desviaciones sino prevenir riesgos, siendo uno de los principales riesgos en un proyecto el no seguir los acuerdos preestablecidos. Esto no quiere decir que el proyecto va a fracasar debido a esto, simplemente la probabilidad de que fracase aumenta considerablemente. En organizaciones de poca madurez, lo que normalmente se tiene son grupos de “apaga-fuegos” que se dedican a resolver los problemas que van saliendo. El resultado de los proyectos depende de la efectividad y heroísmo de éstos. En compañías de alta madurez, el objetivo es reducir riesgos en forma proactiva, por eso se definen una serie de acuerdos que se adaptan al problema en mano. Seguir estos acuerdos es crítico. Es común pensar que los riesgos que una auditoría descubre en un proyecto son culpa del líder, y por ello el líder se siente atacado en la auditoría: ésta lo expone ante la organización y su grupo de influencia, pero esto nuevamente es un cambio de paradigma. Otro de los puntos en los que todo modelo de calidad es enfático es en que Luis R. Cuellar es director de calidad siempre existe más de una razón para un problema; en a nivel mundial de Softtek. Es recopocas palabras, si hay un problema es porque los procesos nocido por la ASQ como Certiied no están funcionando adecuadamente, no por decisiones Quality Manager, individuales del líder. En la organización existe una serie Certiied Software Engineer y Six de procesos que se llevaron a cabo para el arranque, seguiSigma Black Belt. @lcuellar miento y conclusión de un proyecto, los cuales culminan precisamente en el momento presente. El proceso de en10

››“EL PRINCIPAL OBJETIVO DE LA AUDITORÍA NO ES DETECTAR DESVIACIONES SINO PREVENIR RIESGOS”

trenamiento no se aseguró que el líder o los participantes estuvieran entrenados, el proceso de ventas o inicio de proyecto no le explicó al cliente claramente qué esperar, o el cliente no está convencido, faltaron recursos al iniciar el proyecto o los recursos no llegaron en los tiempos establecidos y ahora están sobrecargados con otros trabajos, etc. Precisamente la auditoría pretende dar visibilidad a un problema, los riesgos que conlleva e identifica entre los diferentes responsables aquellos que son los más apropiados para entender las implicaciones y entre todos buscar una solución. Finalmente unos de los principales ataques que veo contra las auditorías es el reproche del líder de que “la auditoría no me viene a ayudar, solamente me da más trabajo; mejor que se arremanguen y se pongan a trabajar”. Este puede parecer un punto válido, pero en realidad es un reflejo de lo que mencionábamos anteriormente: en organizaciones de baja madurez, lo que necesitamos son apaga-fuegos. Aún más profundo que esto podemos ver otro cambio de paradigma: en una organización madura no es posible que una sola persona sea el único responsable de que todo funcione correctamente en un proyecto, la idea de notificar a un nivel superior sobre un problema detectado en la auditoría no es para que le exija al líder corregirlos, sino para que nos involucremos y entre todos nos aseguramos que tanto éste, como todos y los proyectos de la organización sean un éxito. Sé que difícilmente mis palabras los harán fieles creyentes de las auditorías. Adicionalmente, estoy consciente de que existen equipos de auditoría que no tienen las capacidades de comunicación, negociación o los conocimientos básicos para llevar a cabo correctamente su trabajo. Pero al menos, espero haberlos convencido de que si sienten que su área de auditorías no genera ningún valor, una posible explicación es que su empresa no está lo suficientemente madura para encontrarle un valor.

>> Por Luis Cuellar


.EMPRESAS

EMPRENDIENDO

Capital de Riesgo en México “A Little Less Talk and a Little More Action” s un momento emocionante para ser un empresario de Internet en México. Las narcoguerras parecen estar enfriándose; los indicadores macroeconómicos de México se ven bien; y si hemos de creer a la prensa mundial, México se prepara para un período de crecimiento estable y agresivo. Esta es la oportunidad dorada de México para posicionarse como un motor para la innovación tecnológica. Hay mucho en juego y hay un montón de maneras de equivocarse; pero si se maneja bien, las empresas respaldadas por capital de riesgo podrían mejorar la economía mexicana dramáticamente —a un nivel más próspero globalmente y con el control en las manos de la clase media emergente. Sin embargo, México tiene un largo camino por recorrer. Si comparamos el sector de capital de riesgo (VC) en México con el de EE.UU., las diferencias son impresionantes. EE.UU. cuenta con 923 empresas de capital de riesgo registradas, que en el año 2012 realizaron 3,752 inversiones por un total de 29 mil 100 millones de dólares. Por su parte, en México existen 14 organizaciones de este tipo, que en el 2012 realizaron 19 inversiones por 200 millones de dólares. Así que México está empezando desde abajo, muy abajo. Paradójicamente, esto puede funcionar a su favor. Sabemos que México sigue fiel y rápidamente las tendencias de negocios y cultura que se establecen en San Francisco y EE.UU. Al revisar las tendencias de crecimiento año tras año aquí (la penetración de Internet, el crecimiento de smartphones, el uso de los redes sociales, etc.), los números están por las nubes. Cuando miramos a México desde el punto de vista del entorno de capital de riesgo en el Silicon Valley, México representa una oportunidad que parece casi demasiado buena para ser verdad. En Silicon Valley, las valoraciones de las startups están por las nubes; es un caso de demasiado dinero disponible, persiguiendo a empresas con ideas de calidad inferior; los empresarios se esfuerzan por crear nuevas necesidades a satisfacer ya que todas las necesidades obvias están cubiertas. Mientras tanto, en México, existen necesidades reales por todo el país. Muchos de los servicios en línea, como el e-commerce, publicidad, sitios de opinión (ej. yelp.com) todavía no son tan populares aquí. ¡Las oportunidades abundan! Hasta ahora, México parece estar intentando importar directamente el modelo de riesgo de EE.UU. tal como existe hoy en día en San Francisco, pero, ¿funciona esto? ¿Podemos saltarnos 40 años de historia tecnológica y empezar a la par? Difícilmente. Nos hacen falta elementos fundamentales como: contratos, instrumentos financieros, infraestructura técnica y, sobre todo, la experiencia compartida. El concepto mismo de inversión de capital de riesgo parece fuera de lugar aquí. Por un lado, tenemos a inversionistas que no están acostumbrados a hacer inversión de riesgo en empresas de base tecnológica. Ellos piensan: “¿Por qué debo invertir en este chico de 27 años que no conozco, para construir una aplicación web que no entiendo? Además, ni el niño ni el modelo de negocio tienen un historial de éxito aquí. Y sin un mercado público con bastante dinero ni empresas de tecnología para comprarlos, no hay ningún camino claramente definido para un éxito financiero. ¡¿Están locos?!” Por su parte, los emprendedores estarán pensando cosas como: “¿Qué se supone que debo hacer? ¿Qué indicadores son importantes? ¿Cómo es el proceso de financiación? ¿Qué es la deuda convertible? ¿Qué condiciones debo aceptar? ¿Qué preferencias de liquidación debo elegir? ¡Ayuda! “ 11

El resultado es obvio. Todo el mundo quiere ser un inversionista o emprendedor —porque está de moda y hay la promesa de dinero— pero nadie sabe realmente cómo empezar. Así que cada lado, inversionista y empresario, se rodean uno al otro, una y otra vez. Hay reuniones, conversaciones, más reuniones, llamadas, y luego... nada. Mucho hablar pero muy poca acción. Entonces, ¿cómo salimos de este ciclo? He aquí una idea … empecemos. Dejemos de hablar y empecemos a programar. A los emprendedores: ¿Tienes una gran idea? Qué bueno, pero te informo que las ideas prácticamente no valen nada. La ejecución es todo; sobre todo aquí y ahora. Pero no te desanimes, hay buenas noticias: no necesitas el permiso ni el financiamiento para empezar. Sólo tienes que decidir lo que quieres hacer, enfócate en el componente más crítico y central de tu modelo de negocio y ejecuta. Dedica algunos fines de semana y algunas noches para construirlo y lanzarlo. Decide cuáles son las métricas más importantes —las que te indicarán si tu idea funciona o no— y dales seguimiento. A los inversionistas: Invierte basándote en la tracción. Reúnete con los emprendedores lo antes posible y ayúdalos a determinar qué métricas significarían un éxito y luego ayúdales a llegar allí. Negocía los términos antes de participar, por ejemplo: “Si se pueden atraer un número X de clientes o Y de pesos dentro del plazo Z, invertiremos A pesos a una valoración B en días C”. Mantén un espacio de tiempo breve (2-3 meses) y posiciónate como inversionista semilla al mostrar que puedes agregar valor a emprendimientos en sus primeras etapas. Imaginemos el siguiente escenario: un emprendedor y su equipo se reúnen con un inversionista y describen lo que quieren hacer. Juntos trazan sus metas para los siguientes 90 días (50 clientes nuevos y 1000 pesos semanales). El inversionista está de acuerdo que si alcanzan sus objetivos, invertirá $500 mil pesos por el 20% de la compañía dentro de los 14 días siguientes a haber logrado sus metas. Ahora sí no hay excusas, ambas partes se suben las mangas y se ponen a trabajar. Al final de los 90 días, ambos lados saben si la idea es factible y tienen una muy buena idea si la otra parte es competente y si disfrutan trabajando juntos.

Conclusión Al financiar sólo después de que los objetivos pragmáticos compartidos se consiguen, se elimina una parte significativa del riesgo, es un trato más fácil de hacer. El emprendedor sabe cuáles son los objetivos y, por tanto, qué hacer, mientras que el inversionista tiene una comprensión clara de lo que él/ella está invirtiendo. Los puntos principales de este artículo están disponibles como una presentación que puedes consultar en http://bit.ly/agavelab .BIO Andy Kiefer es fundador de Agave Lab, una aceleradora de productos ubicada en Guadalajara y San Francisco. Antes de mudarse a México en 2008, estuvo a cargo de Dev Bus para un arranque en red Kleiner Perkins, la red social (Visible Path) y ayudó a crecer una startup de 10 personas a +1000 empleados y varios miles de millones de dólares de valor de mercado (Kana).

www.sg.com.mx |

E

Software Guru

››Por Andy Kieffer


Hacia una Cultura de Seguridad ››Por Yuri González

L

a Internet, entendida en su conjunto como un ecosistema conformado por estándares, protocolos, tecnologías y servicios, no sólo se ha consolidado en pocos años como una pieza fundamental en los modelos de negocio; es también ya una parte vital en el desarrollo y crecimiento socio-económico de las naciones y es un recurso crítico del entramado que conforma y da soporte a los gobiernos en todo el mundo. De acuerdo al reporte que la UIT publica anualmente, en 2011 un tercio de la población mundial total ya es parte de este gran ecosistema. Esto representa más de 2,000 millones de clientes potenciales a los que los negocios ofrecen sus productos y servicios a través de medios de comunicación electrónicos. También representa más de 2,000 millones de ciudadanos que son beneficiarios de las llamadas iniciativas de gobierno electrónico. En el artículo “La Internet de las Cosas: cómo la siguiente evolución de Internet está cambiando todo” [1], Dave Evans anticipa que en menos de una década la Internet alcanzará al 60% de la población mundial. En este escenario, para el año 2022 estarán interconectados más de 50,000 millones de dispositivos y objetos físicos. De ser acertadas estas predicciones, en la próxima década la Internet alterará para siempre y de manera irremediable el estatus quo en materia social, política y económica. En este contexto tecnológico, cada vez más complejo y permanentemente cambiante, se hace patente .BIO la necesidad de establecer un entorno de trabajo propicio para garantizar Yuri Adrián González Robles actualmente trabaja como Subdirector que aquellos requerimientos no funde Tecnología y Seguridad Informácionales tales como la modularidad, tica de la Unidad de Servicios de Informática (IFE). Sus principales la escalabilidad y la seguridad, sean tareas comprenden proponer, conincorporados de manera sistemática solidar y establecer los procesos y prácticas que permitan mantener e durante las etapas de diseño, desarroincrementar la seguridad y vigencia llo, pruebas y despliegue de cualquier tecnológica de los servicios y sistemas informáticos del Instituto sistema o servicio informático. Federal Electoral www.ife.org.mx El presente artículo aborda brevemente una de las aristas de este pro12

blema: el aspecto de la seguridad durante el desarrollo de los sistemas. Y dentro del universo de la seguridad, en el presente artículo sólamente me abocaré al análisis de riesgos y establecimiento de escenarios de amenazas.

El cristal con el que se mira Bruce Schneier comenta en su ensayo “La psicología de la seguridad” [2], que la seguridad es tanto una realidad como una percepción. La decisión de implementar o no una salvaguarda se basa en un sistema de criterios que nos lleva a tomar de decisiones en materia de seguridad y que se ve fuertemente influenciados por la naturaleza humana. De manera inconsciente, tomamos decisiones en materia de seguridad todo el tiempo. Por ejemplo: decidimos cuál es la ruta más segura para llegar al trabajo, hacemos uso del bastón inmovilizador del volante al estacionar el automóvil en una zona que no nos es familiar y optamos por no usar un ascensor que tiene una aspecto viejo y descuidado. La evolución ha dotado a nuestro cerebro con los circuitos necesarios para que no tengamos que hacer un gran esfuerzo para ponderar el riesgo y elegir entre todas estas opciones. Sin embargo, la zona en donde reside este firmware orgánico es una región del cerebro muy primitiva y desafortunadamente es inútil en muchas de las situaciones que nos presenta la modernidad.

Modelado de amenazas Prácticamente todos los estándares y buenas prácticas en materia de seguridad de la información establecen que cualquier iniciativa para fortalecimiento de la seguridad da inicio con la identificación, evaluación y tratamiento de los riesgos asociados a un sistema o servicio informático. La organización Software Assurance Forum for Excellence in Code (SAFECode, por sus siglas) en su publicación “Fundamental Practices for Secure Software Development” [3] reporta que la práctica más comúnmente utilizada es el modelado de amenazas. Esta actividad consiste en llevar a cabo un ejercicio durante la fase de diseño del proyecto, en donde el flujo de datos es analizado por un equipo


.ESPECIAL

Esta técnica consiste en revisar uno por uno cada componente del sistema y determinar si es vulnerable a una amenaza de alguno de estos grupos: Spoofing (suplantación de identidad), Tampering (modificación maliciosa de datos), Repudiation (no reconocimiento de una acción), Information disclosure (revelación de información), Denial of service (negación de servicio), Elevation of privilege (elevación de privilegios). Como se podrán dar cuenta, las siglas STRIDE se forman con la primer letra del nombre de cada grupo. Por ejemplo, consideremos un sistema ficticio en el que se hace uso de firma electrónica para autorización de pagos. Después de que el grupo encargado de realizar el análisis STRIDE ha revisado los casos de uso del sistema, identificó lo siguiente: Amenaza #1: El sistema es vulnerable a Repudiation, ya que un usuario con acceso legítimo al sistema puede negar que autorizó una transacción, ya que las bitácoras que genera el sistema sólo consideran el ID de la sesión y no se almacena el identiicador del usuario.

Casos de mal uso Esta metodología ayuda a entender cómo los atacantes podrían vulnerar el sistema. Estos casos se derivan de los requerimientos del sistema y los casos de uso asociados, y muestran cómo un potencial atacante puede evadir o inhabilitar las medidas de protección existentes. Mientras que un caso de uso describe típicamente cierta funcionalidad que debe realizarse a través del sistema, mediante el caso de mal-uso se define una secuencia de acciones que deben ser completadas para provocar daño al sistema. La figura 1 muestra un diagrama UML que ejemplifica un caso de mal-uso. [4] La desventaja de esta metodología es que requiere que el grupo de desarrollo cuente con la asesoría de un experto en materia de seguridad; dicho experto generalmente toma el rol de moderador y 13

Figura 1. Diagrama UML de un caso de mal uso.

• Susceptibles a ser comparados en una nueva versión del proyecto, • Reproducidos en otro punto del proyecto, aún cuando los miembros del equipo original hayan cambiado, • Incluidos en una construcción de software que esté orientado a procesos. No siempre contamos con todos los recursos necesarios para aplicar metodologías con toda la formalidad requerida; entonces podemos echar mano de las siguientes herramientas:

Lluvia de ideas En el caso de organizaciones que no tengan recursos o experiencia en el modelado de amenazas, se recomienda por lo menos tener una sesión de lluvia de ideas donde los miembros del equipo de desarrollo que están a cargo de la arquitectura y diseño comenten y evalúen las potenciales vulnerabilidades que presenta el sistema. Es importante hacer notar que los resultados de esta dinámica no pueden considerarse exhaustivos, por carecer de una identificación sistemática de las amenazas, principales activos y riesgos asociados. Tampoco es una actividad cuyos resultados sean repetibles, porque depende en gran parte de la experiencia de los miembros del equipo que se integren a la reunión.

tas en seguridad puedan entender mejor el tipo de vulnerabilidades a las que pueden estar sujetas sus aplicaciones. Algunos diccionarios de este tipo disponibles públicamente son CWE [5], OWASP [6] y CAPEC [7]. Haciendo uso de estos recursos, podemos aprovechar el conocimiento generado por la comunidad y la industria en materia de seguridad.

Conclusión En este artículo he listado algunas de las técnicas más comunes para modelar amenazas y así reconocer las vulnerabilidades que pueden tener nuestros sistemas, de manera que podamos actuar para evitarlas o resolverlas. Espero que esta información les sea de utilidad para desarrollar sistemas más seguros.

Referencias [1] D. Evans. “The Internet of Things: How the Next Evolution of the Internet is Changing Everything”. http://swgu.ru/sg40r4 [2] B. Schneier. “The Psychology of Security”. http://swgu.ru/sg40r5 [3] Autores varios. “Fundamental Practices for Secure Software Development”. SAFECode, 2011. http://swgu.ru/sg40r6 [4] “Misuse case”. Wikipedia. http://swgu.ru/ sg40r7 [5] CWE - Common Weakness Enumeration. http:// cwe.mitre.org

Catálogo de amenazas

[6] OWASP - The Web Application Security Project.

Contar con un diccionario o catálogo de amenazas es bastante útil, especialmente para que las personas que no son exper-

[7] CAPEC - Common Attack Pattern Enumeration

https://www.owasp.org

and Classification. http://capec.mitre.org

Software Guru

STRIDE

facilitador, guiando las discusiones para optimizar los tiempos y las actividades. Otra consecuencia es que esta metodología también suele requerir un tiempo y esfuerzo considerable ya que requiere la participación de otros involucrados además del equipo de desarrollo. No obstante, al aplicar este tipo de metodología se garantiza que los resultados obtenidos serán:

www.sg.com.mx |

de personas con el objetivo de identificar los puntos débiles del sistema y establecer los escenarios en los que estos puntos pudieran ser explotados por un potencial atacante. A continuación explico algunas de las técnicas más utilizadas para el modelado de amenazas.


.ESPECIAL

“La criptografía de caja blanca asume que el atacante tiene el control del dispositivo inal”.

Criptografía de Caja Blanca ››Por Mauricio Hernández

L

a criptografía es la práctica y estudio de técnicas para comunicación segura en presencia de terceros. Esta práctica ha ido evolucionando y haciéndose más compleja a lo largo de la historia: en un inicio consistió en el reemplazo de letras o palabras en base a patrones sencillos; posteriormente en la 2da Guerra Mundial se desarrolló significativamente este campo y se comenzaron a utilizar máquinas electromecánicas, como la Enigma. Hoy en día, que vivimos en un mundo basado en información, el uso de criptografía está ampliamente extendido y para ello se utilizan diversos métodos. A pesar de la evolución que ha tenido la criptografía, los métodos convencionales no son capaces de ofrecer una solución blindada que contemple por completo los distintos escenarios de diferentes ataques que intentan explotar las vulnerabilidades inherentes en la criptografía. En las implementaciones de DRM (Gestión de derechos digitales) típicas, los algoritmos criptográficos forman parte de la solución de seguridad y emplean un algoritmo conocido y potente al mismo tiempo, confían en el secretismo de la clave criptográfica. El problema con dicha estrategia es que las plataformas en las que estas aplicaciones pueden ejecutarse quedan sujetas al control de usuarios finales potencialmente hostiles. El supuesto convencional de la criptografía es una configuración de tipo Black-box (caja negra) donde se asume que el atacante no tiene acceso a la clave de cifrado, es decir, que solo tiene acceso al resultado (texto cifrado). Durante mucho tiempo se ha dado por supuesto que esto es cierto también para los dispositivos de hardware como las tarjetas inteligentes, pero los ataques maliciosos que explotan la información “filtrada” de un Black-box (como los ataques de análisis de potencial diferencial, también conocidos como DPS) se han desarrollado permitiendo a los atacantes obtener las claves secretas de cifrado utilizadas por la supuesta caja negra. Es así que lo que tenemos no son realmente cajas negras, sino en todo caso grises. Los mecanismos de cifrado más populares, como AES, no han sido diseñados para ope.BIO rar en entornos donde su ejecución puede ser observada; dichos modelos Mauricio Hernández es especialista en soluciones de protección en asumen que los tokens de protección SafeNet, empresa proveedora de en los puntos finales —como PCs o soluciones DRM, para la protección y el licenciamiento de software. reproductores digitales— son de con@SafeNetLatino fianza. Si estos puntos finales residen www.safenet-inc.com en un entorno potencialmente hostil, 14

entonces las claves criptográficas pueden ser visibles directamente para los atacantes que monitoreen la ejecución de la aplicación mientras intentan extraer las claves que están adjuntas o son generadas por la aplicación desde la memoria. Este es un problema común en las aplicaciones basadas en software que se ejecutan en PCs, decodificadores digitales IPTV y otros dispositivos que consumen datos al intentar aplicar DRM. Al supervisar de forma activa las API criptográficas estándar o los volcados de memoria, un atacante puede extraer las claves cuando se usan. Por ejemplo, el programa BackupHDDVD utiliza este mecanismo para lograr copiar el contenido de un DVD protegido, eliminando así el DRM. La idea de mantener información valiosa como las licencias y otros secretos empresariales ocultos a la vez que se opera en un entorno completamente transparente plantea diversos dilemas: ¿cómo podemos cifrar y descifrar contenido sin revelar directamente ninguna parte de la clave o los datos?, ¿cómo implementamos un mecanismo de cifrado sólido sabiendo que un atacante puede observar y alterar el código durante la ejecución? Este es el contexto de lo que se conoce como criptografía White-box (caja blanca). Las técnicas de criptografía White-box tienen como objetivo proteger las implementaciones de software de algoritmos criptográficos contra la recuperación de claves, incluso si el atacante tiene un control absoluto sobre la máquina que realiza el cifrado; esto es especialmente útil en el campo de DRM. La criptografía White-box utiliza técnicas que permiten realizar cifrado de manera que un atacante no pueda acceder la clave, incluso aunque sea capaz de observar libremente la ejecución del código dinámico y conocer los detalles de los algoritmos utilizados.

Conclusión Los algoritmos creados para los modelos de Black y Grey-box no son prácticos de cara a funcionar en equipos que no sean de confianza; los atacantes han reconocido la vulnerabilidad de la criptografía clásica en el entorno de PC abierto. La criptografía White-box, en cambio, ha sido diseñada para operar en este contexto. Resulta implícito que la protección del software debe recibir una atención específica, a lo largo de las fases de diseño e implementación además de ajustarse como parte del ciclo de vida del producto y en el lanzamiento de nuevas versiones. Además de la criptografía White-box, deberían emplearse medidas de seguridad complementarias adicionales para reforzar aún más el plan de protección general.


.ESPECIAL

Cibercrimen y Cómputo Forense AVANCES Y TENDENCIAS ››Por Andrés Velasquez

15

Análisis forense en la nube Para contrarrestar este panorama del alto crecimiento delictivo, es necesaria una mayor profesionalización en el rubro del análisis forense digital para disminuir la amenaza de delitos informáticos. Entre las últimas tendencias del análisis forense digital que permitirán mejorar esta situación, encontramos la reducción del tiempo de procesamiento de las pruebas del delito. Para ello es necesario pasar por una nueva arquitectura de análisis forense digital que se base en los principios del cloud computing. Esto permitirá el procesamiento paralelo y simultáneo de pruebas digitales, evitando la duplicación de datos y esfuerzos, y sobre todo reduciendo drásticamente los tiempos de proceso de la información. Esta nueva arquitectura debe considerar cómo acelerar el análisis de las pruebas digitales e incluir la capacidad de almacenamiento de pruebas, los servicios de aplicaciones y los principios de integridad y de confidencialidad de los datos digitales, así como disponer de un software de administración de casos y toda una gama de servicios adicionales. Otra de las estrategias a seguir es la de evitar ingresar en enlaces enviados por correos externos, Facebook o por Twitter, sean promociones, avisos bancarios o tarjetas de felicitación; evitar enviar información confidencial o acceder a cuentas bancarias online usando redes inalámbricas públicas abiertas; tener contraseñas fuertes en todos los dispositivos y para todas nuestras cuentas, que combinen letras, números y signos; y capacitar a las personas en la empresa en políticas de seguridad. Sólo empleando la última tecnología de la mano de la implementación de sólidas medidas de seguridad y de la aplicación de los principios de las últimas tendencias en arquitectura, las empresas y los usuarios finales y hasta el mismo gobierno podrán luchar en igualdad de condiciones con los ciberdelincuentes y garantizar una rápida respuesta contra los delitos. .BIO

Referencias [1] ”CyberCrime Report 2012 Mexico Fact Sheet”, Norton. http://swgu.ru/sg40r9 [2] “Global IT Security Risks 2012”, Kaspersky Labs. http://swgu.ru/sg40r10

Andrés Velasquez (@cibercrimen) es presidente y fundador de Mattica. Es especialista en seguridad informática y cómputo forense con más de 11 años de experiencia. Ha resuelto casos para organizaciones privadas y entidades como Interpol, ONU y agencias gubernamentales en Latinoamérica. www.mattica.com

Software Guru

i bien los delitos informáticos aparecieron prácticamente desde la invención de las computadoras, en los últimos años se ha visto un aumento del cibercrimen orientado a infectar computadoras como objetivo final, enmarcados en ataques ciberterroristas, hacktivistas o de crimen organizado. Según el reporte de cibercrimen 2012 de Norton [1], se estima que en ese año tan sólo en México más de 14.8 millones de personas fueron víctimas de delitos informáticos que ocasionaron pérdidas financieras directas por un monto de 2.2 miles de millones de dólares. Estas cifras son evidencia de una gran fragilidad y falta de prevención frente a los delitos informáticos de parte de los usuarios, especialmente, en el ámbito corporativo. De acuerdo con un estudio realizado por Kapersky Lab [2], el 48% de las compañías tiene una protección insuficiente contra el robo de propiedad intelectual y otros ilícitos realizados en línea. Esta situación se agrava a causa de la falta de despliegue de políticas de seguridad y la falta de concientización de los empleados, lo que facilita a los ciberdelincuentes encontrar nuevas formas de beneficiarse de las corporaciones y, al mismo tiempo, lograr la profesionalización del ejercicio delictivo en la red. Entre los delitos más frecuentes, especialmente en nivel empresarial, tenemos el robo de información. El 80% de los delitos de este tipo provienen del interior de la misma corporación, es decir, los empleados, incluso los que generan mucha confianza pueden ser la mente maestra detrás del robo de información valiosa para la empresa. Tal es el caso, por ejemplo, de la industria automotriz: al desarrollar sus operaciones en ambientes abiertos, este tipo de corporaciones son proclives a padecer algún tipo de delito cibernético de manera deliberada o por descuido de sus colaboradores. En ese sentido es importante que cualquier agencia, por pequeña que ésta sea, tome las medidas mínimas en seguridad como el de impulsar una cultura de las Cartas de Asignación de equipos de cómputo en la empresa, lo que ayudará a individualizar responsabilidades. Otro de los delitos de mayor frecuencia son los ciberataques en redes sociales y teléfonos móviles. En lo que respecta a los ataques en redes sociales, el robo de identidad es uno de los métodos más usados para obtener información de una persona con el fin de perjudicarla u obtener algún beneficio. De acuerdo al último Reporte de Cibercrimen de Norton, tan solo en Facebook durante el 2012 hubo casi seis millones de fraudes manuales y cerca de 600 mil falsas ofertas y encuestas.

www.sg.com.mx |

S


.ESPECIAL

“El eslabón más débil somos las personas.”

¿Seguridad Informática o Seguridad de Información? ››Por Carlos Kornhauser

C

ada vez con mayor frecuencia escuchamos noticias relativas a fraudes, robos e incidentes relativos a la información. Es un hecho que la información se utiliza de mil formas, ya que a través de ella se define por ejemplo nuestra personalidad, nuestro estatus patrimonial, nuestro círculo social; basta ver como ejemplo el crecimiento de las redes sociales. Si lo revisamos desde una perspectiva organizacional se convierte todavía en algo más importante, ya que se traduce en nuestros secretos industriales, ventajas competitivas, situación financiera entre otros. Esto nos lleva a poder concluir que la información es uno de los activos más importantes de cualquier persona u organización. Aunado a esto comienzan a tomar mayor fuerza una serie de regulaciones y requerimientos con respecto a la seguridad de la información. En México, por ejemplo, con el cumplimiento de la Ley Federal de Protección de Datos Personales en Posesión de Particulares que nos obliga a establecer mecanismos y procesos para proteger información. La pregunta entonces es ¿por qué nos preocupamos tanto por la seguridad informática en lugar de la seguridad de la información? Me explico, cuando vamos a una organización y preguntamos por su seguridad siempre nos hablan de los firewalls que se tienen implementados, de los detectores de intrusos de última generación, de los 5 antivirus en paralelo y cualquier cantidad de controles físicos y lógicos que se puedan nombrar, pero cuando preguntamos por los procesos de negocio que se están protegiendo, de cuál es el impacto que un incidente podría ocasionar, de cuáles son las principales amenazas existentes, de cuáles son los objetivos estratégicos de la organización, de qué motivadores existen para sufrir un ataque, es entonces cuando las respues.BIO tas comienzan a escasear y a no tener la Carlos Kornhauser (@ckornhauser) precisión adecuada. Más preocupante es Director de GRC (Governance, aún, es cuando comenzamos a revisar Risk and Compliance) para Pink Elephant México. Cuenta con más de en donde se encuentran las vulnerabi20 años de experiencia en prácticas lidades realmente y nos damos cuenta de Gobierno de TI, Seguridad de Información, Continuidad Tecnológide que no es en los “fierros” (servidores, ca y Cumplimiento Regulatorio. En aplicaciones, bases de datos, etc). No 2003 fue reconocido por Microsoft por diseñar la mejor solución de seestoy diciendo que estos controles no guridad en Latinoamérica y una de sean importantes —de hecho son muy las cinco mejores a nivel mundial. importantes considerando que la ma16

yor parte de la información que hoy manejamos se encuentra en formato digital— pero no son los únicos. Todos conocemos la expresión de que una cadena se rompe por el eslabón más débil. Preguntémonos entonces: ¿cuál es el eslabón más débil en la cadena que representa la seguridad?, ¿será la plataforma tecnológica (es decir lo que está cubierto por la seguridad informática)? En la gran mayoría de los casos, la respuesta es NO; el eslabón más débil somos las personas. Por naturaleza somos confiados y con frecuencia no tenemos el nivel de conciencia suficiente para identificar los impactos en caso de un mal manejo de la información que divulgamos o utilizamos. Si a esto le agregamos que no siempre existen los procesos, políticas y componentes legales que definan cual es el adecuado uso de la información, entonces tendremos un muy buen sistema de seguridad informática y un muy mal sistema de seguridad de información. De poco sirve contar con el mejor detector de intrusos y el mejor firewall, cuando estadísticamente está demostrado que el 70% de los problemas de seguridad son causados por personas internas; y la mayor parte de estos ni siquiera son con dolo o afán de causar un daño, sino debido a la falta de un marco adecuado de seguridad. Les propongo un experimento, revisen los botes de basura de sus organizaciones o de sus vecinos, se van a sorprender de la cantidad de información que está ahí, disponible para el que quiera utilizarla. Otro experimento, entren a un baño de una organización y quédense dentro de un cubículo escuchando lo que las personas comentan, igual se van a sorprender de la cantidad de información sensitiva que se divulga. En resumen, tenemos que construir y contar con un sistema que nos garantice, dentro de lo posible, la seguridad de la información, el cual debiera de contar con los siguientes elementos mínimos: • Un entendimiento claro, preciso y priorizado de qué es lo que se va a proteger a nivel organizacional y cuáles son los riesgos existentes. • Un marco normativo que contenga las políticas y procesos que los usuarios de la información deberán de seguir y cumplir. • Un plan de capacitación y concientización para los usuarios y administradores de la información. • Por supuesto, los controles tecnológicos y físicos que protejan la información.


.ESPECIAL

¿Por qué es Imposible la Seguridad Total? Y POR QUÉ ESO ES BUENO ››Por Edmundo Reyes

Listo, sano y salvo. ¿Dónde firmo para obtener seguridad total? Un momento ... ¿en verdad se puede? Tenemos los ejemplos de grandes empresas, con el músculo tanto tecnológico como financiero para poder implementar cuanta defensa pueda ser implementada y sin embargo también son víctimas. ¿Cómo no ser escéptico si ellos no pudieron lograrlo? No estoy solo en mi escepticismo. El escritor y consultor en seguridad Glenn S. Phillips [1] menciona 4 puntos por los que la seguridad total de información es imposible: 1. Existe gente involucrada. No existe seguridad absoluta simplemente porque la gente forma la mayor parte del área de riesgo. Ya sea que tenga malas intenciones, o que tenga buenas intenciones pero cometa errores. 2. El cambio es constante. Aunque el día de hoy logremos asegurar algo, mañana habrá nuevos riesgos. Cambio de gente, tecnología y forma de hacer negocios. El parche que instalé hoy protege contra los riesgos de ayer, no contra los de mañana. 3. Seguridad es un concepto, no una definición. Se puede definir “entorno seguro” para una situación particular pero no se puede generalizar. Pasar la auditoria únicamente demuestra que se revisó lo que creemos revisable. Esto no cubre riesgos particulares de negocio y riesgos nuevos. 4. La tecnología es una herramienta, no una solución completa. Demasiados líderes asumen que la seguridad es un problema de tecnología. Citando a Zygmunt Bauman: “las cerraduras pueden ayudarnos a soslayar el problema o a olvidarlo, pero no pueden obligarlo a dejar de existir.” Consideremos la analogía de un candado contra una ganzúa: el candado tiene que cubrir amenazas generales, la ganzúa solo tiene que romper una debilidad particular; la ganzúa necesita el éxito una vez, el candado necesita ser exitoso siempre. 17

Busquemos el balance Intentar la seguridad total es costoso y con pocas posibilidades de éxito. Saber esto es bueno. Olvidemos el “total”, mejor busquemos el balance entre ser osado sin ser imprudente; entendamos profundamente la naturaleza de nuestro negocio y el riesgo que éste implica. Los autos comerciales no tienen jaulas contra volcaduras, de la misma manera que los autos de carreras no tiene bolsas de aire. El diseño en ambos es una mezcla entre lo que se espera de ellos y el riesgo que se corre. Entender ésto es profundamente liberador. Si no hay hombres lobo, no necesitamos desperdiciar la plata en balas, ni imponer políticas basadas en quimeras. Mejor nos enfocamos tener un comportamiento adecuado a los riesgos que estamos dispuestos a tomar para realizar negocio. Seguridad no es esconderse bajo una roca y perderse del mundo. No es encerrarse tras de murallas impenetrables y ver el mundo a la distancia. El candado total, el que es imposible de abrir, está sellado y esto lo convierte en un candado inútil. Lo que se busca es que lo abra la llave adecuada y que lo que protege no sea de mayor valor que el candado. No hacemos negocios para estar seguros, la implantación de seguridad es uno de los costos que debemos asumir para hacer negocios. Y como cualquier otro costo tiene que estar en balance con el tipo y la ganancia del negocio. La seguridad que deberíamos buscar debe permitir un flujo sano de información con un control aceptable de los riesgos que se están tomando. Debe de tener medidas para que cuando lo inevitable pase —es decir que quede comprometida la seguridad—, no haya consecuencias desastrosas. Debe de girar en la confianza en nuestra gente y en el sentido de protección que debe de prevalecer entre ellos. Es decir, la seguridad tiene una perspectiva social que a veces olvidamos en nuestra búsqueda tecnológica de la misma. Los mejores líderes ahorran tiempo y dinero entendiendo que la seguridad significa procesos, no entregables. Estos procesos cambian .BIO continuamente porque la gente, los Edmundo Reyes Cuellar tiene 17 años de experiencia en el área de riesgos y la tecnología están en un sistemas y ha trabajado desarrocambio continuo. llando arquitecturas de Business

Referencias [1] G. Phillips. “Mission Impossible: 4 Reasons Compliance Is Impossible”. http://swgu.ru/sg40r8

Intelligence y Enterprise Content Management. Es apasionado de la arquitecturas de sistemas y los métodos ágiles. Le gusta programar en Ruby y Python aunque de vez en cuando todavía extraña a C. http://cuellared.wordpress.com

Software Guru

ada que escucho a un proveedor hablar sobre seguridad, su exposición típicamente tiene la siguiente estructura: primero genera terror en nuestros corazones demostrando las amenazas que nos acechan, y posteriormente nos explica como su bala de plata nos protegerá. En algunos casos se mencionan otros puntos como alinear la bala de plata a nuestra tecnología y negocio, y capacitar al personal. Así que parecería que lo único que necesitamos para vivir tranquilos es aplicar tecnología, implementar una serie de procesos, capacitar al personal en la herramienta y someternos al rigor de auditorías anuales.

www.sg.com.mx |

C


.COLUMNA COLUMNA INVITADA

Apuntando los Nuevos Retos de TI ›› “LAS EMPRESAS DEBEN CAMBIAR A SOLUCIONES QUE BRINDEN MAYOR

E

nfrentar un ambiente con altas demandas de información, las cuáles se consumen por diferentes dispositivos, implicó en los últimos años un cambio de paradigma en las reglas, formas de entregar y consumir las TI en las organizaciones. El impacto de la evolución de tecnologías de virtualización y nube en las áreas de TI ha crecido a pasos titánicos. Actualmente, el 40% de las cargas de trabajo en servidores están virtualizadas, y para el 2020 se espera que esta cifra llegue al 80%. Para este mismo año la industria habrá derrochado 241 mil millones de dólares en servicios relacionados con la nube. Ante esto, las empresas han adoptado soluciones que lejos de ser competitivas, son complejas y monolíticas; esto dificulta su escalabilidad para hacer frente al manejo de información hacia los próximos años. Por otro lado, las organizaciones han tenido que escoger entre soluciones con bajo costo de operación pero alta inversión inicial, o baja inversión inicial pero costos de operación mucho mayores a largo plazo. Las empresas deben dejar estos modelos a un lado para cambiar a soluciones que brinden mayor agilidad y confiabilidad; que sean escalables y con niveles significativos de eficiencia y rendimiento. Estas soluciones también deben contribuir tanto a bajar los gastos de inversión como de operación, abriendo paso a que las organizaciones enfoquen sus esfuerzos a la innovación Carlos Love y la competencia. es Gerente de Marketing Sr. en Como ejemplo del abanico de retos que enfrenDell para la región de Latinoamérica, tan actualmente las organizaciones de TI, veamos el y conferencista en el centro caso de la infraestructura de cómputo. La virtualiejecutivo de Dell zación ha tenido un gran impacto en esta área, ya en Austin. En su carrera profesional que eleva el uso de los servidores por medio de máha desempeñado diferentes posiquinas virtuales y por lo tanto permite consolidar ciones ejecutivas el hardware. Sin embargo, estos beneficios acarrean a nivel mundial y Latinoamérica en nuevos retos ya que ahora se requieren administrar y diversas organizaciones de TI en monitorear las máquinas virtuales. Adicionalmente, especial el área de ventas, consultola falta de estandarización de hardware y software ría y marketing. dificulta la consolidación. En sí, la virtualización Carlos tiene una Maestría en Adprovocó una reacción en cadena ya que aumentaron ministración con especialidad en los requerimientos de memoria, redes, aplicaciones Mercadotecnia por y mejores mecanismos para la administración de TI, parte del ITESM. además que debe existir una integración de ellos. 18

AGILIDAD Y CONFIABILIDAD”

Siguientes pasos Una vez superados estos retos, lo siguiente es lograr que las TI sean la máquina que impulse a la organización por medio de niveles altos de eficiencia, agilidad y gestión de costos. • Infraestructura convergente. Se refiere a evolucionar de una simple virtualización a una infraestructura convergente con servidores, almacenamiento, aplicaciones y networking que sean centralizadas y simplificadas. • Movilidad. Otro requerimiento para ser competitivo es habilitar una fuerza de trabajo móvil y siempre conectada: en cualquier momento, en cualquier lugar y cualquier dispositivo de acceso. La organización de TI no solo debe ser capaz de habilitar esto, sino de controlarlo. • Almacenamiento. No basta con ser capaz de almacenar grandes cantidades de datos; se deben crear estrategias que organicen y administren los datos adecuadamente, además de hacerlos disponibles hacia los sistemas y dispositivos requeridos, todo ello guardando las políticas de seguridad de información requeridas. • Servicios administrados en la nube. El modelo de la administración de hardware y software en virtualización cambia y se encamina a un modelo más eficiente donde se manejan servicios en la nube o como un híbrido en tecnologías de la nube y virtualización.

Conclusión Existe una conciencia de que la tecnología tiene que evolucionar. Por ejemplo, un 70% de los altos directivos espera un cambio significativo en su departamento de TI. Los altos directivos que involucran a los directores de sistemas en la estrategia del negocio reconocen el valor de los mismos, así como los beneficios financieros de implementar una estrategia de negocio vinculada a las tecnologías de información.

››Por Carlos Love


.PUBLIRREPORTAJE

ara McAfee, hablar de las fuerzas que impactan en la seguridad informática es sin duda alguna mencionar una multitud de elementos que convergen en un mismo frente. Hoy en día podemos ver que las organizaciones están enfocadas en redefinir su Data Center con una notable tendencia a la virtualización en donde es importante no sólo considerar cubrir los cambios de seguridad sino también las regulaciones legales. Ya no es suficiente presentar un reporte anual, mensual o incluso diario de la situación de la seguridad en nuestras organizaciones, requerimos saber qué sucede segundo a segundo ante la rapidez de la información. ¿Cómo sumar teléfonos móviles y tablets a los ambientes laborales? ¿Cómo habilitar a nuestros colaboradores en ese mundo digital? o ¿Cómo evitar las soluciones parciales en el complejo ambiente empresarial? son preguntas constantes que para McAfee se engloban una misma solución: la necesidad de una plataforma de seguridad. La protección contra nuevas generaciones de malware desde el silicio hasta la nube, la seguridad por segmento y origen dentro de la organización así como la anticipación frente a amenazas persistentes, su descubrimiento y eliminación inmediata centran, sin duda alguna, los nuevos foros de discusión que impactan la seguridad y las tendencias del complejo escenario en donde una estrategia informática se vuelve vital. La nueva era nos lleva a redefinir conceptos como la protección del Endpoint, integrando dispositivos móviles o servicios en la nube donde es necesario proteger efectivamente inclusive nuestra propiedad intelectual. Aunado a ello, cada empresa enfrenta el desafío del manejo optimizado del presupuesto operativo sin sacrificar la adaptación de dichas medidas. En McAfee sabemos que los cambios que se enfrentan en la seguridad no responden a una cuestión básica de “poder”, no cuestionamos el poder bloquear, poder eliminar, poder encontrar o incluso poder proteger, la pregunta trascendental es cómo las organizaciones deberán hacerlo, cómo manejar esta nueva complejidad con los recursos disponibles. La misión no es ser una solución reactiva, sino mantener un estado optimizado de la seguridad. Cubrir con los requerimientos legales y formales donde se acorten las brechas, se maneje procesos eficientes y se defina aún más el destino de los datos. 19

McAfee ha planteado una nueva y exclusiva postura frente a la optimización, una postura de seguridad definida, con mayor gobernabilidad y tecnología sin sacrificar la reducción de costos. El valor relacionado con el término Security Connected Platform de McAfee está basado en su arquitectura de la integración y agudeza de las soluciones. Integrar se traduce en convertir los distintos frentes de seguridad en uno solo más eficiente, lo que sumado a soluciones eficaces que comparten información a través del Endpoint, la red y los sistemas de inteligencia de amenazas proveen al cliente de una poderosa defensa ante los múltiples ataques a su información. Tener visibilidad en tiempo real permite un mayor entendimiento del problema y por ende una mejor respuesta. Sin lugar a dudas, el liderazgo de McAfee y su visión sobre Security Connected lo posicionan hoy como la mejor opción en la búsqueda de una seguridad mayormente integrada y lista para enfrentar cualquier reto que se presente en esta nueva era digital. Mantener el liderazgo en los principales productos de seguridad en el mundo nos da hoy como compañía una posición obligada de responsabilidad frente a los nuevos retos de protección. En McAfee asumimos el compromiso de conectar todas las soluciones para llevar a la industria de la seguridad a un siguiente nivel.

Carlos G. Gonzalez Director Senior de Operaciones Tecnológicas Contáctenos: yolanda_navarro@mcafee.com

www.sg.com.mx |

P

Software Guru

LA SEGURIDAD EN LA NUEVA ERA DIGITAL.


20

¿Cómo

Descubrimos

Información Valiosa? — Por Esther Riveroll

“Las organizaciones necesitan de herramientas que les permitan saber en tiempo real lo que está sucediendo.” Uno de los principales retos a los que se enfrentan las organizaciones actualmente es la administración de una gran cantidad de información estructurada y no estructurada, por lo que es importante contar con herramientas que les ayuden a procesar de manera rápida y eficiente grandes volúmenes de datos a fin de tener una toma de decisiones oportuna garantizando operaciones exitosas; a grandes rasgos, este es el reto que conocemos como Big Data. En la actualidad, las empresas requieren un acceso garantizado e instantáneo a sus datos y aplicaciones empresariales, a costos razonables, para tomar decisiones de forma eficiente e inmediata. Existen soluciones móviles que permiten el dinamismo de los procesos de negocio y de la información en las principales industrias, como productos de consumo, energía, servicios financieros, telecomunicaciones, manufactura, gobierno o retail, entre otras. Las soluciones móviles integradas a la plataforma de herramientas de gestión empresarial, permiten la movilización de los procesos de negocio y de la información ya que este software permite manejar una gran cantidad de información y realizar búsquedas ad hoc de cientos de usuarios al mismo tiempo reduciendo los costos administrativos en un 75%.

Para hacer aún más ágiles los procesos y obtener resultados en un menor tiempo es posible combinar la solución de movilidad en una plataforma de cómputo in-memory y así analizar grandes volúmenes de datos de operaciones para obtener respuestas inmediatas. Con esto, los usuarios de negocio pueden instantáneamente explorar y examinar la totalidad de sus transacciones y analizar datos desde prácticamente cualquier fuente de datos en tiempo real. Las organizaciones necesitan de herramientas que les permitan saber en tiempo real lo que está sucediendo al interior de sus procesos para así ajustarlos de manera inmediata y responder a los riesgos o a las oportunidades que se van generando día a día, además de realizar análisis predictivos para una mejor toma de decisiones. Un aspecto importante que ayuda a tener una respuesta casi inmediata es que ya no solamente se tienen los datos en los servidores internos de las empresas, sino que ahora, es posible tenerlos en la nube y así consultarlos desde cualquier dispositivo móvil. Hacer que las empresas grandes o pequeñas y de diversos sectores sean más asertivas en su toma de decisiones y en sus procesos internos y externos es un gran reto, sin embargo esto será posible al contar con un aliado de negocios que le brinde las herramientas y soluciones necesarias.

BIO: Esther Riveroll es Vicepresidente de Innovación en SAP México y Centroamérica http://www.sap.com/mexico


21

“Lo importante es ir más allá del Business Intelligence.”

Democratice su Información

Pareciera crítico, sin embargo es una gran oportunidad para tomar una posición competitiva en nuestros nichos de negocio. Y es aquí cuando las soluciones de visualización de datos toman mayor fuerza. De hecho, la misma encuesta mencionada previamente arrojó que el análisis de datos es una prioridad en dichas áreas de negocio, siendo así que las soluciones de visualización de datos toman relevancia con un 73 por ciento, seguido de un 53 por ciento para el perfilado de datos y un 44 por ciento para soluciones de SaaS (Software as a Service). La visualización de datos nos permite acceder a nuestra información para elaborar modelos de regresiones o correlaciones de datos. En el mercado existen diversas opciones, aunque al considerar que tenemos grandes volúmenes de información y una dinámica acelerada del negocio, es importante inclinarse por aquellas

que nos ofrecen acceso rápido, sencillo, fácil y completo a toda la información de nuestro sistema. Actualmente, muchas de las empresas acceden a su información mediante aplicaciones de Office, portales web y muy pocas a través de dispositivos móviles. Hoy la visualización de datos basada en analítica avanzada permite acceder a la información vía web, en sitio y a través de tabletas móviles. Lo importante es ir más allá del Business Intelligence, es decir del simple reporte de la información de nuestras áreas de negocios. Hoy, es necesario dar inteligencia al negocio democratizando la recepción de datos. La visualización de datos nos permite de manera gráfica representar los escenarios de negocio, reportar lo que hacemos bien y mal, así como explorar los datos y, dependiendo los roles de ejecutivos, preparar los datos en reportes ejecutivos vía web o móvil. Además entre las funcionalidades de la visualización de datos basada en analítica avanzada está el alto desempeño, manejo de millones de registros, así como la exploración, descubrimiento, información, distribución de los datos sin importar el giro, industria o nicho del negocio. En otras palabras, la visualización de datos permite tener jerarquías predefinidas para navegar en nuestra propia información, y sin importar el volumen, acceder a todos los datos de manera rápida.

Conclusión Actualmente existen soluciones de visualización de datos basados en analítica avanzada sencilla que permiten obtener información clave de manera más rápida y diseñada para todas las áreas del negocio. Esto significa que hoy es posible tener una vista holística de nuestra información y democratizarla de manera gráfica en tiempo real y a los niveles ejecutivos adecuados. Sin duda, esta es una manera anticipada y preventiva para alinear las estrategias analíticas en tiempos del big data.

BIO: Sislila García Ramírez es consultora senior en SAS Latinoamérica Norte. Cuenta con diez años de experiencia en gestión de datos para diversas industrias. Actualmente es la consultora experta en temas de Visual Analytics, Business Intelligence y Business Analytics en SAS.

www.sg.com.mx |

En épocas del Big Data —es decir del crecimiento exponencial de los datos—, es importante democratizar la información dentro de nuestras organizaciones. En una reciente encuesta realizada por Source Media y SAS entre más de 300 ejecutivos de TI globalmente, destaca que sólo el 12 por ciento de las empresas ya están utilizando Big Data; esto significa que la gran mayoría está en vías de desarrollo para implementar su estrategia de altos volúmenes de información. Inmersos en un mercado de TI que constantemente habla del Big Data como un reto actual que enfrenta el mundo empresarial, es interesante cómo esta encuesta revela la razón de las organizaciones por no estar de esta ola de información: • 21% no sabe lo suiciente sobre Big Data. • 15% no entiende los beneicios. • 9% carecen de soporte en el tema. • 9% no tienen calidad de datos en sistemas existentes.

Software Guru

— Por Sislila García


22

¿Explorando el

Océano de Datos — Por Jorge A. Hernández y Ernesto Ceballos

¿Te has preguntado alguna vez cuántos datos se generan al realizar tus actividades diarias? Desde cuántos litros de agua usas en la ducha, la cantidad de gas utilizada para el desayuno, el consumo de combustible de tu auto para desplazarte, las calorías quemadas en el gimnasio, el número de interacciones en tu perfil de Facebook, tus patrones de compras al ir al supermercado, hasta el número de páginas leídas en un libro electrónico antes de dormir; todo lo que hacemos, genera información. En todas las empresas y organizaciones, cada vez se generan más datos provenientes de sistemas operacionales, puntos de venta, dispositivos móviles e incluso sensores y sistemas de geo-referenciación (GPS). Este océano de datos es lo que conocemos como Big Data. Las organizaciones han aprendido a reconocer la riqueza de información que existe de manera inherente en estos volúmenes de datos, algunas han sabido explotarla, otras no saben cómo abordarla y mucho menos encontrar las “perlas valiosas de información” dentro de ese océano. El análisis big data se ha convertido rápidamente en la nueva frontera de diferenciación competitiva. No importando el rubro o vertical de negocio, para ser exitosas, las organizaciones deben aprender a manejar estos grandes volúmenes de información de manera eficiente para una toma de decisiones que les permita ser mejores y diferenciarse de su competencia.

Trabajando con datos heterogéneos Pocas veces la información se encuentra condensada en una sola plataforma; en realidad se encuentra dentro de un ecosistema de fuentes relacionales, multi-dimensionales, Web services o incluso en la nube, tales como datos en SalesForce o redes sociales. Las plataformas de Business Intelligence y Business Analytics nacieron como respuesta a estas necesidades donde no sólo es suficiente consolidar las fuentes de datos, sino contar con una serie de características que proporcionen vistas rápidas de la información optimizando al máximo los recursos de almacenamiento disponibles. Las capacidades Push-down analytics para fuentes VLDB (Very Large Database) de estas plataformas BI, permiten generar consultas optimizadas dependiendo de la fuente de información, delegando la mayor carga posible a la base de datos (BD). Otra característica cada vez más común en las plataformas modernas de BI es la capacidad de almacenar Cubos en memoria. Como su nombre lo indica, esto consiste en crear cubos para responder las consultas más predecibles/frecuentes y que estos se almacenen en memoria RAM para agilizar al máximo su tiempo de respuesta; digamos que es como un cache para análisis de datos. La figura 1 ilustra este concepto.

¿Cómo manejar tanta información? Para lidiar con los grandes volúmenes de datos generados por los medios electrónicos mencionados anteriormente, es necesario utilizar sistemas no solamente potentes, sino también inteligentes: es decir, hardware no solamente con alta capacidad de almacenamiento sino también de procesamiento. El fenómeno big data ha impulsado la incursión de nuevos jugadores y tecnologías basadas en el procesamiento paralelo. El proyecto Hadoop —un framework open source para el procesamiento masivo de datos— ha expuesto las bondades de la tecnología MapReduce, la cual consiste en el procesamiento en paralelo de tareas diseminadas en subtareas más pequeñas en un clúster de servidores. Indudablemente, el primer paso para controlar este océano de información es considerar una plataforma de almacenamiento robusta y orientada a altos volúmenes de datos. Dependiendo de las necesidades y contexto, esto se puede hacer ya sea con hardware propio en tu data center, en la nube, o en un esquema híbrido.

Figura 1. Almacenamiento y consulta en cubos de memoria.

Anteriormente, este tipo de capacidades como tener cubos en memoria eran impensables o requerían hardware muy caro. Sin embargo, hoy en día es perfectamente posible y accesible.


23

“¿Cómo encontramos las “valiosas perlas” en ese océano de información?”

Una vez teniendo una plataforma de base de datos optimizada para altos volúmenes de datos y un software de Business Intelligence, la incógnita es ¿cómo encontramos las “valiosas perlas” en ese océano de información? Se ha acuñado un nuevo término para esta necesidad: “Data Discovery” (descubrimiento de datos). Las herramientas BI cuentan con extensas librerías de visualizaciones que permiten la rápida interpretación y análisis de altos volúmenes de datos. En tan sólo unos cuantos clicks permiten crear semáforos personalizados, por ejemplo; encontrar en un mapa los diez puntos de venta más rentables, resaltándolos en color verde sobre miles de puntos en otro color representando el resto. Muchas de las visualizaciones disponibles extienden las capacidades gráficas tradicionales (gráficas de barras, gráficas de líneas, etc.) y son reemplazadas por nuevos tipos de gráficas que facilitan la visualización de varias dimensiones de datos, así como la relación entre estas. Ejemplos de estos son: burbujas interactivas, mapas de densidad, redes de asociación, etcétera. Las figuras 2 muestra un ejemplo de un mapa de densidad, en este caso refleja el volumen de ventas de cierto producto, mapeado geográficamente.

Enriquecimiento con datos sociales ¿Es posible además controlar y explotar la fuente big data más dinámica y reciente: las redes sociales, y combinarla con nuestros hallazgos previos? En el mercado existen herramientas para el análisis de redes sociales que le permiten a las organizaciones explotar todo el conocimiento estadístico generado en ellas para mejorar el posicionamiento de nuevos productos y la planeación estratégica de campañas de marketing. En un ejemplo concreto, se puede saber dónde ubicar un nuevo restaurante que va dirigido a un segmento de la población comparando la ubicación planeada con las ubicaciones frecuentadas por ese segmento de acuerdo a las redes sociales. Además se puede saber qué figuras públicas son más afines a una marca para una estrategia de promoción.

Conclusión

Figura 2. Ejemplo de un mapa de densidad.

Como se ha visto, la tecnología nos ayuda a aprovechar el océano de datos cada vez más creciente y encontrar un beneficio que le permita a las organizaciones ser más competitivas. La visualización de datos es una herramienta importante para facilitar la detección de información valiosa. Los sistemas de almacenamiento, explotación y visualización de los datos cada vez serán mejores y más potentes. No obstante, sólo el tiempo, la creatividad y nuevas regulaciones impuestas sobre uso de big data definirán cómo este fenómeno afectará el día a día de las empresas y nosotros mismos.

BIO: Jorge Alejandro Hernández Bonilla es Ingeniero de Preventa en MicroStrategy México y profesor por el ITESM en BI y Minería de Datos. Ernesto Ceballos Nieto es Ingeniero Senior de Preventa en MicroStrategy México, teniendo a su cargo la competencia técnica en ciclos de ventas con clientes y prospectos premium.

Software Guru

Descubriendo información valiosa

Además de las bondades mencionadas, el data discovery le brinda al usuario final el auto-servicio necesario para responder rápidamente a sus preguntas de análisis sin tener que esperar a la creación de reportes por parte de TI. Una vez encontradas las “valiosas perlas” durante la fase de visualización y exploración, ¿cómo las convertimos en recursos activos de negocio? Las plataformas de BI pueden convertir los hallazgos de la fase de data discovery en vistas operativas conocidas como tableros de control (dashboards) e incluso hacerlos accesibles a través de una infraestructura en la nube y dispositivos móviles. Estos tableros tendrán información digerida que permitirán a las organizaciones tomar decisiones puntuales sobre el negocio.

www.sg.com.mx |

Hasta este punto hemos hablado sobre cómo lograr que la información esté agregada y lista para ser accedida de forma rápida y eficiente. Adicional a esto, las herramientas de Business Intelligence modernas proporcionan una navegación de los datos en cualquier dirección (drill-down/up/anywhere) y con algoritmos de minería de datos que habilitan la capacidad de predecir comportamientos futuros y/o descubrir patrones en estos altos volúmenes de información.


24

Experiencias Memorables El futuro de la afinidad hacia las marcas — Por Javier Solano Vázquez Estimado lector, quisiera comenzar este artículo pidiéndote que pienses en las marcas que admiras. En el sector de TI sería común pensar en marcas innovadoras como Apple o Google, pero si nos movemos a otros sectores encontramos casos como Coca Cola, Starbucks o Disney que, curiosamente no ofrecen un producto necesariamente nuevo. Entonces, ¿qué tienen en común estas marcas que provocan nuestra afinidad hacia ellas? Si observamos, nos daremos cuenta que estas marcas son capaces de tomar un producto y transformarlo en una experiencia para sus clientes. La experiencia para los clientes es un factor fundamental para el éxito. Tan es así, que el estudio “Percepción sobre el servicio al cliente en México” realizado por la empresa InSitum arrojó que el 55% de los consumidores mexicanos decide la contratación de un servicio o la compra de un producto por la calidad en la atención a cliente, mientras que menos del 30% hace la elección por el precio. La pregunta es, ¿cómo podemos ayudar desde nuestras áreas de tecnología a entender mejorar la experiencia del cliente? Todos los días tenemos un sinfín de interacciones con nuestros clientes: visitas a nuestro sitio web, visitas a nuestras instalaciones físicas, menciones en redes sociales, llamadas al call center, etcétera. Todos estos son eventos que tienen un significado y un valor para el negocio: son oportunidades para mejorar la experiencia de nuestros clientes. Actuar de manera oportuna sobre esos eventos se convierte en una necesidad primordial para las organizaciones, ya que quien puede entender la relación entre un evento y otro tiene la capacidad de responder de manera oportuna e, incluso adelantarse, a las necesidades del cliente. Para lograr esto es necesario dejar atrás los paradigmas de procesamiento transaccional y los métodos de explotación de información tradicionales. Parafraseando a Vivek Ranadive: “un poco de información sobre un evento ahora, es mucho más importante que terabytes de información de hace una semana.” Hoy, por primera vez en la historia, tenemos la capacidad tecnológica para no solo almacenar grandes volúmenes de datos, sino para poder analizarlos en tiempo real, pudiendo incluso predecir tendencias y modificar el comportamiento de procesos. Estos son algunos ejemplos de empresas que procesan información en tiempo real para dar un mejor servicio a sus clientes:

“Un poco de información sobre un evento ahora, es mucho más importante que terabytes de información de hace una semana.” • Delta Airlines gestiona todos los eventos relacionados con pasajeros, equipaje, clima y sensores de los aviones para evitar que la maleta de los clientes viaje sin ellos. • Southwest Airlines gestiona los eventos de servicio en tiempo real para notificar inmediatamente a todo el personal si un cliente ha tenido una mala experiencia de servicio y actuar en consecuencia. • MGM Resorts analiza el comportamiento de juego de sus clientes VIP para realizar proactivamente acciones de servicio. De esta forma, el reto de los CIOs y de las áreas de Tecnología es transformar la visión transaccional de la empresa a una visión de eventos: pasar de gestionar datos a identificar eventos relevantes en cada punto de contacto con el cliente y establecer redes de estos que representan conocimiento de negocio y una llamada a la acción en este momento y actuar proactivamente para mejorar la experiencia de los clientes. Ejemplos de lo que podemos hacer, hay muchos: Si un cajero automático retiene mi tarjeta, sería buenísimo llamar al centro de atención (o mejor aún, ser llamado) y que el ejecutivo me proporcione información de la oficina más cercana donde ya me esperan con una tarjeta no personalizada lista para ser usada. Si tengo un choque, poder adelantar el trabajo del ajustador mientras puedo monitorear qué tan cerca está de mí y él pueda llegar en poco tiempo. Si el supermercado me ofreciera al entrar a la tienda las ofertas que tiene para mí basado en mis hábitos de consumo me ayudaría a comprar mejor. Todo esto es posible hoy y las organizaciones que se adelanten a atender las necesidades de sus clientes serán las que tendrán mayor éxito en el futuro.

BIO: Javier Solano Vázquez es co-fundador y Director de Operaciones en Linko, empresa de servicios de TI. Cuenta con más de 13 años de experiencia en servicios de consultoría con principal enfoque en la industria inanciera. Sus áreas de especialidades incluyen: IT governance, IT service management, project management, arquitectura empresarial. http://www.linko.mx @linko_b2xs


25

La Importancia de Gobernar Información en la Era de

Big Data — Por Ricardo Barranco Fragoso

Depurando el big data Si bien es posible pensar que cualquier forma de gobierno o intento por “limpiar” nuestra big data en realidad podría eliminar información valiosa, es necesario determinar si los datos deben limpiarse con el mismo criterio que se aplicaría a los datos tradicionales o si se pierde valor al hacerlo. Entonces, ¿deberían establecerse procesos de gobernabilidad de datos para Big Data?, la respuesta es sí, aunque va directamente relacionado con el objetivo de los datos. Existen diversos casos de uso, por ejemplo, el análisis de clientes, el cual se ve más beneficiado cuando los datos tienen mayor calidad.

Sin embargo otros casos como el análisis de identidades sospechosas, requiere que los datos sean analizados exactamente cómo son introducidos para descubrir patrones de identidad falsos. Muchos casos de big data incluyen el análisis de información sensible; de tal modo que las organizaciones deben definir las políticas de seguridad para proteger dicha información y esas políticas deben ser monitoreadas y aplicadas. Otro caso interesante es la integración entre un proyecto de gestión de datos maestros (MDM) y big data. Por ejemplo, se pueden extraer los acontecimientos importantes sobre las redes sociales tales como un cambio en el estado civil, el nacimiento de un nuevo integrante de familia o un cambio de domicilio para enriquecer la información maestra actuando como un tipo de fuente de ese sistema. Así, MDM puede desempeñar un papel fundamental en las iniciativas de gobernabilidad para Big Data, proporcionando una única versión, obteniendo como resultado final información valiosa.

Conclusión Durante el proceso de gobierno de datos, la primera etapa, y la más importante, es decidir si nuestro big data necesita ser gobernada, y en qué medida tiene que serlo. El llevar a cabo esta decisión, puede ser la clave en el éxito del diseño de sus proyectos, pues ese es el verdadero valor de la integración de información y su gobernabilidad. El éxito en el análisis de grandes volúmenes de datos depende finalmente en la extracción y entrega de información de confianza. Referencias [1] S. Soares. Big Data Governance: An Emerging Imperative. MC Press, 2013. http://swgu.ru/sg40r11 [2] P. Zikopolous et al. Harness the Power of Big Data. McGraw-Hill, 2013. http://swgu.ru/sg40r12

BIO: Ricardo Barranco Fragoso es especialista en Information Management en IBM México. Sus áreas de especialidad son: big data, master data management e integración y calidad de datos. Previo a su incorporación a IBM, Ricardo participó en diversos proyectos de software como desarrollador, líder técnico y arquitecto.

www.sg.com.mx |

La información es indudablemente el activo de negocio más importante de toda organización. De tal manera que, un mal manejo de la información puede afectar la toma de decisiones al no haber procesos, políticas y tecnología que permitan garantizar la confiabilidad de los datos. El término de Gobernabilidad se refiere precisamente a ese conjunto de políticas que definen cómo es que se deberían de administrar los datos. Sin este proceso establecido, los datos generados día con día dejan de ser verificados, se encuentran incompletos y desactualizados. Ahora bien, pensemos en el mundo de big data en donde los datos tienen comúnmente una vida útil corta y además se pueden acumular rápidamente, de manera que se vuelve imperativo definir las políticas del ciclo de vida de éstos evitando dicha acumulación y así determinar cómo y cuándo eliminar y mantener los datos. Big data está cambiando las características de los datos de cada sistema y para hacerlos utilizables necesitan ser gobernados de una manera más segura y confiable. Recordemos los aspectos de big data definidos a través de las 4 V’s: volumen, velocidad, variedad y veracidad. El aspecto de la veracidad cobra especial importancia ya que necesitamos confiar en la información que utilizamos para tomar decisiones. ¿Cómo poder intervenir en la información si no es confiable?

Software Guru

“Necesitamos confiar en la información que utilizamos para tomar decisiones.”


26

Las Desventajas de Big Data — Por Rado Kotorov

“Las compañías deben analizar los datos de sus clientes de una manera plena.” En el mundo de los negocios solemos mostrarnos indecisos cuando se habla de algo relativo a “big” (grande). Una gran idea en negocios puede generar un éxito relevante, pero también un fracaso significativo, lo que podría atentar contra la salud de la compañía en varios sentidos. Por ello, el concepto asociado a “big” habitualmente nos obliga a detenernos al menos por un momento. ¿Se acuerdan de Enron? El crecimiento desmedido de esta organización provocó, entre otros factores, su apocalíptico final. La desventaja real del concepto “big” camina en paralelo al riesgo plausible de error. El otro principal inconveniente estriba en que aquellos que han decidido que su empresa dé el paso hacia objetivos mucho más ambiciosos, suelen minimizar el riesgo de lo que supone ese movimiento. El fenómeno del big data goza de la misma ambigüedad. ¿Es realmente útil para nosotros? ¿Tiene mi compañía esta necesidad? ¿Contamos con los recursos para afrontar un proyecto de big data? ¿Cuánto costará? Uno se podría cuestionar indefinidamente si los beneficios están por encima de los riesgos. Pero tengamos claro que cuantas más cuestiones nos hagamos, más arriesgado nos parecerá el proyecto. Otra desventaja de lo que entendemos como “big” es que este término suele conducir a aquellos que toman decisiones en una empresa a emplear una actitud pasiva en muchos aspectos. Por ejemplo, esperarán hasta que sus competidores den el paso y aprenderán de sus errores e implementarán su propio proyecto cuando llegue el momento adecuado. El problema de esta actitud es la presuposición por parte de estos directivos de que podrán aglutinar rápidamente un equipo de primer orden para reducir la brecha que sus competidores han abierto al haberse arriesgado a apostar con éxito por el fenómeno “big”. Cualquier entrenador de fútbol sabe que esto no es posible — ya que se requiere de mucha investigación y trabajo con los jugadores

para contar con un equipo real de alto nivel, y este factor es aún más importante para nuevas disciplinas donde el talento es escaso. Por todo ello, la clave no estriba en si debo o no debo hacerlo, sino en cómo he de empezar. La mayoría de las compañías se empeñan en encontrar un caso de uso, y frecuentemente los más relevantes están relacionados con el análisis de los datos que generan las máquinas. El problema con esto es que todavía son muy pocas las compañías que tienen la capacidad y equipamiento para generar esta información. Sin embargo, hay otra fuente de big data con la que toda compañía exitosa cuenta: el cliente. Los datos relativos al cliente sustentan una riqueza palpable en materia de información relativa a marcas, productos, atención al cliente, sentimientos del consumidor, satisfacción del cliente y su impacto en las ventas. Esto se almacena en silos, que pueden parecer pequeños almacenes de información. Pero si se quiere ganar en visibilidad, las compañías deben analizar los datos de sus clientes de una manera plena. Integre los datos de sus clientes provenientes de todas las fuentes existentes y ¿qué obtendrá? ¡big data! Datos tanto estructurados como desestructurados, aunque la mayoría de comentarios que depositamos en las redes sociales, blogs y correos electrónicos son desestructurados. Este big data es el más relevante para las compañías, puesto que las ayuda a recabar patrones sobre comportamientos, tendencias, incidencias de producto e incluso ideas para el desarrollo de nuevos productos. Los sistemas y herramientas para extraer y analizar este tipo de big data ya están disponibles. Modificar su actitud ante este reto es el riesgo que ha de asumir.

BIO: Rado Kotorov, es Vicepresidente mundial de marketing de producto en Information Builders y trabaja para las dos líneas de producto de la compañía: WebFOCUS (Business Intelligence) e iWay (calidad e integración de datos).


27

Nuevos Retos e Implicaciones — Por Janet Amezcua y Miguel Chanona

Hoy en día las organizaciones luchamos para obtener una perspectiva de negocio a partir del gran volumen de datos que generamos día a día. Para nuestras organizaciones, el principal desafío es aprender cómo procesar eficazmente todos estos tipos de datos sin la carga de la creación de almacenamiento distribuido complejo y clusters de cómputo. Con el fin de generar una ventaja competitiva, las organizaciones buscan una forma eficaz de combinar los datos que generamos internamente con los que se producen externamente —principalmente en las redes sociales— y generar con la combinación de ambos, conocimientos que nos lleven a servir mejor a nuestros clientes actuales y generar nuevas oportunidades de negocio.

Analizados los datos enfrentamos el reto de la visualización. Donde no solo debemos considerar la integración de datos estructurados y no estructurados sino también una visualización del análisis que sea rápida, confiable y simple para todas las áreas del negocio.

Antecedentes Antes de proseguir, revisemos algunos de los factores que mayor impacto tienen en la forma en la que estamos administrando nuestra información. • El crecimiento anual del volumen de información en la red es de 59% y sigue en aumento. • El grueso de estos datos son no estructurados. El requisito para almacenar y analizar datos estructurados y no estructurados juntos se ha convirtiendo en una nueva norma para las organizaciones. • El cómputo en la nube y el hardware han reducido radicalmente el costo de adquisición para la capacidad de cómputo y almacenamiento. Esto está cambiando fundamentalmente la economía para el procesamiento de datos.

En los últimos años han surgido nuevas tecnologías para poder hacer frente a estos retos. Posiblemente la más conocida es Hadoop, un framework open source para el procesamiento masivo de datos. Hadoop está diseñado para responder a las necesidades modernas de almacenamiento y análisis de enormes volúmenes de datos no estructurados bajo un modelo económicamente rentable. Hay que tener en cuenta que Hadoop es un framework poderoso pero complejo, así que recomendamos que busque una solución que facilite la instalación y administración de Hadoop, haciéndolo más accesible a los usuarios. También tome en cuenta elementos como la integración con su infraestructura existente, gestión de seguridad, y la posibilidad de desplegarse en escenarios híbridos de data center y la nube.

Nuevas capacidades

Recomendaciones

Complementando a los factores previamente mencionados, las organizaciones se ven en la necesidad de procesar, analizar y visualizar los datos conforme se generan. Las empresas que quieren impulsar su “Big Data IQ” necesitan tener la capacidad de analizar datos a medida que están siendo generados y luego tomar la acción apropiada. Esto busca entregar resultados de entendimiento de mercado antes de que el de dato se almacene, es decir analizar los tipos de datos en movimiento (streaming) y derivar en el análisis de los mismos. Para dar visibilidad al negocio de lo que el mercado necesita, con los datos que fluyen a través de nuestra organización, debemos aprovechar los datos ganando tiempo para obtener ventajas competitivas en nuestro negocio. Aquí es donde entran en juego soluciones para análisis de datos en movimiento que permiten aprovechar las técnicas de procesamiento para análisis de datos en tiempo real y así tomar acciones contra nuestros competidores y mejores decisiones de negocio.

Al comenzar una iniciativa de big data, nuestra misión debe ser ayudar a los usuarios a obtener información de nuestro negocio prácticamente con todos los datos. Para lograrlo, debemos tener una estrategia integral que ofrezca:

“Analizados los datos enfrentamos el reto de la visualización.”

Nuestra decisión entonces para una plataforma Big Data debe incluir las tendencias, tecnologías y la promesa de las organizaciones en generar ideas reales con datos estructurados y no estructurados para habilitar el obtener mayor valor comercial y económico de nuestros activos de datos.

BIO: Janet Amezcua Rogel es especialista en Plataformas de Datos e Inteligencia de Negocios de Microsoft México. Otras de sus especialidades son la administración de bases de datos, los sistemas en tiempo real y el cómputo de alto desempeño. janet.amezcua@microsoft.com Miguel Chanona Carmona es gerente de producto para Plataformas de Datos e Inteligencia de Negocios de Microsoft México. miguel.chanona@microsoft.com

www.sg.com.mx |

• Una capa de administración de datos moderna que soporte todos los tipos de datos en reposo o en movimiento. • Una capa de beneicios completa que mejora los datos a través del descubrimiento, combinándolo con los datos del mundo y refinándolos con análisis avanzados. • Una capa de Inteligencia que proporcione información a todos los usuarios de negocio a través de herramientas confiables en tiempo real.

Software Guru

Nuevas tecnologías


28

Business Analysis para Proyectos de Datos — Por Gabriel Almeida

El enfoque principal del Business Analysis es entender la necesidad que está detrás de cualquier iniciativa de negocio antes de iniciar algún esfuerzo de proyecto y con esto asegurar que esté completamente alineado a la estrategia institucional de la organización y que el objetivo del mismo está claramente entendido. El éxito en cualquier proyecto de Data Warehouse (DW) o Business Intelligence (BI) se determina al inicio del ciclo de vida del proyecto, cuando el analista capta los requerimientos del negocio. Una recolección deficiente de los requerimientos de negocio es una de las fallas más comunes en los proyectos en general y eso incluye por supuesto los de gestión de datos. Forrester define de manera amplia que “Business Intelligence es el conjunto de metodologías, procesos, arquitecturas y tecnologías que transforman los datos en bruto en información útil y con significado, para habilitar una visión operativa y toma de decisiones más eficaz, estratégica y táctica”. Entre más datos se tengan, mayor es el reto, y este reto requiere una buena estrategia de Business Analysis.

Análisis Empresarial El área de conocimiento de Business Analysis que describe las actividades necesarias para identificar una necesidad de negocio y justificar la inversión necesaria para solucionarla, es el Análisis Empresarial. Los resultados del Análisis Empresarial proporcionan contexto para el posterior análisis de requerimientos e identificación de soluciones para una iniciativa dada o para planeación a largo plazo. La figura 1 muestra un diagrama con estas relaciones.

1. El nivel de compromiso y de patrocinio del proyecto por la alta dirección. 2. El nivel de necesidad del negocio de crear una solución de BI. 3. La cantidad y calidad de los datos de negocio disponibles.

Identificar la necesidad del negocio Las necesidades y beneficios de una implementación de BI son algunas veces impulsadas por la competencia y la necesidad de ganar ventaja en el mercado. Otra razón es la adquisición de otras organizaciones que expanden la organización original y que algunas veces puede resultar beneficioso implementar una solución de data warehousing o BI con el fin de tener una mejor visión del negocio. Con la finalidad de asegurar que existe una oportunidad de mejora si la iniciativa es atendida, el analista de negocio debe de considerar alguno de los siguientes factores: • Impactos adversos que el problema o necesidad está causando hacia adentro de la organización y cuantificarlos (pérdida potencial de ingresos, ineficiencias, clientes insatisfechos, baja moral de los empleados). • Beneicios esperados por cualquier potencial solución (incremento de ingresos, reducción de costos, incremento de la participación en el mercado). • Qué tan rápido el problema puede ser potencialmente resuelto o la oportunidad pueda aprovecharse así como el costo de hacer o de no hacer. • El origen real del problema.

Resultado Deseado

Figura 1. Relaciones entre las áreas de conocimiento del Business Analysis.

Evaluar la oportunidad De acuerdo con Ralph Kimball, uno de los expertos más reconocidos en el área de DW/BI, existen tres áreas críticas que el analista requiere evaluar dentro de la organización antes de estar listo para realizar un proyecto de BI.

Un resultado deseado no es una solución. Este describe los beneficios de negocio que resultarán de atacar correctamente la necesidad de negocio y de lograr el estado final deseado por los usuarios. Las soluciones propuestas deben ser evaluadas contra los resultados deseados para asegurar que pueden entregar estos resultados. Frecuentemente es difícil justificar los beneficios esperados para proyectos de BI y a menudo estos deben de ser priorizados a través de iniciativas estratégicas. Algunas iniciativas estratégicas de negocio en las que se pueden apalancar beneficios que justifiquen los proyectos de BI son: • Crear una nueva capacidad del negocio como un nuevo producto o servicio. • Atacar una desventaja competitiva, o crear una nueva ventaja competitiva. • Incrementar los ingresos, incrementando ventas o reduciendo costos. • Incrementar la satisfacción del cliente. • Incrementar la satisfacción del empleado. • Cumplir con nuevas regulaciones.


29

“Antes de iniciar cualquier esfuerzo es necesario realizar un perfil de los datos.” Capacidades de la organización Si las capacidades actuales son insuficientes para lograr los objetivos de negocio, el analista de negocio debe identificar las capacidades que necesitan ser adicionadas. El analista de negocio desarrollará los modelos, la información descriptiva sobre la visión futura y la descripción sobre el estado futuro de la organización. Dado que los proyectos de data warehousing y BI están sustancialmente basados en los datos disponibles de la organización, antes de iniciar cualquier esfuerzo es necesario realizar un perfil de los datos. Este análisis identifica el contenido, existencia y estructura de los datos y debe de hacerse lo antes posible y si éste demuestra la falta de los datos necesarios para satisfacer la necesidad de negocio, es importante considerar poner el proyecto en espera temporalmente mientras el área de TI resuelve como recolectar la información apropiadamente. Algunos otros ejemplos de capacidades son: • Procesos de negocio. • Características de la aplicación de software. • Tareas que un usuario inal puede desarrollar. • Eventos que la solución debe tener disponible para responder. • Productos que la organización crea. • Servicios que la organización entrega. • Metas que la solución permitirá, a los usuarios y al negocio, alcanzar.

Enfoque de Solución El enfoque de la solución pretende describir el enfoque general que se tomará para crear o adquirir las nuevas capacidades requeridas para satisfacer la iniciativa de negocio. Para determinar el enfoque de la solución, es necesario identificar los enfoques posibles, determinar los medios a través de los cuales la solución podrá ser entregada (incluyendo la metodología y el ciclo

Los elementos que se recomienda considerar al trabajar en el enfoque de la solución pueden incluir: alternativas, supuestos, limitaciones, clasificación y selección de enfoques. Estos últimos pueden ser viabilidad operacional, económica, técnica, de tiempo, organizacional, cultural, legal y de marketing.

Caso de Negocio El caso de negocio describe la justificación del proyecto en términos del valor añadido al negocio como resultado de la implementación de la solución de BI. El caso de negocio debe incluir también beneficios cualitativos y cuantitativos, estimados de costo y tiempo para alcanzar el punto de equilibrio, expectativas de ganancias y seguimiento de oportunidades. También debe presentar las expectativas de la consecuencia del flujo de efectivo sobre la acción del tiempo, junto con los métodos y razonamiento que fueron usados para cuantificar costos y beneficios.

Conclusión El valor que aportan las prácticas de Business Analysis a la ejecución de proyectos es principalmente asegurar que los esfuerzos de una iniciativa están dirigidos a satisfacer necesidades reales de la organización y la medición de los resultados reales de las implementaciones. Cuando se realizan proyectos de Data Warehouseing o Business Intelligence, los esfuerzos suelen ser muy importantes y el desgaste de la organización al implementarlos es considerable. El identificar puntualmente los beneficios que estas soluciones darán a la organización y si la organización está en condiciones para soportar estos esfuerzos redundará en beneficios importantes a la organización al prevenirles incursionar en costosos proyectos que al no estar correctamente dimensionados se conviertan en proyectos problema con la consecuente pérdida de tiempo y dinero.

BIO: Gabriel Almeida, CBAP, es Director de Servicios Educativos y Profesionales en Sean México. Fue fundador y primer presidente del capítulo México del International Institute of Business Analysis (IIBA), donde actualmente es VP de Desarrollo Profesional. Estudió Licenciatura en Informática en UPIICSA y tiene 35 años de experiencia en la industria de TI. galmeida@seanmexico.com

Software Guru

Los resultados deseados deben de atender un problema u oportunidad y apoyar los objetivos y metas del negocio. Como todo proyecto, es mejor demostrar beneficios tangibles tales como el de eliminar costos por la producción de reportes regulatorios, la reducción de tiempo de acceso de los empleados de la organización a los datos corporativos, etcétera.

de vida a ser usado) y evaluar si la organización es capaz de implementar y usar eficazmente una solución de esa naturaleza. Cuando se planean los requerimientos para datos de negocio y business intelligence, siempre es recomendable considerar escenarios específicos que aplican a la organización y entonces seleccionar las características de BI que mejor se ajusten a ese escenario. Los pasos esenciales de BI que hay que tomar en cuenta cuando se está analizando el enfoque son: • Cuáles son las fuentes de datos de negocio para recolectar los datos requeridos. • Cómo convertir los datos de negocio en información y presentarla de forma apropiada. • Cómo consultar y analizar los datos. • Qué acciones se tomarán sobre los datos recolectados y quienes las realizarán.

www.sg.com.mx |

• Mejorar la seguridad. • Reducir el tiempo para entregar un producto o servicio. • Fortalecer y promover el acceso a los datos en toda la organización.


.COLUMNA COLUMNA INVITADA

Mi Big Data Personal ›› “LA PRÓXIMA FRONTERA ES APRENDER

C

uando fui invitado a escribir este artículo para SG me dediqué a explorar temas, conceptos, reseñas, white papers, podcasts, hasta fotocopias que tenía de cuando estudié la maestría, todo eso con el fin de darme una idea de qué escribir. Estaba inmerso en una gran cantidad de información, de cifras y datos, confieso que me estaba comenzando a sentir abrumado y hasta angustiado. Fue cuando me dí cuenta de que lo que me estaba pasando era lo mismo que le pasa a muchas empresas al lidiar con el big data… así es, estaba ahogándome en mi big data personal. El big data es el resultado de que casi todo está monitoreado y medido hoy en día; la velocidad a la cual se crean nuevos datos es más rápida que el avance en la creación de tecnologías disponibles para su almacenamiento, procesamiento o administración. Adicionalmente, la mayor parte de los datos que recibimos no están estructurados, comúnmente recibimos “archivos” en lugar de un objeto relacional Se podría decir que cerca del 80% de los nuevos datos que tenemos son datos no estructurados, simplemente son datos.

Reto de grandes y pequeños Todas las organizaciones, sin importar su tamaño, están luchando para manejar grandes volúmenes de datos. De acuerdo con IDC, en el año 2007 la cantidad de información creada, capturada o replicada superó por primera vez la infraestructura para su almacenamiento. Y la brecha continúa creciendo, el tamaño del universo digital este año va a ser diez veces más de lo que era apenas hace cinco años. • De acuerdo con Forrester Research: • La organización promedio aumentará el tamaño de sus datos en un 50% en el próximo año. • En general, los datos corporativos crecerán en un asombroso 94%. • Las bases de datos crecerán un 97%. • La inversión en servidores de respaldo, para copias de seguridad y para la recuperación de desastres y Rubén García continuidad de operaciones se ampliará en un 89%. Díaz (@SoliGeek) es Consultor en Triada Estrategia. Cuenta con Maestría en Tecnologías de la Información y la Comunicación por Infotec/Universidad de Dallas. Se especializa en la implementación de procesos que permiten la correcta alineación de las TIC con los objetivos organizacionales.

Muchas organizaciones creen que pueden manejar los grandes volúmenes de datos aumentando su infraestructura de almacenamiento. Suelen comprar más capacidad de almacenamiento cada 6 o 12 meses, lo cual no solamente se traduce en costos exorbitantes, sino que también agota a su personal, el cual se ocupa en gestionar datos en lugar de diseñar iniciativas estratégicas de TI. El no contar con una solución real 30

A MANEJAR GRANDES VOLÚMENES DE DATOS DURANTE TODO SU CICLO DE VIDA.”

para la gestión de grandes volúmenes de datos hace ineficiente a cualquier organización. Más allá de arquitecturas adecuadas para almacenar grandes cantidades de datos y con una mejorada capacidad de procesamiento. La próxima frontera es aprender a manejar grandes volúmenes de datos durante todo su ciclo de vida. Algo más de lo que debemos estar conscientes es que sin una buena administración de información, es muy probable que una gran parte de nuestro big data terminen siendo datos duplicados o redundantes. Pensemos tan solo en el caso de nuestra empresa, ¿qué tantos datos duplicados almacenamos? Deduplicar los datos y gestionar copias únicas no es una tarea trivial.

Comenzar desde el recurso humano Considero que más allá de infraestructura, costos, procesos, consultorías, gestores de negocio etcétera, debemos regresar a lo esencial —a final de cuentas las cosas más sencillas siempre han funcionado. El problema del big data no se va a resolver a nivel macro, es más viable ver la solución desde el punto de vista del recurso más valioso: el recurso humano. Son muchas las empresas que quieren sacar ventajas de los beneficios que el big data puede proporcionarles, pero no pueden extraer el máximo provecho a éste por la falta del personal adecuadamente preparado y capacitado. La complejidad de las tecnologías para el big data requieren ciertas capacidades avanzadas que no están presentes en la mayoría de los profesionales de TI. Susan Feldman, vicepresidente de investigación en IDC recientemente comentó en un evento de la industria sobre big data, que “no hay mucha gente que esté realmente bien formada en estas nuevas tecnologías (como Hadoop, por ejemplo). ¿Cómo van a contratar las empresas personal si éste ni tan siquiera existe?”. Soy de la misma opinión: las empresas, tanto clientes como proveedores, deben invertir en la formación de capital humano con las habilidades necesarias para aprovechar y gestionar adecuadamente el big data.

››Por Rubén García Díaz


“UNA HISTORIA DE ÉXITO EN COLABORACIÓN” “SG Y D4P LOGRAN UNA HISTORIA DE ÉXITO EN DETECCIÓN DE TALENTOS”

NECESIDAD DE CREAR SU ESCAPARATE PARA DESARROLLO DE TALENTOS, AHORA

“SG TALENTO”

“ME SIENTO COMPLACIDO DE CONOCER UNA EMPRESA FORMADA POR GENTE CAPAZ, QUE BRINDA DESDE UN INICIO UNA GRATA IMPRESIÓN Y ESTÁ DESARROLLANDO TECNOLOGÍA DE

“Logramos un gran producto, encontramos una empresa profesional que no sólo cuenta con capacidad técnica sino de entendimiento de negocio, por tal motivo cuentan con un producto de alta calidad como es D4P ” -Pedro Galván, Director SG Así nace SG Talento, un escaparate que brinda la oportunidad de compartir logros y habilidades de profesionales en áreas de TI con más de dos mil candidatos registrados durante las primeras tres semanas de operación.

CLASE MUNDIAL”

-PEDRO GALVÁN, DIRECTOR SG

Acerca de D4P Herramienta de productividad empresarial, colaboración, gestión de proyectos y capital humano. Su objetivo principal es impulsar el valor de las empresas partiendo del desarrollo en sus áreas estratégicas, ayudando así a que respondan con gran agilidad a las necesidades actuales. www.d4p.mx

31

Software Guru

LOGRÓ RESOLVER LA

edro Galván, Director de Software Gurú nos compartió su reciente historia de éxito en la implementación de SG Talento. SG pensó en una iniciativa de captación de talentos, utilizando tecnología a través de la cuál se compartieran currículums en línea como servicio a sus lectores, en su mayoría profesionales para las áreas de TI. El espíritu de dicha iniciativa no contemplaba la implementación de un software cualquiera, como lo mencionó Pedro Galván “queremos ofrecer una gran herramienta, estamos sujetos a estándares más altos ya que somos la revista para profesionales de la industria”. Además de considerar la calidad como métrica principal, la rápida adaptación y precio accesible eran factores anexos determinantes. Inicialmente SG desarrolló un prototipo con la idea de dimensionar los alcances necesarios, y evaluar la factibilidad de construir una herramienta propia con la calidad esperada. Tras dicho proceso, concluyeron que un desarrollo a la medida con los estándares que requerían, involucraba un precio demasiado alto. Después de una amplia investigación de diversas herramientas en el mercado, conocieron D4P, una plataforma de productividad empresarial que cuenta con aplicaciones orientadas al impulso y desempeño en áreas estratégicas de negocio, siendo una de ellas el desarrollo de talento humano. D4P resultó ser la mejor opción, principalmente por la calidad que buscaban. Lograron adaptar un sistema estable, robusto, de alto desempeño y en sólo cuestión de semanas por ser una aplicación altamente personalizable. El equipo D4P logró traducir la visión de negocio de SG en la solución que esperaban, aportando un valor adicional dentro de las empresas del ramo.

www.sg.com.mx |

GRACIAS A D4P, SG

P


.COLUMNA COLUMNA INVITADA

Mobile

Una herramienta para el futuro

L

os dispositivos móviles han revolucionado muchos aspectos de nuestra vida: cambiando la forma en que nos comunicamos, nos divertirnos o compramos, e incluso en la manera de hacer negocios. Su crecimiento e integración en diferentes segmentos ha sucedido en forma explosiva, pues solo para darnos una idea, según cifras de la Unión Internacional de Telecomunicaciones (UIT) para fines de este año habrá más de dos mil millones de usuarios de banda ancha móvil a nivel mundial, y de acuerdo a comScore uno de cada tres minutos que pasan los usuarios online, se hace en plataformas móviles. Estamos en una era hermosa, especialmente para los desarrolladores, en la cual tenemos la oportunidad de crear el futuro y ser sus catalizadores. Para ser capaces de hacer esto, debemos estar dispuestos hacer frente a una serie de desafíos, tanto técnicos como mentales. Desde el punto de vista mental, el reto es entender qué está pasando, y despertar la conciencia de la gran cantidad de oportunidades que la revolución móvil está trayendo al mundo, y que debemos aprovechar. Hay que incorporar el concepto de movilidad a nuestra forma de pensar, y sobre ese concepto mirar las actividades que podríamos facilitar o mejorar si las vemos en ese contexto. De allí saldrán las ideas que necesitamos para hacer cosas distintas, y para modelar el futuro. Este cambio de mentalidad hoy es posible gracias a los grandes avances que ha habido en materia tecnológica en los últimos años. Tener una gran cantidad datos, en un dispositivo de almacenamiento muy pequeño, que se puede llevar en el bolsillo, es una realidad hoy que nos permite llevar a cabo ideas que antes parecían muy lejanas, casi de ciencia ficción. El coGastón Milano es rreo electrónico, las redes sociales, los dispositivos CTO internacional en GeneXus. con sensores, YouTube, los servicios de nube; hoy Sus principales áreas de interés hay una gran cantidad de ofertas que generan un son: desarrollo dirigido por volumen increíble de información que puede ser modelos (MDD), consumida y aprovechada por los usuarios en cualarquitectura de software, genequier lugar desde la palma de su mano, a través de ración de código, y evolución de dispositivos móviles. esquemas de base Para el desarrollador de software, este es un de datos. Gastón es Ingeniero en campo muy fértil, lleno de posibilidades. Hoy hay Computación con especialidad en casi dos millones de aplicaciones disponibles para Arquitectura de Software y Model las plataformas móviles iOS y Android, pero el fuDrive Developturo parece ir más allá del uso de smartphones y ment por la Facultad de Ingeniería tabletas, y ya se está delineando la aparición de otros de la Universidad de la República de dispositivos inteligentes que también utilizarán Uruguay. apps a la medida, como Smart TV, relojes y autos inteligentes, etcétera. 32

Este futuro demanda una actitud proactiva y con proyección en el desarrollo de herramientas que se adapten a estos cambios tecnológicos, sin importar la plataforma tecnológica sobre la cual se sustenten, que gocen de alta funcionalidad, aprovechando las características intrínsecas de cada dispositivo al máximo, y que sean amigables para el usuario final. Ante este panorama, las metodologías tradicionales del desarrollo de software también deben evolucionar. La forma tradicional de construir aplicaciones no es suficiente ante una demanda de que crece de manera exponencial. Una respuesta posible es el modelo de programación basado en modelos, orientado a la automatización, que permitiría industrializar la producción de aplicaciones móviles, con software que cree sofware a partir de un modelo establecido por un desarrollador. Adicionalmente, hay que señalar que la movilidad como forma de catalizar toda la información existente no se limita únicamente al ámbito del entretenimiento y los usuarios finales, sino que debería ser punto de avance también para entornos como el corporativo y de gobierno. Campos como el de la medicina, la educación o el medio ambiente, por mencionar solo algunos, pueden aprovechar el gran potencial de la movilidad. Por ejemplo, se podría mejorar la atención a clientes, el seguimiento de tratamientos o realizar diagnósticos de emergencia en la industria de la salud; mejorar la forma de aprendizaje y las evaluaciones, así como los materiales de consulta, en la educación (donde además hay esfuerzos muy interesantes que combinan juegos con aprendizaje); o contar con herramientas para medir mejor las características ambientales de un lugar determinado, con el fin de hacer mejores diagnósticos y medir resultados de campañas ambientales, entre otros. En el caso de gobierno, generalmente este sector se mueve con más cautela; sin embargo, los beneficios que se puede brindar a los ciudadanos por medio de servicios móviles son inmensos, por lo que creo que la movilidad debe tener alta prioridad en la agenda digital de cualquier país. Así pues, las posibilidades son inmensas. El futuro en la tecnología está orientado a las personas, y a las aplicaciones que ellas usarán, sin importar dónde las usen. Y eso convierte a los desarrolladores ya no en los expertos en soporte técnico, o en los cerebros que crean software, sino en unos verdaderos forjadores del futuro en la industria de TI.

››Por Gastón Milano


.PUBLIRREPORTAJE

ANALISIS DE DATOS NO ESTRUCTURADOS EN TIEMPO REAL

U

• Extracción: Con una pequeña clase de java

consumimos el feed de Twitter disponible en https://twitter.com/search/realtime. Traemos los campos disponibles con una entrada JSON. • Transformación: Filtramos todos aquellos tuits que contengan ironman ó iron man. Creamos y damos formato a los campos. Filtramos aquellos tuits que contengan palabras “positivas” (p.e. excelente, buenísima) y asignamos calificación positiva. Hacemos lo mismo pero con una lista de palabras “negativas” (p.e. decepción, mala, malísima) asignando calificación negativa. • Carga – Destino: Insertamos en una tabla el registro del tuit con la calificación identificada. • Reportes: Graficamos tomando como fuente la tabla que se esta actualizando en tiempo real y creamos un pequeño cubo que nos permita hacer el análisis por tiempo / calificación. Algo importante a resaltar durante la ejecución de esta transformación es la facilidad que tuvimos de “personalizar” nuestra calificación, analizando los datos que nos arrojaba en tiempo real nuestras gráficas pudimos agregar más palabras que nos dieran un sentido más atinado a lo se estaba escribiendo en el momento (Ver figura 1). La película se estrenó para todo público el viernes 26 de abril y la solución se dejó corriendo de las 7 pm a las 11 pm del sábado 27 de abril. Los resultados fueron los siguientes: 33

- 3,056 tuits con la palabra Iron Man (seguramente perdimos muchos tuits porque el ancho de banda de la conexión a internet tiene claramente menor capacidad de la velocidad a la que se generan los tuits - 14% con las palabras seleccionadas (positivas y negativas) – equivalente a 419 tuits, de los cuales aproximadamente 80% contenían las palabras positivas y aproximadamente 20% las palabras negativas. Con estos números, si yo fuera el exhibidor, tengo claro que la película gustó y mucho. Si bien muchos tuits se quedan fuera – sin calificación positiva o negativa – así es generalmente una conversación, se busca un aspecto específico y no toda la conversación es útil. Esa es la regla de negocio que se busca simular en la transformación. Esta aplicación, si bien se basa en conteos e interpretación simple del diálogo en Twitter, al hacerlo en tiempo real le puede ayudar a muchas empresas a visualizar que está pasando con una interpretación certera y una inmediatez total. Se puede aplicar en ejemplos de educación en línea para interpretar correctamente los diálogos que se dan en el chat entre profesor-alumno, se puede aplicar en entender con que palabras se relaciona tu marca, etc. Landy Reyes VinkOS Landy.reyes@vinkos.com

Software Guru

Figura 1. Transformación

www.sg.com.mx |

n elemento crítico del Big Data es cómo hacer sentido del análisis de datos no estructurados, principalmente de redes sociales, aunque también de logs (que usualmente es dato semi-estructurado), chats privados, blogs, etc. Al día de hoy, es posible hacer sentido de las conversaciones y visualizar resultados en tiempo real con un desarrollo simple, y flexible. El reto está en resolver de manera eficiente la cadena de actividades a desarrollar: la extracción, transformación, modelaje y presentación de los datos. Adicionalmente, se agregan las problemáticas de cómo hacer sentido del dato no estructurado – reglas a aplicar - y cómo consumir, procesar y presentar en tiempo real. Enfoquémonos para este ejemplo en Twitter, herramienta que, a nuestro parecer, más que ninguna otra ha cambiado profundamente las reglas de compartir información. Una de las características importantes de Twitter, es la vertiginosa inmediatez con la cual se generan opiniones o trend topics, por tanto, el elemento del análisis en tiempo real es crítico. Nos dimos a la tarea de conectarnos el Web Service que Twitter proporciona para tener acceso al “feed” completo y en tiempo real. La ventaja es que se tiene acceso inmediato a todos los tuits sin costo, la desventaja es que se pierde riqueza de información en comparación si la conexión se hace al API de Twitter. Cuando las empresas generan tuits o retuits con un volumen bajo es muy fácil manualmente analizar comentarios y conversaciones, el problema es cuando la información empieza a llegar en miles de tuits. Por eso buscamos un evento coyuntural para ejemplificar correctamente lo fácil que puede ser llevar a cabo aplicaciones sencillas para hacer sentido del dato no estructurado y visualizarlo en tiempo real. El estreno en México de Iron Man nos pareció excelente ejemplo y la pregunta de negocio a contestar fue “gustó o no gustó la película”. En pocas horas, con la Suite Pentaho Business Analytics se diseñó una solución que se dividió en 4 partes:


igura 2. Munin: Visualización de uso de memoria.

.PRÁCTICAS PROGRAMACIÓN

Visualización de Datos con D3.js ››Por Hector Cuesta-Arvizu

U

no de los pasos más importantes cuando se realiza un análisis de datos es la exploración. En esta fase se detectan errores, se verifican los supuestos y se seleccionan modelos predictivos adecuados dependiendo de los datos. Este proceso de análisis exploratorio de datos se puede realizar con métodos estadísticos o con visualización. Existen varias herramientas que facilitan la visualización de datos. Mientras algunas son provistas por lenguajes de programación como Python o R, otras son de uso general y orientado al web como Flot, Raphael.js o D3.js. D3 (Data-Driven Documents) [1] es una librería JavaScript para presentar y manipular visualmente documentos basados en datos. Con D3 podemos crear desde gráficas sencillas como barras e histogramas, hasta visualizaciones complejas e interactivas. D3 utiliza las tecnologías estándar como HTML, SVG y CSS, por lo que funciona en cualquier navegador web moderno. En este artículo mostraré cómo hacer tus primeras visualizaciones con D3. El código usado para este tutorial está disponible en https://github.com/hmcuesta/SG40 por si quieres descargarlo y probarlo.

Definimos la variable svg que contendrá nuestra visualización. var svg = d3.select(“body”).append(“svg”) .attr(“width”, width + margin.left + margin.right) .attr(“height”, height + margin.top + margin.bottom) .append(“g”) .attr(“transform”, “translate(“ + margin.left + “,” + margin.top + “)”);

Ahora cargamos los datos de nuestro archivo tombola.tsv y mapeamos las columnas a atributos de nuestros objetos. d3.tsv(“tombola.tsv”, function(error, data) { data.forEach( function(d) { d.cantidad = +d.cantidad; }); x.domain(data.map( function(d) { return d.color; })); y.domain([0, d3.max(data, function(d) { return d.cantidad; })]);

Nótese que en el caso del eje y, indicamos que el eje comienza en el valor 0 y llega hasta el valor más alto de la columna cantidad. Para obtener dicho valor utilizamos la función d3.max().Ahora utilizamos la función svg.append() para agregar algunos elementos como las etiquetas de los ejes. svg.append(“g”) .attr(“class”, “x axis”) .attr(“transform”, “translate(0,” + height + “)”) .call(xAxis); svg.append(“g”) .attr(“class”, “y axis”) .call(yAxis) .append(“text”) .attr(“transform”, “rotate(-90)”) .attr(“y”, 6) .attr(“dy”, “.7em”) .style(“text-anchor”, “end”) .text(“Cantidad”);

Gráica de barras Nuestra primera visualización será una gráfica de barras que muestre la cantidad de pelotas de colores en una tómbola. Los datos los obtendremos de un archivo separado por tabuladores tombola.tsv que contiene los siguientes valores: Color Cantidad Rojo 2 Azul 1 Verde 4 Amarillo 3

Creamos el archivo Bar-Chart.html y comenzamos a editarlo. En el cuerpo del archivo HTML incluimos la librería de D3.

Para configurar los distintos elementos de la visualización (en este caso, las barras) podemos utilizar el patrón de selección: selectAll + data + enter + append.

<script src=”http://d3js.org/d3.v3.min.js”></script>

Definimos el script que tendrá todo el código de nuestro ejemplo. Comenzamos configurando el área de trabajo (márgenes y tamaño) y los ejes horizontales y verticales.

svg.selectAll(“.bar”) .data(data) .enter().append(“rect”) .attr(“class”, “bar”) .attr(“x”, function(d) { return x(d.color); }) .attr(“width”, x.rangeBand()) .attr(“y”, function(d) { return y(d.cantidad); }) .attr(“height”, function(d) { return height - y(d.cantidad); }); });

<script> var margin = {top: 20, right: 40, bottom: 20, left: 40}, width = 700 - margin.left - margin.right, height = 350 - margin.top - margin.bottom; var x = d3.scale.ordinal().rangeRoundBands([0, width], .1); var y = d3.scale.linear().range([height, 0]); var xAxis = d3.svg.axis().scale(x).orient(“bottom”); var yAxis = d3.svg.axis().scale(y).orient(“left”);

</script>

34


.PRÁCTICAS

PROGRAMACIÓN

“CON D3 PODEMOS CREAR DESDE GRÁFICAS SENCILLAS COMO BARRAS E HISTOGRAMAS, HASTA VISUALIZACIONES COMPLEJAS E INTERACTIVAS.”

<style> body { font: 16px sans-serif; } .bar { fill: #00a0e0; } </style>

La figura 1 muestra la gráfica que generamos.

Agregamos al gráfico los puntos del arreglo datos, indicando un radio de 20px. svg.selectAll(“circle”) .data(datos) .enter() .append(“circle”) .attr(“cx”, function(d) { return d[0]; }) .attr(“cy”, function(d) { return d[1]; }) .attr(“r”, function(d) { return 20; }) .attr(“fill”, “#e02000”);

Agregamos las etiquetas con los valores para cada punto y establecemos el estilo de la tipografía.

Figura 1. Visualización de gráfica de barras.

Ejemplo con dos dimensiones En el siguiente ejemplo trabajaremos con dos dimensiones en grupo de pares de coordenadas. Utilizaremos un arreglo bidimensional como el siguiente:

svg.selectAll(“text”) .data(datos) .enter() .append(“text”) .text( function(d) { return d[0] + “,” + d[1]; }) .attr(“x”, function(d) { return d[0]; }) .attr(“y”, function(d) { return d[1]; }) .attr(“font-family”, “sans-serif ”) .attr(“font-size”, “14px”) .attr(“fill”, “black”);

de datos diversos lo hacen perfecto para bases de datos orientadas a documentos como MongoDB. Si bien la visualización nos ofrece posibilidades de comunicación y abstracción de información, esta no debe de ser sustituto de métodos predictivos o estadísticos de análisis, ya que muchas veces se pueden dar falsas correlaciones cuando el humano usa su percepción. El objetivo de la visualización debe de ser de carácter exploratorio de datos y de comunicación de información ya analizada. La visualización es una forma muy útil de presentar grandes cantidades de información al usuario final.

Software Guru

Podemos agregar algo de CSS para estilizar un poco nuestra gráfica.

La Figura 2 muestra el mapa de coordenadas.

Creamos el área de trabajo con la función d3.select y establecemos el tamaño del área. var svg = d3.select(“body”) .append(“svg”) .attr(“width”, 600) .attr(“height”,400);

www.sg.com.mx |

var datos = [ [50, 160], [20, 20], [70, 320], [540, 380], [200, 200], [640, 80], [300, 50], [350, 260] ]; Figura 2. Visualización de scatter plot.

Referencias [1] N. Yau. Visualize This: The FlowingData Guide to

Conclusión

Design, Visualization, and Statistics. Wiley, 2011. http://

Como podemos apreciar, D3 nos ofrece una forma simple de generar diferentes tipos de visualizaciones. Su uso de orígenes

[2] S. Murray. Interactive Data Visualization for the

swgu.ru/sg40r15

Web. O’Reilly, 2013. http://swgu.ru/sg40r16

.BIO Hector Cuesta-Arvizu (@hmcuesta) provee servicios de consultoría en Ingeniería de Software y Análisis de Datos. Adicionalmente se desempeña como instructor para NYCE en certiicaciones de Desarrollo e Ingeniería de Software. Cuenta con maestría en ciencias de la computación y ha sido Revisor Técnico en los libros “Raspberry Pi Networking Cookbook” y “Hadoop Operations and Cluster Management” para Packt Publishing.

35


.PRÁCTICAS PRUEBAS

Automatización de Pruebas Primeros pasos ›› Por Federico Toledo

M

uchas empresas han visualizado los beneficios de la automatización de pruebas, pero se han encontrado con dificultades para comenzar de una manera eficiente. Esto se debe principalmente a la falta de experiencia y a verse desbordados en su capacidad de ejecución, ya que es necesario continuar con las pruebas rutinarias de siempre, siendo así el testing automatizado un trabajo extra, más que algo que nos ahorrará esfuerzo a mediano y largo plazo. En ese sentido es pertinente lograr que la automatización nos de beneficios en corto plazo, y no tener que esperar al próximo ciclo de pruebas para poder visualizar los beneficios. En este artículo mostraré las estrategias que podemos utilizar para lograr estos objetivos en nuestros proyectos de inicio en la automatización de pruebas.

Comenzando ¿Han jugado juegos de estrategia militar, como Starcraft? En estos juegos se trata de ir formando tropas (con naves de distintos tipos) de acuerdo a los recursos que se van obteniendo. Cada nave tiene un costo (en minerales y tiempo de construcción), y obviamente las naves más poderosas tienen un costo más alto que las pequeñas. Entonces, hasta que no se consiguen muchos recursos, es muy difícil tener una de esas naves gigantes. La estrategia que más me servía al jugar esto era construir pequeñas naves, que a pesar de tener menor poder destructivo me servían para defenderme de los posibles ataques, y así darme tiempo de ir fortaleciendo a mi ejército. Cuando hablamos de automatización de pruebas podemos usar la misma estrategia. Es preferible comenzar con una nave pequeña, que nos de pequeños beneficios pero en forma inmediata, en vez de esperar a tener una gran nave superpoderosa, que tal vez llega tarde, cuando ya no hay tiempo para defenderse de los problemas, o sea, ¡cuando estemos saliendo a producción! De esta forma aplicamos soluciones suficientemente buenas .BIO y no soluciones perfectas, porque estas llegan tarde. Federico Toledo es Ingeniero en Computación por la Universidad Para aclarar la idea, veamos un de la República de Uruguay y sustenta la maestría de Informática sencillo ejemplo. Vamos a diseñar por la Universidad de Castilla-La pruebas para la operación de realizar Mancha en España. Actualmente se encuentra realizando sus el alta de un cliente utilizando una estudios de doctorado enfocados a la especialización en el diseño forma de registro web. Para ello pode pruebas automáticas para sistemas de información y es demos tomar como referencia una socio co-fundador de Abstracta, forma sencilla de alta de clientes, empresa con presencia en México y Uruguay, que se dedica a sertal como la que está disponible en vicios y desarrollo de productos para testing. http://samples.genexus.com/ajaxsample/client.aspx?INS,0

En el caso de prueba simplemente hay que ingresar valores en los distintos campos, confirmar, y luego buscar el elemento creado para verificar que sus valores hayan sido guardados correctamente. Esta es una prueba simple, no estamos intentando “romper el sistema”, simplemente estamos viendo “la línea amarilla”. Mi primera nave de batalla va a ser limitada. Para automatizar la prueba no necesitamos mucho más tiempo que el que lleva ejecutar la funcionalidad a mano. Utilizando cualquier herramienta de pruebas automatizadas podemos “grabar” el caso de prueba a partir de una ejecución manual, de manera que no sea necesario tener que desarrollarla completamente desde cero. Entonces, mientras uno graba la prueba, la herramienta captura todas las acciones ejecutadas sobre el sistema y las convierte en comandos que servirán luego para ejecutar las mismas acciones repetidamente. Luego que tenemos esa prueba lista, la podemos ejecutar cada vez que queramos: tenemos nuestra primera nave funcionando y reportándose.

Data-driven testing Una vez teniendo el script para prueba automatizada, con poco esfuerzo más podemos obtener mucho más beneficio de esta misma nave. En este caso, podemos parametrizar la prueba y hacer que cada valor ingresado en cada campo sea tomado de un data pool (fuente de datos de prueba, tal como una tabla o archivo), y así estar probando distintos escenarios. Nuestros datos de prueba necesitan pueden ser una tabla con las siguientes columnas, que corresponden a los campos de la forma de registro de cliente: First_Name, Last_Name, Country_Name, City_Name, Address, Balance. Entonces tendremos un datapool con estas columnas. Luego podremos pensar distintas combinaciones de valores para probar. Por ejemplo, valores nulos, o valores muy grandes, strings muy largos, balances negativos, etcétera. Así, la misma prueba la puedo ejecutar con todas las combinaciones de datos que se me ocurran con tan solo ingresar los valores en una tabla. Esta ejecución la puedo hacer cada vez que se necesite, obteniendo información sobre el estado de la aplicación en forma casi inmediata. Si esta prueba la tuviera que ejecutar en forma manual con cada dato de prueba interesante, me llevaría más tiempo que ejecutarla automáticamente. O sea, los beneficios de este caso de prueba automatizado se ven directamente en este ciclo de pruebas, y no recién en el siguiente ciclo de pruebas de regresión. Son beneficios a corto plazo, con lo cual, visto de esta forma, es muy conveniente comenzar a automatizar. 36


“… APLICAMOS SOLUCIONES SUFICIENTEMENTE BUENAS Y NO SOLUCIONES PERFECTAS, PORQUE ESTAS LLEGAN TARDE …”

Espero que este ejemplo haya servido para visualizar cómo podemos comenzar nuestros esfuerzos de pruebas automatizadas con algo muy simple que nos da resultados inmediatos, para luego ir mejorándolo para sacarle más jugo. Lo importante es percibir los beneficios desde el principio, para luego hacer crecer el ejército. Esto está basado en nuestra experiencia de trabajo brindando servicios de pruebas funcionales, incluyendo pruebas automatizadas. Lo hemos puesto en práctica en diversos proyectos y siempre obteniendo muy buenos resultados.

Referencias [1] C. Kaner. “Improving the Maintanability of Automated Test Suites”. Quality Week, 1997. http:// swgu.ru/sg40r17 [2] “Data Driven Testing”. Wikipedia. http://swgu. ru/sg40r18

www.sg.com.mx |

Conclusión

Software Guru

De acuerdo a lo que cuenta Cem Kaner en uno de sus artículos [1] automatizar una prueba lleva entre 3 y 10 veces más que ejecutarla en forma manual (este artículo es de 1997, pero es aún vigente, o en tal caso, el costo es menor). Incluso, si en los siguientes ciclos de prueba tenemos cierto costo de mantenimiento de estos casos de prueba, imaginemos que también de 10 veces más que el costo de ejecución manual, también obtendremos beneficios si ejecutamos 11 veces la prueba de regresión. Este enfoque de separar el flujo del caso de prueba de los datos que se utilizan, está basado en la técnica Data-driven testing [2].


.PRÁCTICAS CALIDAD

Midiendo la Calidad del Software ››Por Francisco Valdes Souto

A

nte la necesidad de un consenso acerca de los elementos que definen la calidad del software, ISO desde hace tiempo creo estándares en este sentido. El primero es el ISO 9126, originalmente publicado en 1991 y posteriormente revisado en 2001. Posteriormente desarrolló el estándar ISO/IEC 25010: SQuaRE (Software Product Quality Requirements and Evaluation), que fue publicado en 2011 y viene a ser el reemplazo de ISO 9126. Como ya se explicó en el artículo de la Dra. Hanna Oktaba “SQuaRE: Modelo actualizado de las características de calidad” publicado en SG #29, este modelo evalúa la calidad desde dos perspectivas: la calidad del producto como tal (calidad interna), y la calidad de el uso del software (externa). Cada perspectiva considera diversas características, y a su vez cada característica puede tener una o más subcaracterísticas. Características y subcaracterísticas de calidad interna: • Adecuación funcional: funcionalidad adecuada, funcionalidad correcta, funcionalidad completa. • Coniabilidad: madurez, disponibilidad, tolerancia a fallos, recuperabilidad. • Eiciencia de rendimiento: tiempo de respuesta, utilización de recursos, capacidad. • Operabilidad: reconocimiento de funcionalidad adecuada, facilidad de uso, facilidad de aprendizaje, protección contra errores de usuario, accesibilidad, estética de la interfaz de usuario. • Seguridad: confidencialidad, inte.BIO gridad, no rechazo, responsabilidad, autenticidad. Francisco Valdes Souto (@valdessoutofco) es PhD en Ingeniería de • Compatibilidad: interoperabiliSoftware con especialización en medición y estimación de software por dad, capacidad de coexistencia. la Universidad de Quebéc. Es Certi• Mantenibilidad: modularidad, ied ScrumMaster (CSM), Project Manager Professional (PMP) y el primer reusabilidad, capacidad de ser mexicano certiicado como COSMIC FFP Size Measurer por el Common analizado, capacidad de ser modiSoftware Measurement International Consortium (COSMIC). Es socio de ficado, capacidad de ser verificaSPINGERE, primera empresa en do/probado. ofrecer servicios especializados en dimensionamiento y estimación de • Transmisibilidad/Portabilidad: software desde un enfoque ingenieril en América Latina. instalabilidad, adaptabilidad, reemplazabilidad.

Características y subcaracterísticas de calidad externa: • Satisfacción de uso: utilidad, confianza, placer, comodidad. • Seguridad de uso: mitigación de riesgos económicos, mitigación de riesgos para el usuario, mitigación de riesgos ambientales. • Flexibilidad de uso: cobertura del contexto, flexibilidad. • Efectividad de uso. • Eiciencia de uso. Aunque algunas de estas características se pueden medir de manera objetiva, la mayor parte requieren una evaluación subjetiva. Esto hace que la manera más utilizada, más rápida, menos costosa y quizá la que más refleja la realidad, sea la utilización de la experiencia de los empleados de una organización. Sin embargo, esto no permite realizar comparaciones objetivas y presenta algunos otros problemas como que le pertenece al experto y no a la organización, no se puede replicar sistemáticamente y no contribuye a la madurez de la ingeniería de software. Existe un modelo que puede ser utilizado para la evaluación de este tipo de variables, el modelo EPEI (EPCU por sus siglas en inglés) el cual permite en un entorno de información imperfecta (información vaga o ambigua), pasar de entornos cualitativos a entornos cuantitativos. En otras palabras, es un modelo que nos permite a partir de opiniones (juicio de experto) de una serie de variables subjetivas, determinar un valor cuantitativo suficientemente razonable, generado por la evaluación de reglas de inferencia definidas por expertos. (Valdés, 2012). Caso de estudio para medir la calidad de productos de software Se realizó un estudio para evaluar la calidad de 44 proyectos. Los proyectos considerados fueron realizados en 4 áreas distintas de una organización que trabaja en un esquema de outsourcing (cada una con un proveedor distinto) controlados por líderes de proyecto internos, estos fueron los encargados de evaluar la calidad interna de los proyectos realizados. De los 44 proyectos solamente 24 se pusieron en producción, por esta razón sólo a estos últimos se les evaluó la calidad de uso (externa), los usuarios fueron los encargados de evaluar la calidad de uso de las aplicaciones. 38


.PRÁCTICAS CALIDAD

“PASAR DE ENTORNOS CUALITATIVOS A ENTORNOS CUANTITATIVOS.”

Como se puede observar en este caso de estudio, es posible tener un valor cuantitativo formal y calculado de una misma forma para los distintos proyectos con base en las categorías del estándar para evaluación de la calidad de software SQuaRE, las cuales se manejan como variables de entrada al modelo EPCU. Al tener un valor cuantitativo, formal y consistente con los índices de calidad calculados, es posible hacer comparaciones, sin embargo, es importante considerar que además del índice como valor de la calidad (externa/interna) se presentan los valores que alcanza cada una de las variables o categorías de la calidad, lo que puede ser determinante para definir las estrategias a seguir para mejorarla.

Conclusiones A través del modelo EPCU es posible determinar un valor cuantitativo consistente, de manera formal y que nos permita hacer comparaciones acerca de la calidad de los productos de software de una manera práctica. Este modelo permite evaluar a partir del juicio de experto, mediante mecanismos formales de manejo de información imperfecta y con base en el estándar de calidad ISO/IEC 25000, la calidad de los productos de software tanto desde el punto de vista de su construcción (calidad interna) como desde el punto de vista del usuario (calidad externa). Debido a que el índice de calidad es consecuencia de los distintos valores de las categorías definidas por el estándar, es posible determinar estrategias relevantes y factibles para incrementar el índice de calidad a través de mejorar las categorías de calidad. El poder tener un valor cuantitativo de calidad, sin duda, dará certeza al usuario, sobre todo si el también participa en la evaluación de la calidad externa del producto de software.

Referencias [1] H. Oktaba. “SQuaRE Modelo Actualizado de las Características de Calidad”. SG Software Guru, Agosto-Octubre 2010. http://swgu.ru/sg40r13 [2] F. Valdés Souto. Design of A Fuzzy Logic Estimation Process for Software Pro-

Figura 1. Asignación de valores promedio para calidad interna.

jects. http://swgu.ru/sg40r14

39

Software Guru

Figura 2. Asignación de valores promedio para calidad externa.

www.sg.com.mx |

El procedimiento que se siguió para evaluar la calidad interna/ externa de los productos de software fue solicitar a cada líder de proyecto la asignación de valores para las características definidas en el estándar para la calidad externa/interna en relación a su proyecto, las características fueron consideradas como variables de entrada en el modelo EPEI. La asignación de los valores de las variables de entrada se realizó considerando el juicio de experto de los líderes de cada proyecto, determinándose un valor en un rango definido de 0 a 5 sobre el dominio de los número reales. Por cada área de la organización se obtuvo el promedio de los valores asignados a cada una de las características de calidad considerando todos los proyectos evaluados. Con los datos promedio de las categorías por área se calculó el índice de calidad por proyecto utilizando el modelo EPCU, de tal manera que se obtuvo un índice de calidad promedio que representa la calidad de los proyectos desarrollados en cada área de la organización. Esto se realizó para la evaluación de la calidad externa/interna. Los resultados se muestran en las figuras 1 y 2.


.PRÁCTICAS REQUERIMIENTOS

Juntas de Requerimientos ¿Cómo lograr que realmente sean efectivas? ››Por Manuel Garcia Sanchez

U

no de los peores escenarios que puede ocurrir en un proyecto de software, es cuando el cliente descubre que el producto desarrollado y próximo a entregarse, resulta no cubrir satisfactoriamente los requerimientos del negocio. Esto típicamente se debe a fallas de comunicación al levantar y administrar requerimientos, y es un problema común que no suele atenderse de fondo. Las juntas o reuniones donde se analizan los requerimientos, suelen ser donde más ocurren estas “fallas de comunicación”. El principal indicador de que una reunión fue poco fructífera, suele ser una posterior avalancha de correos en donde se trata caóticamente de cerrar todos los temas que quedaron pendientes en dicha reunión. Esto además de consumir tiempo valioso, provoca riesgos como cuando dichos correos no son recibidos o incluso ignorados por algunos responsables. Además con el paso del tiempo, los acuerdos en esa avalancha de mensajes se volverán contradictorios y surgirán controversias que tendrán que ser resueltas hurgando entre los correos para ver cual es “el bueno” y ver dónde quedaron los acuerdos definitivos. ¿Suena familiar? ¿Son prevenibles este tipo de situaciones? A continuación propongo algunas prácticas, que en la experiencia propia han ayudado a que los requerimientos sean lo más acorde posible con la necesidades del cliente.

cliente y los otros del lado del proveedor, pero esto puede variar dependiendo de la estructura del proyecto y el equipo de trabajo.

Identiicar stakeholders

Hay ocasiones en que el número de stakeholders puede aumentar. Por ejemplo, cuando la operación involucra a varios responsables que actúan de forma aislada, o el proyecto es colaborativo entre varias empresas y proveedores. Es importante ser lo más incluyente posible a la hora de escuchar, a veces la opinión de un usuario o un programador puede ahorrarnos meses de problemas. Una señal de que una reunión de requerimientos ha sido fructífera, es que el analista hace preguntas a todos los stakeholders.

El término “stakeholder” se utiliza para referirse a los actores involucrados o interesados directamente en resolver una necesidad. En un proyecto de TI, se tienen stakeholders tanto del lado del cliente como del proveedor. Por lo general, al contratar un proyecto el cliente ya tiene definido quienes serán los responsables de su lado; sin embargo es importante que nosotros como proveedor identifiquemos claramente los roles que tendrá cada stakeholder. Se puede dar el caso en que el perfil del stakeholder del cliente sea insuficiente para obtener requerimientos .BIO claros, y en tal caso necesitamos el apoyo de otros stakeholders que no Manuel García Sánchez es egresado de ESCOM IPN y apasionado de la se tuvieran previstos. tecnología Java y el open source. Se especializa en sistemas de inforA continuación listo algunos mación geográica en la nube. Acstakeholders clave para cualquier tualmente es líder técnico y analista responsable de nuevos desarrollos proyecto de software. Típicamente en Mapdata. www.mapdata.com.mx los primeros dos son del lado del

• Dueño del requerimiento. También es conocido como “usuario de negocio”, y es quien tiene el panorama de alto nivel del proyecto y conoce su importancia para la empresa. Es la autoridad final que solicita y aprueba el requerimiento. • Experto de operaciones. Es la persona que conoce y trabaja con la necesidad operativa que se pretende resolver, por lo que es el más beneficiado con la resolución del requerimiento. Puede ser el usuario final, o el encargado de trabajar directamente con éstos. • Analista. Es responsable de capturar y administrar los requerimientos. Debe conocer la perspectiva de todos los stakeholders sobre las necesidades que plantean, para así definir los requerimientos que resuelvan dichas necesidades. • Experto técnico. Es el líder técnico del proyecto. Valida la viabilidad técnica de los requerimientos, arquitectura y plataformas tecnológicas que se utilizarán. También es vital para definir las estimaciones de esfuerzo junto con el analista.

Asegurar capacidad y compromiso Los stakeholders se suelen asignar de acuerdo a criterios de confianza de cada una de las partes. Esto es un factor humano y debe tratarse como tal, por lo que debemos considerar escenarios en el que uno o varios de los stakeholders no logren cubrir su rol plenamente. En el caso del cliente suele pasar que la persona asignada no conozca de fondo la necesidad que está solicitando o simplemente muestre una actitud poco cooperativa. En el caso del proveedor puede ocurrir que 40


.PRÁCTICAS

REQUERIMIENTOS

“AL IGUAL QUE UN MAL MÉDICO, UN MAL ANALISTA HACE SOLO LO QUE EL CLIENTE LE PIDE.”

Otra causa común de requerimientos fallidos y consecuentes avalanchas de correos, es que alguno de los stakeholders no haya podido estar presente en la reunión de requerimientos. Entre más se fragmente la reunión, más volátiles serán los requerimientos que surjan de estas. Cualquiera que haya estado en juntas de requerimientos sabe lo difícil que es lograr reunir a todos los stakeholders en una sola sesión. Incluso con la ayuda de interfaces de teleconferencia, quizá no todos puedan estar disponibles en una hora específica. Sin embargo es preferible priorizar el éxito de esta reunión a tener que realizar posteriormente penosas juntas de renegociación en las etapas tardías del proyecto.

Análisis de causa raíz El cliente suele conocer sus necesidades, pero su idea de cómo resolverlas no siempre es la más adecuada; es aquí donde requiere ayuda del analista. A veces el cliente nos proporciona un requerimiento muy específico y parece que solo hay que seguirlo al pie de la letra. Sin embargo, al igual que un mal médico, un mal analista hace solo lo que el cliente le pide. El objetivo del análisis de causa raíz es definir los requerimientos que realmente resolverán las necesidades del cliente. Una técnica efectiva que recomiendo aplicar en el análisis de causa raíz es la de “los 5 por qués”. Básicamente consiste en cuestionar el por qué de algo, de manera iterativa, hasta encontrar una causa raíz. El “5” del nombre se refiere al número de iteraciones que típicamente se requieren para llegar a una causa raíz. Sin embargo, en proyectos de software suelen bastar 2 o 3 “por qués” para dar con el problema. Veamos un ejemplo de esta técnica aplicada a un caso real que me tocó vivir: Cliente: “Necesitamos que el usuario del sistema A pueda generar únicamente cada viernes un informe de la base de datos y dicho informe se guarde en un archivo accesible por FTP.” Analista: “¿Por qué necesitan subir el informe cada viernes?” Cliente: “Porque cada lunes la gente del área X descarga el archivo.”

Cliente: “Para imprimirlo” Analista: “¿Y por qué imprimen el informe?” Cliente: “Porque el área X necesita capturar los datos de ese informe en el sistema B.” Como se puede ver, bastaron 3 “por qués” para darse cuenta de que lo que realmente necesitaba el cliente no era el barroco procedimiento que solicitaba al principio, sino más bien desarrollar una transacción de datos automatizada entre el sistema A y el B. En la misma conversación, el cliente se puede dar cuenta de qué es lo que realmente necesita y los ahorros potenciales de tiempo y dinero para ambas partes se vuelven evidentes.

Mockups Otra técnica que tiene mucho éxito en las juntas de requerimientos es la de presentar Mockups, es decir maquetas de cómo será la interfaz gráfica del usuario basándonos en los casos de uso. La ventaja inmediata es que se cierra la brecha de tecnicismos y se logra establecer un lenguaje común entre todos los stakeholders. En casos en los que la GUI resulte muy compleja, o se pretenda desarrollar un sistema para dispositivos móviles, es recomendable que el equipo cuente con alguien que tenga habilidad en UXD (User Experience Design). Asegurar el entendimiento

Conclusión Finalmente, es bueno reflexionar sobre la cantidad de tiempo que tanto el cliente como el proveedor de TI están dispuestos a invertir en el análisis de requerimientos. Es frecuente encontrarse con stakeholders que tienen la sensación de que el análisis es improductivo y quita tiempo valioso al desarrollo. A veces nos lleva tiempo aprender por las malas las consecuencias de un análisis escueto y apresurado. Aquel tiempo que inicialmente creíamos haber ganado apresurando el análisis, se revierte por triplicado en demoras por requerimientos indefinidos o mal comunicados. Incluso, en organizaciones de baja madurez se asume que este tipo de situaciones son normales. Dedicar el tiempo necesario al análisis de requerimientos siempre nos ahorrara muchas horas de codificación y permitirá ofrecer soluciones más satisfactorias al cliente. 41

Software Guru

Reunir a todos

Analista: “¿Y por qué el área X tiene que descargar el archivo.”

www.sg.com.mx |

el analista o el experto técnico no estén suficientemente capacitados para ejercer su rol. En cada caso, se debe considerar dentro de las acciones permisibles el reemplazo del stakeholder y de no ser posible esto, tratar que otro de los stakeholders asuma nuevas responsabilidades o apoye al stakeholder que tenga dificultades para ejercer su rol.


.COLUMNA TECNO-LÓGICO

El

Futuro de las Apps es HTML 5 N

egar que la revolución del cómputo móvil ya comenzó es una necedad: ya en 2012 la mitad del tráfico web de los 100 sitios más visitados venía desde dispositivos móviles como teléfonos celulares y tabletas; para inicios de 2013 ese número había aumentado al 68%, lo que por un lado indica el enorme crecimiento del ecosistema de dispositivos móviles a costillas de los equipos de escritorio, y por otro las nuevas dinámicas en uso de estos dispositivos que están siempre conectados y siempre con su usuario. Para los profesionistas de TI este auge viene con un costo: un ecosistema diverso con silos cerrados de tecnologías propietarias, que no son necesariamente interoperables, y ciclos de actualización y cambio más cortos, que aumentan tanto el costo como el esfuerzo para llegar a la mayor cantidad posible de usuarios, mientras que para hacer liberaciones de software hay menos tiempo y más intermediarios. La alternativa más viable a esta fragmentación de mercado es HTML5 y las web apps.

El problema de las app stores

Mauricio Angulo (@mauricioangulo) es programador desde 1989 divulgador, ávido escritor y emprendedor. Actualmente es CEO y fundador de Tesseract Space donde realiza funciones de asesor y consultor de innovación tecnológica, mercadotecnia digital y experiencia de usuario.

Antes del iPhone, la entrega de aplicaciones móviles era muy compleja: las personas se “pasaban” apps por medio del puerto infrarrojo de sus dispositivos, o las descargaban desde sitios web de dudosa reputación con riesgo de exponer sus datos personales y el acceso a su información de pago. Con el iPhone, también llegó la Apple App Store, un servicio de compra y descarga gestionado por Apple en el cual un programador o empresa podía dar a conocer sus apps, distribuirlas e incluso venderlas sin necesidad de montar toda la infraestructura de pago por su cuenta. El Apple App Store vino a darle al usuario un punto único de descarga de aplicaciones, con la confianza —hasta cierto punto— de que como las apps que obtiene de ahí son evaluadas y sancionadas por Apple, vienen de fuentes confiables y están libres de malware y virus. Pronto otras compañías como Nokia, BlackBerry, Palm, Microsoft y Google comenzaron a implementar el mismo modelo con algunos cambios menores. El problema de las app stores se volvió pronto evidente para los desarrolladores y empresas con soluciones para móviles: la publicación de la app ya no depende del

desarrollador sino de los dueños de la tienda, que pueden tardar hasta ocho semanas en cada revisión —depende del volumen de apps que se estén publicado en un momento. Esto agrega incertidumbre al final del proceso para salir a mercado y aumenta el tiempo para corrección de errores o futuras actualizaciones. Otro riesgo para los desarrolladores es que para publicar en una App Store puede que se requiera utilizar las herramientas propietarias de la empresa detrás de la tienda; de no hacerlo, corremos el riesgo de que la app sea rechazada. Algo como esto sucedió en 2010 cuando Apple comenzó a rechazar apps creadas con Adobe Flash. Por otro lado, al construir aplicaciones nativas, si queremos llegar al mayor número posible de usuarios tenemos que construir una edición de la aplicación para cada plataforma (ej. iOS, Android, BlackBerry, Windows Phone). Esto es similar a lo que ocurría en los días de la web cuando era necesario hacer distintas versiones del mismo sitio, una para cada navegador web, en perjuicio de quien paga el desarrollo o en detrimento de una experiencia consistente, en la cual el usuario era obligado a instalar un navegador diferente para acceder a un sitio. Para las compañías que desarrollan y mantienen plataformas móviles, el motivo de este modelo es claro: encerrar a los desarrolladores en un ecosistema propietario donde el código que escriben no es compatible con ninguna otra plataforma al tiempo que, al especializarse, los desarrolladores quedan cada vez más inmersos en ella y es menos probable que se muevan a una plataforma distinta.

Estándares e interoperabilidad Existen en el mercado varias plataformas, frameworks y herramientas que permiten el desarrollo de apps desde una base de código común hacia varias plataformas como: Titanium Appcelerator, PhoneGap, Xamarin o GeneXus, por mencionar algunos; no obstante, esto no resuelve el problema de que se sigue dependiendo de las app stores para llegar a los usuarios. Adicionalmente, cada plataforma tiene sus propias guías de diseño visual que son incompatibles con las demás. 42


.COLUMNA

TECNO-LÓGICO

››“LA ALTERNATIVA MÁS VIABLE A ESTA FRAGMENTACIÓN DE MERCAHTML5 Y LAS WEB APPS.”

cómputo móvil que, paradójicamente, se está moviendo justo en la dirección contraria.

Presente vs Futuro Las aplicaciones web —o web apps— ya están disponibles para la mayoría de las plataformas de smartphones, pero la experiencia para el usuario todavía es deficiente por razones que van desde problemas de desempeño, falta de acceso a los sensores y sistemas de almacenamiento, hasta falta de una estandarización completa ya que los fabricantes de navegadores móviles están repitiendo la historia del escritorio al incluir características propietarias y omitir capacidades de la competencia con el objetivo de cerrar el mercado hacia su propuesta. HTML5 es la gran promesa en este sentido y ya hay propuestas fuertes al respecto en el mundo móvil: Blackberry, por medio de la plataforma Webworks, soporta apps escritas en HTML; los dispositivos Nokia Asha soportan apps y widgets hechos con HTML; Ubuntu Phone también soporta aplicaciones en HTML5; y Firefox OS se va al extremo, ya que todas sus apps son HTML5, y el navegador web se convierte en un runtime más que un visor de contenido. En un mundo donde cada sitio web móvil es una app que pudiera descargarse para correr en modo desconectado o semi-desconectado, las tiendas de aplicaciones no serían necesarias y los usuarios podrían descubrir nuevas apps utilizando buscadores, de la misma manera que hoy descubren sitios web. De cumplirse este escenario podríamos llegar a prácticamente todos los dispositivos móviles sin mantener múltiples equipos y bases de código, estandarizar la experiencia de usuario a la metáfora web que la mayoría de las personas ya conocen y reorientar las app stores a servicios de aseguramiento de calidad y funcionalidades de “pago por uso” como las que ya hay dentro de las apps para hacer compras, insertar publicidad y otros.

Conclusión El futuro de las apps móviles está en HTML5 por varias razones: es un formato abierto, estándar, que cuenta con miles de diseñadores y desarrolladores capacitados y al que se puede acceder prácticamente desde cualquier dispositivo. La propuesta es muy prometedora, pero aún hay obstáculos por superar para llegar a concretarla, especialmente la inercia que existe en este segmento tecnológico y en cada uno de sus participantes: la industria, los desarrolladores e incluso los usuarios.

>> Por Mauricio Angulo 43

Software Guru

El ecosistema de cómputo móvil ha pasado por las mismas etapas que otras tecnologías enfocadas a usuarios finales, incluyendo aquella en la que una o varias compañías dominantes —o con recursos— intentan eliminar a la competencia usando la táctica conocida como “Adoptar, Extender y Extinguir” que básicamente consiste en encaminar a los usuarios a usar tecnologías no estándares controladas por un solo proveedor. Esta táctica se utiliza cuando hay un vacío en la definición de formatos completos y se implementa por medio de la participación de mercado de un producto exitoso para forzar un estándar de facto. Lamentablemente, tiene consecuencias nefastas para el mercado y el consumidor, ya que limita de forma artificial la creatividad y la competencia. Cuando un ecosistema se estabiliza, es normal que la industria gravite hacia estándares que facilitan las buenas prácticas y permiten desarrollar proyectos de software a mediano o largo plazo con la certeza de que la plataforma no depende únicamente de una empresa. En el mundo de las PCs de escritorio, aunque hay lenguajes muy sofisticados para cada plataforma como .NET o Cocoa, no es sorpresa que muchos programas sean escritos en lenguajes “viejos” como C++, Java o QT, y el motivo es el mismo: evitar el “retrabajo” y mantener múltiples bases de código para servir a la mayor cantidad de usuarios. El desarrollo de aplicaciones para escritorio dio un giro con el surgimiento de las aplicaciones basadas en web y de los proveedores de software como servicio, ya que no solo evita el trabajo de actualización y mantenimiento en cada PC, sino que cambian los modelos de compra de licencias a otros de suscripción, que son más accesibles para empresas y personas. Para los creadores de estos servicios, la perspectiva de poder servir a usuarios de manera instantánea en cualquier parte del mundo, sin intermediarios, es tan atractiva como la posibilidad de trabajar con estándares web como HTML, CSS y ECMAScript, al mismo tiempo que pueden tomar decisiones sobre cuál tecnología utilizar en su infraestructura sin afectar a los usuarios. Actualmente, el 80% del tiempo que un usuario pasa en una PC, lo pasa usando su navegador web, y ya es normal que usuarios finales utilicen aplicaciones complejas directo en el navegador, como Google Apps u Office 365. La presencia de un estándar claro y abierto, desde sus protocolos de comunicación hasta el lenguaje de desarrollo, es lo que ha permitido a la web crecer de la manera que lo ha hecho en los últimos 20 años para convertirse en en uno de los cambios tecnológicos que más rápidamente ha adoptado la humanidad, acaso solo detrás del

www.sg.com.mx |

DO ES


.COLUMNA PROGRAMAR ES UN ESTILO DE VIDA

Tan Humano como la Visualización, tan Divino como la Memoria

E

l tema de la visualización de datos es muy amplio— demasiado, tal vez. Para tener claro qué ángulo podemos darle, pues, vamos a buscar una definición que se ajuste al ámbito en que nuestra revista pretende incidir.

¿Qué es la visualización? Las definiciones para este tema que podemos encontrar en la red dan a entender una cierta desesperanza por parte de sus autores por aterrizar un concepto tan amplio, tan carente de límites. Por ejemplo, de la Wikipedia: “Visualización es la generación de una imagen mental o una imagen real de algo abstracto o invisible.” Me quedo con la impresión de que la definición presentada merece cierta visualización —para pasar de algo abstracto a una imagen mental o real. Cuando vamos restringiendo el ámbito de ese “algo” abstracto, la definición comienza a tener sentido. Por ejemplo, también de Wikipedia, el inicio de la definición de “visualización científica” dice: “La visualización científica es la transformación de datos científicos y abstractos en imágenes.” Pero seguimos en lo mismo, ya que siguiendo esta lógica podríamos factorizar el término “científico”, y volvemos al punto de partida. Podríamos decir que la visualización hierática es “la transformación de datos hieráticos y abstractos en imágenes”, y no por eso hemos de comprender mejor el sistema de escritura empleado en el antiguo Egipto, ¿o sí? Puede ser que no vayamos por el camino correcto. Va de nuevo: ¿Y si olvidamos que esta es una revista sobre desarrollo de software? Podríamos entonces dedicarnos a discurrir por las interminables infografías que podemos encontrar en sitios como Medialab Prado (http://visualizar.org), http://visualizar.info, http://DataVis.ca y tantos más. A fin de cuentas (cito de Medialab Prado):

Gunnar Wolf es administrador de sistemas para el Instituto de Investigaciones Económicas de la UNAM y desarrollador del proyecto Debian GNU/Linux. http://gwolf.org

“La visualización de datos es una disciplina transversal que utiliza el inmenso poder de comunicación de las imágenes para explicar de manera comprensible las relaciones de significado, causa y dependencia que se pueden encontrar entre las grandes masas abstractas de información que generan los procesos científicos y sociales.”

El desarrollo histórico Y sí, casi cualquier representación que podamos hacer de un proceso, o de un hecho en el tiempo, puede tomarse como una forma de visualización. Podríamos incluso mencionar que la visualización

es lo que hizo evolucionar a los protohumanos: ¿Qué no es la pintura rupestre una visualización, una forma de recordarle a los colegas el despliegue de valor que tuvieron en la cacería del otro día? O una de las principales herramientas que nos fueron llevando hacia la abstracción: ¿No es una de las aplicaciones más claras de visualización la representación de un espacio físico en un espacio menor? (un mapa, pues). Uno de mis ejemplos favoritos que muestra cómo la abstracción se va haciendo necesaria y útil es la Tabula Peutingeriana [1], un mapa distorsionado para reducir el espacio poco importante (el mar) y enfatizar en el espacio de interés (dando dimensiones exageradas a la península itálica, por ejemplo) para presentar un mapa de carreteras del imperio romano. Una vez más, cito un texto de la Wikipedia: “Existen dudas acerca de si se debería llamar “mapa” a la Tabula Peutingeriana, ya que no intenta representar las formas reales del terreno. Se cree que la Tabula se basa en «itinerarios», o listas de destinos a lo largo de las calzadas romanas. Los viajeros no poseían nada tan sofisticado como un mapa, pero necesitaban saber lo que tenían por delante en la calzada y a cuanto quedaba.” Y sí, a diferencia de los mapas, la Tabula incorpora la cuantificación semántica de cada porción del territorio —sobrepone de una forma maravillosa una imagen bidimensional con la densidad relativa del interés que despierta cada parte del mapa. Un usuario de este mapa debe saber que no está a escala, que el Mediterráneo es más que un conjunto de ríos alrededor de la tierra, que los ángulos en los caminos no serán como están descritos —pero podría seguir cada uno de los pueblos a su paso, y tomar como referencia las características que más llamaron la atención del autor. Ver Figura 1. Y es precisamente lo que hicieron los autores de esta tábula lo que nos toca emular hoy en día, en la época del big data y de los procesadores que miden su eficiencia en miles de millones de operaciones por segundo. Pero podemos aprovechar aún más esta ventaja que tenemos si seguimos las enseñanzas de Charles Minard: Encontrar abstracciones y mecanismos que nos permitan comprimir un conjunto numérico multidimensional en una proyección de menor dimensionalidad, sin pérdida relevante de información. ¿A qué me refiero con esto? La famosa “carta figurativa de las pérdidas sucesivas en hombres”[2] registra el avance geográfico de las tropas de Napoleón en su malograda campaña a Rusia (y su todavía más impresionante retorno ya como ejército fracasado), referenciado contra las gélidas temperaturas del invierno ruso. La gráfica incluso indica algunos hitos geográficos (los principales ríos y ciudades) como referencia. Bueno, vamos entonces entrando en materia: Lo que nos permite hacer la visualización es presentar grandes cantidades de información numérica, que podría parecer incomprensible al humano, de modo que su significado nos resulte de natural comprensión. Después de una muy larga 44


Figura 1. Tabula Peutingeriana.

introducción, vamos al tema principal que yo quería abordar cuando comencé con la escritura de esta columna: un programa en específico para visualizar elementos de la administración de sistemas, Munin[3].

Munin

total Mem: 3374916 -/+ bufers/cache: Swap: 3903784

used 2723708 920700 191292

free shared 651208 0 2454216 3712492

bufers 304720

cached 1498288

El tener gráficamente la proporción de áreas de memoria en cada uno de los estados presentados, sin embargo, nos lleva a entender mucho mejor lo que ocurre: ¿Por qué es que tengo casi la cuarta parte de la memoria marcada como no utilizada (amarillo claro) y al mismo tiempo estoy utilizando swap? ¡Ah! Con la gráfica queda claro que una porción no trivial de la memoria se mantiene disponible, por lo visto, para dar plasticidad al sistema, para permitir que los procesos entren y salgan de ejecución. Y para eso se emplea también buena parte de los buffers, que son presentados en color violeta. El uso duro real de la memoria está representado por la sección más baja que ocupa un espacio significativo, las aplicaciones (verde). Ver Figura 2.

memoria activa, comprometida e inactiva. Estos tres niveles sirven mucho mejor como termómetro para entender el nivel de estrés que está el sistema enfrentando en un momento dado. Las dos primeras líneas oscilan, en el periodo de un día que les presento, entre el 50 y el 70% de utilización, con un pico mínimo de cerca del 40% (para la memoria activa) y un pico máximo de cerca del 85% (para la memoria comprometida). No entro en detalles intentando explicar qué significa cada cresta o valle, y a qué eventos del día podrían estar respondiendo. Mi intención es presentar una herramienta libre y sencilla que me ha enseñado mucho y se ha convertido en un aliado permanente en mi tarea de administración de sistemas. Si les interesa encontrar mayor información acerca de Munin, les invito a leer un artículo que publiqué al respecto [4], así como una presentación donde entro en más detalle en ciertos aspectos de la administración de sistemas[5]. También dejo la referencia al sitio oficial de Munin, donde podrán encontrar todos los ejemplos, documentación e información que puedan requerir al respecto.

>> Por Gunnar Wolf Referencias [1] https://es.wikipedia.org/wiki/Tabula_Peutingeriana [2] https://en.wikipedia.org/wiki/Charles_Joseph_Minard [3] http://munin-monitoring.org [4] Monitoreo de PostgreSQL con Munin, Revista Cubana de Ciencias Informáticas,

No sé si la fidelidad de la impresión permita apreciar las líneas que aparecen superpuestas a las áreas: Las líneas que marcan los niveles de

2011; http://ru.iiec.unam.mx/116/ [5] Monitoreo de redes con Munin, FONASOL 2008, http://gwolf.org/soft/munin

45

Software Guru

Figura 2. Munin: Visualización de uso de memoria.

www.sg.com.mx |

Munin es una herramienta libre, diseñada para ayudar a administradores de sistemas y de redes a analizar los distintos aspectos de sus distintos equipos, servidores y subsistemas. Su diseño es muy sencillo, y permite comenzar a ser de utilidad tan pronto es instalado, y al mismo tiempo, está pensado para ser arbitrariamente extensible. Munin sigue de cerca la línea de análisis histórico que presento, y eso le ganó bastante simpatía por mi parte: Cuenta la mitología noruega que Munin y Hugin son los dos cuervos emisarios del dios Odín. Ellos vuelan todos los días por la Tierra (Midgard), viendo y recordando todo lo que ocurre, para contárselo. Munin representa a la memoria, y Hugin al pensamiento. Munin es una excelente herramienta de visualización, en el sentido previamente descrito: presenta números aparentemente inconexos e incomprensibles de forma que, viendo un conjunto de gráficas, resulta muy simple no sólo el relacionar a los patrones presentados visualmente, sino que expresa ciertos subsistemas complejos de maneras tan obvias que termina ilustrando no sólo el qué hace, sino el cómo funciona. Para ilustrar a qué me refiero, presento aquí la gráfica de uso de memoria de uno de los servidores que administro. Ver Figura 2. Es común que nos preguntemos cuánta memoria disponible tiene nuestro servidor —en un sistema Linux estándar, podríamos ingenuamente responder con los números que nos genera el comando free, e incluso sería frecuente que nos restrinjamos a las tres primeras columnas:


.COLUMNA CÓDIGO INNOVARE

Gobierno Abierto HACIA LA TRANSPARENCIA, PARTICIPACIÓN Y COLABORACIÓN CIUDADANA

E

n los últimos años se ha observado un crecimiento constante de Datos del Gobierno Abierto (OGD, por sus siglas en inglés), emergiendo como un importante canal de comunicación entre los gobiernos y sus ciudadanos. Posiblemente los portales de OGD más conocidos son los de los gobiernos de Estados Unidos (http://data.gov) y el Reino Unido (http://data.gov.uk). El concepto de Gobierno Abierto se basa en tres aspectos: la transparencia, la colaboración y la participación ciudadana. A continuación comparto un breve explicación de estos aspectos, tomando como referencia el Memorando sobre Transparencia y Gobierno Abierto promulgado por el presidente de EEUU Barack Obama en el 2009:

• Transparencia. El gobierno debe permitir el acceso de la información pública ante la ciudadanía. La información debe ser abierta, completa y de fácil acceso; asimismo, debe ser susceptible de ser procesada a través de herramientas tecnológicas y de comunicación. • Participación. El compromiso público mejora la eficacia del Gobierno y mejora la calidad de sus decisiones. El gobierno debe promover la participación acBlanca Hilda tiva de la ciudadanía en la conformación de poVázquez Gómez es Maestra en líticas públicas, de esta manera los gobiernos se Ciencias de la Computación con beneficiarán con el conocimiento y la experiencia Mención Honoriica por el Centro de los ciudadanos. Nacional de Inves• Colaboración. La colaboración no implica únitigación y Desarrollo Tecnológico camente al ciudadano, sino que incluye a organi(CENIDET) y Lic. en Informática por zaciones sin fines de lucro, negocios e individuos el Instituto Tecnodel sector privado, permitiendo el trabajo conjunto lógico de Tuxtla Gutiérrez, Chiapas. de la administración y la identificación de nuevas Ha colaborado en proyectos de oportunidades de cooperación. investigación en la Fundación Bruno Kessler en Italia, la Benemérita Universidad Autónoma de Puebla y la Universidad Tecnológica de la Mixteca, todos por parte del CONACYT. Actualmente colabora en el equipo de Investigación de Tecnologías y Modelos Semánticos del INFOTEC.

Lineamientos ¿Qué alcance debe tener una iniciativa de datos abiertos? El movimiento OGD se está convirtiendo en una iniciativa ciudadana que aboga por la transparencia de la administración. Pero, ¿qué requisitos debe cumplir una iniciativa para poder ser considerada como OGD? Con el propósito de contestar esta pregunta, en diciembre del 2007 se reunió un grupo de expertos en Sebastopool, California. Como resultado de esta reunión se obtuvo

una lista de ocho principios que deben cumplir los datos de gobierno para ser considerados como abiertos [1]. Éstos son: • Los datos deben ser completos: Todos los datos públicos están disponibles. • Los datos deben ser primarios: Los datos se publican tal y como fueron obtenidos desde la fuente original, con el mayor nivel de granularidad posible. • Los datos deben ser oportunos: Los datos están disponibles con la prontitud necesaria como para que éstos no pierdan su relevancia. • Los datos deben ser accesibles: Los datos están disponibles para la más amplia gama de usuarios y propósitos posibles. • Los datos deben ser procesables por computadoras: Los datos están estructurados de manera que puedan ser procesados de forma automatizada. • El acceso no debe ser discriminatorio: Los datos están disponibles para todos, sin requerir un registro para tener acceso a éstos. • El formato de los datos debe ser no-propietario: Los datos están disponibles en un formato en el cual ninguna entidad tiene control exclusivo. • Los datos deben ser libres de licencia: Los datos no están sujetos a ningún derecho de autor, patente, marcas o reglamento. Finalmente, el cumplimiento de estos principios debe ser auditable. Esto implica que la institución o dependencia que publica los datos debe designar a una persona de contacto que pueda responder a las personas que tratan de utilizar los datos; también debe haber un contacto para responder a quejas sobre la violación de los principios; y un organismo externo debe tener jurisdicción para validar que la institución o dependencia en cuestión esté aplicando adecuadamente estos principios. El conjunto de principios de la reunión de Sebastopool se ha convertido en punto de inicio de facto para cualquier iniciativa de OGD. Adicionalmente, la Sunlight Foundation se ha dado a la tarea de continuar con la actualización y expansión de estos principios. Es así que en agosto del 2010 publicó el documento “Ten Principles for Opening Up Government Information” [2] que contiene una lista revisada de principios. Estos son. • Completa: Los datos publicados por el gobierno deben estar tan completos como sea posible, reflejando toda la información que se 46


›› “EL COMPROMISO PÚBLICO MEJORA LA EFICACIA

tiene registrada sobre el elemento en cuestión. Se deben publicar los datos “crudos” (sin procesamiento previo), excepto cuando se trate de datos personales confidenciales o que pongan en peligro al país y/o administración. Además, se deben incluir los metadatos de la información, permitiendo de esta manera que el usuario comprenda el contexto de ésta. • Primaria: Los datos deben provenir de su fuente primaria, esto incluye información original recolectada por el gobierno, detalles de cómo fueron recolectados y los documentos originales que registran la recolección de los datos. • Oportuna: Los datos publicados por el gobierno deben ser liberados en forma oportuna. La información en tiempo real aumenta su utilidad. • Facilidad de acceso físico y electrónico: Los datos liberados por el gobierno deben ser accesibles, sin barreras físicas (visitar una oficina particular) y sin barreras tecnológicas (plataformas orientadas a tecnologías específicas y propietarias). • Legible: Los datos deben presentarse en formatos de archivos que sean legibles para las computadoras y que puedan procesarse. Esta información debe ser acompañada por la documentación relacionada con el formato y cómo usarla en relación a los datos. • No discriminatoria: Los datos deben ser accedidos por cualquier persona, sin registros previos o sin proporcionar una justificación. • Licenciamiento: Los datos deben estar libres de “Términos del servicio”, “Restricciones”, “Reglas”. • Permanencia: Los datos disponibles en línea deben permanecer así, perpetuamente. Adicionalmente, si éstos sufren cambios se debe manejar y publicar un control de versiones adecuado. • Costos de uso: Se recomienda evitar el cobro de tarifas para tener acceso a la información, ya que esto disminuye la participación de los ciudadanos y por lo tanto limita los beneficios de OGD. Así como estos grupos de trabajo han propuesto una serie de principios, muchas otras organizaciones han tratado de definir cuáles deben ser la reglas del juego para OGD. En este contexto la directora ejecutiva del Acceso de Información Europea, Helen Darbishire, señala que: “Los mejores estándares vendrán del trabajo de sociedad civil y gobiernos definiendo juntos los conceptos de Transparencia, Participación y Rendición de cuentas” [3].

Conclusión En conclusión, la apertura pública de los datos del gobierno promueve en la medida de lo posible el discurso civil, el mejoramiento del bienestar público y más aún el uso eficiente de los recursos públicos. La iniciativa de gobierno abierto promueve una relación bidireccional “Administración-ciudadano” de esta manera la participación y colaboración del ciudadano es un “elemento vital” para que esta iniciativa cumpla su propósito y no pase en los siguientes años como parte del bagaje histórico.

>> Por Blanca H. Vázquez

Referencias [1] “8 principles of Open Government Data”. http://swgu.ru/sg40r1 [2] “Ten Principles for Opening Up Government Information”. http://swgu.ru/sg40r2 [3] “Open Government Standards”. http://swgu.ru/sg40r3

Software Guru

GOBIERNO Y LA CALIDAD DE SUS DECISIONES.”

www.sg.com.mx |

DEL


.SG TALENTO

Inundados entre la tecnología y los procesos, tendemos a olvidar el tercer ingrediente fundamental de nuestra profesión: las personas. Esta nueva sección brinda un espacio para que podamos conocer más sobre otros profesionistas que comparten su perfil y nos permiten conocer el talento que hay en México.

RICARDO CACIQUE

PAMELA RODRÍGUEZ

EDUARDO DIAZ

RODRIGO TORRES

Ricardo es socio fundador y CTO de Fontacto, empresa que ofrece un servicio de conmutador telefónico virtual para profesionistas independientes y pequeñas empresas. Ricardo diseñó la red e infraestructura tecnológica que permite a Fontacto operar con alta disponibilidad a un bajo costo. Recientemente fue nombrado por Pulso Social como uno de los 10 emprendedores Latinoamericanos a seguir en 2013.

Pamela es una de las diseñadoras de UI e interacción más experimentadas en México. A través de su carrera ha colaborado en varias de las empresas líderes en este segmento en nuestro país tales como Web Usability, Naranya, y ahora Base22. También ha sido profesora en la Universidad de Nuevo León, y durante un par de años escribió una serie de artículos en SG sobre diseño de usabilidad y experiencia del usuario.

Eduardo es un desarrollador y arquitecto de software al que le encanta explorar nuevas tecnologías y aplicarlas para brindar la mejor experiencia posible al usuario. Eduardo no está peleado con ninguna tecnología, y lo mismo le entra a Java que a .Net, Python o Node.js. Actualmente participa en el desarrollo del nuevo “Sistema Emprendedor” del Instituto Nacional del Emprendedor.

¿Qué es lo que más te gusta de lo que haces? Que tengo la oportunidad de crear el futuro de las comunicaciones en América Latina y que en México tenemos el talento para crear productos y servicios competitivos globalmente.

¿Qué es lo que más te gusta de lo que haces? Darle vida a la solución de un problema de manera visual, tanto en diseño de mockups como en desarrollo web de front-end.

¿Qué es lo que más te gusta de lo que haces? Me encanta saber que mi trabajo importa, y ayuda a emprendedores mexicanos desde a constituir su empresa, hasta recibir apoyos por sus ideas.

Rodrigo es uno de los consultores de procesos de software más activos en nuestro país. A lo largo de los últimos siete años ha participado en proyectos de mejora para más de 50 empresas abarcando modelos como CMMI, MoProSoft e ITIL. Rodrigo actualmente forma parte del equipo de consultores en la empresa Innevo. Adicionalmente es colaborador frecuente en SG, escribiendo artículos para la revista e impartiendo cursos en SG Campus.

¿Quién(es) son tus modelos a seguir? Richard Branson por su capacidad de identificar oportunidades, ejecutar rápidamente y hacer disrupt en industrias tradicionales con una gran atención al cliente como diferenciador. Elon Musk.

¿Quién(es) son tus modelos a seguir? Luke Wroblewski, Stephen Anderson, Ethan Marcotte, Josh Clark y Jared Spool; por todo lo que han logrado, por todo lo que he aprendido de ellos, y por lo abiertos que son a enseñarte lo que saben.

¿Qué consejo tienes para tus colegas? El talento que existe en México y América Latina es tan bueno como en potencias mundiales, es cuestión de no tener miedo a tener una visión grande e ir tomando acciones para cumplir esa visión, sea profesional, personal o colectiva.

¿Qué consejo tienes para tus colegas? Elijan bien a su equipo. No solo es la persona más apta, si no la que tiene más ganas de trabajar y la que puede hablar con facilidad con otros y escuchar a los demás. Un buen equipo de personas dedicadas es la clave de un buen resultado.

Conoce más sobre Ricardo en: http://swgu.ru/rcacique

Conoce más sobre Pamela en: http://swgu.ru/thepam

¿Quién(es) son tus modelos a seguir? Admiro a Rick Hickey, creador de Clojure, y su obsesión por tener mejores herramientas de desarrollo. ¿Qué consejo tienes para tus colegas? Siempre pidan más de sí mismos, nunca se crean que no pueden ser mucho mejores.

Conoce más sobre Eduardo en: http://swgu.ru/iamedu

¿Qué es lo que más te gusta de lo que haces? Conocer la diversidad de personas y empresas que existen en la misma industria. El modelo de calidad puede ser el mismo pero la forma de implementarlo siempre es distinta. ¿Quién(es) son tus modelos a seguir? José María Morelos y Pavón, Simón Bolivar, Bruce Wayne (Batman) y Peter Parker (Spiderman). ¿Qué consejo tienes para tus colegas? No se le puede llamar conocimiento al conocimiento que no es compartido. Conoce más sobre Rodrigo en: http://swgu.ru/garicorp

Te invitamos a compartir tu peril en http://sgtalento.com

48


.GRANDES MUNDOS PARA CREAR SOFTWARE

FILOSOFÍA

Somos artesanos de software, creemos firmemente que la calidad del software es un reflejo de la gente que lo crea, esa es la razón por la que nos buscan nuestros clientes, esa es la razón por la que sabemos que vale la pena invertir en encontrar a los mejores Ingenieros de Software. El talento de nuestros ingenieros es nuestro principal activo, trabajamos con gente inteligente, comprometida y apasionada, que valora su crecimiento personal y profesional, el trabajo en equipo y sus fines de semana, pues para nosotros es muy importante que exista un balance entre vida personal y laboral. Además de nuestros horarios flexibles, proveemos un ambiente único de trabajo para fomentar la creatividad, concentración y desarrollo de habilidades de nuestro equipo.

Giro: Consultoría en Desarrollo de Software, especializados en Comercio Electrónico para empresas en Estados Unidos e Inglaterra Ubicación: Torre Brasilia, Av. Américas 1905, Piso 3, esq. con Brasilia, Colonia Aldrete, Guadalajara, Jalisco, México, CP: 44660. Página Web: www.tacitknowledge.com Facebook: www.facebook.com/ pages/Tacit-KnowledgeGuadalajara/173119076046518 Twitter: twitter.com/tkgdl Número de Empleados a Nivel Mundial: >80 Número de Empleados en Guadalajara: >15

INICIATIVAS

• Proyectos de corta duración con lo último en tecnologías y metodologías para empresas del Fortune 500 como: - Nike - Converse - Audi - GHD - Macys - John Lewis - GAP - Motorola

CONTACTO DE RH http://www.tacitknowledge.com/careers.shtml Raymundo Torres Bernal, rtorres@tacitknowledge.com

• Seguro de GMM para el empleado y su familia, cónyuge e hijos • Seguro de Emergencias Médicas EMME para el empleado y su familia, cónyuge e hijos • Seguro de Vida para el empleado • Fondo de Ahorro del 5%, el empleado pone 5% de su salario cada mes y la empresa pone un 5% extra, se entrega cada año en Diciembre • Vales de Despensa • 20 días de vacaciones al año desde el primer año que trabajan con nosotros • 10 días festivos mínimo garantaizados por año • Trabajo desde casa cuando la situación lo amerita • Sueldos superiores al promedio de la industria • Games room con mesa de billar, ping-pong, televisión con cable, wii • Fruta y snacks • Bebidas alcohólicas y no alcohólicas • Prestaciones de ley

49

Software Guru

PROYECTOS INTERESANTES O PROYECTOS QUE HACEN DESDE MÉXICO

BENEFICIOS QUE DAN A LOS EMPLEADOS

www.sg.com.mx |

• Fundadores, patrocinadores y activos colaboradores de la Java Community en Guadalajara, también conocida ahora como Java User Group Guadalajara • Sede de Code Retreat en Mayo de 2012 • Colaboraciones en Software Guru Conference, RailsMX y Tequila Valley


.TECNOLOGÍA GADGETS

SONY Vaio Pro

Sony VAIO introduce al mercado mexicano su nueva línea de productos para este verano, integrada por cuatro series: Duo, Pro, Fit y Fit E. La línea Pro es la que más nos llamó la atención en SG. Está disponible en dos configuraciones: 11 y 13 pulgadas, con un peso de tan solo 0.87 kg. y 1.06 kg., respectivamente. Ambos equipos incorporan procesadores Intel de 4ta generación (Haswell), y pantalla touch con resolución Full HD (1920x1080). Más allá de la resolución en pixeles, la calidad de la imagen es sin duda es uno de los elementos que resalta de la Vaio Pro, gracias a que incorpora tecnologías como Triluminos y X-Reality, que originalmente fueron introducidas en las pantallas de TV Bravia.Otra capacidad atractiva es la denominada “quick charge”, que permite obtener hasta 90 minutos de uso con solo cargar 10 minutos la pila. La Vaio Pro de 11 pulgadas viene con 4 GB de RAM y disco de estado sólido de 128 GB, teniendo un precio sugerido de $16,799. La Vaio Pro 13 tiene mayores posibilidades de configuración, pudiendo tener 8 GB en RAM, 256 GB en disco y procesador i7; dependiendo de la configuración, el precio de la Vaio Pro 13 irá de los 18 mil a los 24 mil pesos. En resumen, la Vaio Pro es una Ultrabook ideal para “guerreros del camino” que requieren un equipo altamente portátil pero con suficiente poder para llevar a cabo tareas avanzadas.

PEBBLE Reloj Inteligente

En los últimos meses ha habido bastante especulación sobre si los relojes inteligentes serán la próxima categoría de gadgets que cobre gran popularidad. De hecho, conforme preparamos esta nota hay fuertes rumores de que Apple lanzará en el WWDC su esperado iWatch. Independientemente de lo que suceda con el iWatch, un producto que ya está en el mercado y que sin duda nos atrae es el Pebble. Pebble se autoproclama como “el primer reloj construido para el siglo 21”. Entre sus atributos podemos listar: pantalla de tinta electrónica, carátulas personalizables (puedes descargar diseños o crear el tuyo), y conectividad con smartphones por medio de Bluetooth. La conectividad con smartphones, sumado a un SDK abierto, es lo que realmente hace poderoso al Pebble, ya que esto brinda la posibilidad de tener todo tipo de apps que puedan hacer uso de las capacidades de los smartphones. El dispositivo también cuenta con acelerómetro de 3 ejes, el cual permite detectar e interpretar movimiento, así como un motor de vibración que será útil para notificar eventos al usuario. Por el momento, el Pebble solo se puede adquirir por medio del sitio http://getpebble.com. Tiene un precio de $150 dólares y se aceptan órdenes internacionales.

REST: BOCINA STAND 2.1 Perfect Choice

El sistema de bocinas Rest de Perfect Choice duplica funcionalidad como stand de soporte para tu TV o monitor, resistiendo un peso de hasta 50 kilogramos. Su diseño es sencillo pero sofisticado, sumándose a ese toque minimalista que está de moda. La bocina Rest cuenta con un subwoofer de 15W y dos satélites de 7.5 W cada uno. Cuenta con conexiones de 3.5 mm (mini-plug) y RCA, por lo que se puede conectar fácilmente con TVs, reproductores MP3, smartphones, consolas de videojuego, etcétera. La base tiene unas medidas de 58.5 x 22 x 5 cm. y pesa tan solo 1.7 kg. Tiene un costo aproximado de $2,199.00 pesos.

50


www.sg.com.mx |

Software Guru


.FUNDAMENTOS

¿Qué es Software Libre?

››Por Alberto Ramírez Martinell

A

ntes de iniciar de lleno con la respuesta a la pregunta planteada en el título de este texto, quisiera decir por qué vale la pena volver a definir qué es software libre y por qué abordar este tema una vez más desde el principio. Actualmente —y con actualmente me refiero al primer cuarto del 2013— estamos viviendo una efervescencia —por llamarlo de alguna forma— en el tema de acceso libre y abierto. Por ejemplo, por primera vez en México hay una iniciativa de ley para dar acceso abierto a artículos de ciencia y tecnología mediante plataformas en línea [1]; de manera casi simultánea, el Parlamento Inglés se encuentra debatiendo sobre cuál es la mejor alternativa para el acceso abierto a artículos académicos, científicos y de divulgación[2], ya sea optando por la “ruta dorada” (revistas de acceso abierto) o la “ruta verde” (autores que suben su obra a repositorios abiertos) [3]. Otro ejemplo de la tendencia hacia la cultura libre es la intención del gobierno mexicano por proteger datos, transparentarlos y dar acceso a información pública. Finalmente, está el caso del software libre, que más que un ejemplo, en este contexto nos sirve como un caso de éxito en el que lo podemos ver como una opción real, confiable y competitiva en el área de desarrollo y uso de software. Es por eso que considero útil analizar al software libre como un caso de éxito en el marco del movimiento de cultura libre y contribuir con este análisis para el entendimiento de lo que es y de lo que implica un cambio a un modelo de acceso abierto en éste u otro contexto. Permítame entonces, amable lector, replantear el título de este texto a “Movimiento de Cultura Libre: El software libre como caso de éxito” para poder definir nuevamente lo que es el software libre y de código abierto con la finalidad de entender la filosofía de todo el movimiento a partir de este caso de éxito. Para contestar ¿Qué es Software Libre? iniciaré diciendo lo que no es, para posteriormente explicarlo desde cuatro perspectivas. El software libre no es libre por ser gratuito. La gratuidad es un aspecto tangencial de este movimiento y no una característica definitoria. Es decir, hay software gratuito que no necesariamente es libre. Algunos desarrolladores “liberan” versiones que no requieren de pago, versiones limitadas (lite) o para compartir (shareware), como pruebas (test drive) de su producto completo pero esto no convierte a dichos programas o apps en productos libres y de código abierto. Otros desarrolladores de software y

empresas comerciales permiten el acceso a sus servicios especialmente para aquellos basados en navegador sin que el usuario tenga que pagar una suscripción o una licencia de uso, pero de igual manera estos servicios no necesariamente son de libre acceso y de código abierto. Aunado a esta confusión de “libre=gratis” es el hecho de que la palabra inglesa “free” se puede traducir como libre o como gratis, dependiendo de su contexto. El software es libre no por la exención de un pago, sino por el libre acceso que tiene el usuario al uso del programa e inclusive a la modificación de su código. El software libre no es un movimiento anárquico que quiera ir en contra de las grandes empresas. El software libre es una respuesta social a las necesidades de los usuarios quienes más allá de ahorrarse el pago de una licencia de uso, quieren apropiarse de la herramienta a nivel de uso y de desarrollo, y poder así ver como ha sido escrito el código de los programas que utilizan y si así lo quisieran, colaborar en el desarrollo del programa o inclusive modificarlo o personalizarlo. En este sentido, el objetivo del software libre es entonces dar pleno acceso al usuario a un programa informático en diferentes niveles (uso, colaboración, desarrollo). Ya si el usuario decide cambiar de una programa con licencia comercial privativa a un programa libre y de código abierto total o parcialmente, es otro aspecto tangencial. El software libre no es un movimiento maniqueísta en el que el usuario que decida utilizarlo se ve obligado a renunciar a un sistema operativo de licencia propietaria y nunca más poder volver a usarlo. El software libre es flexible ya que puede convivir con otros programas en una computadora con sistema operativo (SO) propietario en diferentes niveles. Se puede instalar un SO libre y de código abierto en una computadora con otro SO sin necesidad de borrar el SO propietario; también se puede virtualizar un SO libre y de código abierto sobre uno propietario o viceversa. Asimismo es factible instalar programas de productividad, de diseño y de otros tipos con licencia libre y de código abierto sobre un SO propietario así como también se pueden utilizar programas de licencia de uso privativa en un equipo con SO libre y de código abierto. El software libre no es un movimiento puramente informático. El software libre impacta a otras áreas además de la informática ya sea de forma directa o indirecta. Los aspectos éticos, legales, económicos y de negocios son tres áreas en las que el 52


.FUNDAMENTOS

“UNA INICIATIVA DE CULTURA LIBRE NO NECESARIAMENTE VIENE A REEMPLAZAR, SINO A COMPLEMENTAR LAS OPCIONES ACTUALES.”

igual forma no implique un gasto, y que el producto generado esté en un formato igualmente abierto que pueda ser visualizado sin necesidad de usar alternativas privativas. • Como un movimiento que tenga beneicios sociales. • Si bien como una opción de cambio, también debe ser vista como un complemento de las opciones actuales con intenciones similares sin que busque en principio sustituirlas completamente.

El caso del software libre y de código abierto, es quizás la intersección más importante de las áreas social, informática, legal y educativa de nuestros tiempos, que además ha potenciado la colaboración y el trabajo en red a niveles globales de manera que resulta alentador y positivo pensar que otras iniciativas del movimiento de cultura libre pudieran impactar de manera creciente en sus áreas directas de acción pero también en la sociedad misma, llevándonos a todos a un mundo libre, accesible y de código abierto.

Entonces, una iniciativa del movimiento de cultura libre —sea la de software libre y código abierto u otra— deberá ser vista: Referencias

• Como una iniciativa que se legitime por su acceso abierto, libre y transparente, y por sus ventajas sociales y de impactos directo e indirecto, más que por ser una alternativa gratuita a opciones similares que puedan o no generar un costo. El acceso abierto debe contemplar, acceso mediante una plataforma digital que de

[1] “Iniciativa de libre acceso para México”. Red de Humanidades Digitales. http:// swgu.ru/sg40r19 [2] “Open Access”. Sesión del parlamento del Reino Unido del 16 de abril del 2013. http://swgu.ru/sg40r21 [3] “Gold and green: the routes to open access”. Jisc. http://swgu.ru/sg40r20

.BIO Dr. Alberto Ramírez Martinell (@armartinell) es Investigador de tiempo completo en el Instituto de Investigaciones en Educación de la Universidad Veracruzana y cofundador de Social TIC Asociación Civil. Es nivel 1 del Sistema Nacional de Investigadores y tiene intereses de investigación principalmente en tres áreas: tecnología educativa; desarrollo de soluciones digitales educativas; y ICT4D. Su ilosofía de trabajo está basada en los principios del movimiento de cultura libre. http://www.uv.mx/personal/albramirez

53

Software Guru

• Como una oportunidad de impactar tanto en el área medular de la iniciativa (e.g. software, hardware, educación, derechos de autor) como en otras áreas (social, legal, ética, etc.).

www.sg.com.mx |

impacto es directo. Con la adopción total o parcial de soluciones informáticas libres y de código abierto, los usuarios pueden ser más conscientes de los derechos de autor, de las implicaciones de uso de software apócrifo y del impacto que puede tener la difusión y distribución de programas de código abierto con personas con pocas posibilidades de acceso a tecnología digital, en zonas marginadas o incluso para países en vías de desarrollo. De forma indirecta, el uso de software libre motiva la colaboración entre pares, trabajo en red, a pensar en colectivo, a tomar la iniciativa y corregir problemas del programa o a adaptarlo o a socializarlo en foros de discusión. El software libre como caso de éxito del movimiento de cultura libre ha sido legitimado sin duda alguna por sus usuarios, sus bondades, su permanencia y trascendencia y por su impacto social; y como se mencionó al principio, sus rasgos distintivos pueden servir como guía para otras iniciativas del movimiento de cultura libre, que engloba a otras iniciativas como la de formatos abiertos (openformats.org), datos abiertos (opendatafoundation. org), hardware abierto (openhardware.org), acceso libre a Internet (internetparatodos.mx), conocimiento abierto (www.osdd.net), recursos educativos abiertos, acceso abierto a educación (p2pu. org), cursos masivos abiertos y en línea (mooc), contenido enciclopédico libre (www.wikimedia.org), licencias flexibles (creativecommons.org), medicinas abiertas (osdd.net), y por supuesto al de software libre (www.fsf.org), y acceso abierto.


.SG MARKET


Directorio Abiztar

4F

www.abiztar.com.mx/SG

Accenture

07

47

SG Talento

54

Tacit Knowledge

51

Vinkos

www.gartner.com/mx/aadi

Indisegno

1F

3F

http://talento.sg.com.mx/

http://www.inantech.com.mx/

Gartner

SG Conference & Expo http://sg.com.mx/sgce/2013

www.agileconf.com.mx

Finantech

55

www.sg.com.mx

http://cvaccenture.com.mx

Agile Conference 2013

SG Buzz

49 http://www.tacitknowledge.com/ 33

http://vinkos.com/ 31

http://indisegno.com/

KiILO

54

www.kilo.com.mx

KMMX

54

www.kmmx.mx

McAfee

19

37

www.mexico-irst.org

Qualtop

54

http://www.qualtop.com/

SEAN

54

http://www.seanmexico.com/

TENEMOS UN ESPACIO RESERVADO PARA TI SG se distribuye de manera impresa en la República Mexicana, y de manera digital llega a más de 25mil lectores de habla hispana. El anuncio en la revista digital cuenta con hiperliga directa a tu sitio web, lo que te dará la oportunidad de acercarte a nuevos clientes. “Es una gran oportunidad participar con Software Guru, pues comprobamos que es un medio efectivo.” -Novalys Latinoamérica Contáctanos en el (55) 5239.5502 o en publicidad@sg.com.mx

www.sg.com.mx |

Mexico First

Software Guru

http://www.mcafee.com/es/


.CARRERA

El Rol Moderno del Profesional de Informática

›› Por José R. Jiménez y Blanca Jiménez

El contenido de este artículo es parte del libro: “El Factor Humano: Cómo triunfar (y ser feliz) en el trabajo” de Editorial Almuzara.

L

a influencia y el peso de la informática en el ambiente empresarial no son nuevos. Se remontan al año 1954 cuando General Electric comenzó a utilizar una computadora para procesar la nómina sus empleados. Desde entonces han ocurrido muchos acontecimientos que han transformado radicalmente el peso de las TI en las empresas. Entre los más destacables: • Extrema propagación de los ordenadores personales, que hacen que las personas vean estos artificios como algo consustancial con la naturaleza humana. Los pertenecientes a la llamada Generación Y, son nativos digitales, es decir que han nacido ya con una computadora entre las manos. • Altísimo grado de digitalización de las redes de telecomunicaciones, que ahora permiten transportar datos de una forma más barata y sencilla de lo que jamás se llegó a conseguir con el transporte de voz con tecnologías analógicas. • Alta penetración de sistemas de software empresarial “empaquetados”. Cuando una empresa decide implantar un paquete de software está haciendo algo más que comprar un conjunto de programas... ¡está comprando un modelo de administración para su negocio! Ese modelo en bastantes ocasiones tiene su origen en tierras germánicas y conlleva una disciplina a la que las personas, en muchas ocasiones, no estamos acostumbrados. • Propagación del uso de la telefonía móvil a todos los rincones del planeta y a todas las clases sociales, culturales y económicas. Posiblemente es el primer desarrollo tecnológico que en escasos veinticinco años se ha adoptado universalmente sin distinción de continente, raza, idioma, religión, edad, condición socioeconómica... ¡sencillamente, llega a todos! Estos cambios se han venido consolidando desde mediados de la década de 1990 y hoy su peso es altísimo. Sin embargo, el perfil de los profesionistas de las tecnologías de la información sigue siendo muy parecido al del profesional del siglo pasado. Con esto no quiero, por supuesto, decir que estos profesionales no se hayan actualizado técnicamente; la mayoría de ellos lo han hecho. Lo que pretendemos exponer es que muchos de ellos no han contado con la oportunidad de percatarse de que el nuevo modelo tecnológico requiere otro perfil de relación con el resto de los profesionales que trabajan en la empresa, con los operadores del negocio.

“El nuevo papel del profesionista de TI ya no es traducir, sino convencer”.

La dicotomía informático-usuario en el modelo antiguo era necesaria y deseable, pero no lo es ahora. Antes el informático era el encargado de escuchar los requerimientos, las necesidades e, incluso, los sueños del usuario y traducirlos a programas para que estos diesen la adecuada satisfacción. Hoy esto ha cambiado. Muchos de los mal llamados usuarios saben hoy más informática, aunque su saber pertenezca a un dominio más general y no al específico de la empresa. Sin embargo, los profesionistas de TI no son conscientes de que su nuevo papel ya no es traducir sino convencer a quienes operan el negocio para transformarlo y hacerlo más eficiente, más generador de valor, abierto al exterior, gobernado por unas reglas institucionales que, en ocasiones, no coinciden plenamente con los hábitos y costumbres que un área específica o, incluso, una persona específica venían ejerciendo hasta ahora. Se trata de utilizar la informática y las telecomunicaciones como una palanca de transformación y modernización y no como una herramienta para mecanizar lo que antes se hacía a mano. El asunto es muy amplio y su análisis profundo requeriría un libro dedicado a este fin, sin embargo lo que no puedo dejar de destacar es la importancia de las relaciones de colaboración entre técnicos y operadores del negocio para dotar adecuadamente de sistemas a la empresa.

CONCLUSIÓN El software no es más que un conjunto de programas con poco valor diferencial; lo que realmente constituye una ventaja competitiva son los sistemas, que podemos definir como el conjunto de herramientas técnicas de la informática y telecomunicaciones y conocimientos de negocio. Estos deben aplicarse para servir con excelencia a sus clientes, gestionarse eficientemente, adaptarse a los cambios y aprovechar eficaz y rápidamente las oportunidades de un mercado muy cambiante. No conozco ninguna empresa que haya conseguido esto sin poner un especial énfasis en las relaciones de colaboración entre todos sus trabajadores. .BIO

José Ramón Jiménez Garnica es fundador y consultor en Venture Consulting México y Piovera Consulting España. Anteriormente fue Director General de IBM España y Director General Adjunto de Banco Santander. Blanca Jiménez Anabitarte consultor en Venture Consulting México y Piovera Consulting España. Es MBA Internacional por el IGS-Manhattan College (Lasalle).

56


www.sg.com.mx |

Software Guru


Profile for Revista Software Guru

SG40 (Mayo-Julio 2013)  

Software Guru # 40: La revista para quienes crean software grandioso. Tema principal: Descubre información valiosa con Big Data.

SG40 (Mayo-Julio 2013)  

Software Guru # 40: La revista para quienes crean software grandioso. Tema principal: Descubre información valiosa con Big Data.

Advertisement