a product message image
{' '} {' '}
Limited time offer
SAVE % on your upgrade

Page 1


r i o e n lí n e a

¿Sabías que... ?

on

su

lt a

nu

est

ro c

ale n d a

Certificarte es la mejor inversión de tiempo y dinero antes de egresar, pues permite duplicar tu ingreso los primeros 12 meses

C

Teléfonos: (55) 5557 5012 / (55) 5557 0090 / (55) 5395 2791 / (55) 5395 3825 / (55) 5395 3829


Líder en capacitación y certificación en TI

¡Certifica tu Futuro! 1


STAFF CONSEJO EDITORIAL

Julio 2016

Año 2 Número 21

Ariel Rodríguez

Presidente del Consejo

Salvador Ordóñez

José Ignacio Gallegos Carlos Rivera

EQUIPO EDITORIAL

Salvador Ordóñez

salvador@developnetwork.com

Director Editorial

Edgar Loeffelmann

edgar@developnetwork.com

Editor

Xochicuahuitl G.

xgleason@developnetwork.com

Coeditora

Ignacio Gallegos

Relaciones Públicas

EN PORTADA Elección de Soluciones de Software. Héroe y Villano

Agradecimientos Especiales

Andreida De Negri Aitor Sobera Herbert Loeffelmann Ivonne López Myrna Linares Mitzy Mejía K&M Carlos Raúl García Alejandro Rebollo Fermín Flores Víctor Hernández Rodrigo Amador Cecilia Castillo

Miguel Adame Juan Carlos Rico Gladis Emilia Fuentes Pedro Enrique García Karla Salinas Ignacio Gallegos Pablo Xicoténcatl José Carlos Sierra Alfredo Munguía Karina Cabrera Luis Gerardo Salas Xochicuahuitl Gleason Edgar Loeffelmann Colaboradores

Salvador Ordóñez Director de Arte

Oscar Islas Diseñador

Luis Fuentes

luisfuentes@developnetwork.com

Editor Web

Shutterstock

Fotografías

University Tech Day www.issuu.com Distribución

Edgar Loeffelmann, Carlos Fernández, Arturo Campos Fentanes, Ana Paula Konrad, Pedro Flores, Juan Saldivar, Alejandro Villanueva, Cristina Cervantes y a todas las personas que han hecho posible este número tan especial de developNetwork

“developNetwork” es una publicación literaria que puede ser distribuida, previa autorización de sus representantes, de manera física y electrónica. El nombre “developNetwork”, diseño y contenido se encuentran en proceso de registro y son protegidos por la Ley Federal de Derechos de Autor, encontrándose vinculados a una marca en proceso de registro ante el Banco Nacional de Marcas perteneciente al Instituto Mexicano de la Propiedad Industrial. Todos las artículos aquí descritos están sujetos a sufrir cambios y/o variaciones, sin previo aviso. La información, datos estadísticos, reportajes y fotografías contenida en los publirreportajes es resultado de un trabajo de recolección de información en la que terceros, colaboradores o personalidades públicas otorgan sus opiniones y/o datos de un tema en específico, por lo que bajo ninguna circunstancia reflejan la opinión de “developNetwork”, de sus editores, representantes o accionistas, así mismo, “developNetwork” no asume responsabilidad respecto del contenido y veracidad de dicha información. Revista impresa por “Compañía Impresora El Universal” Ignacio Allende 174, Guerrero, 06300 Ciudad de México, D.F. Para conocer más sobre los derechos de autor de algunas de las imágenes, fotografías y trabajado literarios publicados a través de “developNetwork” consulta nuestra página web en www.developnetwork.com

“developNetwork”, es una revista mensual, publicación impresa y electrónica. 5557-5012 / 5395-2791 Contacto Web: hola@developnetwork.com

www.developnetwork.com

2


CARTA EDITORIAL

P

rogramar significa crear de lo intangible una reacción en cadena que permita a los usuarios hacer su vida más práctica. Para generar ese cambio utilizamos la inspiración ya sea por un sentimiento, el conocimiento o la propia inspiración divina tal y como lo representamos cada vez que nos sentamos a trabajar en el ordenador... En un sentido profesional, la portada del mes de julio nos invita a la reflexión de la conciencia y de la existencia de esta inspiración como fuente de la creatividad cognitiva. Estimados lectores, el sector en el que estamos involucrados nos exige en mayor medida tener dominio de todas las tecnologías en boga, sin embargo, un título académico únicamente nos da las bases para desarrollarnos profesionalmente sin llegar a convertirnos en expertos, por lo que es importante documentarnos y definir hacia dónde nos queremos dirigir y en qué queremos especializarnos. Es aquí donde cobra importancia la opinión de los expertos que nos ayudarán a determinar los perfiles que requerimos para aportar valor al ámbito laboral. Venga pues una invitación a analizar cada uno de los artículos expuestos en esta edición, donde encontrarán temas que serán de gran ayuda para su crecimiento profesional. Al igual que siempre, este número es resultado de la valiosa colaboración de nuestros columnistas, quienes han aportado su valioso tiempo para compartir sus conocimientos. Edgar Loeffelmann Editor

3


ÍNDICE

Editorial 3 Carta Ingeniería de Software

6 Breves Videojuegos, música y películas Apps 8 Breves Apps OnLine 9 Black Bullet

BREVES

Julio

Julio

TECH NEWS

12 Gadgets Lo mejor de la tecnología para este 2016 Inversa 14 Ingeniería ¿Plagio o Innovación? de Objetos 16 Construcción Con Realidad Aumentada Julio

¿

Llegar a la Web Semántica? 36 YCómo ¿Cuál es su Realidad Hoy? 44 Problemas en el Desarrollo de Software 46 Seguridad en Bases de Datos Futuro 50 El ¿Es Tu Futuro? y Diseño 54 Definición Aspectos Críticos en la Ingeniería de Software Services 56 Web Y su Importancia en el Cumplimiento Fiscal Actual

CAMPUS TI

60

MK Digital

Marketing Digital 18 El Ventaja Competitiva de las pymes en México

MASTER TI

22

Data 64 Big De la Intuición a la Estructura de Datos 66 Consultoría El Otro Camino. Las Soluciones de Negocio (ERPS) Segunda Parte

PERFILADOS

68 Ser Programador 24 Cómo Y No Morir en el Intento Virtual 26 Realidad Y el SEXO Is Ready to Plug, To Program, 28 Arduino To Wire and To Execute

CÓDIGO INNOVARE

Cambios en los Paradigmas de la

de TI e IoT 72 Innovación Aplicaciones y Soluciones de Dispositivo Cloudino

32 34 Redes Sociales Empresariales 4

en un Centro de Datos

BUSINESS

ROCK 101 76 Revolución En la Era del Lenguaje en Dos Vías

EN CUESTIÓN

80 De la Carrera a los Sueños


MASTER TI

40

5


ARTÍCULO

Andreida De Negri

Batman

The Killing Joke Para los amantes de DC Comics hay una gran noticia: está pronto a estrenarse “Batman: The Killing Joke” la adaptación al cine del polémico cómic que lleva el mismo nombre, escrito por Alan Moore en 1988. Historia que plantea el origen del personaje Jocker y la razón de su locura, además de poder conocer su lado más oscuro y cruel. Una película animada clasificación R por su alto contenido de violencia y lenguaje explícito, que desde que fue anunciada en la Comic-Con de San Diego en 2015 se ha esperado con ansias. Su estreno está programado para el 2 de agosto de 2016, unos días antes que Suicide Squad. ¿Coincidencia? http://bit.ly/24iIBmg

The Technomancer

Al igual que Dying Light, este videojuego promete ser un gran éxito. ¿Por qué la comparación? Porque todo apunta a que siguieron la misma estrategia de marketing: lanzar el videojuego en un mes donde no hay muchos estrenos y así llamar más la atención de la gente. En este videojuego RPG tendrás que enfrentarte a un misterioso futuro lleno de acción con vista en tercera persona; te encontrarás a un planeta Marte azotado por la sequía y falta de recursos, donde reinan las enfermedades y el caos. ¿Estás listo para enfrentar el reto de esta nueva y épica historia dentro del planeta rojo? http://bit.ly/1sCKVHt

DC Rebirth Metal sinfónico, metal industrial, death metal, trash metal… difícil enumerarlos a todos y cada uno de los que participarán en este gran evento. Amantes del Metal, ha llegado la hora de hacer maletas y venir a la Ciudad de México este 23 de Julio de 2016, donde bandas como RAMMSTEIN, EPICA, SUICIDE SILENCE, DEATH PUNCH, ALIEN ANT FARM y más, romperán el escenario en el Autódromo Hermanos Rodríguez. Un evento único que se realiza año con año para todos aquellos que buscan mover su cabellera de arriba a abajo, o tal vez un poco de emoción dentro de un Slam. ¡No te lo puedes perder! http://bit.ly/1ZPjpBa

6

En la edición pasada hablamos del nuevo Superman que DC ha creado a partir de DC Rebirth, ahora traemos una pequeña introducción a lo que es DC Rebirth. Los Nuevos 52 (The New 52) han terminado, así que DC Comics decidió reinventar todo su universo para llevar nuevas historias a sus seguidores, entre las cuales se encuentran la vida de Superman, Batman, la Mujer Maravilla, Flash, Joker y más. El primer número ya está disponible y a un precio muy accesible, esto busca regresar a los superhéroes a su origen e introducir nuevos fans a la industria. Escrito por Geoff Johns e ilustrado por Phil Jimenez, Ethan Van Sciver, Ivan Reis, Gary Frank. Te dejamos el link de descarga: http://bit.ly/1ZPkvwM


7


ARTÍCULO

APPS

Andreida De Negri

On Line

Si quieres conocer increíbles apps cada mes para descargar en tu Smartphone, no te pierdas nuestra sección de “breves” donde encontrarás las que no pueden faltar en tu celular. Estas son las que seleccionamos para este mes.

Futbol en Directo

Esta aplicación te arrojará en tiempo real los marcadores, los jugadores que estarán en el campo y más detalles relevantes durante el partido que escojas. Incluye la Champions League, Europa league y Premiere League.

DramaFever

http://bit.ly/2618sjA

Picket

Una aplicación para ver series y películas. Lo interesante es que la mayoría de sus contenidos son de la TV japonesa, coreana, taiwanesa y de América Latina. Contiene subtítulos y podrás usarla en cualquier dispositivo conectado a Internet. http://bit.ly/261lWM9

Una cartelera de cine totalmente actualizada. Esta aplicación te permitirá conocer en tiempo real los horarios y estrenos de películas en los cines cercanos a ti, incluye Cinépolis, Cinemex, Multicinemas, Xtreme Cinemas y Cineteca Nacional. http://bit.ly/1UtIBwP

Zombie Smasher

Juego en el que tendrás que aplastar a todos los zombies que quieren invadir la aldea. Es sumamente adictivo y cuenta con más de 60 niveles, cada uno con una dificultad mayor.

http://bit.ly/1PsTE3F

Lumosity Si lo que buscas son juegos que te pongan a pensar, esta aplicación es para ti. Lumosity cuenta con más de 25 juegos cognitivos con los que te divertirás y ejercitarás tu pensamiento.

http://bit.ly/1TstqU3

8


ARTÍCULO

Black Bullet

T

Aitor Sobera Ortiz de Zárate

okyo y el mundo entero están en peligro. habrá una segunda temporada, pero el manga sigue en En el año 2021 la epidemia denominada publicación así que quien sabe. Gastrea golpea fuertemente a la La animación tampoco es algo realmente destacable, humanidad, ésta consiste en un virus no es mala pero tampoco sobresaliente, podríamos parásito que se manifiesta como considerarla del montón, aunque sí es importante comentar monstruos gigantes con aspecto de que existe un momento en el cual cae en picada. Tal vez insectos. Con tal infección, las descendientes de los esté siendo demasiado subjetivo en este caso, pero meter primeros “enfermos” se definen como las “niñas malditas”, animación 3D en una serie de animación 2D me parece algo quienes tienen características específicas como conservar realmente grave si no se consigue disimular correctamente siempre una apariencia infantil, así como ojos rojos y y en este caso cayeron en el error. Esta animación no será habilidades sobrehumanas. Con la idea de mantener a algo muy impactante hasta que estemos acabando el anime, ralla la epidemia se crean grupos de “seguridad civil”, donde pasará a tener casi un primer plano en la historia conformados por una niña maldita como iniciador y un y si no nos acaba de gustar nos hará tener ganas de que humano denominado promotor, quien se encarga de guiar termine pronto. al iniciador. Diez años después de que la epidemia hiciese Por otro lado, la banda sonora de Black Bullet es acto de presencia, los grupos de “seguridad civil” llevan a aceptable, tal vez se nos haga algo repetitivo el uso de cabo misiones para evitar la destrucción del mundo entero. guitarras en ella pero tampoco es algo descarado con lo que Black Bullet se trata de un seinen bastante flojo ya acabemos con una manía a este instrumento. El opening es que no es demasiado oscuro como para adjudicarle una agradable, se podría decir que es uno de los elementos con etiqueta de este tipo, pero vale la pena ponerle atención por mayor calidad en todo Black Bullet, tiene mucho ritmo, la cantidad de escenas de acción. Estamos ante un anime acción y deja con la sensación de que encontraremos un corto compuesto por 13 capítulos, donde la historia debe anime con secuencias rápidas e impresionantes; tal vez la intentar ceñirse a esta extensión para no dejar nada en el animación que lo acompaña sea algo pobre y en muchos tintero, pero al igual que sucede en muchas series cortas, casos le falte algo de movimientos, pero el opening como esto resulta casi imposible. Hablando sobre los personajes tal está bastante bien. En el ending encontraremos algo que van apareciendo a lo largo de la historia no hay similar, bastante movido pero con una animación escasa demasiado que destacar, personajes sin mucho trasfondo que no aporta nada y que podemos obviar si preferimos y bastante planos en su mayoría. Los principales, como quedarnos sólo con la canción. era de esperarse, son los que más nos aportarán dentro de En general es un anime del montón, personalmente la trama, pero sin llegar a proponer un tema que llegue al esperaba mucho más de Black Bullet cuando leí su sinopsis corazón. El final del anime resultó ser bastante predecible, y empecé a ver los primeros capítulos, pero conforme la dejando una sensación de insatisfacción que sólo una historia avanza nos iremos quedando con muchas dudas segunda temporada podría eliminar si es que en ella se en el aire y el anime nos irá decepcionando un poco. No lograran explicar los puntos que quedan en el aire a lo largo porque sea malo, sino porque empezaremos a verlo de la primera parte; aunque viendo que han pasado 2 años con unas ideas en mente que luego se irán difuminando, desde que se emitió, es bastante difícil seguir creyendo que dejándonos un anime común y corriente.

9


10


11


GADGETS JULIO

Lo mejor de la tecnología para esta temporada

Andreida De Negri

Los adultos siempre hemos querido revivir a nuestro niño interior coleccionando ferrocarriles, autos de juguete o cualquier cosa que se nos ocurra. Pero junto con la era tecnológica llegaron los drones y ahora son los favoritos de chicos y grandes. Te presentamos una lista de los más cotizados de Mayo-Junio de 2016

1

DJI Inspire 1 Pro Black Edition Drone

Drone de superpotencia para profesionales. Cuenta con una cámara integrada que graba en 4K con la que podrás obtener tomas mucho más nítidas y perfectas, aparte de que te permite hacer transmisiones en vivo gracias al DJI Lightbridge.

http://amzn.to/1U9OdZm

2

DJI Phantom 4

Si buscas algo más sencillo pero con la misma potencia, el DJI Phantom 4, es para ti. Es la misma versión que el Phantom 3, sólo que este drone ya graba en 4K. Contiene una cámara 360°, alcanzando un nivel máximo de altura sin que afecte su aerodinámica.

http://bit.ly/1V8hRCA

3

Drone Parrot Airbone Night Mclane

Este drone proporciona un control total. Es sencillo, económico y con funciones básicas para lograr tomas y fotografías a grandes alturas. Cuenta con luces para iluminar el trayecto, aparte de que podrás sincronizarlo con tu Smartphone para realizar piruetas en el aire. http://bit.ly/1RZYrxa

Drone Parrot Bebop Quadcopter

4

Hecho de fibra de vidrio, cuenta con una cámara integrada en la parte superior para lograr mejores tomas con mayor amplitud y rango. Posee un gran balance y es resistente a golpes por caídas.

http://bit.ly/1NZTQXO

12


ARTÍCULO

Drone Quadrone Spark

Uno de los más sencillos y económicos, si estás pensando en adentrarte al mundo de los drones, empezar con un Quadrone Spark puede ser la opción. Con él podrás realizar giros de 360° y practicar algunas acrobacias simples. Tiene integradas luces LED para ser utilizado de día y de noche.

5

http://bit.ly/1XXqJNS

6

Drone Quadrone Elite

Seas un experto en drones o sigas adentrándote a este maravilloso mundo, este drone es para ti, con él podrás volar de arriba a abajo o de izquierda a derecha y dar vueltas en 360°. Tiene un alcance de altura hasta 12 m y su batería se recarga completamente en 80 minutos.

http://bit.ly/1U9NLKJ

7

Drone Jumpin Sumo

Dinámico y con un modelo único, este drone resulta ser el favorito de muchos, gracias a que logra giros pronunciados y recorridos perfectamente lineales. Realiza saltos de hasta 180 centímetros y cuenta con el sistema Kicker para quitar objetos de su camino. http://bit.ly/1U9Oz2k

8

Yuneec Tiphoone 4k

Otro de los mejores drones actualmente es Yuneec Tiphoone 4K. Cuenta con una cámara de ultra alta definición que captura en slow motion y realiza grabaciones en 4K. Con sus 12 megapíxeles podrás tomar fotografías increíbles.

http://bit.ly/1LDXCGJ

Solo Smart Drone

El primer drone inteligente, tripulado a computadora. Puede transmitir video totalmente en vivo si colocas una GoPro u otro tipo de cámara, su disparo inteligente permite la toma de fotografías más amplias y de tipo cinematográfico. Cuenta con el modo “Follow me” que te seguirá a donde quiera que vayas sin necesidad de controlarlo.

9

http://bit.ly/215Gjof

10

Lumenier QAV250

Con el Lumenier QAV250 podrás entrar a las mejores carreras de drones, participar y ganar. Pesa sólo 170 gramos. Contiene 2 Tiras LED integradas para lugares oscuros, soporte para cámara de alta definición, tren de aterrizaje, fácil acceso LIPO y placa de distribución de alimentación.

http://bit.ly/1XpKYTz

13


Ingeniería Inversa ¿ Plagio o Innovación?

14


ARTÍCULO

E

Herbert Loeffelmann

s común encontrarnos con el término Ingeniería Inversa, principalmente como una leyenda típica de los avisos legales en cualquier producto que se adquiera, y más si se trata de software o algún electrodoméstico, pero ¿a qué nos referimos con este concepto tan sencillo y complejo desde su concepción? De acuerdo a su definición “La Ingeniería Inversa consiste en obtener información o un diseño a partir de un producto, con el fin de determinar de qué está hecho, qué lo hace funcionar y cómo fue fabricado”, es decir, podemos aplicar esta técnica para saber y conocer el comportamiento de un producto de la naturaleza que sea, esto con el fin de realizar mejoras o corregir los problemas que presenta (ya como producto terminado), en pocas palabras: es descomponer un todo en las partes que lo integran para conocer su funcionalidad. Esta novedosa técnica es utilizada en muchas áreas de Ingeniería. Su origen como tal se remonta a la época de la Segunda Guerra Mundial cuando los soldados capturaban o decomisaban artefactos militares y los llevaban a sus puestos de mando para su estudio, con ello mejoraban su propio armamento o encontraban errores en la utilización de éstos para tener alguna ventaja significativa. Cabe señalar que desde su aparición ha existido una idea errónea sobre el empleo de este término, ya que a menudo se confunde con “Reingeniería”, sin embargo, la Reingeniería busca modificar para optimizar mientras que la Ingeniería Inversa analiza de manera exhaustiva para comprender. Es posible que existan limitantes o implicaciones graves en la aplicación de la Ingeniería Inversa -como se postula en el encabezado de estas líneas-, el problema en cuestión es: ¿resulta ser una práctica legal al intentar realizar alguna innovación o se trata sólo de efectuar una copia de algo para adquirir ventaja sobre los competidores y ofrecer un mejor producto? Si deseamos profundizar en el estudio del funcionamiento de un producto hasta el punto en que lo entendamos, modifiquemos y optimicemos, se puede marcar una delgada línea entre la innovación y el plagio. Entonces, ¿hasta dónde llega la legitimidad de la aplicación de esta técnica? Nos resulta complicado saberlo ya que, como he mencionado, dista mucho de la Ingeniería convencional, la cual busca el desarrollo, diseño e implementación de un producto mediante

métodos y técnicas de acuerdo a lo que se pretenda elaborar; posee un proceso con un inicio y un fin, en donde se implementan todos los planos del producto y se obtienen de esta manera todos los procedimientos que fueron involucrados. En cambio, en la Ingeniería Inversa no se tiene acceso a esos planos, por lo que se busca encontrarlos de fin a inicio en una descomposición de las partes, lo que provoca que no siempre se tengan prácticas honestas y se ponga en duda la legitimidad. Para estar completamente seguros de la finalidad que se tiene sobre cierto producto y si la práctica de Ingeniería Inversa es el resultado de un plagio o una innovación, se deben conocer las leyes de Propiedad Intelectual o Derechos de Autor vigentes en cada uno de los países en los que se pretenda realizar esta técnica, ya que no sólo es una práctica que llevan a cabo las empresas, sino que también de manera inconsciente hemos ejercido algún acto de esta naturaleza sin conocer las consecuencias que nos produciría. Existen muchos casos conocidos en los que grandes corporativos llevan juicios dantescos en contra de otros que aplicaron Ingeniería Inversa para adelantarse en la colocación de sus productos en el mercado y corresponde a los empleadores de esta técnica demostrar su legitimidad. Como ejemplo tenemos una empresa que decide entrar al mercado de la tecnología de hardware diseñando teclados, para ello debe conocer las especificaciones técnicas de la funcionalidad de los equipos a los cuales les implementarán sus productos y, por evidentes razones, los desarrolladores de software no les darán los requisitos técnicos ni lógicos que requieran para la operatividad de dichos componentes, en consecuencia deben acudir a la Ingeniería Inversa para descubrir los requerimientos que se adapten a sus necesidades y de esta forma ofrecer un producto compatible. Por otra parte se hace mención de Innovación, y se preguntarán qué tiene que ver este término con la Ingeniería Inversa, pues bien, innovar es la implementación de algo novedoso a lo que ya está concebido y, por lo tanto, debemos hacer conciencia que su práctica nos obliga a estar bien documentados sobre las implicaciones que pueda llegar a tener aunque estemos seguros de que se trata de un acto legítimo. Queda en cada quien tomar sus propias conclusiones sobre el uso que se le otorga a la Ingeniería Inversa.

15


Construcción de Objetos

I

con Realidad Aumentada

Ivonne López

magina la posibilidad de plasmar un objeto que sólo existe en tu mente, que apareciera en la realidad inmediatamente en el momento en que lo piensas y poder ver cómo lucirá cuando verdaderamente se solidifique. Pues la buena noticia es que ya es posible gracias a muchas herramientas existentes y que siguen en desarrollo, producto de la Realidad Aumentada, la cual es aplicada actualmente en muchas áreas como en la publicidad, educación o en los videojuegos. Construir cualquier cosa como un auto o un dispositivo electrónico con el uso de distintas herramientas de Realidad Aumentada permite la eliminación de los altos costos en pruebas físicas, además de la reducción del tiempo invertido en su desarrollo. Ahora todo se reduce a mover un dedo gracias a esta tecnología que, como seguro hemos escuchado, nos permite implementarle objetos virtuales a nuestra realidad. En este artículo explicaré un poco el cómo funciona y los elementos que requiere: • CPU donde se ejecutará la aplicación que previamente fue configurada. • Pantalla con cámara para captar las marcas que permitirán visualizar, una vez captada la imagen real, el lugar donde aparecerán los elementos virtuales. • Un activador de realidad aumentada como un GPS, brújula algún tipo de acelerómetro. • Y por último se muestra la realidad en conjunto con los diseños.

16


ARTÍCULO

En la actualidad su uso se enfoca principalmente a la construcción de edificios, promocionando obras y ayudando así a perfeccionar los diseños para tomar decisiones sobre los materiales y la arquitectura de los mismos; de esta manera se garantiza que el proyecto sea como se desea, ya que podemos visualizar cómo lucirá el edificio en el lugar que se requiere sin necesidad de construirlo, esto con el simple hecho de descargar alguna aplicación y usarla tal como está o programarla con nuestros propios diseños, logrando ver lo que queremos. Por ejemplo, podríamos agregarle o quitarle pisos a un edificio, cambiarle la forma o jugar con los colores más rápida y fácilmente que si se hicieran planos o diagramas a mano o a computadora. Un par de ejemplos de aplicaciones para Realidad Aumentada son Augment y Amikasa. Una vez instaladas en nuestro dispositivo sólo es cuestión de elegir los elementos que queremos visualizar, seguido de esto se activará la cámara y aparecerán de inmediato las animaciones elegidas, las cuales se pueden redimensionar, mover y girar dependiendo de cómo queramos ubicarlas. Son aplicaciones que presentan objetos muy bien definidos, incluso en algunos casos hasta parece que sí son parte de la realidad. También tenemos otra forma de ejecutar la Realidad Aumentada con la implementación de Microsoft® HoloLens, unas gafas que permiten superponer objetos e imágenes en el mundo real. En el sector automotriz, empresas como Volvo ya han diseñado automóviles con realidad aumentada utilizando este fabuloso dispositivo. De igual forma, esta tecnología propone una reducción de costos de diseño, asegurando que se tendrán los

resultados planeados por permitir tener réplicas exactas del diseño original. También se podrán realizar encuestas sobre qué diseños construir sin gastar cualquier tipo de recurso hasta que se aseguren de que el auto cumple las expectativas de los clientes. La Realidad Aumentada nos da la posibilidad de programar nuestros propios diseños con algunas herramientas aun sin ser expertos programando. Algunas plataformas para el desarrollo son: Metaio Creator, Aumentaty y Unity 3D, aunque en esta última hay que tener ciertos conocimientos de Javascript o C# para realizar diseños más personalizados y hechos a la medida para cubrir las necesidades en un alto porcentaje. También está la biblioteca ARToolKit NFT que se encuentra basada en C/C++, la ventaja que tiene es que a diferencia de otras ésta no necesita marcadores o códigos para poder adaptar la animación, sino que se adapta a la textura del entorno y permite cambiar las resolución de las imágenes. En conclusión, esta tecnología es muy útil para áreas o lugares en donde se requieren agilizar procesos, por la complejidad de realizar tanto el diseño como la construcción. Además es muy fácil de adquirir, ya que es posible descargar las herramientas y tutoriales desde Internet, incluso se puede ejecutar con las mínimas características en los dispositivos. Me parece muy buena la aplicación de la Realidad Aumentada, debido a que hace reflexionar en que realmente el humano tiene esa capacidad de pensar en cualquier cosa, cualquier sueño, cualquier deseo y llevarlo a la realidad sin límites, porque los únicos límites están en la mente propia que genera ideas haciéndolas realidad dependiendo lo que se proyecte.

17


El Marketing ventaja Digitalcompetitiva De las pymes en México

L

Myrna Linares Altamirano

as pymes en México contribuyen en gran medida a la economía nacional, según información del Instituto Nacional de Estadística y Geografía en nuestro país las pymes representan aproximadamente el 99.8% del total de empresas generan 52% del Producto Interno Bruto (PIB) y 72% del empleo en el país. Sin embargo los retos que enfrentan estas Pequeñas y Medianas Empresas en México son variados, los empresarios que fundan y dirigen estas empresas tienen que trabajar arduamente para subsistir, ser competitivos y obtener el éxito empresarial deseado. La escasez de los recursos financieros, humanos y técnicos lleva al máximo la capacidad creativa de los empresarios en cuestión. Considerando que las ventas del producto o servicio de la empresa son un factor indispensable para obtener el éxito empresarial, que existen aproximadamente 62.4 millones de personas que son usuarios de Internet en México según encuesta realizada por el INEGI al cierre del año 2015, que el empresario de la Pequeña y Mediana Empresa tiene a su alcance el Marketing Electrónico con ventajas en reducción de costos en campañas publicitarias, además de amplia cobertura de clientes potenciales en la Internet. No obstante, aún existe cierta distancia entre los empresarios de las pymes y el marketing digital por factores como: limitaciones en recursos tecnológicos, escasez de recursos financieros, limitaciones en recursos humanos, entre otros. Por ello es de vital importancia que las pymes generen un acercamiento contundente a las TIC’S para potenciar su crecimiento, ser competitivos en el plano local y global, aprovechando al máximo las herramientas digitales que hoy en día forman parte de nuestra vida cotidiana.

18


ARTÍCULO

19


Este artículo se centrará en el Marketing Digital basado en un sitio web como estrategia de Mercadotecnia para posicionar el producto o servicio de las pymes y potenciar su crecimiento. Comenzaré por mencionar las fases de construcción del sitio web: planteamiento del problema de la empresa pyme y su análisis, planificación, contenido y diseño con base en las necesidades de nuestro cliente, programación, implementación, testeo, mercadeo y publicidad basada en la experiencia del desarrollador, mantenimiento y actualización del sitio web.

Planteamiento del problema y análisis

En esta etapa el equipo de trabajo analiza la situación actual como: situación geográfica de la empresa, situación financiera, necesidades de publicidad de la pyme y cómo ajustar las necesidades reales de la empresa a la construcción de su sitio web; se identificará el propósito del sitio que puede dar a conocer su producto o servicios, vender, proporcionar información, generar un acercamiento al cliente y también se determinará la imagen que quiere proyectar a sus clientes potenciales; se establecerán los tipo de servicios que se integrarán en el sitio y qué impacto desea causar en los usuarios, además se identificarán los recursos requeridos para la construcción y publicación del sitio web. Derivado del estudio previo de mercado realizado por la pyme, se identificará el segmento de los clientes a los que va dirigido el producto o servicio que se ofertará en la web. Es importante esta etapa debido a que la elección del diseño del sitio web, la elección de las imágenes, la redacción de las frases, los colores, entre otros se realizará en función a dicha segmentación, asumiendo que el objetivo del Marketing Digital es el posicionamiento del producto o servicio y su venta. Esta fase se debe considerar esencial.

Planificación

Se elaborará una estimación del tiempo que se invertirá en el desarrollo del sitio web. Es necesario generar una lista de los requerimientos técnicos y humanos, como sigue:

20

• Selección de Hardware. Que tendrá como objetivo el monitoreo y administración del sitio web, con características mínimas que cubran las 2 tareas mencionadas: Procesador Atom o equiparable, 2 GB de memoria RAM, monitor genérico, almacenamiento de 500 GB, 1 kit de teclado y mouse alámbricos, una tarjeta de red Ethernet 10/100/1000 Mbps. • Cámara de video de alta definición. • Selección del proveedor de dominio con base en el giro de nuestra pyme. Que incluye el servicio de hospedaje y herramientas de edición. • Selección de plantilla ofrecida por el proveedor de dominio, considerando las necesidades de la empresa. • Conectividad a Internet. Si se cuenta con una línea básica se puede hacer uso de ella. • Definir si será necesario integrar un equipo de trabajo (incluye al líder del proyecto, al programador y al diseñador gráfico) o evaluar si un arquitecto de software será suficiente para llevar a buen terminó el proyecto. Es importante resaltar que, al integrar el grupo de trabajo para elaborar el diseño y construcción del sitio web, es deseable integrarlo de la siguiente forma: Incluir a una persona que pertenezca a la empresa y a 2 ó 3 residentes de instituciones educativas de nivel superior que cursen carreras afines al área de sistemas computacionales, de esta forma la empresa contará con capital humano calificado en su proyecto sin descapitalizarse. La elección de plantillas gratuitas existentes para diseño y construcción de sitios web proporciona las siguientes ventajas: facilidad en su operación, actualización y mantenimiento; no es indispensable contar con personal altamente especializado en el tema, además de ahorrar recursos financieros y humanos.

Contenido

El éxito de un sitio web se debe a su contenido, por lo que será necesario acopiar lo que tiene disponible la empresa y empezar a trabajar con lo que se desea incluir en el sitio en cuestión, siempre considerando el propósito del empresario y los objetivos del proyecto, además de tener


ARTÍCULO

presente a los usuarios a quienes va dirigido.

obtener un sitio web exitoso en la red de Internet.

Diseño

Testeo

En esta fase se considerarán aspectos relevantes como la usabilidad y accesibilidad del sitio web. También es necesario diseñar las aplicaciones multimedia que incluirá el sitio, como ejemplo: audio, video, animaciones, entre otros; así también presentar estos elementos en forma lógica acorde con los objetivos del proyecto.

Programación

En esta etapa según Green, Chilcott & Flink (2013), se trabaja la arquitectura de tres fases, la cual expone lo siguiente: • Base de datos: Se diseñó y creo la base de datos. En esta etapa la empresa debe contar con personal técnico especializado en el tema. • Programación intermediaria: Programas o códigos que se ejecutaron en el servidor web. Se estableció la comunicación entre la base de datos y la interfaz. • Interfaz: Programas y códigos que desplegaron el contenido a los usuarios a través del navegador web. Se refiere a la aplicación que el usuario visualizará y a través de la cual operará en ella.

Implementación

Corresponde a la publicación del sitio web de la pyme en Internet para que se encuentre a disposición de los potenciales clientes y usuarios, previa autorización del empresario. En esta fase la empresa puede apoyarse en las técnicas de posicionamiento de un sitio web: • SEM. Search Engine Marketing – Posicionamiento por pago • SEO. Search Engine Optimizacion – Posicionamiento orgánico o gratuito. Ambas técnicas son estrategias para el posicionamiento en buscadores web, necesarios para

Se realizan pruebas por el equipo de trabajo de la pyme para comprobar que el sitio web funcione adecuadamente, se prueba en distintos navegadores la visualización correcta del sitio, se detectan enlaces rotos y se verifica el tiempo de descarga con el propósito de realizar las adecuaciones pertinentes.

Mercadeo y publicidad

Una vez publicado el sitio web, la difusión dependerá de la publicidad que se le pueda dar mediante estrategias de posicionamiento del sitio en Internet, mediante banners en sitios específicos y por medio de buscadores.

Mantenimiento y actualización

Para obtener el éxito en el Marketing Digital, el empresario de la pyme debe actualizar de forma permanente su sitio web, para que los clientes puedan encontrar contenido novedoso y renovado del producto o servicio ofrecido por la empresa. Es deseable que el empresario revise cada mes el número de visitas al sitio web, revisar que los sitios que se enlazan sean vigentes y tener como propósito el mejoramiento constante del sitio web de la pyme.

Conclusión

El Marketing Digital al servicio de las pyme es una importante herramienta que permite potenciar el éxito empresarial, el uso de los sitios web es sólo un ejemplo de la optimización de los recursos financieros y tecnológicos de la empresa para poder mercadear su producto o servicio con el mínimo de recursos financieros y humanos; también el empresario tiene a su alcance las redes sociales como Twitter, Facebook, Instagram, entre otras. El reto a vencer por los empresarios de las pyme en México es adoptar el Marketing Digital como una práctica empresarial de uso cotidiano con el propósito de lograr negocios exitosos.

21


¿Por qué es Importante Certificarte?

H

Mitzy Mejia

oy en día las Tecnologías de la Información han transformado e influenciado nuestras vidas y a las empresas de una forma tan revolucionaria que los profesionales que administran estas plataformas se han vuelto muy importantes y solicitados; es ahí donde radica la importancia de las certificaciones TI (Tecnologías de la Información). Miles de puestos de trabajo se crean cada día y dentro de los requisitos se encuentran ciertos tipos de especialización avalada por alguna empresa. Es conveniente sincronizar las certificaciones con el perfil que deseas obtener para así cumplir con las necesidades de la empresa, pero sobre todo cumplir con tus objetivos. No se debe perseguir una certificación sólo porque está de moda, ya que es importante tener interés y gusto por la tecnología elegida. La realidad es una, estamos en la era del conocimiento y las certificaciones son el único instrumento (hasta ahora) que las empresas tienen para preseleccionar al mejor candidato.

Tipos de Certificaciones

Hay diferentes tipos de Certificaciones Profesionales en el mundo de la Tecnología, algunas de ellas son: • Certificación en Ingeniería de Calidad del Software (CSQE). • Certificaciones en Pruebas de Software (ISTQB, ISEB). • Certificaciones en Ingeniería de Requerimientos (IREB). • Certificación Profesional en Desarrollo de Software (IEEE). • Certificaciones Profesionales en Administración de Proyectos.

• Certificaciones de Proveedores. Existe un catálogo inmenso de certificaciones, contar con algunas de ellas te pone en el segmento de profesionales que podrán acceder a puestos mejor pagados dentro de las empresas o como consultores. Además ayudan a la actualización constante, no sólo es un examen, sino una validación completa que cuenta con una serie de requisitos para obtenerlas.

Juan Saldívar, Director de Promoción de Capital Humano de MéxicoFIRST, está de acuerdo con que las certificaciones ponen a los profesionales en un nivel diferente: “Hemos detectado que casi el 76% de los profesionales lograron un ascenso después de la certificación en menos de un año y 2% logró dos ascensos apenas un año después de la certificación”2, afirmó Saldívar. Especializarte en el mundo de la tecnología no sólo te habrá dado conocimientos, además obtendrás reconocimiento dentro de la industria y es algo que te hará destacar frente a otros candidatos. Como conclusión, es recomendable el que adquieras un conjunto de certificaciones de acuerdo a tu perfil para así obtener ganancias no sólo económicas, sino también de crecimiento profesional.

Sitio web: http://searchdatacenter.techtarget.com/es/cronica/Certificaciones-de-TI-en-Mexico-Camino-al-ascenso-o-simples-papeles

22


ARTÍCULO

23


Cómo ser programador y no morir en el intento

E

Edgar Loeffelmann

n discusiones que he tenido con algunos colegas instructores, en lo único que hemos estado de acuerdo es que la universidad no necesariamente nos da bases sólidas para comenzar a desarrollarnos en el ámbito de la programación. Vamos, nunca falta el profe que se quedó en un ciclo infinito del tiempo y ahí nos tiene programando lenguaje ensamblador o en Pascal, la maestra de bases de datos que jamás en la vida conoció un Stored Procedure pero “medio” nos enseñó Access, el profe aplicado que se aventó un tallercito de ColdFusion y ahora nos obliga a estudiar esa tecnología que ni él supo para qué servía, el Javero de corazón que cuidadito y se te ocurra blasfemar con .NET porque no te vuelven a ver en todo el semestre… y bueno, hay de todo en la viña del señor. Pero a pesar de todo, bien que mal terminamos preparados para afrontar las dificultades que se nos vienen en el ámbito laboral, y desde luego el mérito también le corresponde a los profesores que se dedicaron a darnos las herramientas para sobrevivir a las exigencias de la industria. Sin embargo, el problema viene cuando nuestro famoso “bien que mal ya la armé” tiende a ser más mal que bien. Lo que sigue es (ya sabes) te titulas, le echas la flojera un rato hasta que tu mamá te obliga a buscar empleo, te haces el que no encuentra nada, te empiezan a quitar el subsidio y –pues ahí sí ya valió- a enviar currículos de forma masiva como si te pagaran por ello. Después de

24

algunas entrevistas te hacen saber muy amablemente que tu nivel de conocimientos no es el esperado, que tienes áreas de oportunidad, que “nosotros te llamamos”, etc.; vaya, no tienes el perfil, punto. En fin, dejemos las historias tristes para otro momento y rescatemos sólo lo que nos interesa: conocimientos, programación y por ahí dijimos “Javero”, bueno, ya tendremos muchos de ellos (expertos) que nos ayudarán a cumplir nuestro objetivo: sobrevivir a la programación, en este caso se trata de sobrevivir a Java. Espero que el título sea lo suficientemente claro, pero si aún no lo es, la intención de este artículo es abrir paso a una nueva sección donde explicaremos algunos temas básicos (otros no tanto), que nos servirán para entender conceptos teóricos de Java que son fundamentales para desarrollar bajo mejores prácticas, comprender más a detalle este lenguaje y tecnología, saber por qué nos salían cinco errores en siete líneas de código, etcétera, y claro, hasta apantallar a nuestro entrevistador si ustedes gustan. Me tomaré la libertad de arrancar esta sección de forma muy breve con un tema bastante sencillo pero que típicamente provoca confusión: el ámbito y tipo de variables.

No, las variables de instancia y de referencia no son lo mismo

Cuando por fin te decides a aprender a programar y escribes tus primeras líneas de código no hay mucho qué discutir: tú declara tus variables y ya. Sin embargo,


ARTÍCULO

conforme vas aprendiendo comienzas a escuchar infinidad de adjetivos que le ponen a tus pobres variables: que si es estática, de referencia, global, local, de clase, de instancia… o que si es un atributo, campo, propiedad, etcétera. La primera confusión viene cuando estructuramos una clase con sus métodos y atributos (variables de instancia) y nos disponemos a crear una instancia de esa clase. Ya sabemos que en Java podemos hacer que una variable almacene la referencia a la instancia (u objeto, es lo mismo) que creamos, por lo tanto la declaramos y muy orgullosos decimos: “he ahí mi variable de instancia apuntando a una instancia, obvio”. Para empezar la frase anterior no es ni obvia ni correcta, estamos haciendo mal uso de los términos y créanme, eso nos llevará eventualmente a meternos en problemas. Pero vayamos al grano, la variable que se declaró para almacenar la referencia a la instancia se llama propiamente “variable de referencia”; veamos entonces cuál es la diferencia entre un término y otro.

Variables según el ámbito

El ámbito es en pocas palabras el alcance que tiene una variable, es decir, de dónde a dónde puede ser utilizada. Por ejemplo, una variable que se declara dentro de un método solamente puede ser usada dentro del bloque de código de ese método, fuera de él no existe. A éstas se les conoce como variables locales. Por otro lado, las variables que se declaran fuera

de los métodos tienen un ámbito mucho más amplio porque están delimitadas por el bloque de código de toda la clase, éstas son llamadas variables de instancia. Cuando un objeto a partir de esa clase es creado en memoria, se construye con todas las variables que almacenarán sus características, por esa razón también son conocidas como atributos, campos o variables globales.

Variables según el tipo de dato

Aquí no hagamos tanto enredadero, sólo hay dos tipos de variables: primitivas y de referencia a objetos. Desde luego las variables primitivas se subdividen en ocho, que son los tipos de dato primitivo que maneja Java: byte, short, int, long, char, float, double y boolean. Por su parte, las variables de referencia son todas aquellas destinadas a almacenar –ahora sí es obvio- las referencias a los objetos que serán creados en memoria. Entendido lo anterior podemos comenzar a jugar con los conceptos, por ejemplo, por supuesto podemos tener una variable de instancia de referencia a objeto, ¿cuál es la condición?, pues simplemente que se trate de un tipo de dato “objeto” (o sea que apunte a un objeto) y que esté declarada directamente dentro de la clase (fuera de un método). Claro, olvidaba que también existen las variables estáticas las cuales no pueden ser declaradas dentro de un método pero bueno, ese es otro tema que seguramente desarrollaremos en las próximas ediciones.

25


C

K&M

uando vi la película Origen de Christopher Nolan imaginé un futuro donde uno pudiera manipular sus sueños y crearse realidades alternas, aunque mi mente perversa lo imaginó de otra manera y fue cuando formulé una pregunta que ahora te hago a ti: ¿Te podrías imaginar que algún día puedas transportarte a una realidad donde interactúes con la chica de tus sueños?... Ahora, ¿Qué pensarías si te dijera que esto puede estar más cerca de lo crees? Para resolver la pregunta inicial, primero hay que ver qué tenemos. Sabemos que todavía estamos muy lejos de poder manipular los sueños y crearnos realidades alternas, pero, por un lado, ya comenzó la era de la Realidad Virtual (VR), donde el propósito es transportarnos a un mundo donde podamos, por ejemplo, jugar videojuegos o ver películas y sentirlos lo más real posible. Hablando específicamente del tema que nos interesa, hay pioneros que ya vieron negocio en el mundo del videojuego sexual utilizando la Realidad Virtual, y así, han dado paso a una nueva experiencia para el “jugador” con el fin de adentrarlo a una realidad donde pueda interactuar sexualmente con los personajes del juego. Así es, leíste bien, ¡interactuar sexualmente! Por ejemplo, el proyecto VirtualDolls es un aparato mecánico que permite la estimulación del miembro masculino utilizando como complemento el video juego Girls of Arcadia, cuya finalidad es adentrar al jugador en un mundo donde pueda tener un acercamiento íntimo con alguna de las chicas del videojuego. Su creador explica que en VirtualDolls “se puede sentir el juego”, ya que los movimientos se sincronizan perfectamente con el panorama visual. Así mismo, comenta que el aparato se ajusta a varias velocidades de movimiento y viene con texturas diferentes de silicona para ofrecer una mayor sensibilidad. La idea es fenomenal y, en su momento, VirtualDolls era una novedad en realidad virtual mezclada con el sexo,

26

pero ahora ha surgido un invento más revolucionario: Illusion VR, un proyecto japonés que consta de un traje que integra sensores táctiles ultra sensibles que harán que el usuario sienta como si realmente lo estuvieran tocando. Para llevar la experiencia a un grado más real, Illusion VR es acompañado por los lentes de Realidad Virtual Oculus Rift, el juego erótico Sexy Beach Premium Resort, además de un dispositivo mecánico estimulante (igual que VirtualDolls) y una especie de pechos para simular el acto de tocarlos. Es un proyecto que surgió este año y por ende sigue en proceso de pruebas y mejoras. Sin embargo, el éxito ha sido tal que la demanda supera a la oferta. Por otro lado, Japón, el país creador de artículos para el entretenimiento de adultos ha sacado a la venta muñecas de silicona que tienen el aspecto y textura de una persona real. Particularmente yo las he visto y, créeme, es como ver un personaje de un anime japonés. Ahora, imagina que se puedan juntar ambas ideas y llevarlo a otro nivel donde tu muñeca cobre vida a través de la Realidad Virtual; esto es, que tenga integrada una serie de sensores ultra sensibles al tacto y no sólo eso, sino que además, a través de sus orificios y en conjunto con unos lentes de Realidad Virtual, puedas llegar al clímax. Lo anterior indiscutiblemente me lleva a la siguiente pregunta: ¿Quién sale beneficiado? Tal vez creas que es el usuario y quizá sí, en parte, pero la realidad es que quienes salen más beneficiadas son aquellas empresas que aprovechan las “necesidades del cliente” con la venta de este tipo de productos. Ahora, ¿Qué beneficios podrían traer los productos que den placer a una persona?, la primera, llevarlo a la experiencia más deseada ilimitadamente sin que esto represente perjudicar su salud y gastar, a veces, grandes cantidades de dinero. Sin embargo, la problemática que traería consigo es crear una adicción al producto y lo peor, envolver a cliente de una manera tal, que promueva un aislamiento social. A pesar de eso, creo que muchas personas estarían felices de tener un producto que las lleve a tener una experiencia así, ¿o tú qué opinas?


ARTÍCULO

Rea li dad Vir tual y el Sexo

27


Arduino is ready to plug, to

wire and to program, to execute

E

Carlos Raúl García Cortés

stimados lectores, es muy grato para mí escribir este artículo. Confieso que es el primero y que además estoy muy emocionado por esta gran oportunidad que me brinda la revista developNetwork. Decidí escribir sobre la plataforma Arduino, pues además de que me gusta la electrónica y lo relacionado a la robótica, estoy comenzando un proyecto personal. Como todos sabemos, Arduino es una placa de circuito impreso con un microcontrolador ATmega328P con las capacidades suficientes para iniciar en el mundo de Arduino.

El porqué del título

Bueno, pues así es como inicié mi primer proyecto. Conecté (to plug) al USB la placa Arduino, pero antes instalé el IDE para Arduino y lo ejecuté, esperé a que la placa fuera reconocida por el sistema operativo y el IDE de Arduino, esto se ve ya que se enciende el led de lectura/escritura. Poco después tomé como ejemplo mi primer programa (to program) -Blink, el programa hace parpadear el led de lectura/escritura de Arduino que está conectado al pin 13- a una determinada frecuencia. Por último separé la placa de la computadora, la energicé y ¡eureka!, empezó a trabajar (to execute) sin mayor problema: el led se prendía y apagaba cada 500 ms.

Así de fácil fue iniciar con Arduino

Y sí, el programa que utilicé es muy sencillo, sin embargo representó para mí un gran salto (recordemos

28

que todos alguna vez fuimos principiantes). Pero como deseaba salir rápidamente de la zona de principiantes, tomé algunos de los muchos ejemplos y comencé a alterar el flujo del programa. Después utilicé el ejemplo que escribe al puerto serial de Arduino y empecé a alterar la frecuencia de encendido/apagado en tiempo de ejecución para ver cómo se comportaba la placa; aunque hasta este momento no había conectado algún circuito integrado, resistencia, etc., por lo tanto aún seguía en la zona de principiantes. Después de controlar el encendido y apagado de algunos leds y verme forzado a leer un poco sobre resistencias, agarré un transistor TIP120, algunas resistencias, un protoboard y un motor DC y conecté (to wire) todo para poder controlar la velocidad del motor. Quedé emocionado y sorprendido de lo fácil que resulta controlar su velocidad. Como niño con juguete nuevo, tomé un circuito integrado L293D y un ejemplo de código para controlar el giro del motor DC, entendí el funcionamiento del programa y lo alteré un poco para dejarlo a mi gusto y después de algunas pruebas ¡ya estaba controlando el giro y paro del motor a través del puerto serial que proporciona Arduino! Después de controlar el giro del motor, me dispuse a controlar un motor a pasos y con un poco de esfuerzo para determinar la secuencia de pasos, conecté todo sobre un protoboard… un poco más de esfuerzo, pruebas y -otra vez- ¡eureka!, logré controlar el motor a pasos. Si bien, me resultó simple y rápido poder usar Arduino y realizar cosas sencillas, no quiero decir que me he convertido en un experto, mi área fuerte


ARTÍCULO

es la programación y en electrónica sólo tengo conocimientos básicos. Como era de esperarse el conocimiento no cae del cielo, así que me ayudé de un excelente libro para Arduino llamado “Arduino by Example – Desing and build fantastic projects and devices using the Arduino plattform” del autor Adith Jagadish Boloor, así como algunas referencias de Internet de las muchas que seguro podrás encontrar fácilmente; desde

luego no te olvides de visitar el sitio oficial. Y por supuesto, no podemos olvidarnos de aplicar una metodología o estrategia para organizar el desarrollo de nuestro proyecto y ésta dependerá en gran medida de la magnitud del mismo. Me despido con gusto, y más forzado por falta de espacio, esperando inyectar esa emoción que sentí al momento de programar esta maravillosa placa.

29


30


ARTÍCULO

31


Lo que todo “arquitecto de software” debería de saber

E

Alejandro Rebollo

n México se ha venido usando el término de Ingeniería y Arquitectura de Software hasta cierto punto de forma indistinta; empero, en el estricto sentido la Ingeniería abarca temas de Arquitectura de Software. El término Ingeniería de Software se empezó a utilizar para “masificar” la generación de desarrollo de software a la medida a nivel empresarial, con el advenimiento de la programación orientada a objetos que, se suponía, iba a ser un paradigma al pasar las actividades de programación de un formato artesanal a una construcción en “serie”, similar a la producción de hardware: por componentes interconectados. Con el paso del tiempo esto no ha sido posible. Luego, con el surgimiento de las fábricas de software en donde había ciertos recursos en sitio tomando requerimientos de usuario y casos de uso para posteriormente enviarlos a “maquilar” en una zona remota, donde las personas estaban fuera de sitio, y entonces, debían de tener una forma de interpretar los requerimientos que se estaban solicitando y transformarlos en código fuente, probado unitariamente. Con esto surgió la metodología UML (Lenguaje Unificado de Modelado) y el concepto de “arquitecto” de software. Por lo anterior, el término “arquitecto de software” se ha venido usando como aquella persona que es capaz de entender los requerimientos de negocio de una empresa, documentarlos, describirlos y, con base en esto,

32

proponer un diseño de referencia que lleve a otra u otras persona(s) a construir estos requerimientos de inicio a fin y saber qué componentes (incluso de hardware, así como de software) estarán involucrados. Y también, entender el gobierno de datos de la empresa donde se están levantando los requerimientos, para poder gestionar las pruebas necesarias que validen que la arquitectura o diseño trabaja no sólo de manera unitaria, sino incluso ante cualquier escenario o prueba de operación con alto volumen de datos que se le presente. Pero las cosas han cambiado y el mundo de los negocios, así como la vida, se ha ido acelerando cada vez más. Los usuarios de sistemas son cada vez más exigentes y llegan a solicitar incluso productos que nos llevan a sistemas o programas de software totalmente personalizados. O bien, por la misma globalización de la economía y de los negocios, las empresas tienen que reaccionar rápidamente y de manera adaptativa a los nuevos cambios que se generan en el exterior a ellas. Por lo tanto, la famosa arquitectura se vuelve un tema esencial, ya que no sólo debe atender que los requerimientos de negocio trabajen bien y de manera optima; sino que, incluso, debe ser una arquitectura flexible y adaptativa. La mayoría de las fallas en arquitectura de software se debe a que los arquitectos responsables de diseñar una solución sólo conocen una parte de todos los componentes que se requieren, es decir, o conocen mucho de software pero poco o casi nada de hardware; o a la inversa.


ARTÍCULO

Y sobre todo, un Arquitecto de Software la mayor parte del tiempo desconoce cómo opera un negocio o empresa tanto al interior como al exterior de sí, es decir, no conoce las fortalezas de este negocio que le ayuden a acaparar los cambios repentinos del exterior o a responder de forma rápida a las exigencias de cambio, y también, se desconocen las áreas de oportunidad que tiene la empresa en sus operaciones del día a día. De acuerdo a lo mencionado, entonces, un Gerente o Director de Tecnologías de Información debe ser, de por sí, un Arquitecto de Software. Pero se debe de valer de medios que hagan la alineación de la estrategia de negocio versus la estrategia de Tecnologías de Información.

Con este fin surge un modelo que nos ayuda a realizar esta alineación estratégica y que debe ser fuente de consulta de cualquier persona que presuma ser “Arquitecto de Software”. Estoy hablando del modelo de alineación de Henderson & Venkatraman. A continuación se coloca una imagen de cómo opera este modelo:

Con lo anterior estamos diciendo que…

Con estos marcos de referencia se puede construir un portafolio de proyectos de Tecnologías de Información a lo largo de un año (lo que generalmente se considera de tiempo para la planeación estratégica). Los sistemas de software que se construyan estarán alineados con la estrategia de negocios y no se hará una inversión desproporcionada de herramientas de Tecnologías de Información que no estén alineadas con la estrategia de negocio; o a la inversa, si la estrategia de Tecnología de Información está corta, entonces fortalecerla para que pueda ser operativa en el marco de la estrategia de negocio.

Modelo de Henderson & Venketraman (1)

Aquí lo importante es que este tipo de modelos, nos ayudan a planificar objetivamente sistemas y estrategias de Tecnologías de Información futuras, pero, incluso, nos pueden llevar a saber qué tan alineada está la estrategia de Tecnologías de Información actual de una empresa contra la estrategia de negocio.

33


Redes Sociales Empresariales

34


ARTÍCULO

T

Fermín Flores

odos estamos conectados, es una realidad en nuestra actualidad directa o indirectamente, si lo deseamos podemos enterarnos de datos que en otras épocas tomaría un poco más de tiempo y recursos, si estamos en México podemos consultar la situación del tráfico de la gran manzana en Estados Unidos, el clima, la calidad del aire, quién era el presidente de México cuando John Lennon murió, etcétera. Si la mente prodigiosa y generosa de Tim Berners Lee hubiera privatizado su mejor creación “La Red” nuestra realidad sería muy diferente a lo que podemos contemplar el día de hoy. Con la evolución de la red hemos presenciado, y en casos especiales, desarrollado avances tecnológicos a pasos enormes, pero la red no sería nada sin los participantes que la alimentan a diario, texto, video, audio, viajando por las interminables líneas que enlazan continentes. He allí uno de los motivos de que el avance sea más rápido, la información es más común. Regresemos un poco en el tiempo donde las tendencias de diseño web no eran prioridad y el googlear no era parte del diccionario, la información era compartida en forma de blogs, del término web log “bitácora web”, éstos se utilizaban con mayor frecuencia para compartir y que cualquiera sin tener mayor problema pudiera consumir el tema deseado. Sí, estábamos conectados mucho antes de que nuestro Smartphone nos lo indicase, pero ¿qué fue lo que ocasionó la explosión?, ¿qué marco la línea del antes y el ahora?, en el momento en que la comunidad tomó la decisión de que Internet tenía que cambiar de piel, implementando la Red 2.0, la presentación de la información y la facilidad para crear, modificar e implementar scripts fue más práctico que nunca, agregando que el tener servicio de conexión a Internet ya no era señal de estatus económico porque comenzó a estar al alcance de todos. La manera de compartir información se hizo más práctica, anteriormente se debía tener conocimientos técnicos básicos para poder conectarse a Internet y crear un blog, pero a alguien se le ocurrió que la bitácora web tenía que ser más práctica y debía llegar a más personas, a más lugares. El término Red Social comenzó a sonar, ¿pero qué es una Red Social?, en palabras generales es una página web en la que los internautas intercambian información personal y contenidos multimedia de modo que crean una comunidad de amigos virtual e interactiva (Wikipedia). Facebook, Twiter, WhatsApp, LinkedIn, Google+, Snapchat, todos de alguna manera consumimos estos servicios, queda claro que cada una de las anteriores es diferente no sólo por lo superficial, sino por su función y la tecnología con la que trabajan. Tomemos 2 ejemplos:

Facebook y Linkedln, una enfocada completamente a lo social y trivial, la otra orientada a negocios. Redes sociales con objetivos diferentes, pero ¿qué es lo que las hace tan populares? La manera tan simple de poder comunicarse con otra persona ignorando la ubicación geográfica, aunado a que cada vez más personas se integran a este tipo de servicios. Pero el sector empresarial aún no aprovecha este potencial, sí, hay empresas que integran dentro de sus herramientas administrativas redes sociales como Facebook y Twitter, pero el concepto de Red Social Empresarial aún no es común. No confundamos este término con el de Intranet, esta última sólo tiene la función de centralizar y compartir información de forma privada. El tema es que una red social empresarial con algoritmos capaces de proporcionar información de calidad y aprender de sus usuarios es algo que aún no ha madurado, sin embargo, ya existen algunas empresas que ofrecen esta solución como Totvs. Esta herramienta tiene un potencial considerable, pongamos un ejemplo, si una máquina sufre un inconveniente, la forma en cómo se va dar de alta este incidente es normalmente vía mail, pero considerando que la capacidad de un correo empresarial es limitado y que en el momento se tienen bastantes correos en la bandeja de entrada, la tarea de revisar se vuelve algo engorrosa. Simplificando este proceso, el responsable de la máquina toma una fotografía del incidente y la publica en el muro, en automático las áreas correspondientes se enteran y comienzan a dar solución, todo en unos simples pasos. Comunicados de Recursos Humanos donde te invitan a felicitar a un compañero por su cumpleaños o a un área por alguna contribución relevante, avisos de suspensión de labores, circulares, en fin, todos los movimientos de la empresa los cuales deben ser de interés común, pueden estar publicados y accedidos al instante. Ponerse de acuerdo para una reunión o intercambiar avances de un proyecto, crear grupos de trabajo, personalizar tu perfil colocando todas tus certificaciones, cursos y actualizaciones para que al momento de iniciar un proyecto puedan conocer tu perfil e iniciar trabajo contigo, una vez más sin importar la ubicación geográfica. Está claro que las aplicaciones son casi infinitas si aprovechamos todo el poder de los algoritmos a favor de nuestra empresa, tomado en cuenta que si la empresa está bien comunicada, el desarrollo de proyectos será más ágil y por ende todos ganan. Como vemos, esta tendencia está elevando sus alcances y en cuanto más empresas se den cuenta de la capacidad de esta tecnología, se verán en la necesidad de contratar más desarrolladores para poder enriquecer aún más su uso, es decir: negocio redondo.

35


E

Victor Jesús Hernández Salinas

n los últimos años se ha hecho común escuchar términos como “Web 3.0” o “Web Semántica” como el futuro inmediato de Internet, así como diversas explicaciones de qué es y cómo funciona, o de los modelos tecnológicos involucrados como Linked Data, Big Data, RDF o las ontologías; pero muy poco se ha dicho sobre lo que debemos hacer para cambiar los modelos de desarrollo, trabajo y negocio que tenemos actualmente y adaptarlos a los paradigmas que contemplen a la semántica como parte del plano de trabajo diario en la Web y sobre todo, el por qué habríamos de hacerlo. A riesgo de ser reiterativo, y sólo para aquellos que aún no estén familiarizados con el término, hagamos un rápido repaso de lo que se dice sobre la Web Semántica. Se denomina Web Semántica a los sistemas de Internet que manejan y exponen abiertamente información con un grupo de propiedades, tales que permiten agrupar en clases y categorías a cada elemento de información contenida en ellos, así como una descripción de las interrelaciones entre esas propiedades y clases, y por supuesto las condiciones para poder consultar y utilizar dicha información, ya no como coincidencias de texto, sino como consultas por conceptos, tal y como haríamos al preguntar entre personas, sólo que esta vez la idea es que quienes puedan leer, analizar, entender y compartir sean las máquinas y con ello ayuden a los humanos a realizar mejor sus labores. Esto es casi como lograr tener a una “Siri” que sea realmente capaz de “dialogar” con nosotros de manera eficaz como lo haríamos con otra persona, y no sólo mediante respuestas pre-programadas, inteligentes y efectivas pero previamente definidas al fin. Recordemos que los idiomas tienen reglas diversas que permiten que podamos estructurar y transmitir adecuadamente esos conceptos mediante mensajes y conversaciones, por lo que de igual manera se debe desarrollar un lenguaje que sea compartido entre todos los sistemas que utilicen los modelos semánticos, de forma que podamos definir las reglas genéricas para establecer adecuadamente esa comunicación. Sin mencionar la complejidad de los modelos de pensamiento. Pero esto último implica entrar en el terreno de la Inteligencia Artificial, y aquí acotemos que el modelo se basa más en la posibilidad de inferir información a partir de otra, que sea realizada de manera

36

automática por un sistema digital mediante información abierta y compartible. Por lo que la Inteligencia Artificial pertenece (al menos por ahora) a un campo distinto, aunque quizás ya no tan alejado en algunos aspectos. La Web 3.0 es un modelo propuesto por la W3C (World Wide Web Consortium) desde el año 2001, que ha sido objeto de debate en los círculos de investigadores y académicos, a pesar de tener varios modelos tecnológicos que se han desarrollado para ir construyendo poco a poco cada uno de los requisitos para concretar una Web Semántica real y tangible, en el plano público apenas comienza a hacerse presente y no siempre de forma explícita. Es por tanto considerada por muchos como la oportunidad de abrir nuevas líneas de mercado y para otros una tecnología que no ha logrado “cuajar” y que ya no lo hará. La Web Semántica no es una panacea en el sentido que cambie los paradigmas establecidos, sino que los ampliará a nuevos límites, y quizás no la veamos consolidada con el modelo inicial exacto con que se anunció, sino como una tecnología diferente pero que surgirá definitivamente de los preceptos de la Web3 (como ha ocurrido con modelos como Open Graph de Facebook, o Google Schemas, que aunque no se declaran así mismos como líneas semánticas, sin duda utilizan modelos que se basan en los preceptos presentados por la W3C).

La imaginación es el límite

Pensemos por un momento qué pasaría si aprovechando la movilidad y aplicaciones que tenemos en nuestros dispositivos, éstos comenzaran de repente a compartir de manera abierta toda la información (o al menos la que no protejamos conscientemente) que recaban durante todas y cada una de las actividades diarias que realizamos apoyándonos de ellos, y que en tiempo real esa información pueda ser cruzada con distintas instituciones, comercios, personas y nos permitan en cualquier momento recibir avisos de distintas clases, pero todos adecuados a nuestros intereses, gustos, tendencias de consumo, trabajo, información o diversión; o al momento de estar realizando cualquier trámite personal, comercial u oficial, saber si es necesario realizar alguna otra gestión en otros lados, qué requisitos se deben cumplir, si hubiera que hacer algún pago, y que en realidad pudiéramos hacerlos todos desde el auto o domicilio, que sean las mismas aplicaciones las que nos informen de ello y realizarlo de forma simple,


ARTÍCULO

¿Cómo llegar a la Web Semántica? Y ¿Cuál es su realidad hoy?

37


ARTÍCULO

ágil, y sobretodo cruzando información de distintas organizaciones, sin importar dónde estemos o a qué hora (esto ya se puede realizar, pero sólo hasta cierto nivel pues aún no se comparte toda la información posible entre dos o más organizaciones, ya que se conservan bases cerradas). La mayoría puede no saberlo, pero en realidad todas y cada una de las personas que tenemos un perfil en redes sociales ya estamos trabajando con Web Semántica de manera discreta. Cada vez que indicamos que nos gusta algo o la foto de alguien, nos hacemos amigo de alguien, publicamos que estamos en algún lado, o viendo alguna película, o comiendo un platillo cualquiera en un lugar específico, o consultamos o buscamos información sobre determinado tema, estamos alimentado una semántica de información sobre nuestros perfiles digitales, y esa información se usará después por algoritmos inteligentes para propósitos distintos. El problema es que las empresas que hoy poseen dicha información, la están resguardando y al no ser compartida el provecho de su uso lo tienen solo ellos. Pero recordemos que una de las premisas de la Web Semántica es que la información sea abierta. En realidad, sólo la imaginación puede decirnos por ahora cuáles serán las distintas líneas de negocio que lleguen a surgir con la llegada comercial de la Web Semántica, pues se abre toda una gama de posibilidades para todos los sectores del quehacer humano (sin mencionar las posibilidades al integrarse con el Internet de las Cosas). Lo más importante que se debe considerar es hacer el paso de los sitios y sistemas a Web3, además del uso y exposición de datos de forma abierta y contextual (guardando la debida precaución sobre información confidencial o estratégica, así como las debidas medidas de seguridad general), de forma que se brinde a clientes, usuarios y aliados mejores opciones de interacción. Por lo que la recomendación es revisar los esquemas de almacenamiento de información que se está utilizando. Cambiar de las Bases de Datos Relacionales a Bases de Datos basadas en modelos de RDF (Resource Definition Framework) mediante los cuales se registra la información en modelos de referencias, más que de datos. Cambiar a esquemas de datos abiertos y de grandes volúmenes de información como Linked Open Data, y por supuesto

38

realizar esquemas que permitan modelos de información detallada y descrita en sus características y propiedades a fin de que al exponer la información pueda ser clasificada y relacionada por otros sistemas.

¿Quién me podrá ayudar en esto?

Aunque en la práctica son muy pocos los profesionales que pueden considerarse como expertos en el tema, afortunadamente las Universidades han comenzado a darse cuenta de la necesidad de formar a sus alumnos en estas nuevas tareas que les serán requeridas en el mercado laboral y formar a los próximos Científicos de Datos que permitan la construcción de los modelos y relación de información por contextos (ontologías) que son básicos para la construcción e implementación en portales y aplicaciones. Mientras tanto, es posible acercarse a las Universidades Públicas que ya contengan algún programa académico al respecto o a los Centros de Investigación que están desarrollando proyectos con soluciones diversas al respecto, como INFOTEC, un Centro CONACYT que ha liberado sistemas de cómputo, modelos de desarrollo semántico, Maestrías, Diplomados y un programa de certificaciones para formar profesionistas con este enfoque. Además que puede recibir estudiantes en visitas escolares o acudir a dar charlas y talleres en congresos universitarios, en afán de hacer la divulgación y transferencia de conocimiento tecnológico. Pero al final del día la decisión sobre migrar un sitio web construido con el enfoque tradicional hacia uno que implemente en menor o mayor medida la incorporación de significado a sus elementos de información, o de esquemas de datos más abiertos y contextualizados mediante propiedades descriptivas y cuándo hacerlo, dependerá sólo de las necesidades directas de cada sitio que se esté manejando, así como de las consideraciones de la planeación estratégica de cada empresa para los próximos años. Miremos cinco años atrás, analicemos los paradigmas de aquel momento y la forma como estábamos enfrentando se enfrentaba la realidad, después observemos con todo detalle la realidad y tendencias tecnológicas y de negocio actuales, y finalmente pensemos en la decisión sobre en dónde desearíamos estar en esos @hersalvj mismos cinco años en el futuro… https://www.ted.com/talks/tim_berners_lee_on_the_next_web


39


Elección de solucioneS DE SOFTWARE

C

Rodrigo Amador Martínez

Héroe y Villano

uando eres desarrollador de software y te incorporas a un proyecto que ha comenzado meses atrás o tienes que dar mantenimiento a un sistema, lo primero que cruza por tu mente es: “¿Por qué lo hicieron así? ¡Yo lo hubiera hecho de otra manera!”… en muchos casos, si reemplazaste al encargado de ese desarrollo la directiva es “Hagámoslo desde cero, será menos trabajo” o mucho peor aún “Lo nuevo hay que hacerlo de una mejor manera”. Esto lejos de solucionar los problemas existentes en una aplicación los agrava, ya que se tienen que recorrer nuevamente caminos ya trazados por el anterior equipo de desarrollo y muy probablemente se llegue a caer en errores ya conocidos. Por esa razón cuando tenemos un escenario de este tipo en las manos hay que detenerse a indagar ¿Cuáles fueron las razones por las que se llegó a la situación actual? y ¿Por qué se tomó la decisión de hacer “mal” la aplicación? Generalmente existe una explicación lógica aunque no lo parezca. Normalmente se evitan estos problemas cuando el Arquitecto de Software encargado de la aplicación documenta las decisiones tecnológicas que se toman a lo largo del proyecto, justificando los diferentes motivos que llevaron a la situación actual de la aplicación. Las razones pueden ser muy diversas pero al estar documentadas evitan gran cantidad de retrabajo en los mantenimientos porque los que se integren al proyecto darán la vuelta a los pasos que ya fueron recorridos. El lugar donde se documentan estas decisiones es el Documento de Arquitectura, lugar en el cual

40

encontramos la nomenclatura a utilizar (nombrado de clases, paquetes, métodos, distribución de clases, uso de archivos comunes, etc.), las convenciones (UpperCamelCase, indentado de código, separación de operadores, etc.), la solución general (diagramas de despliegue, configuración de tecnologías elegidas, etc.), los componentes reutilizables y el benchmark de las tecnologías que eran propuestas para dar vida a la nueva aplicación. Es importante que este documento contenga hasta el más mínimo detalle de por qué las decisiones fueron tomadas, ya que de esto dependerá que las futuras decisiones puedan responder a cada cuestionamiento que se les haga. Si leemos con detenimiento el párrafo anterior podríamos pensar que el documento de arquitectura resultaría ser un monstruo de un millón de páginas que al final nadie quisiera leer, pero aunque en efecto es un documento extenso, no lo es en un punto exagerado, ya que la mayoría de las decisiones son tomadas con base en Patrones de Diseño existentes que tienen su propia documentación y con el hecho de mencionarlos se sabe qué implica, ya que cada Patrón de Diseño tiene sus pros y contras; de igual forma puede determinarse bajo qué circunstancias deben usarse y bajo cuáles no. Entendido esto cualquiera diría: entonces, si conozco todos los patrones de diseño la tarea de elegir soluciones es muy sencilla, sólo menciono patrones y asunto terminado; pero esto no es tan cierto, porque aún falta una pieza en el rompecabezas ¿Cómo determino que los pros de un patrón de diseño son suficientes para poder vivir con los contras que éste me genera?


ARTÍCULO CENTRAL

41


Para lograr determinar esto se requiere de un concepto llamado QoS (Quality of Service), que es la forma en la que vamos a asegurar que el software que estamos generando va a cumplir con lo que el usuario pide en términos cuantificables. Normalmente los QoS los encontramos definidos como requerimientos no funcionales, con los que nos deberíamos encontrar normalmente (aunque no sea explícitamente) son: • Rendimiento: Determina qué tan bien responde una aplicación y está normalmente medido en tiempo de respuesta. • Escalabilidad: Qué tanto puedo hacer crecer mi aplicación (horizontal o verticalmente) sin alterar el rendimiento. • Confiabilidad: Básicamente, qué tan íntegra y consistente es la información que genera el sistema cuando las cargas y el trabajo se incrementan. • Mantenibilidad: El más mencionado de todos y el más simple, pero el más ignorado por la premura y el presupuesto, que la aplicación soporte ser corregida sin afectar otra funcionalidad. • Seguridad: La más deseada, y por desgracia la más desatendida por el bajo nivel de expertiz que existe en el medio, consiste en evitar que la aplicación sea comprometida en cuanto a confidencialidad, integridad y DoS (Denial Of Service). Pero aun conociendo los diferentes elementos que se deben de cuidar, todavía queda la incógnita de ¿Cómo incrementar alguno de los QoS que son fundamentales para el cliente sin descuidar los que no son fundamentales pero también tienen gran importancia? La realidad de las cosas es que en la mayoría de los casos los movimientos de mejora hacia algún QoS se verán reflejados en la afectación a otro, a esto en el mundo de la Ingeniería del Software normalmente lo conocemos como Trade-Off o como en México lo llamamos “Unas por Otras”. Dentro de las variables con las que se juega para llegar al equilibrio ideal de los QoS, deseados por el cliente, está la Capacidad de los Equipos en los que se desplegará la aplicación (CPU, memoria RAM, capacidad de almacenamiento, ancho de banda, etc.), la cual normalmente hace ganar en rendimiento, sin embargo, esta variable tiene una implicación muy importante: El Precio, así que ésta debe ser cuidada y equilibrada con respecto a lo que va a obtener el cliente como valor de su negocio, de modo que sea más una inversión que un gasto. Otra variable que nos ayuda a ganar valor en algunos QoS es la Redundancia, la cual consiste en tener diferentes equipos haciendo lo mismo, esto provoca que si en determinado momento alguno deja de funcionar siempre habrá alguien que pueda seguir atendiendo.

42


ARTÍCULO CENTRAL

La redundancia nos puede ayudar a incrementar el rendimiento con técnicas de balanceo de carga, proporciona confiabilidad al saber que la información en la mayoría de los casos tendrá quien la procese correctamente y también favorece la escalabilidad porque eventualmente permitirá que la aplicación que se está generando se crezca horizontalmente de una forma sencilla. Sin embargo, la redundancia puede tener efectos no deseados en rendimiento (aunque se mencionó como un pro) cuando es usada con sistemas de FailOver, ya que se estará generando el mismo trabajo 2 veces; del lado de la seguridad, si se tienen más equipos que atacar se tienen más riesgos de que mitigar. Las variables que mencionamos se dedican a resolver las cosas “con fierros” pero una de las variables que ha sido un gran pilar de la arquitectura de software es la Modularidad. Todos hemos escuchado hablar del famoso “Divide y Vencerás” que en términos de software es dividir un problema computacional en múltiples y más manejables fragmentos con funcionalidades muy bien delimitadas. Al aplicar modularidad a nuestras aplicaciones es posible ganar bastante en escalabilidad porque permite agregar funcionalidad sin afectar nada de lo ya construido, lo cual a su vez mantendrá sin afectación la respuesta que otorga el sistema hasta antes de las modificaciones. Por supuesto en mantenibilidad ganaremos mucho, es más claro analizar y modificar fragmentos pequeños de código con objetivos claros que miles de líneas dedicadas a múltiples tareas o a tareas duplicadas en diferentes puntos de la aplicación. También se mejora la seguridad debido a que varios módulos especializados son más fáciles de asegurar y acotar en acceso que una pieza de software con muchas funciones (ya que todos deberán acceder a ella), con restricciones difíciles de encontrar en los diferentes flujos. Pero no todo es felicidad con la modularidad, también tienen implicaciones negativas: al agregar más piezas de software, lógicamente se pierde rendimiento aunque éste sea mínimo; entre más elementos hay que integrar, mayor probabilidad hay de fallo, lo cual resta confiabilidad. Es evidente que las variables que menciono no son las únicas que existen, pero lo importante es conocer que no sólo se pueden tomar decisiones empíricas, sino que con base en el trabajo de los colegas que tuvieron que vivir esto empíricamente hoy en día podemos tomar mejores decisiones con mayor oportunidad de éxito que antes. Al final podemos darnos cuenta de algo muy importante, en la Ingeniería del Software ninguna solución es universal al elegir una tecnología o alguna metodología, en cierto momento esa decisión será cuestionada, por esa razón hay que respaldarnos con fundamentos claros (no hay nada más claro que los números) y la documentación adecuada para que aunque parezcas el Villano por haber generado el peor software, termines luciendo como el Héroe al haber entregado una aplicación funcional con todas las limitantes que tuviste.

43


Problemas en el

desarrollo de software

44


ARTÍCULO

E

Cecilia Castillo

n el proceso de desarrollo de software que utilizan las empresas de este sector es muy probable que se presenten algunos problemas complejos y otros fáciles de manejar, los cuales van aportando conocimientos que nutren al equipo de desarrolladores y dejan lecciones para las siguientes veces que pueda ocurrir. En este artículo hablaré sobre 5 de ellos: 1. La recopilación de requisitos no es clara. Antes de empezar a desarrollar el software es primordial conocer las necesidades del cliente, quien a veces no sabe expresar lo que necesita (o no quiere pagar lo que vale), esto no necesariamente quiere decir que no sepa qué quiere. Sin embargo, en muchas ocasiones el cliente puede omitir información relevante que para el analista de sistemas puede resultar útil, y si el análisis no ha sido lo suficientemente bueno se terminará en un vaivén con la pregunta “¿esto es lo que necesita?” Por ello el trabajo de este especialista debe ser identificar los requisitos desmenuzando el problema junto con el cliente para así asentar las necesidades expresadas en un documento firmado por ambas partes. 2. Planificación calendarizada. Suele suceder que las fechas de entrega de proyectos son demasiado optimistas cuando en realidad hay desfases, la clave es dedicar tiempo productivo a cada tarea para no exceder las horas acordadas; aquí un rol importante es el del líder de proyecto, quien junto con los desarrolladores debe realizar una calendario de actividades, las cuales serán revisadas y actualizadas diariamente para identificar si alguna tarea tomará más tiempo de lo acordado, de tal manera que se pueda llevar un control de las actividades terminadas y en proceso. Por supuesto en todo momento hay que considerar al cliente y mantenerlo al día con el estatus del proyecto. 3. Aumentar los requisitos iniciales. “Me gusta cómo se ve…”, “hace lo que necesito pero le puedes cambiar el color, tamaño…” o “ahora quiero que haga esto…” son algunas de las frases que en ocasiones el peculiar cliente suele mencionar cada vez que se le presenta una versión del software que se está creando. La solución a sus peticiones no es tan sencilla pues pueden haber

otros proyectos programados que quizá se retrasen en su entrega por realizar las “pequeñas modificaciones solicitadas”; para esto en la primera cita con el cliente hay que dejar en claro que cualquier cambio en los requisitos repercutirán en la fecha de entrega final o incluso aumentará el costo del proyecto. De manera oportuna el líder de proyecto informará y discutirá con los desarrolladores si los cambios se pueden realizar y si afectará a los avances. 4. Malas pruebas. La actividad de hacer pruebas en ocasiones es imaginada como validar que las funcionalidades que solicitó el cliente sean exitosas y libres de errores, aunque hacer pruebas ciertamente implica algo más que esto: se trata de la experiencia del usuario. Sí, la experiencia del usuario es lo que más importa pues finalmente es él quien navegará dando clics de un lado hacia otro y si no encuentra usabilidad simplemente se irá (recordemos que “un cliente satisfecho lo cuenta a 3 personas pero uno insatisfecho lo dice a cientos”). Si en el software se ponen a trabajar a usuarios que tienen otro perfil diferente al área tecnológica, seguramente después de un par de horas darán una buena retroalimentación pues ellos no son expertos. 5. Comunicación. La comunicación es necesaria entre todas las partes interesadas de un proyecto, durante el desarrollo del mismo, el cliente debe ser informado de los avances, problemas y estado actual del software. Si es necesario se puede recurrir a un software administrador de proyectos (ERP) donde el cliente pueda observar los detalles en cualquier momento; independientemente de esto, el líder de proyecto también debe comunicarse con los desarrolladores todos los días y realizar seguimientos a través de reuniones breves. Finalmente lo que se pretende es lograr el éxito del proyecto, es aquí donde la comunicación se convierte en una pieza importante, pues si no es efectiva de nada servirá el resto de los recursos. Nadie dijo que desarrollar software fuera sencillo, al contrario, es un proceso lento que conlleva mucha exigencia; todos los involucrados deben tener en claro las etapas del desarrollo, de sus mismos roles y funciones. No podemos esperar un proceso libre de problemas porque entonces ¿cuál sería nuestra experiencia?

45


Seguridad

en Bases de Datos

L

Miguel Adame Islas

a administración de las bases de datos toma muchos sentidos. Hablemos de rendimiento, respaldos, disponibilidad, consistencia, optimización, entre más; pero para la industria, las bases de datos contienen su más grande interés: la información que hay en los archivos. Adjunto a este tópico la seguridad actual -que ya no sólo es en la realidad si no en lo virtual- da un giro enorme en cuanto a la prioridad del tema, tomando como principio básico de la buena administración la seguridad e integridad de la información.

Entrando al núcleo de la seguridad

Retrocediendo un poco en los orígenes de las bases de datos, básicamente se concebían como “islas” que estaban desconectadas del acceso general y mucho más distantes de redes como Internet, además de sus bajas regulaciones de seguridad. En la actualidad ha cambiado radicalmente el concepto de bases de datos, ya que han tomado el lugar de primer motor de transacciones para la industria, pero la cuestión no es la prioridad, es concretamente ¿Cómo hacer segura nuestra prioridad? Podemos empezar con cosas básicas como acciones que signifiquen bajos costos en cuanto a tiempo y recursos, que a su vez logren un alto impacto en la base de datos, dígase estrategias de alto impacto y fácil implementación, esto puede ser tomado como una excelente práctica de seguridad.

46

¿Opciones?

Opciones hay muchas pero busquemos las mejores. Para comenzar, una muy buena idea es mantener los parches de seguridad que el fabricante provee, eso evitará el éxito de ataques realizados por hackers y bajará riesgos a la integridad. Básicamente las mejores opciones mantienen cuatro pilares principales de la seguridad que resumiré en preguntas simples: ¿Quién entra? ¿Hasta dónde entra? ¿Qué hace cuando entra? ¿Qué cambios realizó? Nuestra primera cuestión marca el acceso de usuarios a la base de datos, lo cuál ha sido, es y será siempre la primera gran restricción que debemos denotar en nuestra base de datos. La primera opción respectiva es usar firewalls externos, así como internos, adjunto a esto usar autenticaciones de calidad y por último autorización para hacer transacciones. Limitar a los usuarios es la mejor opción para asegurar integridad. Ahora bien, cuando el usuario accede, ¿hasta dónde lo hace? Traducido a limitar al usuario a usar sólo, y sólo si es necesario, ciertos objetos de la base de datos, los cuales deben ser estrictamente limitados a su acceso; esto aparte de otorgar un mejor desempeño mantendrá la estabilidad de la base de datos ya que solamente se realizarán transacciones necesarias y autorizadas. Llevar una bitácora de acciones en la base de datos es imprescindible, saber qué hace cada usuario y en qué momento lo hizo es vital para el control de amenazas de cualquier tipo ya que, con fallos o movimientos inesperados por usuarios, rastrear al autor se hace más sencillo.


ARTÍCULO

Por último y no menos importante, saber qué cambios contundentes se realizaron en la base de datos ayuda a contener la integridad de nuestros archivos; si un cambio se denota como hostil para nuestra información o integridad, este cambio puede ser ubicado y revertido, pero, para aplicar estas medidas ¿qué acciones concretas podemos contemplar?...

Más allá de un plan de seguridad

Antes de hablar de un plan de seguridad óptimo es bueno ver el enfoque contrario al ataque, es decir, pensar como auditor. Los auditores de seguridad comúnmente buscarán patrones dentro de la administración de la base como punto de partida para determinar si es o no segura. Hablando en términos específicos, la primera idea es saber qué debemos prevenir, tomando en cuenta que en una casi total estadística las bases de datos son atacadas a través de nuestro Listener, hacer unas cuantas modificaciones podría ayudar demasiado. Tomando en cuenta este argumento, un buen plan de seguridad implementaría acciones de alto impacto y bajo costo, dígase que con cambios simples que puedan marcar diferencias grandes en nuestra seguridad estaremos mejor protegidos. Pero ¿qué cambios realizar? El primer cambio radical es almacenar las joyas de la información en servidores remotos, esto es utilizar almacenajes diferentes al que usamos habitualmente, otro buen elemento es denegar privilegios constantemente y aunque suene algo extraño

es una excelente practica para mantener la integridad, ya que si no hay acciones en la base, la información se mantendrá sin movimientos. Adjunto a esto podemos limitar los tablespaces que pueden utilizar los usuarios y restringir inclusive la cantidad de espacio que éstos pueden tener en cada uno de ellos. Características que no usamos en la base de datos son un punto importante que podemos modificar, un ejemplo claro es la funcionalidad de UTL_TCP que nos permite hacer conexiones a la base vía TCP y, poniendo atención en ello, si no lo necesitamos ¿por qué no desactivarlo? Esto evitaría intentos de conexión ilegal; aparte de esta función tenemos un par más, hablo de UTL_FILE que nos permite abrir los archivos de nuestra base, lo cual podemos revocar del dominio público; y por ultimo DBMS_JAVA, que nos permite ejecutar códigos desarrollados en Java, al quitarlo de forma pública evitaría que se realice la ejecución de estos códigos que podrían ser maliciosos. En conclusión, buscar un buen plan de seguridad implementaría un cambio totalmente radical en nuestra seguridad sobre la base de datos, siempre teniendo en cuenta las formas en las cuales pueden hacerse ataques a nuestra información y desestabilizar nuestra base. Por último puedo mencionar que en el mundo de las bases de datos la toma de buenas decisiones en cuanto a planes de seguridad será la prioridad total en poco tiempo y se volverá la prioridad dentro de este mundo que más que real es virtual.

47


48


49


El futuro

¿es tu futuro?

H

Juan Carlos Rico

a sido impresionante el avance de la tecnología, quién pensaría que apenas hace algunos años usábamos aparatos que hoy son parte de museos: teléfonos con antenas, videojuegos que no se sincronizaban en línea, grabadoras o estéreos que no podías utilizar con bluetooth… la realidad virtual solo existía en nuestras mentes o en las películas, todo esto hoy forma parte de la historia. Muchas cosas han revolucionado, pero entonces qué pensaría algún joven si en este momento su padre o un maestro le quisieran hablar de sexualidad, ¿realmente sería una ofensa hacia su persona?, cómo se les podría ocurrir mencionarles tal tema en esta época en que toda la información está al alcance de la gran mayoría, considerando que los jóvenes son los que tienen mayor acceso al uso y manejo de las tecnologías de la información y comunicación, pero después de apenarnos por querer acercarles este tipo de apoyo, tendríamos que pensar que algo no está bien, porque entonces no tendríamos las tasas tan altas de embarazos en adolescentes. Lo que sucede entonces, es que aunque la información esté a nuestro alcance, habría que delimitar cuáles son los verdaderos canales que nos permiten llegar a ella. En la web cuando en un buscador pones la siguiente pregunta: ¿Cómo prevenir un embarazo? En un tiempo aproximado de 0.64 segundos tienes a tu alcance 783,000 resultados, lo cual no ayudará a quien esté a punto de tener relaciones sexuales y desde su teléfono acceda a Internet porque quiere y pide ayuda en el tema, sinceramente creo que no le daría el tiempo necesario, esperando además que haya señal en donde esté. La tecnología como siempre lo he dicho es un medio y no un fin, es como la vida misma, posee muchas aristas y en todas y cada una de ellas son básicas las decisiones

50

que tomemos; éstas deben tener un criterio basado en conocimientos, experiencias y la sabiduría que la vida misma nos ha dado. Justo tenemos que aprender a vivir y convivir con la tecnología, actualmente nos enfrentamos a una saturación de la misma en nuestra vidas, quien ya está inmerso en este gran mundo cada día busca más. Parece impensable que hoy busquemos un Internet que sea sumamente rápido, nos urge la información, vivimos en la inmediatez de las cosas; cuando antes para hacer la tarea primeramente tenías que buscar a un amigo que te acompañara a la Biblioteca, después pedir que te tocara un bibliotecario amable que pudiera ayudarte a encontrar el libro adecuado para resolver el encargo escolar, posteriormente, pasarlo a mano a tu cuaderno para finalmente llegar a casa a transcribirlo a máquina de escribir. Hoy afortunadamente ha cambiado la situación, ya podemos hacerlo en unos cuantos minutos, aunque la mayoría de las veces se traduzca a cortar y pegar el texto y bajar alguna imagen para complementarlo. Nada de esto es malo, porque dentro de las bondades de la tecnología encontramos un principio básico que se refiere a la democratización de la información, es decir, sin importar la condición de la persona, tener al alcance la información actualizada que versa sobre cualquier tema que se esté desarrollando en alguna parte del mundo. La importancia del aprovechamiento radica en el uso y manejo de la misma información y los contenidos que necesitamos para poder crecer, y tener elementos que nos permitan desarrollarnos en un mundo tan globalizado. Para cualquier sistema educativo, la tecnología ya no puede ser algo que no complemente y facilite los procesos de aprendizaje. Reforzar los conocimientos, crear mecanismos de investigación, convertirse en autodidacta, son condiciones que se ven favorecidas en la inmersión tecnológica.


ARTรCULO

รณ

51


Hoy el mercado de trabajo requiere de los jóvenes, más allá de los conocimientos universitarios, habilidades blandas -las llamadas “soft skills”- porque buscan engrosar sus empresas con personas capaces de resolver, innovar, crear, gestionar y ejercer todo aquello que signifique crecimiento. Para cualquier joven y para cualquier persona en general es indispensable que tenga un buen nivel de comunicación, que demuestre un verdadero liderazgo, gestione proyectos o programas, procure donativos y fondos nacionales e internacionales, domine la atención a clientes, utilice la gestión del tiempo como una verdadera herramienta que le permita tener un equilibrio pleno entre la vida y el trabajo. Preguntémonos ahora ¿Cuentas con todas estas habilidades? No te preocupes si la respuesta es no, pero sí tendremos que ocuparnos en que logres ese desarrollo que necesitas para tener el trabajo ideal que has soñado y concretar ese proyecto de vida que mereces. Primero haremos un análisis de cómo utilizas la tecnología, recuerda qué fue lo que hiciste utilizando las TIC desde que comenzó el día, imaginemos que fue así en las primeras cuatro horas: • 07:00 Despertar y revisar dos cosas fundamentales; quién te escribió en whatsapp y revisar si alguien realizó algún comentario en Facebook; y por supuesto

52

faltaría una tercera, escribir un mensaje de buenos días para la persona importante en tu vida (esto es básico y un verdadero error no hacerlo). • 07:15 Publicar en tu face. • 07:30 Ingresar nuevamente a Facebook para checar las actualizaciones de los estados de tus amigos. • 07:45 Revisar quién le ha dado like a tu estado. • 08:00 En el transporte hacia tu escuela o trabajo, entrar a Spootify para bajar música (afortunadamente de manera legal). • 08:15 Revisar quién ha puesto algún comentario en tu estado (mínimo el mejor amigo). • 10:00 Revisar videos en YouTube. • 10:15 Compartir algún video chusco que encontraste. • 10:30 Revisar el face de tu novia (o esa niña que tanto te gusta). • 10:45 Revisar el whats de tu mamá que te hace algún encargo, sobre todo para que te cuides y no olvides comer algo. • 11:00 Revisar el face, algo habrá nuevo en esa media hora que no entraste. ¿Cuántos megas habrás consumido de tu plan en estas primeras cuatro horas? Esa no es la cuestión, sino cuánto de tu tiempo habrás dedicado o perdido, ninguna de las actividades es mala, sin embargo, y ahora te hablaré como coach life: para poder


ARTÍCULO

crecer y utilizar la tecnología como medio que propicie tu desarrollo, tienes que crear ese plan que te permita aprovechar tu tiempo y lograr que cada momento, cada día, cada semana, te encuentres más cerca de tus objetivos. Imagina que en este momento o el día de mañana llegas a una empresa a pedir empleo y cuando te pregunten -porque seguro lo harán- qué tanto manejas las TIC, orgullosamente podrías contestar que eres el amo del Face, Whats, Youtube, Spotify, Snapchat, Younow y otros sistemas más; posiblemente en alguna correrán para abrazarte y decirte que estás contratado para manejarles la redes sociales y que eres la persona que buscan, sin embargo, en la gran mayoría te verán con cara de asombro pensando que eres uno de los miles que los han visitado y han rechazado porque no cumplen con el perfil. Revisa en la web las historias de la gente que admiras, ese deportista, músico, científico o emprendedor. Probablemente no te habías detenido a revisar qué había hecho o de qué manera habría llegado a ser quien es; seguramente encontrarás que todo fue a base de mucho esfuerzo y que el tiempo que dedicó a crecer implicó dejar de lado muchas cosas o darle el valor y tiempo necesarios. El uso adecuado de Internet permite el acercamiento al conocimiento, recuerda que hay

muchas conferencias en línea, aunque en algunas tal vez sería muy difícil que pudieras acceder por el costo o algún otro obstáculo; también puedes hacer ejercicio a través de algún sistema como Kinect que te ayudará a estirar esos músculos que has dejado en descanso por algún tiempo; acércate a la convivencia con tus amigos de carne y hueso. Estudiar cursos en línea para especializarte en herramientas Microsoft es otra posibilidad; hay una nube en la que puedes organizar tus documentos, fotos, entre otras cosas; puedes realizar algún recorrido virtual en varios de los museos más importantes del mundo; tienes la posibilidad de trasladarte en la web para conocer ese país que tanto has deseado; en fin, hay tanto por descubrir en un mundo tan amplio. Las cosas no pasan dos veces en la vida, las oportunidades llegan pero se pueden ir, así que en ti está aprovechar el tiempo, aquél que ya no regresa y estuvo para ti y a veces lo desperdiciaste. El futuro ha llegado y en él está implícito todo el avance tecnológico, pregúntate si formas parte y si éste también es tu futuro. La vida es muy noble y nos ofrece muchas opciones de crecimiento, así que a partir de hoy agenda tus actividades, prioriza aquellas que formen parte de tu estrategia para llegar a donde has soñado, pero sobre todo a donde mereces estar.

53


Definición y diseño

aspectos críticos en

la Ingeniería de Software

54


ARTÍCULO

E

Gladis Emilia Fuentes Chávez

s indudable que nuestra forma de vida ha cambiado drásticamente, las nuevas generaciones tienen comportamientos dinámicos, con una gran necesidad de información y mejores formas de comunicación, las cuales permiten desarrollar soluciones de todo tipo basadas en el potencial de las diferentes áreas de las TIC. Sin embargo, necesitamos desarrollar soluciones confiables y de alta calidad a menor costo de inversión y tiempo, enfocados a todo tipo de actividades, desde las más cotidianas y simples hasta las más complejas, que faciliten y hagan cómoda la vida de toda la sociedad, siendo éste el principal reto. De las diversas áreas de las TIC, la Ingeniería de Software resulta estratégica ya que desarrolla la parte lógica de las soluciones que se encarga de procesar la información, siendo cada vez más los sistemas que son controlados por software. En particular esta ingeniería tiene varios retos: • Basarse en teorías, métodos y herramientas adecuados para los diversos tipos de software que se desarrollan • Desarrollar software de alta calidad a menor costo, que satisfaga las necesidades de la sociedad en general • Contar con procesos ágiles y flexibles que permitan una adecuación fácil y aumenten la capacidad de desarrollo • Convencer a los directivos de los beneficios que tienen los sistemas controlados por software • Contribuir cada vez más con el PIB de los países en donde se desarrolla software Lo anterior resulta complicado por la diversidad de las actividades a las que se enfoca, no sólo es importante que sean confiables y de alto rendimiento, o que los usuarios finales realicen actividades complejas de forma simple, o que los empresarios vean cómo disminuyen sus costos de operación y aumentan su capacidad. Hay una serie de aspectos que resultan cruciales, pero que no se les da el valor adecuado por muchas razones, principalmente por el tiempo. Las actividades genéricas de la Ingeniería de Software de los modelos más utilizados son: • Análisis y definición de requerimientos. • Diseño de software y sistema. • Implementación y pruebas de unidades. • Integración y prueba del sistema • Operación y mantenimiento. Nos resulta lógico dicho modelo y aún más pensar que el análisis y definición de los requerimientos son fundamentales, sin embargo, al llevarlo a la práctica se hace todo lo contrario pasando por alto actividades y aspectos que son estratégicos,

afectando de diferentes formas el proceso. Por lo cual sugiero los siguientes aspectos como fundamentales: 1. Análisis de la necesidad social: resulta valioso realizar una investigación del nivel real de la necesidad que tiene la sociedad, ya sea una existente o una que podemos crear, teniendo un enfoque como género, nivel socioeconómico, preferencia comercial, etc., que nos permita medir la demanda y el impacto, algunos les llaman estudios de mercado, pero en nuestro caso es más complejo por el impacto que tenemos en la vida cotidiana 2. Definición de necesidades: una vez que se conoce el nivel de la necesidad, deberán establecerse las características de ésta para poder ser comprendida en toda su dimensión, minimizando el riesgo de fracaso 3. Estudio de sistemas previos: es beneficioso analizar las circunstancias de éxito o fracaso de sistemas similares previos a nuestro desarrollo, en todos los aspectos posibles 4. Aspectos sociales complementarios: el desarrollo siempre tiene aspectos innovadores o claves, por lo que es importante que se usen como estrategia por el área correspondiente, generalmente la de marketing 5. Análisis de las actividades: resulta fundamental analizar los procesos del sistema y que nos permita determinar y clasificarlos a partir de: -- Procesos complejos que se tendrán que simplificar o cambiar -- Procesos complejos que se pueden eliminar -- Procesos sencillos pero que pueden ser fundamentales, que se podrán conservar -- Procesos que hacen que la solución sea identificada y que se deben rediseñar, pero que del lado del usuario sean similares o con pocas variaciones 6. Diseño con base en el usuario: es necesario que el sistema opere lo más cercano a la lógica del usuario, sin embargo en caso de diversidad de usuarios que sea orientado al perfil de más alto porcentaje. Los aspectos anteriores pueden sonar no importantes o que no corresponden a las áreas informáticas, pero nos ayudan a tomar decisiones y a orientar las actividades, tanto del desarrollo del sistema y de las complementarias administrativas, por lo tanto son actividades que forman parte estratégica para las etapas del diseño y posteriores. En la actualidad un producto o servicio debe enfocarse no sólo a lo que ofrece tradicionalmente, sino ir más allá, la experiencia que obtenga el cliente resulta ese extra que da confianza y valor agregado a los sistemas, por ejemplo soporte, mantenimiento, actualizaciones, etc., siendo características que se pueden implementar a partir de los aspectos sugeridos.

55


Web ServIces

y su importancia en el cumplimiento fiscal actual

H

Pedro Enrique García Muciño

an quedado lejos los tiempos en los que el ejercicio fiscal constaba de una montaña de papeles compuestos de facturas, comprobantes de pago, recibos, declaraciones y un sinfín de documentos que daban fe del cumplimiento fiscal de empresas y personas físicas en México. Aquellas interminables filas mensuales en las oficinas de recaudación para presentar la montaña de evidencia que nos salvara del largo y fuerte brazo de la autoridad fiscal en México han quedado poco a poco en el olvido. Si bien mucho se lo debemos a la eficiente reestructuración de los trámites gubernamentales que se han llevado a cabo en la mayoría de las Secretarías a nivel Federal, también es cierto que esta transformación se debe en gran medida a la incorporación de las tecnologías de la información en el proceso fiscal particularmente. Antes de 2009 el concepto de factura electrónica era una especie de elefante blanco con el que sólo podía soñarse y parecía imposible de lograr dada la aparente complejidad en su implementación y a la innegable y vergonzosa corrupción prevaleciente en nuestro país. Sin embargo, justo en ese año, el Sistema de Administración Tributaria (SAT) sorprendió a propios y extraños con cambios en la miscelánea fiscal que parecían imposibles de cumplir para la mayoría de las empresas y mucho menos para las personas físicas, por primera vez se conoció el término Comprobante Fiscal Digital (CFD), el cuál era compuesto de dos archivos electrónicos que suplirían a la factura tradicional como la conocíamos hasta ese momento. Hacen pues su aparición en escena los hoy famosos archivos XML y PDF. Para quien no conozca o no esté familiarizado con los términos, aquí les explico un poco.

56


ARTÍCULO

57


ARTÍCULO

El XML (eXtensible Markup Language) no es más que un meta-lenguaje que nos permite crear archivos de texto con etiquetas personalizadas para representar información estructurada, de modo que ésta pueda ser visualizada y procesada de manera más sencilla y, sobre todo, automatizada. El PDF (Portable Document Format) es un tipo de archivo que puede ser leído independientemente de la plataforma que estemos utilizando y en el caso específico del CFD se trata de una representación gráfica del archivo XML, dicho de otra forma, es el vínculo que se tiene con el viejo esquema de facturación para aquellos románticos que aún desean tener la factura en papel en sus manos, literalmente. Este CFD podía ser creado por las propias empresas con sus medios y a la vieja usanza para hacer una declaración mensual que se entregaba a la autoridad fiscal, ya sea físicamente o haciendo uso de medios electrónicos como el buzón tributario. Se trataba de un avance sin lugar a dudas en el mecanismo para el cumplimiento fiscal, sin embargo, la verdadera revolución estaba por llegar. Corría el año 2011 cuando el SAT modificaba nuevamente la Resolución Miscelánea Fiscal introduciendo el concepto de CFDI (Comprobante Fiscal Digital por Internet). Aquellas empresas que no hubieran logrado emitir CFD por medios propios debían emitir sus comprobantes en la modalidad de CFDI, pero ¿En qué consiste la emisión de CFDI? Dicho de manera simple, se trata de la emisión de facturas electrónicas en un formato XML, las cuales deben ser enviadas a un Proveedor Autorizado de Certificación (PAC), quien se encarga de inspeccionar el archivo en cuestión para dar fe de su validez en cuanto a la estructura obligada por el SAT. Si nuestro archivo es válido a nivel de estructura, el mencionado PAC coloca un sello digital que avala nuestra factura y da notificación al SAT acerca del documento que acabamos de emitir, es decir, en un solo paso, yo contribuyente aseguro la validez fiscal de mi factura y doy aviso al SAT de la emisión de la misma. Esto hizo obsoleta la entrega posterior de la montaña de facturas cada mes, pues al momento de emitirlas la autoridad fiscal también se da por enterada. La pregunta interesante aquí es ¿Cómo se logra una comunicación tan eficiente y ágil con el PAC y la autoridad fiscal? La respuesta es simple: Web Services. Vamos a hacer un poco de historia, los Web Services

58

nacen por la necesidad de comunicar distintas plataformas a través de Internet. Hubo intentos fallidos que por cuestiones de seguridad fracasaron en su cometido, tales como DCOM y CORBA. Una de las razones de su mal desempeño es que recurrían a mensajes basados en RCP (Remote Procedure Call) los cuales en su mayoría son bloqueados por los firewalls dados los riesgos de seguridad que conllevan. En contraparte, en gran medida el éxito de los Web Services radica en que emplean estándares abiertos para lograr la comunicación entre distintas plataformas, por ejemplo, el estándar REST (Representational State Transfer) el cual hace uso del protocolo HTTP, que es ampliamente difundido y se encuentra mucho menos restringido por los firewalls, facilitando así las diferentes operaciones entre la aplicación ofrecida por el servicio web y el cliente que lo solicita. Sin embargo, lo que en este caso particular allanó el camino hacia una fiscalización digital fue el empleo de XML, pues permite enviar archivos que cumplen con este estándar a través del Web Service sin ningún inconveniente, de tal manera que podemos hacer llegar al PAC nuestro archivo XML para su validación y ellos a su vez utilizan el mismo medio para devolvernos la respuesta correspondiente y enviar nuestro CFDI validado y certificado a la autoridad fiscal. Otro aspecto importante a considerar es que los Web Services facilitan la comunicación entre distintas plataformas, sin importar el lenguaje en el que hayan sido desarrolladas. Es decir, el sistema de mi empresa puede estar desarrollado en .NET, el sistema del PAC elegido por nosotros desarrollado en JAVA y el sistema del SAT en Visual Basic, y todos a través de los Web Services lograrán una comunicación rápida y eficiente a través de los estándares abiertos con los que fueron concebidos. Hoy en día es de vital importancia para todo desarrollador al menos saber consumir los Web Services, sea cual sea la plataforma que domine para sus desarrollos. Recuerden, todas las empresas venden algo, y todas las empresas que venden facturan (o al menos así debería ser), y todas las empresas que facturan ocupan los Web Services de un PAC y para ello ocupan de su área de sistemas, es decir, nosotros. Así pues, a estudiar colegas, que el futuro nos alcanzó desde hace ya algunos años.


59


Qué estÁ

“hot”

en el mercado laboral real en México

E

Karla Salinas Contreras

studiar una Carrera relacionada a las tecnologías de la información no es cosa fácil. Primero el debate entre qué es mejor, si estudiar ingeniería o licenciatura (algo así como el clásico chivas-américa), de ahí también la opción de aventarse algo menos común como matemáticas, ciencia, mecatrónica, etcétera. El background es muy importante y en la universidad te dicen que vas a poder armarla como quiera que sea porque eres la súper onda. Entonces aprendes lenguajes de programación o tecnologías que te laten mucho, que son innovadoras, que son muy padres, algunas hasta algo hípsters o de un club muy cerrado, venga ¡Hadoop! ¡Canvas! ¡Angular 2! Otros miles... y ¡pum! Cuando buscas empleo en ellas… no existe o hay muy poco. No en México… y en USA u otros países necesitas al menos 5 años de experiencia manejándolos. Tampoco se trata de que te deprimas y aprendas a programar en lenguajes viejos (que por cierto bien colocado y a nivel senior, por ejemplo en bancos, sí te puedes andar llevando fácil unos 50 mil pesos a la bolsa). Lo que sí es importante es que siempre estés abierto a

60

la innovación, estudiando cuáles son las tendencias del mercado pero mantener una línea base que sea quien te dé proyectos siempre. Todo lo que le agregues va a ser un buen añadido para cuando se terminen los proyectos, para tener más alcance, para tener un mejor posicionamiento, para promoverte, para incluso irte sin problemas a proyectos internacionales ya sea en sitio o remoto. Si tienes buena lógica de programación, te apasiona la tecnología en general, sabes resolver problemas y enfrentar situaciones de crisis en proyecto sin que se te olvide hasta cómo te llamas, ya estás del otro lado. El desempleo en el área de TI en México es poco, hay mucho trabajo. El qué tan bien pagado sea va a depender de muchas condiciones y de tu experiencia, tus conocimientos y el área a la que te enfoques. No importa si no eres un gurú del software, siempre hay oportunidades interesantes en el mercado pero sería importante que revises bien qué hay y te vayas formando por tu cuenta con cursos, manuales y práctica de código. ¿De qué hay más empleo en México? En este artículo te platicaré de las tendencias del Mercado mexicano para que vayas revisando qué tal andas y en qué te quieres especializar.


ARTÍCULO

61


Del “tira-código” a un Full-stack Web/product entonces cuando los UI/UX llegan a salvar el día, tienen developer que ser súper creativos para tomar el desarrollo de los full

Toda aplicación o interface requiere que haya un buen software atrás, robusto, bonito, fuertecito pues. Pero ya no es suficiente con ser un programador, un tira código. Se necesita un desarrollador que sea capaz de usar la vista periférica y no sólo lo que le queda enfrente. Es conocer todas las fases del front y del back end. Ya nada de “ahhh yo sólo trabajo back, no front” como he escuchado en muchas de mis entrevistas con candidatos. Aunque te especialices en uno, debes ser totalmente capaz de manejar ambos igual de bien cuando sea necesario. Es conocer Java, sí, también Visual Studio… pero también saber cómo funciona JavaScript, Python, Ruby, poder revisar tu código y sugerir mejores prácticas, nuevos open source que ahorren tiempos y dinero a la aplicación, es automatizar tus scripts, es conocer de Big Data, es saber de metodologías como Agile y realmente saberlas aplicar. Ya olvídate del clásico programador que se sienta en la lap, no le habla a nadie en todo el día, programa y programa, y a las 6 se va a su casa. El mercado requiere dinamismo, requiere gente con empuje, gente apasionada de la tecnología y no sólo del sueldo que vaya a percibir. Y no dejes de lado aprender de la nube, de cómo integrar todo ahí porque mucho de lo que empieces a realizar va a ser orientado a este tipo de almacenamiento. Así que la nube no es una moda, es tu nuevo target.

Del “diseña-botones de colorcitos bonitos” al UI/ UX designer/developer

Afortunadamente para todos nosotros, la tecnología ya está enfocada en el usuario y no sólo en las áreas de marketing. Son cada vez más los productos, softwares y más, que no solamente piensan en hacer bien lo que hacen, sino en que al usuario final, esa persona que va a tomar la herramienta y la va a manipular, en efecto pueda hacerlo y DISFRUTE la experiencia. No es para menos que Apple haya sido tan exitoso con esta estrategia, siempre pensaron en quien compra el iPod en su tienda y no sólo en que al área de ventas le parezca bonito el producto. Es

62

stack developers y ponerse en los zapatos del usuario final, ¿cómo le facilito la vida en el uso de esta aplicación? A lo mejor si uso ciertos colores que a mí me gustan se ve padre pero los usuarios finales son señoras de 60 años que sólo quieren comprar su despensa en línea… entonces un fondo blanco bonito, botones de buen tamaño, que al darles clic jalen la información correcta al campo adecuado. El diseño no es sólo poner todo bonito, es hacerlo funcional, que sea exquisito usarlo (sí, exquisito, cero complicaciones, todo en orden). Si no me crees dime, ¿prefieres comprar una cámara digital en Groupon o en Amazon? Piensa las razones del pro que de tu decisión… bueno, ese eres tú siendo un usuario final, tu propio target ya en un proyecto.

Del “DBA, sí, ese cuate callado del rincón…” al especialista en Big Data

Ser Administrador de bases de datos no es una tarea sencilla, tiene su chiste y a veces puede ser demasiado compleja. Te vuelves el amo de los datos, tienes tus archivos, tus tablas, tus folders y tienes que hacer que todo esté bien etiquetado, bien clasificado para que cuando otros lo requieran, puedan obtener justo lo que necesitan y no otras cosas no relacionadas. Pero el DBA ya no puede sólo dedicarse a administrar las bases de datos. Actualmente la información y los datos son los verdaderos ejes que rigen nuestro día a día, a los grandes corporativos, a los mercados, a la gente en general. Por lo tanto el DBA tiene que evolucionar a ser más un especialista de datos a gran escala. Es tener la habilidad de identificar patrones, mezclarse un poco con la ciencia de datos, saber qué cosas están relacionadas directa o indirectamente, de ahí pronosticar tendencias o conductas en el sistema y crear nuevas formas de hacer las cosas, nuevos canales, también debe saber los ciclos de programación, las fases de un software para saber en qué partes sus bases encajan, en cuáles no y por supuesto arreglarlo de inmediato.


ARTÍCULO

Es salirte del rincón, tener reuniones, saber qué se busca como resultado global de la aplicación o producto, y darte cuenta que tu valor es poder identificar la información, crear envases adecuados para la misma, hacer todo el rollo más dinámico. Esto es lo que las empresas buscan ahora, y además te permite tener mayor relacionamiento con otras áreas.

Del “hípster programador de celulares” al Ingeniero de Mobile Applications

Todo mundo se subió al tren de los Smartphones. Están los iOS VS los Androidianos. A la velocidad que vamos algún día pudiera apagarse la flama de cualquiera de los dos y entonces te quedarás sin empleo. Obviamente ese día puede llegar en un buen par de años o más. Pero no confundas: aplicaciones móviles no se refiere solamente a programar para telefonitos, incluye todo el universo de gadgets que son móviles, que puedes traer en tu bolsa del pantalón o en tu mochila a todos lados y que puedes explotar siempre y cuando tengas internet. Este perfil es una especialización de los Stack Developers pero orientado a los dispositivos. Y aunque hay muchos sabores de frameworks como Mongo, Ember, Angular, NodeJS y otros, lo importante siempre es que conozcas bien y profundamente cómo opera un lenguaje de programación para que ahora sí puedas mudarte de framework cuando quieras o cuando sea necesario. Todas las empresas actualmente requieren estar disponibles de manera continua en línea, por ejemplo, un contador que tiene que correr la nómina de 3 mil empleados pero se pudo tomar sus días de vacaciones por que tiene su ERP en la Tablet. No se trata de hacer sólo apps sino de que tu trabajo sea mejorar la movilidad de datos de tus usuarios sin importar si es en la manzanita o en el robotito para un bien mayor.

Del “mono de pruebas” al especialista de Automation/Performance Testing

He conocido muchos Testers a lo largo de mi carrera y de hecho es un perfil muy solicitado en el mercado

porque tiene que probar lo que hacen todos los demás. Pero debo mencionar que he visto a muchos que están jugando videojuegos, leyendo libros, viendo artículos en internet sobre sus temas favoritos en lo que “llega la chamba”. Ya que llega a uno, en primera se molesta por la interrupción, y se pone a probar la aplicación. Encuentra los errores, los pone en un reporte, lo envía y se vuelve a sentar a leer las noticias. Además, eres odiado por todos los demás porque muy emocionados traen sus aplicaciones y tú se las tachoneas cual profe de la secu. Pues un buen Tester ¡es clave para que todo funcione! Y deberías de buscar ser más que el de las pruebas. Lo que buscan las empresas es a alguien con empuje también, que revise cual Inspector Gadget todo a detalle y que vaya con sus compañeros y les pase un reporte con los issues, pero que además entiende realmente cómo impacta en el resto de toda la aplicación ese error “minúsculo” que ha encontrado, que tenga sentido de urgencia, que sepa qué cosas se rompen si eso no se arregla pronto, que priorice adecuadamente y que aporte mejoras, no sólo eso: esta posición ya programa. Hay testers de back end y de front end, tienen lógica de programación y claro que la aplican sin piedad para tratar de romper el sistema, por supuesto esperando no hacerlo, pero si lo logra, aporta a que al final haya un producto de alta calidad que generó todo el equipo. Obviamente hay otros perfiles que son igual de importantes que éstos, pero dado el espacio que tenemos sólo pudimos hablar de los generales. Pero échale un ojo en internet a otros como los Project Managers, los Scrum Masters, telecomunicaciones e infraestructura, los ingenieros de pre-venta, los delivery managers, los ejecutivos de cuenta o key account managers, animación y juegos entre otros. Como verás no hay límites, y hay muchos caminos. Elige sabiamente, no te vayas sólo por la lana sino por lo que realmente puedes hacer con tu talento, lo que te llene de satisfacción profesional y personal, que te entretenga, porque toma en cuenta que a esto te vas a dedicar un buen rato de tu vida adulta. ¡Feliz trayecto!

63


Big Data N

De la in tuición a la es truc tura de datos

Ignacio Gallegos

anda ha sido DBA de Oracle por 22 años. Al inicio trabajó en SQL Forms logrando las mejores calificaciones pero con el tiempo se ocupó también de acreditar y ofrecer pláticas a la comunidad. A la fecha es un gurú tecnológico de Oracle. Ha realizado más de 300 presentaciones en alrededor de 22 países, ha publicado más de 500 artículos y tiene su propio blog. Es autor de seis libros. En 2003 fue reconocido como el DBA del año por Oracle Magazine y en 2012 obtuvo un premio a la excelencia también de Oracle. Nanda estuvo recientemente en México, y pudimos entrevistarlo en exclusiva para developNetwork, aquí su visión tecnológica: Ignacio Gallegos (IG). ¿Cuál es el panorama mundial actual para las bases de datos? Arup Nanda (AN). Las bases de datos continuarán existiendo porque se han vuelto el punto medular de cualquier empresa. El uso de éstas crecerá, puesto que el concepto en general está cambiando de la intuición a las organizaciones basadas en las estructuras de datos. Ahora contamos con datos de todo tipo para permitirnos tomar decisiones basados en algo concreto y esa es una gran modificación en el proceso de toma de decisiones en todo el mundo. IG. Hablando del Big Data, ¿cuál es el futuro de las empresas latinoamericanas? AN. Pienso que el principal problema para entrar al mundo del Big Data es que la gente no entiende qué es a ciencia cierta. El Big Data se refiere a grandes cantidades de

64

datos cuyo problema no es la cantidad, sino la variedad de datos que no se pueden conocer sino hasta que se generan, por ejemplo: si vamos a recibir los datos del personal, sabemos de antemano que vendrá un nombre, un salario, un identificador, etc. Pero en el Big Data no lo sabemos. Si hablamos de entradas de blog, publicaciones de Facebook o Twitter, no sabemos qué clase de información tendremos, así que debemos crear una estructura en la cual no sea rechazada por la propia base de datos. La segunda cuestión es la celeridad, este tipo de respuestas deben ser muy rápidas porque se generan a la misma velocidad, y si esperamos al proceso de estructuración de datos, a la mañana siguiente tendremos más datos que almacenar. “El primer problema a solucionar es entender que el Big Data se trata de un ente completamente diferente a las bases de datos tradicionales.” Pienso que las empresas latinoamericanas tienen una gran ventaja: el hecho de que compartan el idioma, excepto por Brasil, les da una enorme oportunidad para procesar datos. La barrera del idioma se vuelve un enorme obstáculo, pero en esta región ese obstáculo puede ser superado con facilidad. Aquellas empresas que tengan a una persona que conozca el Big Data y domine el idioma español tendrán una enorme ventaja. IG. La semana pasada leía un artículo acerca del Small Data. Al parecer aún no comprendemos bien lo que es el Big Data, y ya estamos hablando de Small Data… AN. En realidad no existe el Small Data, ese es un término que se ha usado para referirse a una muestra de datos que eventualmente será Big Data; es como cuando


E N T R E V I S TA

Entrevista con Arup Nanda DBA de Oracle

tienes que descargar muchos tráileres en tu bodega y decides descargar todo, colocarlo en un sólo lugar y luego analizarlo para saber a qué almacén pertenece. El problema es que esto constituye un problema en sí, pues la gente no sabe bien a bien qué es el Big Data y trata de crear una sub-clasificación para poderlo manejar. Pero como con cualquier otra tecnología, el Big Data es muy reciente y necesita tiempo para madurar y perfeccionarse. IG. Hace 10 años hablábamos de inteligencia de negocios pero no todas las empresas lo necesitaban. De manera similar, ¿el Big Data es para todos? AN. Por supuesto que no es para todos. Primero es muy importante entender para qué es el Big Data y para qué no es. Pensemos en el mercado bursátil. ¿Tendríamos un enfoque de Big Data? No, porque por definición el Big Data no tiene una estructura particular en ningún punto en el tiempo aunque eventualmente se vuelve consistente. Por ejemplo: tratas de conocer cuánta gente le ha dado ‘me gusta’ a una publicación. Si eres una compañía probablemente tengas millones de seguidores, por lo que necesitarás correr un proceso en lote para saber exactamente cuántos ‘me gusta’ y ‘no me gusta’ tienes, si interrumpes el proceso a la mitad vas a tener información errónea; por el contrario, regresando al ejemplo del mercado bursátil, siempre tienes datos objetivos en una muestra parcial. Esa es la principal diferencia entre las bases relacionales y las bases para Big Data. IG. ¿Entonces el Big Data no es más complicado que

lo que leemos todos los días? AN. Totalmente. Si se analiza bien, el concepto en sí ha estado presente desde hace mucho tiempo. Básicamente es tener múltiples computadoras, leer la información en paralelo y presentarla de manera conjunta; podemos decir que no es un concepto revolucionario. El Internet de las Cosas, ¿un reto de almacenamiento o procesamiento? Al preguntarle acerca del reto en almacenamiento que requieren los equipos en la era del Internet de las Cosas, nos explica cuál es el panorama real: “Oracle tiene varias soluciones, pero el verdadero reto es qué clase de almacenamiento se requiere en cada caso porque en la mayoría no se requiere procesamiento sino almacenamiento, lo cual puede resultar más barato. La propuesta de Oracle es contar con un arquitecto que tenga bien claro el problema para decidir el curso de acción, específicamente que conozca la naturaleza del problema porque si esto no se tiene claro, fácilmente se puede volver una situación innecesariamente compleja.”

La Nube, un desafío de seguridad y desempeño

IG. Finalmente, ¿qué sigue para la Nube de Oracle? AN. Las empresas no quieren invertir en la infraestructura requerida para manejar toda su información, por lo que la Nube continuará existiendo, lo cual nos enfrenta a dos retos. El primero es el desempeño, pues la naturaleza de la Nube es que la información esté diseminada en varias computadoras; el segundo es la seguridad, si un proveedor de servicios de Nube no se hiciera responsables por esta seguridad, nadie contrataría sus servicios.

65


Consultoría el otro camino

D

Ignacio Gallegos

Las soluciones de Negocio (ERP)

entro de todas las opciones que existen en las Tecnologías de la Información, son quizá las que se refieren a las soluciones de negocios, específicamente ERP, CRMs y Business Intelligence, las que más demanda tienen por parte de las empresas. De cada una de ellas la más vendida por parte de los fabricantes de software es el ERP. Para las empresas que buscan mejorar la operación del día a día en sus procesos de negocio, la mejor opción es a través de la implementación de un sistema de gestión empresarial como un ERP. ERP significa Entreprise Resource Planning (Planeación de Recursos Empresariales). Surge en los 60, desarrollado por Ingenieros Industriales quienes crearon este concepto para controlar principalmente procesos de manufactura. Un ERP permite optimizar los procesos de negocio, establecer un ahorro significativo en los costos de operación, aumentar las utilidades y permitir a la alta dirección tener una mejor visión del negocio para poder tomar mejores decisiones. En los 70 se empezaron a diseñar los primeros sistemas que trabajaron bajo el concepto de automatizar e integrar varios requerimientos empresariales en una sola aplicación. Poco a poco a los sistemas que funcionaban de forma independiente le fueron añadiendo nuevas funcionalidades, de tal manera que las diferentes áreas: finanzas, contabilidad, logística, ventas; podían automatizar sus procesos y trabajar en comunicación con otros departamentos con los que interactuaban en la operación diaria. Esta era estuvo dominada por grandes centros de cómputo con servidores que requerían mucho mantenimiento y control, por lo que la funcionalidad en las aplicaciones de negocios no era tan amigable para el

66

SEGUNDA PARTE

usuario y se dependía de grandes áreas de sistemas para su operación diaria. Los 80 trajeron la computadora personal y con ello, una mayor flexibilidad para el desarrollo de nuevas herramientas de software que hacían más amigable el uso de los sistemas de gestión empresarial. El problema que se comenzó a presentar en las organizaciones fue que cada área contaba con una herramienta de software diferente, lo cual complicaba las tareas de cierre y conciliación de información al tener que volver a capturar los datos y presentando problemas como la inconsistencia de información o la incompatibilidad de aplicaciones. El uso de redes de computadoras personales y la homologación de herramientas de gestión empresarial fueron dándole forma a una nueva filosofía en la venta, soporte y uso al software. Los 90 fueron una época de mejora con respecto a la década anterior, que se vio revolucionada por el surgimiento de Internet. Las empresas buscaron la forma para que las soluciones de gestión empresarial permitieran que la información fluyera de forma más sencilla entre empresas de un mismo grupo o sucursales en diferentes puntos geográficos. Poco a poco los grandes servidores que ocupaban pisos enteros fueron transformándose en espacios de oficinas donde equipos con grandes memorias y espacios para almacenar información le dieron cabida a soluciones que permitían llevar la gestión empresarial a un nivel de automatización total. Logrando además bajar los costos de inversión en las soluciones, haciendo su uso más común en las organizaciones y provocando que éstas fueran operadas por todo el personal que requería una aplicación o funcionalidad específica para su operación diaria. El nuevo siglo ha traído nuevos clientes, empresas cada vez más pequeñas que requieren del mismo nivel de


ARTÍCULO

aplicaciones empresariales que un gran corporativo para mantener una operación completamente automatizada con disponibilidad de información en cualquier momento y que se pueda consultar desde un teléfono inteligente o una tablet. De acuerdo con IDC, la empresa especializada en análisis mercadológico para la Industria de TI, en los próximos meses las empresas incrementarán su inversión en tecnología para lo que ahora se denomina la tercera plataforma; movilidad, Cloud Computing, Social Media y Big Data. Claudia Medina, Gerente Enterprise para IDC comenta que: Infraestructura, movilidad, cloud, ERP y CRM son las principales modalidades en que las empresas mexicanas están considerando invertir. Las soluciones administrativas basadas en Tecnología de Información están enlazadas con servicios y será más difícil separarlos porque software, servicios e infraestructura, cada vez son más integrales. Esto se traduce a que el requerimiento de consultores para soluciones empresariales, específicamente ERP, continua en pleno desarrollo y a diferencia de lo que se pensaba hace solo unos años que este tipo de soluciones iba en caída libre; está sucediendo lo contrario ya que si bien las grandes empresas cuentan ya con soluciones integrales para la administración del negocio, es en las Pequeñas y Medianas Empresas donde el campo de acción se encuentra en pañales y las oportunidades de crecimiento no tienen límite. Hay que recordar que, de acuerdo a datos del INEGI, el 90% de las empresas en México son pyme. Con esto es posible vislumbrar que las oportunidades en el mercado laboral como consultor en ERPs son enormes. Aquí una breve lista de las principales marcas de ERP:

• SAP, es la empresa líder en la implementación de soluciones empresariales. • Microsoft Dynamics, el gigante de Seattle cuenta con varias soluciones de acuerdo a los requerimientos de cada organización. • Oracle, el gigante rojo cuenta con soluciones que están más orientadas al mercado corporativo. • Softland, la empresa española tiene soluciones orientadas para la pyme. • ASPEL, empresa mexicana que cuenta con una serie de módulos que se pueden implementar como un sistema o de forma independiente.

La evolución del ERP

Hace tan solo 5 años, las empresas se resistían a implementar soluciones ERP en su negocio, principalmente por el costo que esto representaba. A partir del crecimiento exponencial que ha tenido la implementación de la nube, las empresas que desarrollan ERP, en su mayoría, cuentan con una solución que funciona bajo el concepto de Cloud Computing, lo que ha facilitado entre otras cosas la adopción de soluciones empresariales, la disminución de los costos por licencia y la reducción de los gastos por servicios de implementación y consultoría. Aún con estas adecuaciones operativas, tecnológicas y económicas, el implementar una solución ERP en la nube sigue siendo una gran opción de empleo. Además posibilita que un consultor de negocios pueda implementar no sólo la solución tecnológica, sino mejorar los procesos operativos de las organizaciones. Para concluir esta nota, queda abierta la pregunta ¿Has considerado que puedes ser un consultor experto en la implementación de soluciones empresariales? … Seguiremos en nuestro próximo número.

67


Perfil DBA

Database

Adminis trator tareas e ideas

Miguel Adame Islas

La elección de una carrera profesional es un tema central en la vida de cualquiera que tengamos planeado estudiar una carrera universitaria. Cuando llega este momento es fundamental contar con la mayor información para que la elección sea lo mejor para cada uno de nosotros. En este sentido, muchas de las fuentes a las que nos acercamos no contienen todos los datos, un ejemplo de esto son las fichas técnicas que ofrecen las Universidades respecto a su oferta académica, en muchos casos quedan cortas en temas de las áreas o puestos en los que es posible desarrollar una carrera profesional; por otra parte, los orientadores académicos no necesariamente conocen de primera mano las habilidades y conocimientos que el mercado laboral requiere para ser contratado. Ante este panorama, es un gusto para el Equipo Editorial presentarte la sección Perfilados, que tendrá como objetivo acercarte a los requerimientos laborales según el perfil que te interesa desarrollar, así como explicarte en qué puestos o áreas puedes desenvolverte y las certificaciones o estudios especializados que necesitas. Xochicuahuitl Gleason

68

H

ace un tiempo estuve conversando con un amigo acerca de las funciones que él realiza en su trabajo. Sé que como colega su puesto era DBA (Administrador de Base de Datos). Esto me llamó un poco la atención porque no conozco muchas personas que se desempeñen laborando como DBA, y al mismo tiempo me he dado cuenta que la mayoría de las personas no tienen un concepto claro de cuál es nuestro trabajo. En lo personal, conozco de manera general cuáles son las tareas que debe de desempeñar un DBA, sin embargo, en ese momento también ignoraba muchas cosas sobre el trabajo que deben de hacer en el día a día en varios campos de la industria. Entonces, decidí motivar a mi amigo a que me explicara con más detalles cuáles son los desafíos y oportunidades a los que él se ve expuesto en su trabajo. La información que me proporcionó fue realmente ilustrativa, por lo tanto decidí indagar más sobre el tema y actualizarme un poco sobre este mercado. En este artículo detallo muchos de los aspectos que encontré en mi investigación para el provecho de todos los miembros de la comunidad tecnológica.


ARTÍCULO

69


ARTÍCULO

Primeramente, ¿Por qué una empresa necesita un DBA?

Toda organización que maneja grandes volúmenes de datos requiere un sistema de gestión de base de datos o Database Management System (DBMS). La persona o grupo de personas encargadas de administrar, supervisar y asegurar el adecuado uso de los datos dentro de un DBMS son los DBA. Estos sistemas permiten manejar grandes “montañas” de datos de una manera eficiente, permitiendo así disponer de una mejor herramienta para la toma de decisiones de negocios. Por lo tanto, la necesidad de los Administradores de Bases de Datos es hoy mayor que nunca.

¿Cuál es el sueldo promedio de un DBA?

Los DBA están dentro del grupo de profesionales mejor pagados en la industria de las tecnologías de la información. Realizando una encuesta entre colegas y amigos, los resultados arrojaron que el rango salarial de un Administrador de Base de Datos (DBA) es entre $25,000 y $85,000 pesos mexicanos, mientras que el salario de un Desarrollador de Base de Datos (DBD) oscila entre $20,000 y $40,000. Desde luego el ingreso varía en función de la experiencia, el nivel de conocimientos, las herramientas que domina y las certificaciones que posee.

¿Cuáles son las funciones que realiza un DBA?

Gestión General de Base de Datos. El DBA es la persona con más conocimientos sobre base de datos en una organización. Como tal, debe entender muy bien las reglas básicas de la tecnología de base de datos relacional y ser capaz de comunicarlos con precisión a los demás. • Auditoria. Una de las tareas de un DBA es identificar qué usuarios tienen acceso a insertar, actualizar o eliminar datos, y cuándo. Una

70

auditoría NO sólo podría ser necesaria por un tiempo limitado, para usuarios específicos o datos específicos, también puede ser requerida 24/7 para todos los datos que se introduzcan en el DBMS. Regularmente, para realizar las funciones de autorías los DBA´s tienen que trabajar en combinación con los auditores internos y externos de la empresa. • Resguardo y recuperación de datos. Uno de los aspectos fundamentales del trabajo de un DBA es proteger los datos de la organización. Esto incluye hacer copias de seguridad periódicas de los datos y mantenerlos a salvo de la destrucción accidental o intencional. Además, diseñar, implementar y probar un plan de recuperación para que cuando se presenten los problemas, la información se pueda restaurar rápidamente. • Administración de cambios. La configuración del servidor ORACLE Database 11g, el esquema de base de datos, el código de PL-SQL y muchas otras facetas del ecosistema de aplicaciones cambian con el tiempo. A menudo es la responsabilidad del DBA realizar el análisis de impacto antes de hacer modificaciones dentro de una DBMS. Implementar cambios, hacer pruebas piloto y documentar todos los cambios y procedimientos es parte del trabajo de un DBA. Más que actividades de desarrollo, ser parte de la administración de bases de datos es una tarea que requiere mucha planeación y buena logística, siendo el mercado una competencia compleja. El perfil DBA es muy solicitado y existe una baja disposición de personal con las capacidades y conocimientos adecuados, por tal razón sus índices salariales son elevados. Ser DBA, más que una profesión, implica tener gusto por administrar lo más valioso de todas y cada una de las empresas: su información.


71


Cambios en los Paradigmas de la innovación de TI e IoT.

Aplicaciones y soluciones de dispositivo Cloudino en un Centro de Datos "El universo se ve como una red dinámica de sucesos interrelacionados, ninguna de las propiedades de cualquier parte de dicha red es fundamental, todas se desprenden de propiedades de otras partes y la consistencia global de sus interrelaciones, determina la estructura de la totalidad de la red". Geoffrey Chew, (físico Americano, creador del Modelo de Arranque [Bootstrap] para Teorías Cuánticas) Pablo Xicoténcatl Elízaga José Carlos Sierra Botas Alfredo Munguia Mendoza Victor Jesús Hernández Salinas

S

i imaginamos una Matrix donde todo está conectado, sería un universo representado como una red global de eventos e interacciones simbolizadas por los elementos que lo describen, y si tal función la realizaran unos pequeños dispositivos capaces de detectar y recoger de su entorno distintos datos medibles, entonces nos asemejaríamos a la propuesta de la Matrix descrita por Chew. Los primeros sensores analógicos tienen ya un tiempo realizando mediciones y enviando la información para procesarla, y después lo hicieron los dispositivos digitales, sin embargo no toda la información recopilada es útil, se tiene que crear la medición de distintas variables dependiendo quién sea el destinatario, pues obtenemos cúmulos de información y métricas que pueden ser muy útiles o que no sirven para nada. El reto es lograr estructurar la información de forma que el destinatario perciba la utilidad práctica de los metadatos.

de este tipo ofrecía. Además por experiencias anteriores con sistemas de este tipo, se decidió de forma paralela buscar alternativas de código abierto que pudieran adaptarse a las necesidades de demanda de nuestro Centro de Datos. Con ello se obtuvo un aprendizaje y mucha experiencia adicional, pero también durante este relativo corto tiempo, la inercia “natural” globalizada del paradigma de metadatos nos estaba orientando a buscar soluciones alternas de conectividad en la “nube”, pues éstas son cada vez más demandantes y se busca optimizar aún más los recursos existentes. Ciertamente no se está ofreciendo algo nuevo como sistema de medición pura, sino que se está optimizando lo que desde hace tiempo se medía y se están incorporando nuevas métricas a lo que anteriormente no se medía y hoy puede ser medible de una manera más eficiente y de forma predictiva más que sólo reactiva.

¿Qué medir y para qué?

Hoy en día la tecnología ha sido capaz de aprender

Los paradigmas del monitoreo de un Centro de sobre el entorno físico y transformarlo en una entidad Datos y nuevas propuestas de soluciones virtual, que paradójicamente aunque no la vemos Con la aparición de las herramientas de Gestión de la Infraestructura de Centros de Datos (DCIM) y el relieve que alcanza la información y el tratamiento de las métricas de los valores obtenidos, los fabricantes ofrecieron una variedad de soluciones y soporte que pretendían resolver necesidades diversas, mientras que de forma paralela el aprendizaje del usuario final se enfocaba directamente en el paradigma de cómo dar tratamiento multidisciplinario a los datos y orientar sobre cómo debía entenderse la eficiencia del conjunto de la infraestructura del Centro de Datos. Esto es, realizar la gestión de sus espacios y activos sin importar el tamaño de éstos. Desde julio de 2014 se inició la implementación de un sistema inicial de DCIM en el Centro de Datos de INFOTEC San Fernando, con las reservas que todo sistema

72

sabemos que existe, que está ahí y nos permite actuar ante ciertas circunstancias. Así por ejemplo, un vehículo puede prescindir de un conductor, como fue en un experimento reciente donde un auto se trasladó de forma autónoma desde Sonora hasta la Ciudad de México. Un sensor puede realizar una tarea de manera automatizada, y en casos más complejos éste puede aprender a “actuar” ante determinadas condiciones, aunque hasta la fecha aún sea bajo la directriz de una interfaz humana. La ubicuidad de Internet abre una infinidad de posibilidades e inventivas para el “Internet de las Cosas” o “IoT” por sus siglas en inglés, que es una red global de objetos interconectados de forma inalámbrica interactuando y enviando metadatos de información sobre individuos o colectivos sociales, de ciudades


INVESTIGACIÓN

y su infraestructura, etc., que permiten que ciertos dispositivos puedan procesar y compartir la información obtenida.

¿Qué hacer con los metadatos?

En la actualidad la forma de comunicarse y relacionarse entre las personas ha cambiado. La rapidez de las comunicaciones y la obtención de la información son de manera casi inmediata, el IoT, las Smart Cities (Ciudades Inteligentes), el Cloud Computing, Big Data, Smart Factories o Industria 4.0, son los temas principales que se relacionan cuando se habla del internet del futuro: soluciones cada vez más rápidas, escalables, flexibles e inteligentes. Dentro de esta dinámica, el software y hardware en modalidades Open Source, han encontrado un impulso nuevo; dispositivos y plataformas como Arduino y Raspberry Pi mostraron su potencialidad en la creatividad y han ido en constante crecimiento, despertando interés en el público, lo que ha contribuido a que paralelamente se hayan desarrollado dispositivos embebidos que se dirigen a cubrir los nichos que la industria no contemplaba. Tal ha sido el ímpetu que la propia inercia de los proyectos que cada día se desarrollan, ha “obligado” a que los grandes conglomerados fabricantes industriales estén “reinventando” la nueva industria y se hayan sumado al apoyo de estos proyectos. INFOTEC no ha sido la excepción y también le ha apostado por la innovación, por lo que actualmente se encuentra desarrollando soluciones a través de dispositivos embebidos como su plataforma “Cloudino”. Cloudino es una plataforma desarrollada en código abierto para el IoT, permite conectar de forma inalámbrica diferentes microcontroladores como Atemel AVR, PIC, Intel Edison, etc., de forma muy simple y transparente, de tal manera que puede decirse que son dos dispositivos trabajando de forma paralela. No obstante Cloudino trabaja tanto dedicado a la capa de red, como para la conectividad de actuadores y sensores, o bien si se requiere utilizar la placa de Arduino, dedicado a la conectividad de los sensores. El entorno de programación web desarrollado por el INFOTEC permite la programación de ambos dispositivos a través de una red WiFi.

¿Plataforma “Cloudino”?

Si bien existen muy variadas plataformas de microcontroladores disponibles en el mercado y éstas han dado un potencial nicho de desarrollo de proyectos, el binomio de hardware-software de esta plataforma simplifica el proceso de trabajo en un producto fácil de implementar y ofrece algunas ventajas para los interesados en el desarrollo de proyectos, ya sean personales o para soluciones “construidas en casa” para empresas de distintos tipos.

• Muy Bajo Costo: El dispositivo de Cloudino es de muy bajo costo, comparativamente frente a otras plataformas microcontroladoras, pues es de sólo unos cuantos dólares. • Entorno de programación web simple: La interfaz está diseñada como una multiplataforma que se ejecuta en cualquier sistema operativo, pensada para que los usuarios inexpertos se familiaricen de forma muy rápida y simple, para que conectándose a través de Internet puedan desarrollar proyectos de soluciones de IoT. También es una herramienta muy flexible para usuarios avanzados ya que tiene programación a bloques así como en línea. (http://cloudino.io/ ) • La programación de los circuitos se hacen directamente desde esta página y mediante comunicación inalámbrica. El circuito de Cloudino cuenta con una antena WiFi, una interface web para configurar el circuito y un intérprete traductor para lograr el control de sensores, actuadores y actualizaciones de firmware en tiempo real.

Sistema de Monitoreo del Centro de Datos con dispositivos IoT

Las necesidades de los Centro de Datos cada vez son más críticas y resulta bastante importante contar con un modo efectivo de tener control de todo lo que sucede en los equipos. Con anterioridad los operadores de los Centro de Datos tenían que tomar decisiones con base a su experiencia sensorial adquirida por la observación para “conocer” la temperatura, con este tipo de solución se pretende re-aprender cómo debe de entenderse el funcionamiento de los Centros de Datos. No resulta impensable que se pueda llegar a adquirir una base de experiencia y volverse predictivos cuando algo no esté funcionando correctamente y ofrecer soluciones al problema antes de que se vean afectados los servicios. Implementar una gestión en Innovación en Control y Operación en los Data Center; la cual además de medir en tiempo real sus condiciones ambientales (temperatura, humedad), carga eléctrica y múltiples factores; también pueda administrar la composición de los activos críticos de la Base de Datos de Gestión de Configuración (CMDB) y que permita además una integración sobre plataformas Open Source de gran potencial como Cactus y Opendcim que actualmente se siguen desarrollando, de tal forma que sea posible implementar una solución tanto eficiente como económica. El reto no es tarea sencilla, sin embargo la propuesta de solución surge como una necesidad de adquisición de muy bajo costo y debido a que la compra de los dispositivos o componentes de patente, por desgracia, son de alto costo aunado a que para utilizarlos se requiere su software,

73


INVESTIGACIÓN

sin mencionar además la limitante económica para obtener el licenciamiento de uso. Ante esta problemática INFOTEC al ser un Centro de Investigación e Innovación está creando sistemas de monitoreo propio mediante la utilización de una solución muy especializada como es su sistema Cloudino, pero igualmente efectivo que otras soluciones ya posicionadas en el mercado, pero de costos mucho más altos. Cloudino aspira a ser una solución integral para el monitoreo del Centro de Datos; pero no solamente donde se puede medir en tiempo real parámetros como temperatura, humedad, detección de humo, fugas de agua, incorporación de sistemas de video y seguridad de la información, así como de un universo creciente de variables de forma remota; sino también revoluciona el pensamiento acerca de cómo debe procesarse y analizar el metadato, posibilita la implementación de proyectos con una gran cantidad de sensores y uso de protocolos ligeros de comunicación sin necesidad de usar grandes recursos. Actualmente se lleva a efecto el registro de temperatura humedad en el Centro de Datos de INFOTEC utilizando una red inalámbrica exclusivamente dedicada a los dispositivos IoT, aislada del resto de la infraestructura de comunicaciones de la institución, y se pretende en el mediano plazo expandir los dispositivos conforme a las necesidades que para cada área representen un beneficio tecnológico. Al constituirse de dispositivos económicos y de fácil acceso, se reducen los tiempos para su implementación de manera inmediata, pues previamente pueden programarse y estar configurados para su inclusión al sistema de gestión de monitoreo. Ténganse en cuenta el ahorro de tiempo que representa si se compara con los trámites tradicionales para la adquisición de los insumos de los fabricantes que ofertan soluciones de mayor costo y dimensionamiento.

La seguridad de la información

Cloudino también puede utilizarse sobre sistemas de comunicaciones existentes de máquina a máquina extremadamente ligeros como MQTT, para la obtención de datos una amplia gama de sensores integrados e interconectados en redes inalámbricas, que si bien son datos “aislados” y que por sí solos no deben comprometer la seguridad. Al menos no en cuanto al sensor como tal, ya que este es “transparente” pues al tomar únicamente la métrica del dato, lo deja fluir hacia otra etapa del sistema, por lo que el almacenamiento ocurre en otra instancia (servidor o repositorio central). El tema de la seguridad de las redes WiFi debe tratarse aparte siendo recomendable separar las redes desde la cuales se conectan los dispositivos IoT y garantizar la seguridad a través de los mecanismos destinados a ello como los firewalls. Es importante considerar qué tipo de datos pueden

74

recolectar estos dispositivos y cuál es la finalidad, pues son capaces de enviar una cantidad significativa de información y algunas veces lo hacen con recursos limitados (no se necesita un gran ancho de banda de la red inalámbrica), lo que los convierte en idóneos para aplicaciones de Internet de las Cosas y un producto fuerte de modelo de negocio que está revolucionando también la Industria de TI. Esto nos obliga a los gestores de la infraestructura crítica de los Centros de Datos a apostar en esta inercia natural de la incorporación de los dispositivos embebidos y los metadatos para el monitoreo interno. Otras iniciativas de INFOTEC y Cloudino: • INFOTEC Verde: Huertos hidropónicos monitoreados y controlados con la plataforma de Cloudino. • Domótica: Iniciativa para implementar en el edificio de INFOTEC un control de Alarmas (Sísmicas, de Incendios y otros), control de iluminación, control de accesos, Ocupación de estacionamiento, entre otras. • Smart City: Una iniciativa de INFOTEC y Fiware de la Unión Europea Utilizando Cloudino Como piedra angular en el desarrollo de soluciones para urbanización.

CONCLUSIONES

Después de todos estos factores surge la necesidad de contar con un sistema que permita monitorear en tiempo real las diferentes condiciones de temperatura controlada en el interior del Centro de Datos lo cual permita ser proactivo y no reactivo, es decir, que si existe alguna falla, se empiece a corregir desde antes de que se apaguen los equipos, al igual si se tiene alguna falla eléctrica. Cloudino pretende ser una plataforma que permite de interconectar una amplia posibilidad de dispositivos (sensores, actuadores, etc.) y trabajar conjuntamente con plataformas eficaces como el Arduino, o bien, de manera independiente como una solución flexible, escalable, adaptable y totalmente controlada. Se proporciona en el Centro de Datos una solución de gestión inicialmente sobre el monitoreo de Temperatura, Humedad Relativa y la inclusión con otros dispositivos, además de la capacidad del envío de alertas por correo electrónico y a dispositivos móviles, así como desarrollo de aplicaciones orientadas al reporte y que permita el acceso inmediato a la plataforma de visualización en tiempo real para monitorear los diferentes estados de los sensores. Cloudino está siendo integrado como una fuerte plataforma orientada al monitoreo del Centro de Datos, como una primera fase se está probando como una alternativa y creemos que no se exagera cuando se dice que el diseño de los Centro de Datos deberá replantearse considerando el potencial de los dispositivos IoT.


75


Revolución En la era del lenguaje en dos vías Karina Cabrera Luis Gerardo Salas

Extraño cuando me decían qué escuchar”, esa frase también puede trasladarse a “qué ver” y “qué leer”, son palabras recurrentes que responden a un tiempo en que no sólo escuchábamos la música de forma diferente, sino también consumíamos cultura a través de diversos canales. Esas mismas frases se aplican desde el lado opuesto, los antiguos líderes de opinión que tenían acceso exclusivo a los contenidos antes que nadie ahora dicen con frecuencia: “sabemos que ustedes ya lo vieron, escucharon o leyeron, pero para nosotros es nuevo”. En los días en que la frase “la información es poder” era una constante, se generaban líderes de opinión y guías culturales que a veces tenían carácter de dictadores indicando un camino, describiendo discos, espectáculos, libros y películas que eran casi imposibles de alcanzar o que requerían un largo periodo de espera para conocer, por consecuencia, lo único que nos quedaba eran las descripciones y las reseñas, las apilábamos en nuestra mente junto con montones de cosas a las que no teníamos acceso por limitaciones monetarias o porque esos tres objetos de deseo nunca llegaban a nuestro país. Definitivamente eran tiempos diferentes para ver, escuchar y entender. En ese contexto apareció Rock 101 en la FM, un 1984 de diversos cercos que fuimos saltando a través de nuestra programación, nos convertimos en el escaparate de lo que sucedía en la Ciudad de México y el resto del país, haciendo accesibles las tendencias que ocurrían

76

en el resto del mundo. Lo que antes parecía una vitrina intocable se convirtió en el lenguaje rockcientoúnico. Los libros, la música y las películas seguían sin llegar, pero las diferentes voces lograron que las ideas fueran accesibles. El papel de los medios en general cumple nuevas funciones en esta era, es algo masivo en marcha que no sólo abarca el territorio de la música, sino toda la creación de contenidos. Muchos comprenden ahora que hay menos porteros resguardando las puertas de la información y el acceso limitado a los elementos culturales ya no es tal, porque ya no se trata de una única y exclusiva guía cultural con conocimiento único de nuestros objetos de deseo, sino de muchos con acceso a un todo, que a veces parece demasiado, tanto que ahora el problema es que no tenemos suficiente tiempo para acceder a todo. Lejos del problema individual para discernir entre todo lo que queremos acaparar, podríamos pensar que eso nos va a dirigir hacia el mismo lugar, regresar a los días en que alguien más nos decía qué debíamos ver; pero sin embargo el nuevo papel de los medios, sobre todo los medios independientes como Rock 101, es conectar el contenido con la audiencia, no dirigir sus gustos y preferencias, porque aunque debemos tomar en cuenta que los costos de producción y distribución para crear un medio independiente han bajado, si hablamos de medios electrónicos, tenemos consumidores de cultura con opciones infinitas que verdaderamente los retan y con una creciente disposición a diversas fuentes de información de confianza.


ARTÍCULO

77


Ese es el elemento clave en este momento, no sólo ser un medio, también ser parte del consumidor final y tener la extraordinaria oportunidad, como muchos, de participar en el proceso de construir y cultivar una cultura que llega mucho más allá de las fronteras locales o las simples decisiones e intereses de un guía cultural, porque el mercado incluye una gama mucho más amplia y diversa de creadores que pueden producir y distribuir un rango más vasto y dinámico de la creatividad.

El Escaparate de Ideas

De ahí partimos en esta nueva era de Rock 101, lo que hacíamos en 1984 era poner al alcance la información, en el 2016 somos curadores de contenidos y una vez más el escaparate de ideas que generan nuevas tendencias. Al cumplir 32 años tomamos el lema de “Historia en Vanguardia” como algo que ocurre constantemente a través de nuestra programación, conectamos contextos, llevamos el tópico de tendencia hasta su origen y permanentemente realizamos el ejercicio de ver el pasado, sin la nostalgia, para entender en dónde estamos parados en la actualidad. Tan solo en el periodo de mayo de 2015 a mayo de 2016 dedicamos 740 horas de nuestra programación a diversos especiales, partimos de la música para desarrollar temas, sin embargo nuestro interés en el contenido hace que seamos algo más que presentadores, somos obsesivos del “de dónde viene y a dónde va”, por eso cuando empezamos a invitar a diversas personalidades a participar en el programa #Residente101 descubrimos que el concepto de banda sonora de nuestras vidas seguía siendo tan vigente como en 1984, la diferencia es la cantidad de voces que en la actualidad se pueden sumar a la conversación. Como los bloggeros podemos obsesionarnos, enfocarnos y también ponernos serios en algún tema, contemplando siempre que si un escritor en particular aborda una historia interesante, más y más gente hace eco de esa historia, como nosotros mismos hacemos

78

eco de muchas historias de medios independientes o convencionales, pero intentamos alejarnos de las noticias virales para buscar contenidos propios, que aporten un elemento único y sean el indicador para nuestros lectores de que, entre toda la información repetida, hay ciertas diferencias. Para los medios independientes esa idea se convierte en una habilidad esencial, porque no tienes que trabajar con alguien que controla las puertas de la información y repetir lo que te indican, porque hemos descubierto que existen otros caminos para obtener esa misma información si no llegas a estar en la lista de medios privilegiados o aprobados. Los medios independientes entendemos que la mayoría de las veces nuestro trabajo no es sobre el dinero o el reconocimiento, casi siempre vivimos bajo la ética Do It Yourself y la idea de que podemos ser una de las muchas voces transmitiendo ideas que se retroalimentan con otros medios independientes, entendiendo completamente que a final de cuentas ninguno somos dictadores que detentan la información como poder o que se la reservan para unos cuantos.

REVOLUCIÓN 1.01

Iniciamos una auténtica revolución en 2010 con la salida al aire de Rock 101 vía Internet. Si bien ha disminuido en costos la producción, así como el acceso a la tecnología, haciendo viable la distribución de contenidos a través de Internet, y con ello ha aumentado el alcance e influencia del nuevo medio, se tiene la idea errónea de que prácticamente cualquier persona puede tener una fuente de difusión exitosa. En realidad, sólo considerando contenidos de calidad profesional construidos con seriedad y visión empresarial, estamos viviendo un impacto en nuestra vidas cotidianas que, a la luz de la historia específica de los medios de comunicación, está creando nuevas costumbres, nuevas relaciones entre el receptor y el emisor, y en nuestro caso


ARTÍCULO

específico, nuevas vías de interacción y relación con el medio. En este caso: radio. En 2010, con el iPhone y los sistemas Android en el inicio de su desarrollo, en Rock 101 entendimos que la mecánica de recepción de nuestro medio estaba virando hacia otros mares en los que la estación, el hardware por medio del cual existía la radio por parte del emisor (estudios, transmisores de enlace, receptores de enlace, transmisores, generadores, líneas de transmisión, antenas, ganancias, plantas de luz), como por parte del receptor (consolas, radiograbadoras, etéreos en casa, modulares, boom boxes), estaban desapareciendo para ingresar a la órbita de los nuevos dispositivos que concentraban las “herramientas” de entretenimiento y trabajo en un solo centro de operación. Ya fuera vía estática, a través de una computadora de escritorio o vía portátil, por medio de una laptop, tableta o móvil, vimos como la necesidad inminente el desarrollo de un concepto innovador y propositivo como lo ha sido en su historia Rock 101, urgía evolucionar la idea radio para trasladar su esencia al contenido y adaptarla a una nueva vía de difusión que alcanzara al público al terreno en el que estaba desenvolviéndose. Y es que hacer “radio por Internet” como se dio en llamar a casi cualquier proyecto que involucraba presentar en línea a locutores y música, es para nosotros un ejercicio mucho más sofisticado que se ubica en el reto permanente que nos planteamos desde nuestra existencia en FM: lo que ocurre entre canción y canción. Más allá de un discurso al aire, la construcción de una plataforma ideológica consistente, que a manera de cimiento vaya creciendo a través de las ofertas de comunicación que ofrece la multiplataforma de Internet.

24 HORAS AL DÍA, 24 HORAS EN LA NOCHE

Si bien iniciando como un stream permanente de radio, y esa es nuestra columna vertebral, no tardamos en entender que la nueva naturaleza del medio debe

involucrar necesariamente contenidos visuales, textuales, de intercambio de contenidos y diálogo permanente en las redes. A partir de la concepción auditiva de radio, la adaptación al nuevo medio requiere, siempre en la dinámica efímera y exigente de la radio, integrar exitosamente los medios que alrededor ofrecen la capacidad de ampliar la experiencia auditiva como fin último de la utilización de todos los recursos. Así, entendiendo el nuevo mundo como uno de outlets en competencia por la atención del público, en todos los niveles –textuales, hipertextuales, audio, vídeo, interpersonales, musicales– la revolución de la que hablamos significa romper con la limitante en espacio que significaba la atadura al hardware antes mencionado, liberando la imaginación en todos los planos posibles de una misma idea que surge de la claridad de un concepto que rebasa a los medios convencionales. Tomándonos en serio, con el acercamiento al nuevo medio como un descubrimiento fantástico, siempre valorando la conciencia histórica que nos da la posibilidad de maravillarnos con el potencial de acceso que da Internet, en Rock 101 hemos creado una plataforma seria que está ya incrustada en el mapa de los medios de influencia en México al convocar diariamente a un número importante de personas con características perfectamente definidas alrededor de su gusto musical, con un estilo de vida que a su vez define ese gusto musical. En la nueva comunicación del siglo XXI totalmente horizontal, Rock 101 tiene ese acento adicional que la caracteriza, y es que acercarse a nuestra señal no sólo es un acto de escuchar radio, sino la incorporación mutua de un estilo de vida. Compenetración espontánea que nace en la conexión en dos vías de los nuevos medios alternativos, lejanos de las medidas convencionales, utilizando el lenguaje con el que hoy en día coexistimos activamente todos. Rompiendo fronteras, físicas, y sobretodo conceptuales, Rock 101 es una historia de éxito en la nueva comunicación del siglo XXI.

79


ARTÍCULO

De la carrea a los sueños

T

Xochicuahuitl Gleason

odos al elegir una carrera lo hacemos con la ilusión de aprender, desarrollar habilidades y, al concluir, contar con los conocimientos necesarios para posicionarnos en el empleo de nuestros sueños o poniendo un negocio propio; sin embargo la realidad es muy distinta a esta imagen. Si bien la formación escolar o académica es de vital importancia la educación de la vida, la familia y el entorno son quienes definen el perfil que cada uno de nosotros podremos ofrecer tanto en el aspecto laboral como en lo personal, y en la interacción diaria. Con un ritmo de vida lleno de tecnología y de intercambios en línea, este elemento está quedando en segundo plano y al final obtenemos profesionistas con la gran característica de ser Analfabetas Técnicos1, dando como resultado final equipos de trabajo que se alejan de la idea de la autoadministración. La suma de una elección de carrera por imposición y no por elección, y el uso inadecuado de la tecnología para el acercamiento de la información elimina la importancia del estudio por el amor al mismo, por la pasión del logro de un sueño y de la mejora del entorno. Cuando nos educan para tener buenas calificaciones y no para construir nuestros sueños, obtenemos una formación para ser buenas máquinas de repetición de procesos y no generadores de ideas. Como les he comentado en artículos anteriores, la primera carrera que estudié fue de sociología. Cuando mis allegados supieron mi elección la mayoría me hizo el gran favor de regalarme comentarios como “¿y de qué vas a vivir?”, “de eso no hay trabajo” entre algunas otras opiniones que te llenan de confianza (léase esto con 1

80

Para esos locos con los que comparto escuela, proyectos y vida.

sarcasmo jeje), sin embargo, mi papá me regaló el mejor consejo: “decide a partir de lo que más amas, escoge eso que te inspirará a levantarte cada día, a continuar, al final cuando amas lo que haces siempre existirá la forma de llegar muy alto”. Después de varios años puedo asegurar que las mejores decisiones de mi vida han sido aquellas que he tomado escuchando el corazón, es común pensar que la toma de decisión respecto a qué estudiar debe ser un proceso racional, sin embargo, el acercamiento al conocimiento así como elegir qué hacer con él es más bien un tema de proyecto de vida, de sueños y de pasión. Casi diez años después puedo asegurar que no podía haber estudiado otra cosa que no fuera sociología, ya que gracias a esto ahora disfruto inmensamente estudiar Ingeniería en Sistemas; pero sobre todo, saber que cada una de las elecciones que he tomado son congruentes con la vida que siempre he soñado, permitiéndome disfrutar mi trabajo y los proyectos personales que imagino y materializo. Razón por la cual pido se tome este artículo como una invitación a ser felices, a aprender a escuchar al corazón, a decidir saltar cada día a pesar de la opinión de otros, de la vida de otros o de las recetas que quieran imponer como estáticas. La vida es de cada uno de nosotros y el cómo decidimos vivirla, caminarla y transformarla será el reflejo de lo que somos, de nuestra naturaleza; sea pues una invitación a elegir la carrera a partir de lo que te hace feliz, de lo que hará que cada día seas una persona perfecta y consciente, de no ser así ¿qué caso tendría estudiar?, ¿cuál sería la congruencia entre vivir y soñar? Se trata de saltar, de tener el valor de vivir, al final siempre existirá un paracaídas para quienes nos atrevemos a soñar.

Entiéndase como las personas que no tienen la capacidad de obtener conocimiento de lo cualquier material escrito o visual que consulten


81


82

Profile for developNetwork

developnetwork julio 2016  

Elección de Soluciones de Software Héroe y Villano

developnetwork julio 2016  

Elección de Soluciones de Software Héroe y Villano

Profile for masgeek
Advertisement