Page 1

1

BigDatamagazine Revista especializada en Big Data. Ejemplar gratuito.

Nº1 junio 2019

El uso del Big Data en el sector bancario

Rafael Fernández, CDO de Bankia

Especial Big Data e IA en el sector logístico

Cómo cambiará el retail gracias a la IA BigDatamagazine | Junio 2019


2

¿Qué harías si pudieras acceder a todos los datos de tu empresa en tiempo real?

N TIO A Z I AL TU R VI TA A D

YE LA

R

Integra tus datos desde cualquier fuente o ubicación sin replicarlos

LOGICAL DATA WAREHOUSE

VISTA 360º DEL CLIENTE

AGILE BI

INTEGRACIÓN CLOUD

SERVICIOS DE DATOS

BigDatamagazine | Junio 2019con nosotros: 912 77 58 55 / info.iberia@denodo.com | Prueba Denodo Platform: www.denodo.com/testdrive Visita: www.denodo.com | Contacta


3

Editorial

E

El despertar del dato, nuestro despertar

l sector del dato en España sigue creciendo y consolidándose. Lo más importante es que deja atrás el tupido velo de la indefinición con el que otrora se definía el big data. Ese gran y maravilloso algo que podíamos hacer con los datos empieza a tomar forma, a sustantivizarse y adjetivizarse. Ya podemos poner logo a empresas que están apalancándose en estrategias de datos para mejorar su rentabilidad. Y eso es lo que hemos querido hacer con la primera edición de nuestro congreso (esperemos que de carácter anual) Data&cIA Congress, que ve la luz el mismo día que estas páginas sale de imprenta para su lectura. Por fin se pueden empezar a contar cosas. BigData Magazine es un proyecto editorial que ya suma 18 meses

desde su gestación. En este tiempo hemos visto como, muy poco a poco, nuestros interlocutores han pasado de parapetrarse detrás la capa de sus respectivos departamentos de comunicación a salir de esa cueva de datos y empezar a recoger los frutos cultivados. En esta 1ª singladura de Data&cIA Congress contaremos con entidades como Bankia, Caja Rural, Mutua Madri-

leña, Ferrovial, Correos, Just Eat, Prosegur, Vodafone, Orange, Gloval… incluso de ámbitos académicos como la

Universidad Carlos III. Todos tienen algo que contar. Cómo han interiorizado e implementado en sus estructuras las herramientas capaces de llevar a cabo el triple-salto-mortal-hacia-delante-con-doble-tirabuzón que se le presupone a esta ‘brujería’ del BigData. La digitalización ha cambiado el panorama empresarial a nivel mundial, de manera rápida e imparable. Los direc-

BIG DATA MAGAZINE Edita: Digital Tech Communications Group S.L. C/ Núñez Morgado, 5 (local) 28036 MADRID CIF: B87917563 Depósito legal: M-11022-2018 www.bigdatamagazine.es info@bigdatamagazine.es

tores del área de TI de las empresas han tenido que reaprender a realizar su trabajo, y, además, hacer que

todo funcione al mismo ritmo al que lo hace el cambio, lo que no siempre ha sido fácil. De hecho, según un estudio realizado por la consultora alemana Diva-e, tan sólo dos terceras partes de los CDO´s tienen una estrategia digital definida y orienta a la empresa a los servicios que ofrecen a sus clientes. La velocidad evolutiva junto con los continuos cambios legislativos, han hecho que la figura del CDO vaya teniendo cada vez más peso dentro de las entidades. Actualmente el perfil medio del CDO en España es varón, de 47 años y con unos 3 años de experiencia según el último informe de Rusell Reynolds Associates. Entre sus funciones, además de la analítica e investigación de los diferentes roles del área tecnológica, ahora se suman el control de datos y gestión del target, las habilidades comunicativas y comerciales o tener capacidad visionaria e innovadora. Todo un reto. Un reto que también va unido a la contratación. Los análisis actuales demuestran que en los próximos 3 años el 15% de los actuales CDO logrará un ascenso a puestos de mayor prestigio y por lo tanto de mayor remunera-

ción. Además, mientras el 54% de las grandes empresas del mundo ya poseen un profesional de esta área, un 20% planea contratar uno en los próximos años. De hecho, se prevé que el mercado mundial del Big Data aumente hasta los 103 billones (con B de Bigdata) de dólares para 2027, más del doble del tamaño esperado para 2018. Solo estamos en el valle de la ola.

.

Socios directores: Pedro Pablo Merino y Samuel Rodríguez. Redactor Jefe: José Luis Arcángel. Redactores: Mónica Gallego. Álvaro Gutiérrez, Laura Quelle y Vicente Ramírez. Relaciones Públicas: Angie Parra. Director Comercial: Luis Rincón. Publicidad: luisrincon@bigdatamagazine.es

BigDatamagazine | Junio 2019


4

Sumario 06. Infografía El patrón correcto para

evolucionar de una compañía data-driven a otra data-centric

16

21

08. Podcast Territorio Big Data 09. Agenda de eventos 10. Especial Big Data e IA en el sector logístico DHL, Carrefout y Correos Express 16. SEUR Entrevista con Óscar Cuevas

38

Gutiérrez responsable del departamento de BI y Calidad del Dato 18. Correos Entrevista con Enrique Ramírez

Palacin Director de Organización, Tecnología e Innovación 20. Especial el dato en la banca 21. Bankia Rafael Fernández Campos, CDO

36

50

24. Evo Banco Pedro Tome, Head of Disruptive

Innovation and Big Data.

26. Aplazame Jorge Valhondo Rama, CDO 28. Self Bank Eugenio Vega, CIO 30. Sabadell

Luis Echávarri, CDO & Corporate Systems 33. Oney Joan Salomó, Responsable de DATA 36. Denodo Entrevista con Anastasio Molano

30

18 37

38. Ciber Experis Artículo de Gonzalo Bueno 40. Smart Data Spain Summit

Resumen de las ponencias más interesantes 42. Huawei Connect Europe de Roma

Entrevista con Karabet Krikorian 44. Medmesafe

Entrevista con Clément Destoumieux 46. Cómo cambiará el Retail en 10 años gracias a la IA 48. Woman in Data Science reúne a las

mujeres protagonistas de la IA en España

40 24 BigDatamagazine | Junio 2019

50. Ética en la Inteligencia Artificial


5

BigDatamagazine | Junio 2019


6 Infografía

El patrón correcto para evolucionar de una compañía data-driven a otra data-centric

Y todas ellas con un modelo basado en roles donde las funciones y responsabilidades están claramente establecidas.

Fuente: Pragsis Bidoop BigDatamagazine | Junio 2019


7

BigDatamagazine | Junio 2019


8 Podcast / Territorio Big Data

Territorio Big Data ÁNGEL GALÁN, HEAD OF BUSINESS INTELLIGENCE & DATA ANALYTICS EN CORREOS

ENRIQUE FERNÁNDEZ, DATA & BUSINESS INTELLIGENCE DIRECTOR DE JUST EAT ESPAÑA

UNAI OBIETA, RESPONSABLE DEL ÁREA DE ARQUITECTURA, TECNOLOGÍA, INNOVACIÓN Y ESTRATEGIA DE TI EN FERROVIAL SERVICIOS

ROBERTO GAMERO, CIO EN DHL SUPPLY CHAIN

ÁNGEL SÁNCHEZ, COFUNDADOR Y GENERAL MANAGER DE GEEKSME

Siguenos en:

BigDatamagazine | Junio 2019


9

Eventos

12 de junio. Palacio de la Prensa, Madrid. Data&cIA Congress

13 de junio. Edificio MB ONE, Alcobendas (Madrid). El CDO y el reto de la Democratización del Dato

20 de junio. Fundación Rafael del Pino, Madrid. El poder estratégico de los datos. La nueva figura del Chief Data Officer en la empresa

20 junio. La Nave, Madrid. OpenExpo Europe

Crear una arquitectura de datos que respete la privacidad y permita su uso de una manera eficaz y eficiente es sin duda una tarea compleja de gran trascendencia para la empresa. Labor que debe asumir el CDO, figura de responsabilidad que ha ido consolidándose en el panorama directivo.

El mayor Congreso y Feria profesional sobre Open Data y Open Innovation de Europa. Esta sexta edición se divide en diferentes conferencias que abarcan los principales sectores que lideran la transformación global y los procesos tecnológicos más disruptivos: Open Tech Conference, European Cybersecurity Forum, Ai & IoT Summit o Fintech.

25 de junio. Hotel Meliá Condal Mar, Barcelona. Future of work

29-31 de Octubre. Fira, Barcelona. IoT Solutions World Congress

La capital de España acoge la primera edición del evento dedicado al Big Data y la Inteligencia Artificial organizado por Big Data Magazine. Contará con la presencia de los más destacados responsables de datos de las principales empresas del país. Se hablará de gobierno del dato, futuro del dato, Big Data e IA como la pareja perfecta y otros muchos temas de gran interés para el sector.

La digitalización del puesto de trabajo, con el empleado como eje de esta transformación, se está convirtiendo en una oportunidad para las organizaciones. En este sentido, el puesto de trabajo ha dejado de ser una commodity para pasar a ser un elemento diferenciador. Se celebra en la Ciudad Condal a finales del mes de junio, un mes plagado de eventos en todo el país.

La gestión del #catálogodedatos se ha convertido en pieza central según Gartner de la estrategia de democratización de los datos que debe seguir una compañía para poder dar acceso fácil e intuitivo a los datos gobernados, tanto internos como externos, por parte de los usuarios. El Club Chief Data Officer Spain te invita a un desayuno para conocer la gestión eficiente de catálogo de datos.

El evento de IoT más grande del mundo en inspirarse con nuevas ideas, soluciones y personas. Un evento único dedicado exclusivamente a unirse a los proveedores de la industria de la IO con el fin de ayudar a estos últimos a aumentar la productividad a través de este disruptive tecnología. Desde su primera edición en 2015, el evento ha crecido hasta convertirse en la referencia mundial.

BigDatamagazine | Junio 2019


10

Especial Big Data e IA en el sector logĂ­stico BigDatamagazine | Junio 2019


11

Tendencias tecnologícas en la cadena de suministro / DHL

Robótica, AI, AR, blockchain y drones: Tecnología mejorando la cadena de suministro La digitalización e implantación de nuevas tecnologías en multitud de aspectos de nuestra vida diaria es ya una realidad. La logística se ha convertido en uno de los ejes centrales de toda empresa. Cada vez es más importante gestionar, controlar y asegurar el transporte y gestión de productos, intentando mejorar las cadenas de suministros para optimizar los procesos. En este sentido, la robótica, la inteligencia artificial, la realidad aumentada, el blockchain y el BigData, son algunas de las tendencias que ya están mejorando la cadena de suministro de las empresas y que desde DHL analizaron en el informe ´La digitalización y las cadenas de suministro ¿Dónde estamos y qué está por venir?` Texto: Pedro

L

Pablo Merino

a robótica, la inteligencia artificial, la realidad aumentada, el blockchain y el BigData, son solo algunas de las tecnologías que han modificado las cadenas de suministro tradicionales y que las empresas deberían integrar en sus operaciones y estrategias de cadenas de suministro. Poco a poco su implementación es más

amplia, y el mundo de la logística no es menos. En este artículo vamos a hablar de cómo una empresa logística como DHL Supply Chain utiliza estas tecnologías para optimizar sus recursos, mejorar los procesos y experiencias de sus clientes. Realidad aumentada Hace unas semanas hablamos con Roberto Gamero, CIO de DHL

Supply Chain, que fue protagonista de un capítulo del Podcast de Territorio Big Data, en el que

nos habló de ejemplos reales de uso de tecnologías innovadoras en el mundo de la logística. Por ejemplo, cómo DHL ya utiliza la realidad aumentada en los almacenes para impulsar eficiencias en la preparación de pedidos y los robots de almacén están mejorando los tiempos del picking y apoyando a los empleados BigDatamagazine | Junio 2019


12 Tendencias tecnologícas en la cadena de suministro / DHL en tareas repetitivas tales como los Servicios de Empaquetado. Así, los robots de software (automatización del proceso de robótica) se están haciendo cargo de los procesos de back-office seleccionados. “Esto tiene dos beneficios” nos explica Roberto Gamero: “Por uno, que el operario tiene manos libres mientras utiliza las gafas de realidad virtual en el picking. Y por otro, que le ofrece más ayuda con información sobre colores y formas del producto que tiene que preparar” detalla. Además, los nuevos sensores proporcionan a los clientes de DHL información en tiempo real sobre la ubicación y el estado de sus productos, utilizando Internet de las Cosas. BigData e Inteligencia artificial Con la gran cantidad de datos que las empresas pueden recopilar hoy en día, el mundo de la logística también está empezando a aprovechar sus datos y con ayuda de la inteligencia artificial, conseguir interesantes beneficios. Uno de ellos es el de prevenir la demanda. Roberto Gamero, CIO de DHL Supply Chain, nos explica al respecto: “En DHL llevamos tiempo

trabajando en proyectos de previsión de demanda. Para nuestro negocio, tanto para la parte de almacenes como para el transporte, es muy importante anticiparnos a la demanda que tendremos. A la hora de la contratación de transporte, por ejemplo, en determinadas épocas del año nos cuesta mucho contratar camiones, como en Black Friday, navidad, verano, etc. Si somos capaces de saber qué ocurrirá, en este caso podríamos dejar contratados los servicios y así evitarnos problemas.” Gamero comenta otro caso de previsión de demanda, en este caso de productos, como es una pizzería. “Una cadena de pizzerías nos decía que a parte de tener que tener en cuenta su histórico de pedidos, a la hora de tener una previsión de la demanda, debían introducir en su algoritmo el calendario de La Liga de fútbol profesional. Porque determinados partidos influyen. Drones El mundo de los drones resulta muy llamativo. Puede parecer ciencia ficción el utilizar un dron para enviar un paquete, pero ya hay casos reales en este sentido. “No se podrá utilizar en el 100% de los envíos, pero para determinadas circunstancias y lugares, BigDatamagazine | Junio 2019

nosotros ya estamos utilizando drones” comenta Roberto Gamero, CIO de DHL Supply Chain. “Tenemos 3 usos de drones en el mundo de la logística. Nuestros compañeros de DHL Express han hecho ya pruebas para entregar paquetes en los Alpes, en zonas montañosas de difícil acceso. Otro uso de drones es para temas relacionados con la seguridad. En países donde la seguridad es complicada, para mantener la integridad de los vigilantes, utilizamos drones para realizar controles. Por último, y la que para nosotros ya es un producto muy utilizado, es el uso de drones para hacer inventarios de almacén. En zonas de altura, usar drones es más productivo, además de mucho más seguro, que utilizar personas.”

Aplicación de la tecnología blockchain a la cadena de suministro

Hablamos ahora de Blockchain, la tecnología que está cambiando la forma de operar miles de estructuras empresariales. Aplicando blockchain a la cadena de suministro podemos tener también varios beneficios que mejoren aspectos de las empresas, algunos de ellos muy importantes. Así, con el blockchain podemos asignar a cada producto un identificador único que permite capturar todo su historial y controlar los datos de su trazabilidad completa, desde la salida de fábrica al almacén y/o desde este hasta su llegada a cliente final. Mediante el blockchain, los implicados en el proceso validan toda la información en tiempo real y, si alguien trata de interferir, alterar o borrar un registro,


13

Tendencias tecnologícas en la cadena de suministro / DHL farmacéutico de serialización basado en blockchain, con nodos en seis áreas geográficas diferentes se pueden rastrear productos farmacéuticos a lo largo de toda su cadena de suministro. Un prototipo farmacéutico creado por DHL y Accenture es solo uno de los casos prácticos expuestos en el análisis “Blockchain in Logistics” realizado por ambas compañías y dado a conocer el pasado año. En el prototipo desarrollado en esta prueba de concepto, el libro de contabilidad que rastrea los medicamentos se puede compartir con las partes interesadas, incluidos los fabricantes, almacenes, distribuidores, farmacias, hospitales y profesionales médicos. Así, las simulaciones de laboratorio muestran como blockchain podría manejar con altísimos estándares de seguridad más de 7.000 millones de números de serie únicos y de 1.500 transacciones por segundo.

todos lo sabrán. Gracias a blockchain, los procesos logísticos ganan en transparencia y trazabilidad, y la automatización de los procesos comerciales mejora exponencialmente. La tecnología blockchain se presenta como una gran apuesta para mejorar drásticamente la eficiencia y la confiabilidad de las cadenas de suministro en todas las industrias. Según IDC, la inversión mundial en soluciones blockchain alcanzaba los 2.100 millones de dólares en 2018, más

del doble que los 945 millones de dólares invertidos en 2017. En 2021, la inversión anual podría alcanzar los 9.200 millones de dólares. El potencial que tiene blockchain en logística es muy significativo. Sin embargo, pasar de los conceptos y las

aplicaciones piloto a la implementación de soluciones viables requerirá que la tecnología se desarrolle más, así como la transformación organizacional y la disposición a colaborar entre todas las partes interesadas. El éxito depende de que todas las partes implicadas trabajen para transformar los procesos heredados y adoptar conjuntamente nuevas formas de crear valor logístico. Salvar vidas autenticando medicamentos

Según datos de Interpol, se producen cerca de un millón de muertes cada año debido al consumo de medicamentos falsos, y se estima que hasta un 30% de los productos farmacéuticos vendidos en mercados emergentes son falsificaciones. En este sentido, con el prototipo

Robótica El uso de los robots en almacenes es una práctica que poco a poco también va implantándose. En DHL nos explican algunos de los usos que les dan. En primer lugar tienen las Picking Cart Solutions, en las que carros-robots ayudan a los empleados a hacer labores de picking. Uno de ellos, los “follow-me carts” eliminan la necesidad de que los empleados tengan que estar empujando los carritos, ya que les siguen mientras trabajan. Los “lead-me carts” por su parte eliminan la necesidad de tener un dispositivo de asistencia, ya que guían al empleado a la siguiente ubicación para recoger el producto necesario. En segundo lugar están los “robots lanzadera”. Estos robots mueven pedidos de una zona a otra, mientras los empleados se encuentran en sus zonas determinadas realizando el picking. También tenemos a los “swarming robots”, que llevan una orden de pedido y se desplazan hasta la ubicación donde se encuentra el producto necesario de recolectar. Los empleados introducen los productos que llegan a su pantalla en los robots, manteniéndoles las manos libres. En tercer lugar encontramos los “Mobile piece picking robots”, que viajan y escogen artículos de forma autónoma. Eliminan parte del trabajo humano requerido, aunque la manipulación puede ser necesaria en determinados artículos.

.

BigDatamagazine | Junio 2019


14 Big Data e IA en el sector logístico / Carrefour

Carrefour elige IA para optimizar la cadena de suministro Carrefour y SAS se unen para optimizar la cadena de suministro y reducir el desperdicio de alimentos de la cadena de supermercados mediante Inteligencia Artificial (IA) y analítica avanzada. Texto: Mónica

Gallego

Carrefour ha elegido la solución SAS Viya para el despliegue de la Inteligencia Artificial (IA), por lo que se

convertirá en la primera multinacional de distribución que emplea la Inteligencia Artificial para gestionar la disponibilidad de la mercancía. a recopilación y proceso de datos de tiendas físicas, almacenes y comercio electrónico, Carrefour quiere dar esa respuesta al reto de la distribución omnicanal y, así, la optimización del inventario. El análisis de datos contribuye a mejorar la gestión de la mercancía, al mismo tiempo que logra reducir el desperdicio de elementos y controlar el exceso de stock. SAS Viya, permitirá a Carrefour mayor agilidad para integrar los métodos de trabajo y mejorar continuamente los procesos de previsión de la demanda de producto. SAS Viya es

L

BigDatamagazine | Junio 2019

capaz de almacenar grandes volúmenes de datos, lo que permite a los expertos de Carrefour desarrollar algoritmos personalizados para satisfacer la necesidad de cada cliente. “La implementación de SAS Viya nos permitirá dar un paso adelante en nuestra optimización de la cadena de suministro. La inteligencia artificial liberará tiempo para que nuestros equipos se centren en desarrollar estrategias de previsión diferenciadas y satisfagan mejor las expectativas de nuestros clientes, al tiempo que reducen el desperdicio’’, afirma Franck Noel-Fontana, Director de Forecasting en Carrefour Francia. SAS y su socio Capgemini ofrecerán la

experiencia tecnológica y comercial de Carrefour durante todo el despliegue. “Proyectos como este de Carrefour son los que ayudan a diferenciar la realidad de las expectativas’’, explica

Oliver Schabenberger, Director de Operaciones y Director de Tecno-

logía de SAS, “Hemos observado

increíbles avances en la realización de algoritmos, con una precisión asombrosa, realizando tareas que un humano podría llevar a cabo’’. El supermercado del futuro Carrefour ha sido una de las cadenas que más han impulsado los formatos especializados, como sus tiendas Bio, y algunas ideas originales, como Carrefour Bites and More by the Shore, un barco supermercado que

opera en Dubái y que da servicio a los numerosos yates que hay en el emirato. Además, no podemos olvidar que Carrefour lanzó en noviembre un sistema de trazabilidad en España, sobre la plataforma blockchain IBM Food Trust, por el que el cliente puede utilizar una app para acceder al código QR que aparece en el empaquetado de algunos productos y seguir el rastro de éstos, desde su producción hasta su transformación y distribución.

.


15

Big Data e IA en el sector logístico / Correos Express

IA para el reparto y recogida de envíos de Correos Express Para optimizar el reparto de los envíos, la compañía ha desarrollado un exclusivo Sistema de Gestión Dinámica basado en la Inteligencia Artificial (IA) que optimiza todo el proceso, desde la recepción y clasificación de los paquetes hasta su gestión y entrega. Además completa el proceso con el nuevo sistema de IA para recogidas, tanto para empresas como para particulares.

C

Texto: Mónica

Gallego

orreos Express se coloca de los primeros en el ranking logístico. Durante el año 2018 repartió más de 59 millones de envíos, incrementando su porcentaje en un 16,3% con respecto al año anterior. Solo el 18% de estos envíos se repartieron entre los meses de noviembre y diciembre del pasado año. El factor diferencial que ha caracterizado a Correos Express de otras compañías es, sin duda, la utilización de vehículos no contaminantes (bicicletas eléctricas y backpackers) para garantizar al cliente un envío sostenible. Esto ha supuesto 800.000 kg menos de CO2 en la atmósfera y un aire mucho más limpio. La Inteligencia Artificial también ha hecho grandes cambios en la compañía ya que, para optimizar el reparto de los envíos, Correos ha desarrollado un Sistema de Gestión Dinámica basado en Inteligencia Artificial

que optimiza todo el proceso, desde la recepción y clasificación de los paquetes hasta su gestión y entrega. Este sistema permite posicionar el 97% de la mercancía y aporta máxima eficiencia y eficacia al proceso, mejorando el control

de todos los envíos y su trazabilidad. Además, ofrece ayuda y asistencia a los repartidores, máxima transparencia para los clientes y destinatarios y optimiza la gestión de incidencias. El sistema de Gestión Dinámica es un desarrollo tecnológico propio de Correos Express basado en su experiencia en la operativa y el reparto en la última milla. El Sistema ofrece máxima trazabilidad de la mercancía, que permite saber en todo momento donde se encuentran los envíos. También permite optimizar las rutas, aumentar con flexibilidad la capacidad de reparto, en base a las puntas de demanda, mejorando la productividad. Además, guía a los repartidores y les ayuda a que puedan cumplir sus objetivos de reparto sin problemas. A estos desarrollos tecnológicos se suma el innovador servicio de Entrega Flexible que habilita a los usuarios para conocer y gestionar, a través de cualquier dispositivo, la recepción de sus envíos. Los destinatarios no sólo conocen en todo momento el estado de su compra, también pueden modificar la fecha, la dirección, hora de su entrega e, incluso, derivar la entrega a una determinada oficina de Correos. El objetivo es ofrecer un servicio integral

a los clientes, adaptado a sus necesidades específicas de cada momento, dar respuesta a la omnicanalidad que marca el mercado y a la urgencia que demandan los destinatarios. Correos Express ha desarrollado para satisfacer la necesidad de sus clientes una App que le ayuda a

gestionar sus envíos, sus recogidas y solucionar sus incidencias desde

cualquier dispositivo y lugar. Está disponible tanto en la Play Store para Android como para iOS.

Ahora también para recogidas Correos Express no se queda solo en el reparto de envíos, ahora completa el proceso con el nuevo sistema de IA para recogidas, tanto para empresas como para particulares. La propia aplicación identifica de manera predictiva las necesidades de los clientes y sus servicios. Gracias a este nuevo desarrollo, se pasa de distribuir las recogidas de manera manual según el código postal del cliente, a balancear las rutas y los horarios de los conductores según el día a día del volumen de la carga y de la concurrencia que éstos tengan, ya que geoposiciona el 97% de la mercancía. Por tanto, detalla qué conductor recoge el envío, cómo, qué carga lleva cada furgoneta o cuáles son las paradas de recogidas. El sistema ofrece así la ruta más eficiente, una máxima trazabilidad, una optimización del trabajo del conductor, un mayor control del producto, una mejora de los tiempos de la actividad y una mayor respuesta. Según Correos Express, la nueva mejora beneficia al conjunto de clientes y, especialmente, a las pymes, ya que dispondrán de un servicio “cero errores”, el cual mejorará la percepción de calidad, su experiencia y les ayudará a desarrollar e impulsar su negocio.

.

BigDatamagazine | Junio 2019


16 Big Data e IA en el sector logístico / SEUR

“Poder reaccionar en tiempo real a la información va a ser clave para el éxito” Seur es la compañía pionera en transporte urgente con 75 años de historia. Su apuesta constante por la innovación ha desarrollado soluciones que mejoran la experiencia del cliente. Big Data Magazine se entrevista con Óscar Cuevas que nos habla sobre la adaptación del dato y la innovación en logística.

D

Texto: Mónica

Gallego

urante sus más de 20 años de experiencia profesional, siempre ha estado relacionado con el mundo de los datos y la analítica, empezando como arquitecto y administrador de base de datos en empresas como Telefónica o Jazztel, hasta asumir tareas de más responsabilidad en el análisis y uso del dato como consultor en Fujitsu y desde hace 4 años en SEUR. Big Data Magazine (BdM): Big Data e Inteligencia Artificial, ¿la compañía perfecta? ¿Cuándo llega a SEUR esta tecnología y cómo ha evolucionado en los últimos años? Óscar Cuevas (OC): Como sabemos,

al hablar de Big Data estamos hablando de muchos datos, estructurados o no estructurados, de distintos tipos y procedencia, mezclándose a gran velocidad. BigDatamagazine | Junio 2019

En definitiva, mayor volumen, mayor velocidad y mayor variedad. Por otro lado, la Inteligencia Artificial lo que necesita son datos para aprender, de modo que cuantos más datos, más patrones se encontrarán, y tras aplicar algoritmos y estadísticas, mejores predicciones de futuro seremos capaz de realizar. Por lo tanto, podemos decir que estos datos son el combustible de la IA. BdM: ¿Cuándo llega a SEUR esta tecnología y cómo ha evolucionado en los últimos años? OC: Desde siempre, el transporte ha

tenido un rol clave en el comercio, pero en los últimos años ha adquirido un papel fundamental en la evolución de la industria y el comercio actual. Fenómenos como el ecommerce no se pueden entender sin el nivel de sofisticación y desarrollo de la logística moderna.

La Inteligencia Artificial y el Big Data tienen en este campo infinidad de aplicaciones prácticas que apenas estamos vislumbrando en la actualidad, pero que cambiarán nuestra forma de desplazar personas y mercancías en muy pocos años. En SEUR siempre hemos manejado un volumen muy importante de datos derivado de nuestros más de 5.000 repartidores moviéndose diariamente para entregar los 115 millones de paquetes que entregamos el año pasado, como el track and trace con nuestros clientes, el seguimiento de todas las situaciones por las que pasa cada envío, entre otros. El incremento del ecommerce supone nuevos retos para la compañía a nivel operativo, de planificación, de relación con el cliente o de costes, y nos dimos cuenta que debíamos apoyarnos en los datos para dar respuesta a muchas de las


17

Óscar Cuevas Gutiérrez es responsable del departamento de BI y Calidad del Dato de SEUR incógnitas a las que nos enfrentábamos. Empezamos cambiando nuestro modelo de BI, democratizando el dato, y ya hace dos años que implementamos nuestra primera aplicación machine learning que nos ayuda a predecir la demanda tan variable que el ecommerce genera, con variaciones del 50% entre períodos del año. Esto nos permite planificar los recursos necesarios, personal, almacenes o dispositivos, todo ello necesario para poder atender dicha demanda manteniendo los niveles de calidad que nuestros clientes merecen. BdM: Si hablamos de innovación y transformación digital ¿En qué se diferencia SEUR de sus competidores? OC: La sociedad ha modificado la

forma en que se relaciona e interactúa con el entorno, y esto afecta tanto a personas como, especialmente, a las organizaciones. Estamos ante un consumidor que demanda más rapidez en las entregas y más información de sus envíos, quiere elegir cuándo y dónde se le ve va a hacer entrega de su compra online. Frente a esto, el desafío logístico actual es sobreponerse a las dificultades en el proceso de última milla, como son las complicaciones por el tráfico y las regulaciones cada vez más estrictas, o problemas más habituales como la imposibilidad de entregar el producto por la ausencia del cliente. Para conseguir esto, en SEUR contamos con Predict, una solución que permite a los usuarios tomar el control total de sus envíos: se les informa de la ventana horaria de una hora en la que se entregará su pedido, puede realizar cambios en la fecha y lugar donde se efectuará la entrega y puede hacer seguimiento online de su pedido. Desde la puesta en producción de esta solución hemos analizado todas estas interacciones y, apoyándonos en análisis de Big Data, hemos ido conociendo cada vez más a nuestros destinatarios. Esto es un factor diferencial que nos permite ofrecer a nuestros clientes las fechas y ventanas horarias que mejor se adapten a sus preferencias, y a su vez, introducir una nueva variable en nuestra planificación de rutas. BdM: El Big Data ha transformado el servicio de logística y su negocio, ¿de qué manera ha transformado a SEUR?

OC: Como he comentado, desde que

cambiamos nuestra forma de tratar el dato, lo que hemos intentado es que este se encuentre siempre en el centro de cualquier decisión que se tome en la compañía y, para ello, es necesario poder analizar lo más rápido posible lo que está pasando y prever lo que va a pasar. En la logística, el músculo lo da la flota, pero la inteligencia viene a través de la tecnología, que permite diseñar y optimizar las estrategias en las operaciones. Una de las máximas sobre las que se asienta la transformación digital es que la sociedad vive en una comunidad donde la información fluye de forma constante y siempre está disponible. En la logística, el Big Data a través de la recolección de datos mediante el IoT es lo que nos va a permitir tener una visión completa de la cadena de valor, recibiendo información en tiempo real del estado de la flota, interacción con nuestros destinatarios, así como de otros datos que pueden afectar directamente a la operativa y por tanto a los costes, como son el clima, estado del tráfico o cualquier incidencia. Poder reaccionar en tiempo real a esta información va a ser clave para el éxito de cualquier compañía del sector. BdM: De cara al futuro, ¿en qué usos estáis trabajando? OC: Actualmente estamos trabajando en

varios proyectos pero destacaría dos por encima del resto. Para nosotros es capital conocer cada día mejor a los clientes que nos dan la mercancía. Con el incremento del ecommerce, el tipo de mercancía que nos llega diariamente es cada vez mas variable, y no es suficiente estimar el cuánto sino el cómo y el dónde. Es decir, tener mejores previsiones de volúmenes y destinos de dichos envíos es un reto constante para optimizar nuestra operativa. Y el segundo, donde estamos poniendo mayor esfuerzo, es en incorporar el IoT a nuestra flota. Como he comentado, ya no es suficiente con conocer dónde se encuentra cada uno de los vehículos de la flota, sino que hay que integrar dicha información en el entorno y realizar una toma de decisiones constante y en tiempo real con esa información, junto con otra que seamos capaces de recibir por otros canales. BdM: Ya hace un año de la implantación del GDPR en España, ¿cómo ha afectado a Seur este cambio?

OC: En SEUR la seguridad y priva-

cidad de nuestros clientes es un valor estratégico y por ello tenemos un departamento centrado en velar por la confidencialidad de los datos y de nuestros clientes. SEUR nombró el año pasado un DPO interno que se encargó de implantar y adaptar la organización al nuevo reglamento RGPD, si bien, en SEUR veníamos cumpliendo con la antigua LOPD y estamos certificados en la ISO 27001, que nos acredita el contar con un sistema de gestión de buenas prácticas en materia de privacidad y seguridad. Por el volumen de datos que manejamos en SEUR, la seguridad y la privacidad está embebida en los procesos de la compañía desde el diseño. Si hay que destacar algún cambio, sería la obligatoriedad de realizar PIAS desde el inicio de los proyectos. BdM: ¿Tres consejos o factores clave para la digitalización en una compañía de este sector? OC: Las transformaciones digitales

requieren cambios culturales y de comportamiento basados en las nuevas tecnologías, que obliga a replantearse y formular nuevas estrategias. Un consejo que podría parecer simple pero que no siempre se hace correctamente al comenzar el viaje de la transformación digital, es que necesariamente se debe definir el objetivo que pretende conseguir la empresa con el cambio. Otro factor clave y a la vez, un reto de la transformación digital de cualquier empresa, pasa por saber desarrollar el talento digital de sus personas y desatar todo el potencial que la digitalización pone a su alcance. Para conseguir esto va a ser clave la búsqueda constante y atracción del talento a la empresa. Como no podía ser de otra manera los datos, y en particular, la capacidad para buscar, analizar y compartir la información de forma automatizada es otro factor clave para la transformación digital de cualquier organización. No puede haber empresa inteligente sin esta capacidad de integración de la información en el día a día que facilite la toma de decisiones distribuida y en tiempo real. Y, por último, el acceso digital al cliente al que llegamos desde diferentes canales y al que ofrecemos un servicio que va mucho más allá de una entrega y que también exige total transparencia en dicha relación. 

.

BigDatamagazine | Junio 2019


18 Big Data e IA en el sector logístico / Correos

“La analítica ha ido creciendo en la organización hasta convertirse en un estilo de gestión” Correos es una de las empresas logísticas más importantes del país, y además la más longeva. Esta mayoría de edad no es obstáculo para impulsar su negocio con la ayuda de las nuevas tecnologías como el Big Data, la Inteligencia Artificial o el Machine Learning.

P

Texto: José

Luis Arcángel

ara conocer mejor la relación de Correos con las nuevas tecnologías, nos atiende Enrique

Ramírez, Director de Tecnologíae Innovación de la compañía. Big Data Magazine (BdM): ¿Cuándo llega el Big Data y la Inteligencia Artificial a Correos? Enrique Ramírez (ER): Correos

ha dispuesto históricamente de gran cantidad de datos operacionales, y cuya BigDatamagazine | Junio 2019

gestión es clave para la operativa diaria. Sin embargo, desde el punto de vista analítico la organización no disponía de una visión transversal de la información, e iba dando respuestas a las necesidades analíticas de forma vertical, algo que acababa por desembocar irremediablemente en la aparición de inconsistencias en la información. Obviamente, las nuevas demandas de nuestros clientes y el crecimiento del mercado, y sobre todo la irrupción del e-commerce multiplicaron las necesi-

dades de información, y pronto se hizo evidente la necesidad de centralizar los esfuerzos analíticos. En una primera fase se inicia un Plan Director que implicaba cambios a nivel de arquitectura, gobierno de la información y cambio cultural. Por aquel entonces se apostó por la construcción de un repositorio común a la organización, la incorporación de funcionalidades de analítica avanzada y algoritmia. También se crearon entornos de laboratorio para facilitar el trabajo de los científicos de datos.


19

Enrique Ramírez Palacin Director de Organización, Tecnología e Innovación Correos En ese momento se inicia un intenso camino en el que se han ido superando distintos estadios de madurez, con problemas y soluciones cada vez más complejas.

BdM: ¿Cómo ha evolucionado en estos años? ER: La analítica ha ido creciendo paula-

tinamente en la organización hasta convertirse en un estilo de gestión que genera un amplio ecosistema analítico. Si bien ha sido necesario realizar un intenso esfuerzo a la hora de explicar las ventajas que supone aplicar la analítica en todos los estamentos de la organización. Afortunadamente, hemos contado con la colaboración de pioneros dentro de los equipos de negocio, con amplio conocimiento a la hora de trabajar con datos y que nos han permitido ir dando pasos en la dirección correcta. Actualmente la analítica se utiliza a nivel interno, para mejorar nuestros procesos y para conocer mejor a nuestros clientes, ofreciendo mejores servicios. Hay multitud de ejemplos, que van desde la reducción de la huella de carbono, a la gestión dinámica de la red logística, o la selección de las mejores ubicaciones de nuestros centros, hasta la mejora de la satisfacción dotando de información a la red comercial y a los servicios de postventa. Sin embargo, la verdadera irrupción de la Inteligencia Artificial o la analítica avanzada ha llegado en los dos últimos años, con soluciones destinadas a escuchar la “voz de nuestros clientes”. En este caso, más que el reto tecnológico, el verdadero cambio ha llegado de mano del cambio en la metodología de trabajo, incorporando metodologías ágiles y equipos multidisciplinares entre tecnología y negocio. BdM: ¿En qué usos estáis trabajando de cara al futuro desde Correos? ER: En estos momentos estamos

inmersos en un importante esfuerzo para democratizar el acceso a la información, así como evolucionar las arquitecturas de las aplicaciones actuales de cara a poder hacer frente a los picos de demanda. Durante los primeros estadios de nuestro camino, hicimos un enorme esfuerzo en desarrollar aplicaciones y soluciones a nivel operativo. En la actualidad estamos transformando la cultura de gestión para que esté guiada por el análisis de información homogénea desde el nivel de presidencia

“En la actualidad estamos transformando la cultura de gestión para que esté guiada por el análisis de información homogénea desde el nivel de presidencia hasta todas y cada una de las unidades operativas y oficinas” hasta todas y cada una de las unidades operativas y oficinas.

BdM: ¿Cómo ha transformado el negocio logístico la incorporación del Big Data? ER: Al igual que otros sectores, el

negocio de la logística se encuentra inmerso en una profunda transformación digital y adaptación a la industria 4.0. Las empresas de logística generamos multitud de información a lo largo de la cadena de suministro, información que debe ser tratada, consultada y compartida en tiempo real. Obviamente, es precisamente en este escenario de tratar a mayor velocidad, volumen y variedad de información donde el big data aporta un mayor valor a nuestros negocios. A mi juicio, la clave de esta transformación radica en la capacidad de aunar estas capacidades técnicas del big data, con la algoritmia y la inteligencia artificial, que gracias a la sensorización permitiría la automatización de multitud de procesos operativos, algo que permitirá transformar la cadena de suministro y supondrá un habilitador de nuevos modelos de negocio y una mejora de la experiencia de cliente. En la actualidad estamos inmersos en múltiples proyectos con objeto de ayudar a mejorar el día a día de los ciudadanos. Y utilizamos la analítica como una palanca que nos permita maximizar nuestros esfuerzos. Desde Correos tenemos el compromiso de dar el mejor servicio posible en cualquier punto de la geografía, ya sea en zonas rurales o densamente pobladas. Además, estamos extendiendo nuestro servicio fuera de nuestras fronteras como el caso de Portugal, algo que inicia nuestra vocación internacional. Por este motivo nos esforzamos en realizar alianzas con grandes empresas de comercio on-line internacional como AliExpress o Amazon. Al mismo

tiempo, deseamos mantener nuestros valores, con iniciativas como Correos Market, con la que mostramos nuestro compromiso para facilitar el acceso al mercado a todo tipo de productores locales sin importar su actividad, tamaño o el lugar donde estén radicados. Por supuesto, todos estos servicios generan gran cantidad de información que alimentan nuestros servicios analíticos permitiéndonos elevar nuestro nivel de servicio tanto para todos nuestros clientes, independientemente de su tamaño. BdM: ¿Cómo han vivido en Correos la adaptación a la nueva RGDP? ER: Obviamente la RGPD ha requerido

adaptaciones tecnológicas y organizativas en todas las organizaciones europeas. Sin embargo, siempre hemos sido escrupulosos con el tratamiento de los datos de nuestros clientes y ciudadanos por lo que ha supuesto una simple adaptación a la nueva normativa. En nuestro caso, GDPR nos ha ayudado a concienciar y poner el foco en el tratamiento de los datos, y ello ha supuesto una aceleración para múltiples proyectos. BdM: ¿Cómo se imagina la relación de Correos con la Inteligencia Artificial y el Big Data dentro de 20 años? ER: Es muy difícil saber que nos

deparará el futuro. Actualmente nos encontramos inmersos en la irrupción de múltiples tecnologías, hablamos de inteligencia artificial, pero también de Robotics, de open data, apificación… En los próximos años, veremos cómo se irá extendiendo blockchain, la realidad aumentada, vehículos autónomos, y un largo etc… En todo caso las tecnologías emergentes tienen que ser siempre habilitadoras de nuevos servicios y de modos de relación con la ciudadanía manteniendo el espíritu que ha caracterizado a Correos en los últimos 300 años.

.-

BigDatamagazine | Junio 2019


20

Especial El Dato en la banca BigDatamagazine | Junio 2019


21

El dato en la banca / Rafael Fernández Campos, CDO de Bankia

“Unos malos datos te llevan a tomar malas decisiones” El Gobierno del Dato es primordial en la actualidad para todas las empresas y más aún para las del sector financiero. Rafael Fernández Campos es uno de los expertos más reconocidos en esta materia a nivel nacional. Ejerce como responsable de datos de Bankia y también dirige con acierto el primer club de CDOs de nuestro país, el Chief Data Officer Club Spain. Texto: José

R

Luis Arcángel

afael Fernández Campos es el máximo responsable del gobierno del dato en Bankia. Un CDO apegado a la actualidad que procede del sector económico y cuyo objetivo principal es ayudar a tomar las decisiones correctas a su empresa. Nos ha abierto su despacho en las madrileñas torres Kio para contarnos un poco más de él y de su día a día. Big Data Magazine: ¿Cuál ha sido el proceso profesional que le ha llevado a ser CDO de Bankia?

Rafael Fernández Campos: Vengo

del mundo de la información de gestión. Normalmente los CDOs vienen del mundo de la tecnología, asociados a la tecnología hardware o arquitectos de datos, etc. Yo no, yo soy economista y Doctor en Economía y Hacienda Pública. Lo que pasa es que empecé desde muy pronto a trabajar con la información de gestión, análisis de solvencia de banca, luego fui Director Financiero de la banca privada de Bankia, más tarde me responsabilicé de la información del negocio de banca de particulares en

Bankia y finalmente pasé a ser Chief Data Officer. En Bankia entendemos que la posición de CDO es un puente entre el negocio y la tecnología. Es muy difícil que tecnología entienda bien las necesidades del negocio, y que negocio entienda las restricciones que tiene tecnología. El CDO cubre ese gap.

BDM: ¿Cómo ha evolucionado en los últimos años la concienciación de las empresas en la necesidad de hacer un uso eficiente de los datos que generan? RF: Hay dos motivaciones fundamen-

tales, la regulatoria y la interna. Hace ya BigDatamagazine | Junio 2019


22 El dato en la banca / Bankia tiempo que todos los sectores se dieron cuenta de la necesidad de gestionar adecuadamente los datos, no sólo por las posibilidades de monetización del dato que es algo relativamente reciente excepto para compañías como Amazon o Google que han nacido siendo eso. Para las compañías no data-driven de nacimiento esa parte de la monetización del dato es algo que ha ido viniendo poco a poco. Lo que todos tenían en cuenta, y han tenido en cuenta siempre, es que unos malos datos te llevan a tomar malas decisiones. Esto ha sido una preocupación de la que hemos ido siendo conscientes poco a poco. Y concretamente en España en el sector financiero, la crisis ha sido fundamental para esto. Cuando la práctica totalidad de las cajas de ahorros en este país quiebran, y el Banco de España entra, descubre que la información de la que disponían los órganos de gobierno era, bien parcial, bien dispersa. En cualquier caso no suficiente ni con la calidad suficiente como para tomar decisiones adecuadas en materia de riesgos. Esto que pasa en España se ve que ha pasado en todos los países de la OCDE con la crisis, y es lo que lleva a publicar la norma BCBS239, lo que llamamos los principios Risk Data Aggregation, que consiste en que los informes que son utilizados para tomar decisiones en materia de riesgos, tienen que cumplir una serie de criterios de datos. Que tengan calidad, sean trazables, sean frecuentes, se adapten a los cambios… esto cambia radicalmente el panorama del sector financiero en lo que a datos se refiere. Las entidades empiezan a dedicar enormes recursos a cambiar su tecnología, sus procesos y sus personas para adaptarse a un modo de tratar la información, con un respeto del dato total. Esta es la gran motivación y acelerador de la banca. BDM: En su opinión, ¿cuáles son las piezas clave en la implantación de una estrategia del dato? RF: En primer lugar, hay que decir que

una primera decisión a tomar es conocer si se quiere, simplemente, implantar una estrategia, o si, adicionalmente, se busca que esa estrategia sea perdurable en el tiempo. Quizá esto parezca una obviedad, pero hay que tener en cuenta que, como casi todas las cosas en la vida, se pueden hacer rápido, o se pueden hacer bien, pero rápido y bien no suele ser factible. BigDatamagazine | Junio 2019

“Si cada equipo dentro de una organización utiliza los datos sin gobierno y los reporta o los usa en sus modelos según sus criterios particulares, entonces tienes unos silos de información que te generan serios problemas. Lo que necesitas en ese caso es gobernar el dato”. En mi opinión tres son los pilares fundamentales de una estrategia del dato: • Considerar el dato como un activo estratégico • Construir una cultura del dato • Mantener un comportamiento ético en la gestión del dato El primer aspecto trata de la asunción de que los objetivos estratégicos de una entidad pasan por gestionar adecuadamente los datos. El dato nos ayuda a lograr nuestros objetivos estratégicos en términos cuantitativos: incremento de ingresos y eficientización de procesos con su reducción de costes aparejada y cualitativos: mejoras de calidad de servicio, retención del talento, etc. La cultura del dato conlleva asuntos tales como la alfabetización de la compañía en el mundo del dato, es decir, que las decisiones se tomen sobre la base de análisis de datos. Otro aspecto es la consideración de la tecnología como un medio para servir de forma más adecuada al negocio, no como un fin en sí mismo. Un adecuado gobierno del dato sería otro de los aspectos de una cultura del dato madura. En tercer lugar, la ética, como pilar fundamental que debe guiar todas las actuaciones alrededor de los datos, tanto en lo que respecta a la captación de datos, como al uso de los mismos y a su posterior compartición. BDM: ¿Qué importancia tiene la figura del CDO en su empresa? RF: El puesto de CDO se creó hace

más de tres años, y no se creó por una cuestión regulatoria, si bien es cierto que debemos cumplir con la normativa RDA. Esta figura se creó con el objetivo de crear una cultura del dato en toda la organización, como fundamento clave para consolidar la estrategia del

dato de Bankia. Si cada equipo dentro de una organización utiliza los datos sin gobierno y los reporta o los usa en sus modelos según sus criterios particulares, entonces tienes unos silos de información que te generan serios problemas. Lo que necesitas en ese caso es gobernar el dato. La importancia que tiene el CDO en Bankia es total: liderar la estrategia del dato, tanto a nivel de riesgos, de negocios, financiero, contable…, apoyándose lógicamente en IT, siempre con el objetivo de dar servicio a una estrategia del dato determinada, que va enfocada al gobierno y a la calidad del dato como palancas para convertir el dato en un activo de valor estratégico. BDM: Encuentra profesionales suficientemente preparados para incorporar a su equipo? RF: Es difícil encontrar determinados

perfiles. No es ya un problema de conseguir Data Scientist, porque eso será una cuestión de tiempo, hay muchísimos tipos de másters que preparan para ello. Eso no es lo valioso, ni lo más difícil de conseguir, pues al final pagas y lo tienes. Pero el Data Scientist bueno, es el que entiende tu negocio y esto es muy difícil de encontrar, porque no se consigue con un máster, se consigue con experiencia. Y además, con la preparación de profesionales que tengan la virtud de la curiosidad. Y para ello debemos rodearlos de un ambiente meritocrático que fomente la creatividad y la ausencia de miedo al error. Todo un reto para determinado tipo de directivo. Por ejemplo, en el caso del reporting regulatorio, hay un perfil al que no se está atendiendo suficientemente y que las empresas nos lo peleamos y el sector financiero particularmente. Son personas que conocen el reporting regulatorio, lo que pide el Banco


23

El dato en la banca / Rafael Fernández Campos, CDO de Bankia Central Europeo o la EBA que es la Agencia Bancaria Europea, lo que pide el supervisor y además son arquitectos de datos funcionales. No estoy hablando del arquitecto del dato tecnológico, sino del funcional. En estas “zonas grises” es donde los profesionales encontrarán su hueco en el futuro. BDM: ¿Cómo es el día a día de un CDO en banca? RF: Es gestionar proyectos y personas

y tratar de convencer a la organización de las bondades de contar con una cultura del dato madura. En Bankia, de los proyectos relativos al dato, hay tres que son los más destacables. Estamos rediseñando todos los sistemas de información de Bankía, eso significa que estamos metiendo en un repositorio común, la golden source, toda los datos del banco necesarios para dar servicio a todas las necesidades de información de los distintos usuarios del dato, ya sean internos o externos (reguladores, etc). Adicionalmente estamos terminando de centralizar toda la demanda informacional, tanto de reportes, de análisis o de modelos, de forma que el gobierno de todos los datos, de cualquier criticidad, pasan por el modelo único de gobierno del dato. Eso conlleva lógicamente enormes cambios tecnológicos, de gobierno, de personas, procesos, formación… un proyecto sumamente complejo. Por otro lado está el proyecto RDA. Bankia, como entidad significativa de ámbito doméstico, debía ser RDA Compliance en enero de 2019. Esto supone cambiar los modos de hacer, no solamente llenar un bote con información con la fuente reputada, trazable, de calidad, etc. Sino que supone un cambio cultural a todas las personas que analizan y explotan datos. Se trata de que la información en base a la cual los órganos de gobierno toman sus decisiones en materia de riesgos esté gobernada, un proyecto tremendamente complejo que conlleva cambios en los modos de hacer. No se trata solo de un proyecto tecnológico, sino de un proyecto de gestión del cambio. Y el tercer proyecto es algo en lo que se está insistiendo mucho en la banca europea, que es en mejorar las políticas de pricing de las operaciones, de forma que seas capaz de discriminar los precios por riesgo. Este análisis del modelo de negocio es uno de los temas clave de la supervisión europea de los

“El Data Scientist bueno, es el que entiende tu negocio y esto es muy difícil de encontrar, porque no se consigue con un máster, se consigue con experiencia” próximos años, enfocada hacia la sostenibilidad de las entidades. BDM: ¿Cuál es el mayor problema al que se ha enfrentado en su carrera profesional a la hora de manejar datos? RF: En mi caso particular la integra-

ción de empresas distintas. Bankia es el resultado de la integración de siete cajas de ahorros más una caja posterior, BMN, que a su vez provenía de la fusión de cuatro cajas. La información que tenían esas cajas, por ejemplo sobre clientes, que es uno de los grandes problemas de la información que tiene la banca, era muy diversa. Cada caja tenía una información diferente con una calidad muy diferente, con campos distintos considerados de manera diferente, con criterios diversos, segmentaciones… Cuando juntas eso y necesitas explotarlo, te das cuenta de la necesidad de que dichos datos sean de calidad, ya que la información de tus clientes está en la columna vertebral de todo lo que tienes que hacer con tus datos, ya sea para hacer análisis, modelos o para reportar tanto al supervisor como internamente. Los problemas de calidad del dato derivado de integraciones de entidades diversas o distintos mundos, es el problema principal al que nos enfrentamos cada día.

BDM: ¿Cómo afecta el avance imparable de la Inteligencia Artificial en el manejo de datos de las empresas de su sector? RF: Facilita. Lo que pasa es que las enti-

dades grandes suelen ser mucho menos ágiles que las entidades pequeñas. En este tema de la Inteligencia Artificial se ve claramente. Por eso la mayoría de las entidades estamos haciendo semilleros de startups porque son ellos los que te pueden dar la solución a cosas que a ti, por la complejidad de tus procesos, tu esquema de decisiones internas o tus temas de seguridad informática te crean unas barreras que una startup no tiene. Ellos te ayudan a adaptarte, ya que la

adaptación es imprescindible para la superviviencia.

BDM: ¿Es posible saber lo que quiere el cliente y adaptarse a sus necesidades gracias a los datos que ofrece? ¿Hasta qué punto va a llegar la personalización de los servicios? RF: Salvando el inconveniente de errar

y diseñar modelos que no sean útiles, realmente la micro segmentación hasta el punto de llegar al individuo es totalmente viable. Sin embargo, la cuestión más importante no es si técnicamente somos capaces de ello, sino si esta microsegmentación redunda en beneficio de nuestros clientes. Este es el debate por encima de lo técnica o legalmente viable, así como si somos capaces de demostrar a los clientes que sí existe la posibilidad de una gestión del dato respetuosa con la privacidad y con la no discriminación ni el abuso de los datos que nos ceden. BDM: ¿Cómo ha afectado el nuevo Reglamento de Protección de Datos a su empresa? RF: Es un torbellino, afecta a todos los

niveles. Las afectaciones más costosas son las que afectan a los sistemas, y esta toca los sistemas clarísimamente. A las entidades les ha supuesto una revisión de todos los procesos que utilizan información. Ahí hay un trade off entre la información que el supervisor nos pide para gestionar de forma prudente nuestros riesgos, y la de carácter personal. Si por yo no tratar una información de carácter personal, corro el riesgo de no medir adecuadamente mis riesgos, aquí hay un dilema ético, o al menos un dilema desde el punto de vista supervisor. Este equilibrio es complicado de lograr, pero a nivel sector se ha logrado. Sí es importante que, por encima del cumplimiento de las leyes, se sitúa la ética, y esa es una de las grandes diferencias entre los buenos gestores y los cortoplacistas.

.

BigDatamagazine | Junio 2019


24 El dato en la banca / Evo Banco

“Con el Big Data vamos a construir la banca del futuro” EVO Banco apuesta por la innovación, transparencia y sencillez para ofrecer una respuesta inteligente, moderna y útil. Pedro Tomé, Head of Disruptive Innovation and Big Data en EVO Banco se entrevista con Big Data Magazine para desvelar los secretos de la banca inteligente.

S

Texto: JLA

/ MG

i hablamos de Big Data, todo en los últimos años gira en torno a la figura del CDO (Chief Data Officer). En cambio, pocos saben que Big Data e Innovación disruptiva deben ir siempre de la mano. Esto es de lo que nos habla Pedro Tome, Head of Disruptive Innovation and Big Data en EVO Banco; de la importancia de explotar el dato para darle valor y, sobre todo, de la importancia de arriesgar en un campo que tiene que afrontar muchos retos. BigDatamagazine | Junio 2019

“Es complicado llegar a verdaderos profesionales y, cuando se encuentran, es difícil captarlos.” Big Data Magazine (BDM): ¿Cómo es un día en la vida laboral del Responsable de Innovación disruptiva de EVO Banco? Pedro Tome (PT): El día a día suele

ser excitante y divertido, siempre hay

mucha carga de gestión- a diario-. Hay que definir las líneas que tenemos que seguir, las tareas que hay que evaluar. A diario el equipo se junta, se tratan algunos temas. En cambio, también me gusta reservar parte de mi tiempo


25

Pedro Tome, Head of Disruptive Innovation and Big Data en Evo Banco para coger tareas del backlog y poder contribuir al equipo de manera activa. BDM: Cuando empezaste a estudiar Ingeniería de Telecomunicaciones, ¿te imaginabas en el área Big Data? PT: Ciertamente, cuando empecé,

siempre me imaginaba en una empresa que se dedicasen 100% a telecomunicaciones. En cambio, durante la carrera fui descubriendo otros departamentos muy interesantes como el de ‘Tratamiento de señal’ (como la voz o las imágenes) y me gustó tanto que terminé haciendo el doctorado en un grupo de biometría muy potente a nivel mundial y, finalmente, terminé dedicándome a ese mundo del tratamiento de señal que es la base del Big Data. Ahora que estoy en banca, para mí siguen siendo datos, aunque sean y se traten de otra manera, el origen es el mismo. BDM: ¿Cómo ha evolucionado en las empresas la necesidad de dar valor al dato? PT: A día de hoy aún falta mucho

recorrido. Hasta hace unos años, en la empresa todavía existía la filosofía de almacenar datos, aunque ya se ha demostrado que guardar datos por guardar no sirve de nada. Si realmente se quiere sacar valor de esa información, se tiene que ir con una visión clara de lo que se quiere hacer y, sobre todo, ir de ‘caso de uso’ en ‘caso de uso’ para saber si realmente funciona ya que, el verdadero valor de los datos, está en explotarlo. BDM: En EVO, ¿cuál es vuestra apuesta por el Big Data? PT: Nuestra apuesta por el Big Data es

total, Evo es un banco muy pequeño que ha hecho muchas cosas en poco tiempo gracias a que hemos establecido una plataforma de Big Data que se ha convertido en ese cerebro central apoyado siempre sobre los datos y que nos permite generar servicios disruptivos e, incluso, personalizarlos a futuro y darles un servicio de valor añadido. Para nosotros, a futuro, el Big Data es una de las herramientas con las que

“A día de hoy aún falta mucho recorrido. Hasta hace unos años, en la empresa todavía existía la filosofía de almacenar datos, aunque a día de hoy ya se ha demostrado que guardar datos por guardar no sirve de nada. ” vamos a construir, a diario, la nueva banca del futuro.

BDM: Big Data e Inteligencia Artificial (IA) se complementan a la perfección, ¿Cómo afecta la Inteligencia Artificial en EVO? PT: Nuestra apuesta en EVO, desde

el punto de vista de innovación, el Big Data y la IA van siempre de la mano. Tenemos ya muchos servicios productivos que hacen uso del ‘machine learning’ y la ‘inteligencia artificial’. El mayor ejemplo que tenemos en Evo de IA es nuestro asistente virtual con el que hemos sido pioneros en banca. Este asistente conoce al cliente e interacciona con él en lenguaje natural gracias en parte a toda esta tecnología. BDM: Si hablamos de empresa, ¿cómo se valora a un profesional de los datos en EVO Banco?

Cuando comenzamos en EVO, empezamos estableciendo una plataforma de BigData, que poco a poco se convirtió en plataforma core, gracias a ir mostrando casos de uso reales. También nuestro CEO es alguien que mira hacia el futuro y con una mentalidad muy disruptiva y, esto, no es algo que nos frena si no que, por el contrario, nos potencia como empresa. BDM: ¿Encontráis profesionales suficientemente preparados para incorporar en vuestro equipo? PT: Es complicado porque cuando

se habla de Big Data, hay muchos profesionales que antes trabajaban con datos que se han pasado al ‘machine learning’. Es complicado llegar a verdaderos profesionales y, cuando se encuentran, es difícil captarlos. También hay que decir que, el mercado español

“Creo que todavía hay camino por recorrer pero todo lleva hacia la democratización del dato.”

en este caso, es bastante potente.

BDM: ¿Cuál es el mayor problema al que te has enfrentado en tu carrera profesional? PT: Digamos que, durante mucho

tiempo de mi vida, me he enfocado en esa tarea pero, lo más complejo para mí ha sido la puesta en producción. Delante de un ordenador todo son datos pero en el mundo real todo cambia y ponerlo en producción es lo más difícil. Por eso, a parte del mayor problema, es también el mayor reto: productivizar un sistema de Big Data y que se consiga un performance aceptable y que se cumpla con las expectativas que las personas esperan de éste. BDM: Democratización del dato: ¿es posible? PT: Actualmente, es bastante accesible

entrar el mundo del Big Data ya que hay compañías que ofrecen herramientas muy sencillas y a muy bajo coste, y te permiten extraer muchísima información. El caso de las startups es ese, dentro de la nube explotan la información que puedan generar los clientes dándole valor, lo que hace que la startup pueda crecer de una manera más dirigida. Creo que todavía hay camino por recorrer pero todo lleva hacia la democratización del dato. BDM: ¿Es posible predecir lo que el cliente quiere solo con los datos que ya se han obtenido de él? PT: Nosotros ya estamos siguiendo

esa línea, es un futuro que comienza a ser presente debido a la tendencia que ha marcado la sociedad que es la que consume y demanda. En banca, por supuesto, la personalización es muy importante. Apoyarse en estos datos y conocer a las personas por sus datos, significa ofrecerles a esas personas un mejor producto y servicio que se adaptan y son beneficiosos para ellos, mientras que nosotros como empresa, también aumenta nuestro beneficio y, por tanto, es un win/win a tener en cuenta.

.

BigDatamagazine | Junio 2019


26 El dato en la banca / Aplazame

“La IA en el manejo de los datos supone un salto diferencial, y bien dirigido se transforma en una potente ventaja competitiva” Aplazame nace con una fintech orientada a la financiación instantánea al consumo. Tras años de recorrido y miles de clientes es absorbida por WiZink Bank. Desde su Cero Moment of True, Aplazame deposita su estrategia en el valor de los datos.

E

Texto: Samuel

Rodríguez

ntrevistamos en profundidad al Chief Data Officer de

Aplazame WiZink Bank, Jorge Valhondo para conocer más

sobre sus procesos y su día a día.

Big Data Magazine (BDM): ¿Cuándo comienza la apuesta de Aplazame por el Big Data y en qué consiste? Jorge Valhondo Rama (JVR):

Aplazame apuesta por el Big Data desde sus orígenes. Por poner un ejemplo; BigDatamagazine | Junio 2019

“El talento es siempre difícil de encontrar en cualquier área, y muchas veces la búsqueda tiene una componente fuerte de serendipia” nosotros comenzamos a operar con un motor de decisión para la aprobación de crédito muy minimalista. Esto nos ha permitido capturar datos de las transacciones introduciendo el menor sesgo

posible en la concesión, e ir enriqueciendo la lógica en base a las historias que nos contaban los datos.

BDM: ¿Cómo ha evolucionado en los últimos años la concienciación


27

Jorge Valhondo Rama, Chief Data Officer de Aplazame en las empresas en la necesidad de hacer un uso eficiente de los datos que generan? JVR: Hay distintos contextos en los que

se mueven las empresas. Por un lado tenemos empresas como Aplazame, de reciente creación y con un enfoque datadriven desde el origen. Esto permite que se propague una cultura centrada en el dato y que por todas las áreas se motiven debates y se tomen decisiones en consecuencia. Otro contexto es el de empresas que llevan operando más tiempo y, por lo tanto, tienen que transformarse para acomodar una cultura y una organización data-driven, tanto en la dimensión de negocio como la dimensión técnica. En el sector financiero hay recorrido de mejora tanto a nivel de tecnología como en el uso de los datos para añadir un valor diferencial a negocio. Independientemente del contexto en el que se encuentre cada empresa el potencial existente haciendo uso eficiente de los datos es algo que ya ha calado y se ha interiorizado. BDM: ¿Cómo es el día a día de un CDO en banca? JVR: (Risas) Nuestra realidad en

Aplazame no hace que mi perfil encaje con el de un CDO de banca estándar. Tras la adquisición de Aplazame por el grupo WiZink Bank estamos experimentando una transformación muy fuerte motivada por un crecimiento exponencial tanto en las operaciones como en el equipo. Mi día a día se centra en mantener el ritmo de trabajo y agilidad que siempre hemos tenido mientras se aterrizan las (grandes) expectativas que ha depositado WiZink Bank en nosotros. Esto me involucra a distintos niveles de abstracción, desde negocio, regulación, estrategia e incluyendo también la dimensión técnica. BDM: ¿Cómo afecta el avance imparable de la Inteligencia Artificial en el manejo de datos? JVR: Supone un salto diferencial en los

procesos, y bien dirigido se transforma en una potente ventaja competitiva. En Aplazame hemos conseguido hilar muchísimo más fino a la hora de aprobar las operaciones apalancándonos en el desarrollo que hemos realizado de un motor de decisión basado en Machine Learning. Esto también presenta retos sobre cómo hacer stacking de los distintos modelos, es decir, cómo hacer que los modelos

“En Aplazame hemos conseguido hilar muchísimo más fino a la hora de aprobar las operaciones apalancándonos en el desarrollo que hemos realizado de un motor de decisión basado en Machine Learning” cooperen entre sí y no tenga cada uno una visión parcelar de las operaciones. Resolver estos retos tiene una gran componente exploratoria y de manejo de tecnologías muy recientes. BDM: ¿Qué importancia tiene la figura del CDO en su empresa? JVR: Considero que incorporar en el

comité a un perfil como el CDO hace que desde negocio y estrategia se busque cómo pueden los datos añadir valor al negocio y marcar una posición diferencial. Creo que este es un buen enfoque ya que se extiende esta visión desde el origen. Este enfoque habilita que exista un departamento de datos en la empresa, sin que sea dependiente de forma directa del departamento de tecnología, y que, por lo tanto, el área de datos pueda marcar sus propios ritmos de desarrollo y de trabajo, que no tienen por qué corresponder con los de tecnología. Y por supuesto, teniendo una estrecha relación con el área de tecnología y también entre CTO y CDO. Adicionalmente, la figura del CDO en una empresa la considero fundamental para que se aprovechen los datos tanto en una vertiente Data Analytics & BI, fundamental para democratizar el acceso al dato e instaurar una cultura data-driven, como en una vertiente Applied AI, fundamental para poder desplegar modelos de Machine Learning e Inteligencia Artificial en producción añadiendo valor al producto. BDM: ¿Encuentra profesionales suficientemente preparados para incorporar a su equipo? JVR: El talento es siempre difícil de

encontrar en cualquier área, y muchas veces la búsqueda tiene una componente fuerte de serendipia. Por eso estoy constantemente atento y deseando sumar talento al equipo y a toda la organización. BDM: ¿Qué requisitos cree usted que debe cumplir un responsable de datos?

JVR: Creo que es necesario que entienda el negocio, el producto y también aspectos más técnicos sobre AI tanto arquitectura Cloud como la matemática detrás de los modelos. BDM: ¿Cuál es el mayor problema al que se ha enfrentado en su carrera profesional a la hora de manejar datos? JVR: Destacaría dos problemas que

suelen ser recurrentes. Uno es la regulación, que además suele ser cambiante. Otro, la interpretabilidad de los modelos de Inteligencia Artificial para proporcionar un marco de confianza. BDM: ¿Es posible la democratización del acceso al Big Data? JVR: Considero que sí, que es necesaria

en las empresas y en otros ámbitos, y que supone un reto técnico desempolvar datos en silos y ponerlos al servicio, pero también supone un reto cultural en la organización.

BDM: ¿Cuáles son los pros y los contras de la tecnología blockchain? JVR: Veo muchos pros a la tecnología

blockchain. La idea de tener una base de datos descentralizada y de confianza que es elaborada por nodos o miembros que no tienen por qué confiar entre sí me resulta muy atractiva. Como contras creo que aún está en fases tempranas y tiene limitaciones para integrarse en un sistema en producción y por lo tanto en un producto. BDM: ¿Es posible saber lo que quiere el cliente y adaptarse a sus necesidades gracias a los datos que ofrece? ¿Hasta qué punto va a llegar la personalización de los servicios? JVR: Considero que el cliente siempre

va a mantener la libertad en la toma de decisiones y por lo tanto a la hora de optar por un producto o servicio determinado. Lo que permite la Inteligencia Artificial, entre otras muchas cosas, es poder ofrecer al cliente información cada vez más relevante para el contexto en el que se encuentre.

.

BigDatamagazine | Junio 2019


28 El dato en la banca / Self Bank

“El uso eficiente de los datos es ya una prioridad de negocio irrenunciable para Self Bank” Self Bank es una entidad nativa digital, nacida en el año 2000, que desde sus inicios tiene en el ADN el mundo digital, la innovación y la tecnología. Desde hace años, el Big Data está presente en sus estrategias. Self Bank está invirtiendo en los últimos años en la evolución hacia un modelo data-driven que les permita afinar aún más las capacidades de ofrecer servicios y productos de manera diferencial y personalizada a sus clientes. Texto: Pedro

E

Pablo Merino

ntrevistamos a Eugenio Vega, Chief Information Officer (CIO) de Self Bank para hablar de digitalización, innovación, big data y demás estrategias de su compañía.

Big Data Magazine (BdM): ¿Cuándo comienza la apuesta de Self Bank por la digitalización, y más concretamente por el Big Data y en qué consiste? Eugenio Vega (EV): Self Bank es

una entidad nativa digital, por lo que la apuesta está en su propia naturaleza BigDatamagazine | Junio 2019

desde hace casi veinte años. La estrategia IT de la compañía ha ido siempre orientada a evolucionar su modelo digital en función de las necesidades del negocio, incorporando las mejores prácticas de mercado y adoptando las tecnologías más innovadoras. Con respecto al Big Data, Self Bank está invirtiendo en los últimos años en la evolución hacia un modelo data-driven que permita afinar aún más las capacidades de ofrecer servicios y productos de manera diferencial y personalizada. Por un lado, el foco se sitúa en la tecnología, con inversiones a nivel de infraestruc-

turas, soluciones CRM y aplicativos de Business Intelligence que refuercen la capacidad de recoger, analizar y disponibilizar en tiempo real la información clave; por otro lado, se revisan y actualizan constantemente los modelos de datos, los procesos de gestión y el Data Governance, con responsabilidades específicas definidas en toda la organización y el liderazgo del Chief Data Officer (CDO). BdM: ¿En qué área están invirtiendo más dentro de Self Bank por la digitalización y la innovación?


29

Eugenio Vega, Chief Information Officer (CIO) de Self Bank EV: Además de lo explicado anterior-

mente con relación al Big Data, Self Bank tiene el foco prioritario en el desarrollo del modelo de APIs, la evolución de los sistemas de on-boarding, la automatización de procesos operativos y la mejora continua en la experiencia del cliente a través de todos los canales disponibles. BdM: ¿Cómo ha evolucionado en los últimos años la concienciación en las empresas y más en Self Bank en la necesidad de hacer un uso eficiente de los datos que generan? EV: En Self Bank siempre se ha tenido

conciencia de la criticidad de esta dimensión, si bien es verdad que ha sido en los últimos años cuando el foco estratégico se ha situado de manera más intensa con el desarrollo de diversos proyectos orientados al refuerzo de la visión 360º del cliente, la trazabilidad de la actividad y el cumplimiento normativo. Es ya una prioridad de negocio irrenunciable.

BdM: ¿Cuáles son los proyectos a medio-largo plazo de Self Bank relativos al Big Data? EV: Como se ha indicado anteriormente,

Self Bank trabaja en los distintos ejes que configuran la estrategia del dato de la compañía: tecnología, procesos y organización. En todos ellos se ha establecido una hoja de ruta que establece claramente los objetivos a alcanzar, así como las inversiones que se precisan en el medio-largo plazo. Se pueden mencionar algunos proyectos de referencia en este ámbito, como puede ser la renovación de las infraestructuras tecnológicas que dan servicio a los sistemas informacionales, acelerando exponencialmente las capacidades actuales de proceso y análisis de información, y la implantación de un nuevo CRM, que se posicionará como sistema primario en la arquitectura del dato de la compañía. BdM: ¿Cómo afecta el avance imparable de la Inteligencia Artificial en el manejo de datos? EV: Es indudable que la Inteligencia

Artificial o el Machine Learning son ya una realidad que las entidades financieras vamos incorporando en nuestros procesos de manejo de datos. Desde la perspectiva tecnológica, afecta principalmente a las decisiones de adopción de nuevas herramientas y a la necesidad de incorporar perfiles profesionales muy especializados y aún escasos en el mercado, por lo que la formación de los

equipos técnicos en plantilla se presenta a menudo como una alternativa más viable. BdM: ¿Qué relevancia en Self Bank tiene la figura del responsable de datos en su empresa? EV: Siendo aún una posición joven en

Self Bank, la importancia de esta figura crece rápidamente a medida que las necesidades de los clientes y la competencia exigen, cada vez más, una mayor precisión y disponibilidad del dato al servicio del negocio. Lo mismo ocurre en el ámbito regulatorio, con demandas crecientes en transparencia y trazabilidad de datos. La tecnología, un equipo de corresponsales expertos distribuidos por las distintas áreas de la empresa y unos protocolos de gobernanza respaldados por la Dirección son algunas de las principales herramientas que Self Bank pone a disposición del responsable de datos para poder cumplir los objetivos establecidos. BdM: El talento en sectores tan innovadores y nuevos como estos es complicado de encontrar. ¿Encuentra profesionales suficientemente preparados para incorporar a su equipo? EV: Entiendo que Self Bank no es una

excepción en este caso y, si bien para incorporar perfiles en el stack tecnológico de base (Back, Middle, Front) conseguimos cubrir las necesidades de manera óptima, afrontamos dificultades mayores cuando se trata de perfiles que podemos llamar de nueva generación o que tienen una elevada demanda en el mercado, caso de los desarrolladores de Apps, por ejemplo. En estas circunstancias, en ocasiones es necesario afinar estrategias (formación, externalización, propuestas adaptadas…) y apoyarse en partners de reclutamiento especializado con objeto de optimizar las oportunidades. BdM: ¿Qué requisitos crees que debe cumplir un responsable de datos? EV: Desde una visión más digital y

en un escenario ideal, si hablamos de conocimientos de base, destacaría que debe aportar habilidades en matemáticas y estadística, además de conocer en profundidad los fundamentos del procesamiento de datos y su modelado. En el ámbito de las tecnologías, hablaríamos de sólidos conocimientos de arquitectura de datos, nociones de programación, manejo experto de bases de datos (relacionales y no relacionales)

y experiencia en programas de visualización (tipo Kibana o Tableau). Por último, y puestos a pedir, conocimiento del negocio, grandes dosis de curiosidad para buscar relaciones entre datos donde parece que no las hay y óptimas habilidades de comunicación para gestionar y liderar la Data Governance. BdM: ¿Es posible la democratización del acceso al Big Data? EV: Esta es una cuestión que me

encuentro de manera recurrente. Entiendo la democratización del Big Data como la posibilidad real de acceder a tecnologías en condiciones de mercado racionales y que permitan procesar datos a gran escala en niveles a los que las soluciones “estándar” no llegan. Hasta hace unos pocos años, estas capacidades eran patrimonio exclusivo de grandes corporaciones, pero hoy en día existen soluciones que impulsan la democratización, siendo ya una tendencia imparable. BdM: Otro de los conceptos de gran actualidad es el Blockchain ¿Qué usos cree que se le puede dar desde Self Bank? EV: Pues en ello estamos, como

entiendo es el caso del resto de entidades financieras. Por el momento, nos encontramos en el proceso de inmersión tecnológica, valorando soluciones y participando en distintas iniciativas como beta testers, además de abrir un laboratorio propio que acelere la formación y capacitación de nuestros técnicos. En paralelo, ya tenemos algunas buenas ideas en cuanto a casos de uso y espero que en el corto-medio plazo podamos empezar a desarrollarlas.

BdM: ¿Cuáles son los pros y los contras de la tecnología Blockchain? EV: Aquí hay probablemente opiniones

para todos los gustos. El Blockchain es una tecnología muy joven y cuenta con diversos desafíos que aún debe resolver como, por ejemplo, aquellos relacionados con la complejidad de implementar debido a su naturaleza disruptiva, la velocidad de las transacciones e ineficiencias, la privacidad (particularmente en el sector financiero) y el almacenamiento. Por otro lado, considero que aporta nuevos enfoques en cuanto a la seguridad, la optimización de los costes de transacción, la tolerancia al fallo y la desintermediación (simplificación de procesos, concepto “trustless”).

.

BigDatamagazine | Junio 2019


30 El dato en la banca / Banco Sabadell

“Banco Sabadell es una de las referencias en innovación y uso del Big Data en el sector bancario” El Banco Sabadell es una de las principales entidades bancarias en España. Un banco que desde hace años lleva apostando claramente por la transformación digital y últimamente también por técnicas como el Big Data y la Inteligencia Artificial para ofrecer mejores experiencias a sus clientes y optimizar sus procesos y recursos.

P

Texto: Pedro

Pablo Merino

ara hablar de estos temas hemos charlado con uno de los expertos que tiene el banco en estos ámbitos como es Luis Echávarri, CDO & Corporate Systems de Grupo Sabadell. Big Data Magazine (BdM): ¿Cuánto tiene de importante la innovación y digitalización para Banco Sabadell? Luis Echávarri (LE): La apuesta es

clara y creo que los que trabajamos en Banco Sabadell y nuestros clientes y todos los que se relacionan con nuestra entidad lo viven cada día. En nuestro caso se traslada en temas concretos: en nuevas formas de trabajar, nuevas formas de entender las cosas, nuevas propuestas de valor, nuevas iniciativas y BigDatamagazine | Junio 2019

proyectos a desarrollar, nuevos modelos de relación y por supuesto nuevas tecnologías y arquitecturas con las que llevarlas a cabo. Creo que además éste es un tema de clara supervivencia como entidad y como sector. Puedo decir que en mi caso personal, esta apuesta tan clara y decidida por la innovación y la digitalización, fue una de las razones principales que me hicieron sumarme al proyecto del Banco Sabadell. BdM: ¿Cuándo comienza la apuesta de Banco Sabadell por el Big Data y en qué consiste? LE: Creo que para los que llevamos

tiempo en el sector, el Banco Sabadell, ha sido junto a alguna otra entidad, una de las referencias en términos de innovación y del Big Data en el sector bancario. Por ejemplo hace muchos años se lanzó, un producto innovador

que era Kelvin, que era un sistema para los comercios, a los que a partir de la información de los TPVs se les daba diferentes contenidos de valor. Desde entonces y hasta hoy, más allá del uso de tecnologías Big data, lo relevante ha sido ir desarrollando con estas tecnologías, iniciativas que permitan dar más valor a nuestros clientes y por otra parte aquellas que permitan ganar en eficiencia en nuestros procesos. Creo que a día de hoy estamos trabajando iniciativas en la mayor parte, por no decir en todas, de las tecnologías punteras que hay: analítica para diferentes ámbitos, marketing digital on-line, ciberseguridad, compliance, cognitive computing, grafos, Data as a service, Cloud computing, etc., a veces con casos de uso concretos y otras veces preparándonos para lo que viene.


31

Luis Echávarri, CDO & Corporate Systems de Grupo Sabadell BdM: ¿Cómo ha evolucionado en los últimos años la concienciación en las empresas en la necesidad de hacer un uso eficiente de los datos que generan? LE: La evolución está siendo increíble.

Creo que hay una concienciación cada vez más clara de la relevancia de los datos de la compañía y de la importancia de que estos estén gobernados en términos de garantizar su calidad a lo largo de todo el proceso. La idea es ser eficientes en su captura y también en su explotación, y en todo el proceso de transformación del dato que va desde un punto hasta el otro. Las capacidades de almacenamiento y aprovisionamiento de datos son cada vez mayores y más eficientes y hay que buscar los momentos adecuados para llevar a cabo esos proyectos que te permitan evolucionar y eficientar los procesos a lo largo de todo el ciclo de vida del dato. Otro tema que leía hace poco de un colega, y comparto totalmente, son los silos de información en las áreas usuarias; ámbitos a integrar bajo una única visión que permita un acceso al dato más eficiente y eso es un camino importante en el que mejorar. BdM: ¿Cuáles son los proyectos a medio-largo plazo de Banco Sabadell relativos al Big Data? LE: El Banco Sabadell está trabajando

en una gran iniciativa en el ámbito de datos, que hemos denominado Data1, con un doble objetivo: evolucionar tecnológicamente nuestro actual informacional y por otro lado tratar de dar respuesta a los cada vez mayores requerimientos de información que se nos solicitan. Seguimos trabajando en ámbitos analíticos desarrollando diferentes casos de uso y algoritmia avanzada (empezando con Machine learning) muy ligadas a las principales áreas demandantes de datos de la entidad (Marketing, Riesgos, Compliance, etc.). PSD2 es una oportunidad en la que también estamos trabajando a través de PISA y PIBOT. Seguimos explorando iniciativas en ámbitos como el cognitivo, acciones comerciales con cliente en real time, modelos de relación basados en grafos, etc. Todo ello por supuesto dentro de un modelo de gobierno del dato y bajo una visión estratégica de lo que queremos ser en este ámbito. BdM: ¿Cómo afecta el avance imparable de la Inteligencia Artificial en el manejo de datos?

“Estamos trabajando en una gran iniciativa en el ámbito de los datos, que hemos denominado Data1, con un doble objetivo: evolucionar tecnológicamente nuestro actual informacional y por otro lado tratar de dar respuesta a los cada vez mayores requerimientos de información que se nos solicitan” LE: Actualmente estamos trabajando

en temas de Inteligencia Artificial en ámbitos de ciberseguridad, en reconocimiento de voz o en el sensivity análisis. Mi opinión personal, es que en muchos temas de Innovación, pasa lo que dice Gartner con su “Hype”, y es que nos emocionamos enseguida. Eso hace que creamos que valga para todo y para todos, que creamos que la tecnología está madura, que hay gente que ya sabe de esa tecnología y nos pueda dar soporte y por supuesto que existen casos de uso claros y que aportan mucho valor rápidamente. Y no siempre es así. El gran valor en mi opinión de los buenos gestores de tecnología, es saber diferenciar entre lo que aplica apostar en cada momento y lo que no, diferenciar entre lo que está maduro y lo que no, saber diferenciar para qué vale cada cosa. En relación a la Inteligencia Artificial y el manejo de datos, creo que hay un tema previo que resolver en todos los sectores y empresas, y es la calidad de los datos. Para que la Inteligencia Artificial funcione y aporte es fundamental disponer de muchos datos y datos con calidad, y esto no es fácil de tener. BdM: ¿Qué importancia tiene la figura de los responsables de datos en su empresa? LE: Cada vez mayor. Desde hace ya

muchos años existe la figura del Chief Data Officer en nuestra entidad, que es un papel que ha ganado mucha relevancia en diferentes ámbitos de relación, sobre todo como referente del dato con las diferentes áreas del banco. La figura del CDO está siendo una referencia también en muchos de los proyectos más relevantes que se están abordando, y también está teniendo la capacidad de lanzar iniciativas específicas en el ámbito del dato y proyectos, en ese camino de ser una organización

que entiende el dato como uno de sus activos a cuidar y valorar, y en el que se está invirtiendo. Yo estoy encantado del “empowerment” que a día de hoy se nos está dejando tener, y de la capacidad que se nos está dando para el lanzamiento de iniciativas. Por cierto, aquí me gustaría romper una lanza en favor de los reguladores. A veces se transmite que los reguladores “nos aprietan” a las entidades con continuos requerimientos, pero se nos olvida también a veces lo que sin duda aportan y ayudan. Para mí, el Proyecto RDA (Risk Data Agregation) ha sido una de los factores que más han ayudado en la implantación de esta figura de los responsables de datos en algunas organizaciones y eso además ha pasado de la banca a otros sectores. En nuestro caso ha habido un alineamiento de nuestra visión de la importancia del dato y lo que nos solicitan los reguladores. Creo además, como se está viendo en algunas organizaciones, que esta va a ser una figura que va a ir adquiriendo más relevancia y responsabilidades en todas las organizaciones, que va a tener que seguir trabajando muy de la mano con otras dos figuras claves en el tema de datos, como son el CISO y el DPO. BdM: ¿Encuentran profesionales suficientemente preparados para incorporar a su equipo? LE: Pues no es fácil encontrarlos, ésa es

la verdad, pero lo cierto es que cuando hay un proyecto suficientemente atractivo, cuesta un poco menos. La visión y la experiencia en el ámbito informacional o del dato, es muy distinta al que lleva una aplicación más operativa. Lo que se busca o pretende, las tecnologías, las formas de operar, son muy distintas y en el mercado no hay tanta gente con esa experiencia de haber podido desarrollar proyectos informacionales BigDatamagazine | Junio 2019


32 El dato en la banca / Banco Sabadell completos y tener esa visión y experiencia. En algunos sitios estoy viendo incluso que por esa falta de “talento del dato” están teniendo que llevar a gente con visiones más operativas. Nosotros de la mano de Recursos Humanos, hemos lanzado un Programa de captación de talento en el ámbito de la analítica de datos que creemos que es una de nuestras mejores inversiones. Lo cierto, es que nos queda tanto camino que recorrer en este ámbito del dato, que vamos a seguir buscando y tratando de atraer más talento, y toda la gente que tiene conocimiento y experiencia del dato, es poca para lo que nos queda por definir y construir.

BdM: ¿Qué requisitos crees que debe cumplir un responsable de datos? LE: En mi opinión, 1- visión estratégica,

es decir tener claro dónde debe posicionar a su organización en términos de datos, 2 - capacidad de entendimiento con sus “peers”, que son muchos y diversos y con los que hay que llegar a acuerdos de responsabilidad y criticidad en los usos, 3 - muchas ganas de aprender, porque esto evoluciona cada día, 4 - capacidad de análisis y de entender las implicaciones que tiene todo lo relacionado con su ámbito en cantidad de iniciativas, 5 – Mucha capacidad de iniciativa y liderazgo, más en un momento como el actual en el que continuamente surgen proyectos relacionados con los datos.

BdM: ¿Es posible la democratización del acceso al Big Data? LE: La democratización del dato, que

es algo de lo que se habla últimamente mucho, es un término, en mi opinión ambiguo. Una organización es un conjunto de especialistas con diferentes funciones, diferentes conocimientos y diferentes necesidades de todo tipo, incluyendo necesidades diferentes de datos. Yo entiendo por la democratización de los datos o de los accesos a estas capacidades de explotación que nos aportan las comúnmente denominadas “tecnologías Big data”, lo primero a ser capaces de entender esas necesidades que tienen cada una de esas áreas especialistas para desarrollar su función, en el sentido amplio (incluyendo su capacidad de innovar o de aportar más valor) y lo segundo ser capaces de darle los datos que concretamente puedan necesitar, dotándoles de las capacidades para explotarlas. Nosotros hablamos de un término de “democratización gobernada”. BigDatamagazine | Junio 2019

BdM: Otro de los conceptos de gran actualidad es el Blockchain ¿Qué usos cree que se le puede dar desde Bans Sabadell? LE: El Banco Sabadell es miembro

fundador de Alastria, y su actual presidenta Montse Guardia, ha sido compañera mía hasta hace unos meses, por lo que como se puede ver es algo en el que estamos apostando. Los casos de uso han de estar orientados, en aquellos casos en los que haga falta una certificación distribuida del dato, en nuestro caso vemos oportunidades es transacciones seguras más rápidas, en la capacidad de generar por ejemplo trazas de activos que garanticen su calidad (evitar “bonos basura” al tener en cuenta cómo se generan de forma trazada y asegurada), en temas de financiación interbancaria aumentando la confianza de los paquetes y créditos que se intercambian. BdM: ¿Cuáles son los pros y los contras de la tecnología blockchain? LE: Empiezo por las contras: 1 –Muy

orientada a casos de uso en los que se

necesite una certificación distribuida, no aporta valor en relaciones de confianza entre pares, 2 - Es una tecnología en periodo de maduración que no cuenta todavía con un estándar que garantice que los evolutivos que se generan sean los que se impongan en el mercado, 3 - Se debe trabajar en una regulación ya que algunas de las bases de la tecnología pueden estar condicionadas por GDPR. 4 - En los casos de gestión de identidad por ejemplo o trazas de activo un fallo en la custodia o alteración puede provocar un alto impacto reputacional. Como Pros, 1 – La capacidad de revolucionar el marco de intermediación simplificando los procesos de certificación de operaciones / activos / identidades del cliente…, 2 – El abaratamiento a futuro de sistemas de seguridad al generar redes distribuidas, 3 - Capacidad de acceder a muchos más datos de los clientes si se generan redes de blockchain generalizadas garantizando la información (temas de scoring de riesgo, estado frente a pagos a organismos oficiales, temas de salud…).

.


33

Joan Salomó, Responsable de DATA en Oney España

“El rol de los datos es ahora más importante que nunca, pueden crear una ventaja competitiva” Oney es la entidad financiera del Grupo Auchan, y está especializada en sistemas de medios de pago y financiación, tanto para particulares como para Pequeñas y Medianas empresas (Pymes). Cuenta con una importante presencia internacional ya que se encuentra en 11 países, con una cartera de más de 7 millones de clientes. Su apuesta por la innovación y la transformación digital comenzó hace ya varios años, y en la actualidad, proyectos como el Big Data y la inteligencia artificial están en su hoja de ruta con el fin de mejorar la experiencia de sus clientes y optimizar mejor sus procesos. Texto: Pedro

E

Pablo Merino

ntrevistamos a Joan Salomó,

Responsable de DATA en Oney España. Big Data Magazine (BdM): ¿Cuándo comienza la apuesta de ONEY por el Big Data y en qué consiste? Joan Salomó (JS): La apuesta de

ONEY por el Big Data emerge ante la estrecha relación existente con la definición de la estrategia digital de la empresa. Consiste, por lo tanto, en

evolucionar como organización y en Recursos Humanos hacia un nuevo panorama digital, haciendo que los departamentos se sumen al cambio y permitiendo que cada colaborador pueda potenciar su ingenio, innovar, formarse digitalmente y adoptar actitudes emprendedoras.

BdM: ¿Cómo ha evolucionado en los últimos años la concienciación en las empresas en la necesidad de hacer un uso eficiente de los datos que generan?

JS: La principal evolución ha sido la detección de lo que es y no es la transformación digital. La transformación va más allá de montar un CRM, informatizar los procesos de la empresa o el marketing digital. La transformación digital tiene que ver con el valor de los servicios, la mejora del modelo de negocio, la innovación, la diferenciación y las fortalezas. Para conseguirlo no queda otro camino que el uso eficiente de los datos que generan todas las herramientas que BigDatamagazine | Junio 2019


34 El dato en la banca / Oney conviven en perfecta armonía en el día a día de cualquier organización. Como uso eficiente, nos referimos a que lo que importa es lo que la empresa hace con los datos para obtener ideas que conduzcan a mejores decisiones y movimientos de negocios estratégicos. Estos múltiples desafíos a los que se enfrentan las empresas con los datos, conocidos como las 5 v’s: volumen, velocidad, variedad, veracidad y valor, hacen especiales las características del Big Data. BdM: ¿Cuáles son los proyectos a medio-largo plazo de ONEY relativos al Big Data? JS: La estabilización del Data de la

organización y la homogeneización de los metadatos (provenientes de ERP’s o CRM’s), para permitir la implementación de nuevas tecnologías que permitan mejorar en la experiencia sobre el cliente genera a ONEY la necesidad a medio plazo de trabajar con las tecnologías que rodean al Big Data. Big Data es un término que describe el gran volumen de datos, tanto estructurados como no estructurados, que inundan los negocios cada día. Pero no es la cantidad de datos lo que es importante, lo importante es que nos referimos a conjuntos de datos o combinaciones de conjuntos de datos cuyo tamaño, complejidad y velocidad de crecimiento dificultan su captura, gestión, procesamiento o análisis mediante tecnologías y herramientas convencionales, tales como bases de datos relacionales y estadísticas convencionales o paquetes de visualización, dentro del tiempo necesario para que sean útiles. La naturaleza compleja del Big Data se debe principalmente a la naturaleza no estructurada de gran parte de los datos generados por las tecnologías modernas, como los blogs, las búsquedas en Internet, las redes sociales como Facebook, teléfonos inteligentes y otros teléfonos móviles, dispositivos GPS y registros de centros de llamadas. Es decir, toda esa nueva comunicación e interacción con el cliente generará tal cantidad de inputs, los cuales tendrán un valor enorme para la mejora y evolución del negocio, que las tecnologías actuales no podrán asumir tanto a nivel de almacenamiento, interpretación, etc. como de explotación. BdM: ¿Cómo afecta el avance imparable de la Inteligencia Artificial en el manejo de datos? BigDatamagazine | Junio 2019

JS: La Inteligencia Artificial analiza

más datos y más profundamente utilizando redes neurales que tienen muchas capas ocultas gracias al poder de las computadoras y el Big Data. Se necesitan muchos datos para entrenar los modelos de aprendizaje, cuantos más datos podamos integrarles, más precisos se vuelven. De esta manera se saca el mayor provecho de los datos. Cuando los algoritmos son de autoaprendizaje, los datos mismos pueden volverse de propiedad intelectual. Por lo tanto, el rol de los datos es ahora más importante que nunca, pueden crear una ventaja competitiva. Si se tienen los mejores datos en un sector competitivo, incluso aplicando técnicas similares, los mejores datos triunfarán. Además, proporcionarán respuestas a muchas preguntas que las empresas ni siquiera sabían que tenían. Eso, a su vez, conducirá a movimientos de negocios más inteligentes, operaciones más eficientes, mayores ganancias y clientes más felices. Consiguiendo valor de las

siguientes formas: reducción de coste, más rapidez y mejor toma de decisiones, nuevos productos y servicios.

BdM: ¿Qué importancia tiene la figura del responsable de datos en su empresa? ¿Qué requisitos crees que debe cumplir un responsable de datos? JS: El responsable de datos es una

figura de vital importancia que debe tener las habilidades comunicacionales, de liderazgo y la visión de negocio necesarias para cualquier organización. Su responsabilidad principal es la gestión de toda la información de la compañía. De los datos que se saquen de su análisis depende la toma de muchas decisiones clave para un negocio. Por lo tanto, ya no la presencia del Data Manager en los departamentos de TI de las empresas es necesario, sino que la figura del Chief Data Officer a nivel transversal en toda organización es imprescindible y con el reto de polinizar a todas las otras direcciones y departamentos con la sensibilidad que los datos requieren.


35

Joan Salomó, Responsable de DATA en Oney España cionar a perfiles de personas comprometidas con nuestros valores: libertad, entusiasmo y respeto. A partir de ello, estamos comprometidos con la profesionalización hacia las necesidades del futuro de cada miembro de nuestro equipo, lo cual nos permite evolucionar conjuntamente. BdM: ¿Es posible la democratización del acceso al Big Data? JS: Teniendo en cuenta que el Big Data

no es la clave del futuro, sino que es ya la clave del presente, considero que el Big Data ha democratizado el acceso no solo al dato sino a la información. ¿Y cómo lo ha conseguido? Hace unos años, el uso de este tipo de tecnologías estaba limitado a las grandes empresas que disponían de la capacidad de inversión y del conocimiento humano para hacerlo, pero en la actualidad las tecnologías en la nube han venido para cambiar esta situación, y, por lo tanto, proporcionar la accesibilidad al Big Data a la mayoría de las PYMES. BdM: Otro de los conceptos de gran actualidad es el Blockchain ¿Qué usos cree que se le puede dar desde ONEY? JS: El Blockchain aportará muchos

Tiempo atrás, era el responsable de velar por la seguridad de los datos y por su persistencia. Por ejemplo, era el encargado del diseño de las políticas de la creación de copias de seguridad de la información, definir todas las operaciones y protocolos relacionados con su análisis, y la implementación de las políticas de datos adecuadas. Sin olvidar la responsabilidad sobre la gestión de los datos maestros. En la actualidad, el Data Manager, es el principal implicado en el análisis de los datos de una empresa. Para ello deberá utilizar diversos elementos, además de establecer los procedimientos más adecuados y automatizados para la recogida de datos e identificar las herramientas necesarias para poder recogerlos. Aparte, ofrecer a los empleados que vayan a trabajar directamente con los datos la capacitación y medios suficientes para que puedan llevarlo a cabo sin errores de manera autónoma. Entre ellos, herramientas de Business Intelligence, un sistema de análisis de la información y de

informes, que servirán para la presentación de resultados. Gracias a ellas se podrán tomar decisiones de manera rápida, tras consultar los datos y el resultado de su análisis de un vistazo. Para analizar los datos obtenidos y llegar a conclusiones, hay que aplicarles técnicas estadísticas para conseguir datos derivados. Se trata de una tarea compleja, que con la construcción de modelos predictivos permitirá predecir nuevos datos en el futuro a partir de los que se tienen en un momento dado. Todas estas operaciones y herramientas ayudarán no solo al departamento Data a obtener información valiosa para la toma de decisiones sino también para el resto de la compañía. Eso sí, hay que tener en cuenta que para generar información valiosa es fundamental contar con datos integrados y de calidad. BdM: ¿Encuentra profesionales suficientemente preparados para incorporar a su equipo? JS: En Oney, al ser una mediana

empresa, existe la necesidad de selec-

beneficios, tanto a los negocios como a los consumidores. A los primeros, les facilitará desde la trazabilidad y la visibilidad, la seguridad de la autenticidad del producto y su origen, el registro y retirada automatizada del producto, etc. hasta la cadena de suministro de comercio y finanzas. En el caso de los consumidores, hará que el acceso a la información del producto, el pago, servicios de asistencia y la protección de sus derechos sea algo muy seguro. Desde mi humilde opinión, la clave estará en una publicidad digital más fiable y la aceptación del pago a través de criptomonedas para los productos y servicios tecnológicos. BdM: ¿Cuáles son los pros y los contras de la tecnología blockchain? JS: Los pros serían los nombrados

anteriormente. Los contras por su parte al ser una tecnología muy reciente pasan por su lentitud, unos altos costes iniciales de capital, que requiere la aceptación de sus usuarios y operadores, y, con un impacto más sensible para ONEY dada su implicación en las políticas de RSC, el gran consumo de energía que requiere cualquier sistema de minería de datos.

.

BigDatamagazine | Junio 2019


36 Gobierno del Dato y Virtualización / DENODO

“La agilidad en el acceso y entrega de información es lo que más demandan los CDOs” Uno de los grandes problemas en la ciencia del dato es encontrar y unificar todos esos datos bajo un mismo paraguas para poder entenderlos y sacarles partido. Una de las empresas pioneras en este sentido es DENODO, entrevistamos a Anastasio Molano, SVP Tecnología y Soluciones. Texto: Samuel

Rodríguez

BigData Magazine (BdM): ¿Cómo podemos conseguir un proceso ágil y eficiente en la entrega de datos a negocio? Anastasio Molano (AM): Cada vez

es más difícil entregar de forma ágil datos integrados al negocio porque el volumen y la variedad de fuentes de datos en las empresas no para de crecer. El problema es que muchas empresas siguen trabajando con métodos de integración basados exclusivamente en la replicación masiva de datos, lo que conlleva en la práctica a generar nuevos repositorios de datos que son difíciles de gobernar. Surgen fácilmente inconsistencias en los datos lo que repercute en la poca garantía y calidad de los informes con los que trabajan las áreas de negocio. Hoy en día, Gartner y otros analistas recomiendan utilizar arquitecturas lógicas frente a las arquitecturas tradicionales basadas exclusivamente en la consolidación de la información. Es lo BigDatamagazine | Junio 2019

que Gartner denomina el “Logical Data Warehouse” o el “Logical Data Lake” (su homólogo en el mundo de la ciencia de datos), un único punto de acceso lógico a las fuentes de información que expone una capa semántica que garantiza una única fuente de verdad para todas las aplicaciones, evitando con ello las típicas situaciones que surgen cuando informes generados desde distintas herramientas sobre los mismos indicadores acaban generando datos diferentes y a menudo inconsistentes entre sí. Este factor es clave para la gobernanza de los datos. De forma añadida, al ofrecer un punto de acceso unificado, esta capa de data warehouse lógico es el lugar idóneo para definir las reglas de acceso por parte de los usuarios, que pueden ajustarse en función de las vistas de datos que se expongan a los usuarios, en lugar de tener que definirlas fuente a fuente, lo que simplifica enormemente la arquitectura de seguridad. Al ser una capa lógica, basada típicamente en tecnologías de virtualización

de datos, se trata de metadatos que se pueden crear muy fácilmente y modificarse cuando se necesite. Frente a otras alternativas basadas en la consolidación de datos, nuestros clientes consiguen con este enfoque reducciones del “time-to-market” cercanas al 90%. Esta agilidad es clave para garantizar una respuesta adecuada a las necesidades del negocio. BdM: ¿Cuál es la principal demanda que le hacen llegar los CDOs? AM: Precisamente es la agilidad en el

acceso y entrega de información lo que más demandan actualmente muchos CDOs. También tienen entre sus prioridades el gobierno eficaz del dato, lo cual es difícil de conseguir actualmente con tanta variedad y complejidad de fuentes de datos existentes en la empresa. Las arquitecturas lógicas de las cuales el “Logical Data Warehouse” (o el “Logical Data Lake”) es su máximo exponente constituyen la vía más adecuada para conseguir estos objetivos.


37

Anastasio Molano, SVP Tecnología y Soluciones de DENODO BdM: ¿A qué nos enfrentamos en el ecosistema actual de fuentes de datos estructuradas y no estructuradas? AM: Las empresas trabajan cada vez

con más fuentes que no casan con el modelo tradicional totalmente estructurado en el que se han basado históricamente los data warehouses. Estamos hablando de datos con naturaleza jerárquica como documentos json, xml, etc., pares clave-valor, estructuras en grafo, etc., que precisan modelos de datos más flexibles, de ahí la explosión del uso de soluciones NoSQL, y del ecosistema Hadoop en gran medida. Hoy en día, prácticamente todas las empresas disponen o se encuentran en vías de lanzar una iniciativa de lago de datos. En la práctica, ello ha supuesto que ha surgido un nuevo “silo” de información, a menudo totalmente desconectado del resto de los sistemas de información de la empresa y bajo unas reglas de gobierno que en la mayor parte de los casos son inexistentes. Los usuarios suelen copiar los datos al lago con la esperanza de que pueda dárseles uso en el futuro, pero esta flexibilidad infinita suele acabar en lo que a menudo se denomina “data swap” o ciénaga de datos si no aplicamos reglas apropiadas para el gobierno del dato. De nuevo las arquitecturas lógicas basadas en la virtualización de datos pueden venir al rescate, ya que disponer de una capa semántica ayuda en gran medida a conocer los datos del lago, al poderse definir vistas lógicas que incluyan un nombrado que sea fácilmente identificable por un usuario de negocio (tanto para la vista en sí como para cada uno de sus campos). Tecnologías de virtualización como Denodo incluyen un catálogo de datos que permite a los usuarios lanzar búsquedas en formato libre sobre los metadatos y los datos para poder identificar fácilmente su naturaleza, clasificar los datos en categorías de negocio, etiquetarlos, etc., ello ayuda en gran medida en el descubrimiento y la exploración de los datos. Es posible definir las reglas de acceso en la capa lógica y ofrecer diferentes niveles de gobierno de acuerdo a la comunidad de usuarios a la que nos dirijamos. Por ejemplo, podemos ofrecer vistas de datos totalmente curados a nuestros usuarios de negocio de modo que ellos puedan realizar adaptaciones sobre los mismos para satisfacer sus necesidades específicas

pero sin realizar grandes cambios, y por otro lado podemos ofrecer acceso a vistas de datos prácticamente en crudo para nuestros usuarios más avezados como los “data citizens” o los científicos de datos que precisan acceso total para poder realizar cualquier tipo de proceso con máxima flexibilidad. Todo ello puede ser regulado bajo un mismo paraguas en la capa de virtualización de datos. Desde un punto de vista de ciencia de datos, la virtualización de datos viene a ser un acelerador del proceso ya que facilita las fases iniciales de integración, limpieza y preparación de los datos para dejarlos en el formato que los algoritmos de Machine Learning requieren. Nuestros clientes integran librerías de proceso como Python, R o Spark que consumen vistas de datos que se publican en la capa de virtualización. La ventaja es que puede gestionarse todo el proceso, tanto el tradicional proveniente del mundo estructurado, como el lago de datos bajo un mismo paraguas, la capa de virtualización de datos. Estamos hablando de conjugar de forma flexible los dos mundos, que Gartner califica como “Bi-modal IT”. Por un lado el proceso riguroso y totalmente estructurado que parte de nuestros informes necesitan (p. e. los informes financieros) versus el modo más flexible que permite una gestión del dato más ágil y exploratoria. BdM: Desde su punto de vista, ¿cuándo y cómo se debe democratizar o no el big data entre los usuarios de negocio? AM: Los repositorios de big data en

muchas empresas han sido diseñados para que sean los científicos de datos, y no los usuarios de negocio, quienes hagan uso de ellos. Hay que tener en cuenta que los datos que contiene un big data son demasiado valiosos como para restringir su acceso solo a los científicos. No cabe duda que la inversión realizada en proyectos de big data sería más fructífera si se diera facilidades a los usuarios de negocio para que accedan directamente a dicho repositorio sin depender siempre del cuello de botella que suponen los científicos de datos. BdM: Un año después del RGPD ¿cumplen las empresas los requisitos? AM: Muchas empresas están

cumpliendo con los requisitos RGPD, pero vemos que otras aún andan a

medias. El problema es que la legislación dijo lo que se tenía que hacer respecto al RGPD, pero no detalló cómo se tenía que llevar a cabo. De todas formas hay compañías como nuestro cliente Autodesk, líder mundial en software de diseño CAD, que incluso han abordado la adaptación a la regulación como un incentivo para estimular la innovación sin sacrificar los objetivos de ingresos. Actualmente Autodesk controla el acceso a la información de clientes por parte de las aplicaciones de negocio, ya que aplica reglas en la capa intermedia de virtualización de datos para que se suministre únicamente aquella información para la cual los clientes han proporcionado su consentimiento. De esta forma cumplen con la regla de privacidad y seguridad por diseño de la que habla la normativa RGPD y trazan además de forma sencilla los accesos a la información para una auditoría posterior. BdM: Algún ejemplo o caso de éxito de un cliente suyo que ponga en valor la recogida y virtualización de datos: AM: Una gran cadena de retail española

ha implementado nuestra solución de virtualización de datos para mejorar la calidad de su servicio final al cliente. Gracias a esta plataforma, el grupo de distribución es capaz de acceder rápidamente a información fiable sobre sus clientes y de entender mucho mejor su comportamiento de compra. Esta empresa de retail tenía el problema tan común que estamos comentando de que la información (en este caso de sus clientes) se encontraba dispersa entre cerca de 30 repositorios y bases de datos distintas. Esa información era muy difícil de integrar de forma ágil usando procedimientos tradicionales de copia y replicación de datos. Esto provocaba que, cuando el departamento de marketing pedía una vista de datos nueva para hacer analítica y tomar decisiones que repercutieran en un mejor servicio al cliente, el departamento TI podía llegar a tardar meses en tener esa información integrada. Actualmente gracias a la plataforma de Denodo de virtualización de datos, este retailer ha incrementado enormemente la agilidad en su acceso a la información de clientes. De hecho, nos comentan en tono divertido en el área TI que ahora las áreas de negocio tardan más en saber lo que quieren analizar que ellos en suministrar las vistas requeridas.

.

BigDatamagazine | Junio 2019


38 La organización del dato / Ciber Experis

Ciber Experis facilita la organización de datos La importancia de la información en las empresas y los retos a los que se enfrentan las mismas a la hora de usar la información como un recurso crítico estratégico para la gestión empresarial.

L

Texto: Gonzalo

Bueno

a economía digital en la que nos encontramos inmersos hoy en día ha hecho que las empresas tengan que competir en un mercado global donde los clientes se caracterizan por: Estar siempre conectados y en movimiento encontrándose en cualquier parte, dentro y fuera de las fronteras de cada país • Enganchados a redes sociales y pertenecientes a comunidades virtuales. • Escépticos a la publicidad y ansiosos de encontrar información fiable. • Buscan el empowerment. • Están empeñados en ser interlocutores competentes en lugar de sujetos pasivos • Exigen ofertas y mensajes hechas a su medida Estas características hacen que nuestros clientes ya no sean sólo consumidores pasivos de contenidos, sino gestores activos, convirtiéndose algunos BigDatamagazine | Junio 2019

en nuevos líderes de opinión y creadores de contenidos (influencers) con una reputación a construir y proteger, es decir, se han convertido en los “nuevos medios”. Debido a esto ha aparecido un elemento nuevo en marketing, la quinta P (Personal o Postventa) que corresponde con las actividades que se realizan con posterioridad a la venta del producto o servicio, y cuyo objetivo inmediato es asegurarse la completa satisfacción del cliente y por tanto la posibilidad de una posible recompra. De esta forma se consigue que el cliente repita la acción de compra y motive a terceros a comprar nuestros productos y servicios. Todas estas cuestiones planteadas tienen una sola finalidad: responder oportunamente y de forma eficiente para satisfacer las necesidades o deseos del cliente. Esto requiere que todos los departamentos de una organización dispongan en tiempo real de la mayor información posible para dar el mejor servicio a sus clientes, tanto internos como externos.

Por tanto, el reto de las organizaciones es conectar a TODO su mercado a sus sistemas, para prestar servicios dirigidos a TODOS… ¿para qué?: Para desarrollar más y más rápido nuevo negocio. ¿Pero cómo?: Analizando y aplicando la información que cada usuario conectado nos va a facilitar, además de toda la información que poseen las empresas sobre sus clientes, productos comprados, datos personales, etc.., Estudiando las Necesidades, las Expectativas e incluso “Los Sueños” de sus clientes y en consecuencia desarrollar o adaptar productos, servicios, acciones de comunicación, … Es por todo esto que, desde un punto de vista económico o empresarial, se ha de resaltar dos hechos clave que confluyen en el tiempo: La actual consideración de la información como un recurso crítico estratégico para la gestión empresarial El amplio desarrollo de las tecnologías de la información, especialmente informática y telecomunicaciones que han dado lugar a importantes transfor-


39

Gonzalo Bueno, Senior Manager de Ciber Experis maciones en la forma de dirigir los negocios Las compañías están invirtiendo muchos recursos económicos en herramientas de Big Data, Business Intelligence, Machine Learnig e Inteligencia Artificial, etc. que les permitan ser más competitivos en esta nueva economía, obteniendo resultados en tiempo real, consiguiendo tener un enfoque digital y una mayor información para de todos y para todos. Sin embargo, a la hora de abordar estos proyectos de análisis y utilización de la información las empresas se están encontrando con una serie de dificultades que no permiten sacar el máximo rendimiento y estas principalmente son: Estas herramientas dependen de la exactitud de los datos. Estos pueden ser adquiridos desde distintas fuentes, desde ERPs automatizados o tecnologías como el Mainframe a empleados que anotan los resultados en un bloc de notas. Lidiar con un entorno donde los datos no están actualizados o donde estos datos presentan incoherencias, dificulta y ralentiza el tiempo de generación de este tipo de soluciones o puede proporcionar resultados imprecisos. En definitiva, nos encontramos con los siguientes problemas • Puntos ciegos en los datos • Necesidad de eliminación de inconsistencias, los datos no son limpios. • Información dispersa en múltiples repositorios no interconectados. • Herramientas legacy, estándar y/o poco fiables. • Duplicidad de información. Otro gran problema a la que se enfrentan las empresas es la gran cantidad de datos, lo que dificulta a estos proyectos facilitar toda la información en el tiempo preciso y necesario para el negocio. Por último, pero no menos importante, no debemos olvidar los requerimientos de obligado complimiento de las normas de seguridad como por ejemplo la LOPD y GPRP. CiberExperis ha realizado una alianza estratégica con la empresa Syncsort Inc. para la distribución de sus productos que ofrecen soluciones avanzadas y eficaces para resolver los problemas comentado anteriormente, que están teniendo un gran éxito no solo a nivel nacional sino a nivel internacional principalmente en Estados Unidos, Europa, Asia y en América Central y de Sur.

Los principales productos son tres: 1. Producto DMX Potente herramienta de ETL para la manipulación de grandes cantidades de datos con unos rendimientos extraordinarios (incluso en máquinas pequeñas commodity- hardware). Esta herramienta, nos permite introducirnos en proyectos nuevos donde no exista herramientas de este tipo, o en clientes en los cuales tengamos alguna herramienta (PowerCenter, DAtaStage, Talent, PEntaho…) y queramos mejorar el rendimiento simplemente sustituyendo procesos: Problemas de rendimiento en plataformas de reporting o análisis. Cuando detectemos que nuestras herramientas de reporting/análisis de la información están teniendo problemas de rendimiento y los procesos no finalizan en tiempo, podemos recurrir a una solución como Syncsort DMX para obtener una mejora sustancial en los procesos de carga/procesamiento de la información basado en los conectores de alto rendimiento, y en el motor de ejecución de SYNCSORT DMX. Problemas de recursos hardware en cualquier sistema distribuido (falta de CPU y/o memoria) en plataformas de reporting, análisis o integración de datos. Cuando ejecutemos trabajos de integración de datos, que requieran de procesamiento de la información y de conectividad con fuentes y destinos de la información, y nos encontremos que nuestra infraestructura actual tiene problemas para acometerlo por falta de recursos hardware (CPU, memoria, I/O) podemos aportar soluciones para mejorar dicha capacidad de proceso utilizando Syncsort DMX. Problemas de rendimiento y mantenimiento en procesos PL-SQL. Los procesos PL-SQL muchas veces son fruto de años de desarrollo y evolutivos con la falta de documentación, y conocimiento que eso puede llevar. Con Syncsort DMX, podemos ayudarle a transformar su proceso PL-SQL de una forma rápida, sin requerir de grandes conocimientos sobre estas tecnologías, y proporcionándole un programa con unos rendimientos “extremos”, visuales, y sencillos de mantener. Problemas de rendimiento y/o infraestructura en aplicativos de integración de datos como PowerCenter, DataStage, Talent, etc… Empresas que usen PowerCenter,

DataStage, Talent,.. y que tengan problemas de rendimiento o de infraestructura, reemplazamos los procesos de los caminos críticos por procesos de Syncsort DMX, dejando que el resto de la cadena se continúe ejecutando con la tecnología principal. 2. Producto DMXh (HADOOP) DMXh permite la sustitución del SORT de HADOOP, por una tecnología SORT más óptima que nos permite reducir considerablemente la arquitectura de HADOOP que vamos a necesitar (reducción de la arquitectura del 40%). Además permite tener un motor de Syncsort en cada nodo de HADOOP aportando una paralización de ejecución tanto vertical como horizontal, y conectividad con todo tipo de sistemas, incluyendo el MAINFRAME. Uno de los principales beneficios el s la alta capacidad de ingesta masiva de datos desde cualquier plataforma a Hadoop 3. Producto Trillium Trillium es una herramienta de mejora de calidad de los datos en los cuales se requiere de hacer una prospección de las fuentes de datos, y la implantación de reglas para conseguir esta calidad de los datos. Esta tecnología aporta pluggins con SAP, SalesForce y Dynamics. Trillium Quality para Big Data transforma sus datos para obtener información empresarial de confianza con un procesamiento continuo de calidad de datos optimizado automáticamente para Hadoop MapReduce o Spark. Con estos productos Ciber y Syncsort han demostrado ser capaces de solucionar la mayoría de los problemas más frecuentes y comentados en este artículo en muchos clientes alrededor del mundo.

.

Gonzalo Bueno, Senior Manager en Ciber Spain. BigDatamagazine | Junio 2019


40 Eventos / Smart Data Summit Spain

Exprimiendo el dato en Smart Data Summit Spain La figura del CDO, el Big Data y la Inteligencia Artificial fueron protagonistas en el Smart Data Summit Spain- celebrado el 21 de mayo- que tuvo como lema ”Exprimiendo las vitaminas que dan valor a tu negocio”.

S

Texto: Mónica

Gallego

mart Data Spain Summit 2019 reunió en su cuarta edición, el 21 de mayo, a profesionales entorno a las tendencias en la aplicación del smart data en la empresa con el principal objetivo de debatir sobre cómo obtener el mayor potencial de los datos y encontrar soluciones nuevas para la gestión, el gobierno y el análisis de los datos enfocadas a la toma de decisiones y búsqueda de oportunidades de negocio. Más de 60 expertos se dieron BigDatamagazine | Junio 2019

cita en esta jornada celebrada en el Estadio Santiago Bernabéu de Madrid. CDO, protagonista en la vorágine de datos

El palco de honor del Estadio Santiago Bernabéu acogió varias de las más interesantes mesas redondas del Smart Data Spain Summit 2019. La inaugural fue moderada por David Ruiz Gómez, Sales Lead Iberia en Talend. En ella se abordaron diversos asuntos como: El tratamiento de los datos y el uso de la información se han convertido en el

epicentro de los problemas; la defensa y protección de los datos con la obtención del máximo valor de los mismos o los retos a los que se enfrenta actualmente un CDO. Nacho Rodríguez, Lead Data Scientist en Vodafone explicó que

“es muy importante unir varios ámbitos de la compañía’’. Por otro lado aseguró: “nuestro reto interno es ser capaces de ser profetas en nuestra tierra y ser más rápidos y más ágiles. Es muy importante mirar dentro y fuera de nuestra empresa”.


41

Eventos / Smart Data Summit Spain Maria Natividad Chichón, Digital Strategy and Data Officer en Verti

afirmó al respecto de cómo han sido aceptados entre sus compañeros que: “una vez se ve el valor no paran de llegar peticiones. Ahora nuestro reto es activar rápidamente los datos que tenemos y también que tenemos varias herramientas para hacer lo mismo y hay que descubrir con cuál te quedas. Entonces o pruebas varias herramientas a la vez o te puedes estar equivocando”. El Responsable de la arquitectura y estrategia IT en Ferrovial Servicios, Unai Obieta reconoció

que: “La GDPR nos ha venido muy bien porque muchos departamentos nos han venido a preguntar si sus datos son críticos. Así hemos podido controlar los datos un poco más”. Además detalló que “la empresa empieza a creer que el dato es importante, y es un tema cultural. Lo que hacemos en Ferrovial no tiene por qué funcionar en otra. Hemos estado haciendo durante dos años proyectos pequeños y demostrando que funciona, así se ha conseguido extender solo”. Por último Mariano Muñoz, CDO / Data & Analytics de Acciona resaltó que “Entre nuestros retos está crear el catálogo de datos. Con el que buscar una transformación orientada a para qué usar los datos. Pero sobre todo hay que convertir todo lo que hacemos en valor porque si no a negocio no le va a servir de nada”. Un proceso ágil en la entrega de datos a negocio

¿Está llegando información a negocio o nos perdemos en el análisis? El eterno debate: democratizar o no el Big Data entre los usuarios de negocio... estos son algunos de los asuntos que encontraremos en esta mesa redonda:

Ángel Galán, Head of Business Intelligence and Data Analytics de Correos explicó a los asistentes que

llenaron el palco de honor del estadio madridista que “tenemos tecnología tipo Big Data que nos permite ser más ágiles pero también dependemos del factor cultural. Esto hace que tengamos que limitarnos a ciertos casos de usos muy concretos y necesarios”. Antonio Pita, Global Head of Consulting & Analytics de Telefónica recordó que: “Es muy importante

la calidad del dato y por eso hay que tener sistemas que confirmen la calidad de la información. Además nosotros

El tratamiento de los datos y el uso de la información se han convertido en el epicentro de los problemas, la defensa y protección de los datos con la obtención del máximo valor de los mismos tenemos dos tipos de usuarios, los internos y los clientes”.

Jaime González, Manager Innovation Consultant en GFT aseguró

que “uno de los factores clave es la complejidad que aumenta día a día. Van apareciendo modelos y tecnologías nuevas cada día. Identificamos como una gran necesidad del cliente tomar un camino que le haga fácil llegar al destino”. Big Data e Inteligencia Artificial: combinación perfecta para el futuro

Si hablamos sobre Inteligencia Artificial (IA) y Big Data, vemos cómo la atención se desplaza al extremo de la red que da pie a la aplicación real del Cloud Computing en el negocio. Sobrecargar la red con demasiados datos es algo que afecta al negocio y, por eso, Pedro Tome, Head of Disruptive Innovation and Big Data at EVO Banco asegura que

“la banca del futuro va a ser más democrática y flexible, sobre todo más simple y personalizada. La tendencia final de acumular datos sin sentido llega a la desinformación, por tanto, lo que haremos será simplificar, ser siempre transparentes y sobre todo personalizar, ya que cada persona tiene necesidades diferentes según el punto de su vida” Severino Gala, Sales Director en MicroStrategy afirma: “muchos de los

servicios de cloud se basaban en recopilación de datos y expulsión de datos… Tenemos que invertir para que al final merezca la pena, no todo es gratuito”. Jose Tovar Cruz, IT Director at Mediaset España asegura querer

cambiar el paradigma, “queremos dar una publicidad diferente a cada usuario según personalidad y gustos… para ello necesitamos un dispositivo que sea capaz de recopilar información”, asegura. Daniel Tizón, responsable de Proyectos de Inteligencia Artifi-

cial y Big Data en Sanitas, afirma:

“Nosotros lo que hacemos es utilizar el craft computing para entrenar modelos de IA pero luego a la hora de tomar la decisión, hay un servicio médico que, al recibir alertas de la IA, se pone en contacto con el usuario”. Cinco consejos para desplegar IA en el negocio Estos son los 5 consejos que Miguel Pleite, Director técnico de Pure Storage Iberia, cree necesarios y

comunes para todos los sectores: • El análisis del dato. Obtener datos es relativamente fácil mediante bases de datos, IoT, distintas fuentes, comprar datos a terceros. Esto puede provocar datos erróneos, duplicados y es necesaria una limpieza. Después de esto, es importante hacer el debido entrenamiento. • No tirar datos a un Data Lake. pasar del Big Data al dato

inteligente. Administrar esto es complejo, por lo que muchas empresas se dejan de preocupar y se lo dejan a un tercero. • ¿Nube o sistema local? Miguel Pleite admite: “La nube es el mejor sitio para equivocarse, empiezas con poco. Creemos que todas las inteligencias deben ser en la nube o en local, que podamos empezar en la nube y mañana estemos en local sin hacer mucho esfuerzo” • Invertir en datos. Cada 3 meses y medio las necesidades de cómputo asociadas a la IA se duplica, esto es exponencial, por tanto cualquier foto que tengamos está obsoleta. • Si lo que hacemos es enfocarnos en una solución concreta, se nos quedará pequeña y nos limitaremos como empresa. Para esto creamos un producto capaz de ser óptimo en todas las variables, mejorando el flujo de comunicación.

.

BigDatamagazine | Junio 2019


42 Eventos / Huawei Eco-Connect Europe

Huawei avanza imparable en sus proyectos de Smart City El Huawei Eco-Connect Europe 2018 celebrado en Roma sirvió para dar a conocer las líneas de trabajo de la firma china en el entorno de las ciudades inteligentes.

E

Texto: José

Luis Arcángel

l Centro de Congresos de La Nuvola acogió una interesante sesión denominada Creando el sistema nervioso de una Smart City. Una cita dirigida por Richard Budel, Chief Innovation Officer de Smart, Safe and Healthy Cities de Huawei. Big Data Magazine no se quiso perder una cita que no dejó a nadie indiferente. En las más de dos horas que duró la presentación intervinieron diferentes miembros del equipo de la compañía asiática junto a otros de entidades colaboradoras. En primer lugar desde Huawei explicaron algo que parece obvio pero que puede llegar a no serlo. El objetivo es “encajar el ecosistema de la ciudad (componentes, aplicaciones, servicios y operaciones) con la infraestructura de la cuidad (chips, hardware, sesnsores…)”. El primer ejemplo llegó presentado por Huib Pasman, Technology Strategy & Strategic Marketing de TNO. Habló de como se ha conseguido

conectarlo todo el entorno del Johan Cruyff Arena, anteriormente conocido como Amsterdam Arena, de la ciudad BigDatamagazine | Junio 2019

homónima. Mucho ha cambiado desde su construcción en 1996 y para lograrlo se han apoyado de la Amsterdam Innovation Academy cuyo lemas es “aprendiendo haciendo”.

que debería suceder y qué sucederá)”. Por ello apuntó que: “La smart city usa tecnología para encontrar respuestas y aunar entorno, sociedad y economía”.

El arte de conectar todo El primer ponente local fue Leandro Aglieri que se definió a si mismo como un visionario tecnológico. Es el Coor-

Alain Kabamba, Global Strategic Partnerships – Technical Account Manager en Hexagon Geospatial

dinador del Laboratorio de Smart City de Roma y explico detallada-

mente los 20 bloques a construir para interconectar una ciudad. Aseguró que es importante el “liderazgo” y que: “Tomar riesgos es necesario para cultura de la innovación. Además de tener en cuenta que son necesarios diferentes modelos para diferentes casos y adaptarse”. Por último recordó que en “el arte de conectar todo, lo más difícil es poner juntos datos de muy diferente procedencia en el mismo sitio”. Richard Budel tomó la palabra de nuevo mediada la sesión para asegurar que “ser un smarter no es solo entender lo que está sucediendo ahora. Ser smarter requiere sentir, conectividad e inteligencia (saber que podría suceder,

Aumenta la generación de datos

fue el encargado de responder a ¿Que es realmente una solución smart?. Explicó que hay “que tener en cuenta volumen, velocidad y capacidad de datos”. En la actualidad “todo se vuelvo dinámico, internet aumenta la generación de datos a mucha más velocidad de lo que aumenta de volumen de esos datos que se usan para algo, y cada segundo se pierden muchos datos”. Por este motivo su solución integra “Inteligencia Artificial, machine Learning y Cloud Orchestration”. Cerró la sesión Jun Li, representante de Shenzen Energy Sales, la primera compañía eléc-

trica privada de China. Detalló a los presentes como aprovechan la tecnología Smart para crecer exponencialmente en el país que más crece del mundo.

.


43

Karabet Krikorian, Head of IoT & Industry 4.0 Solution Innovation de Huawei

“La IA no cierra oportunidades, ahora hay más trabajos en el mercado” La Huawei Eco-Connect Europa celebrada en Roma nos permitió conocer las novedades más importantes en IoT. Uno de los máximos responsables de la firma china para el desarrollo del internet de las cosas, Karabet Krikorian, nos atendió para aportar luz a nuestras preguntas. Texto: José

Luis Arcángel

Big Data Magazine: ¿Qué ofrece a sus clientes Huawei en Inteligencia Artificial que no se pueda encontrar en sus competidores? Karabet Krikorian: Podemos

encontrar en la web que tenemos de hecho, un anuncio sobre nuestros Chipset de Inteligencia Artificial. Es algo que nadie más tiene. Estamos cooperando con Audi en el campo de los vehículos conectados por inteligencia (ICV). BDM: ¿Hacia dónde se dirigen los esfuerzos de Huawei en Industria 4.0? KK: Estamos mirando hacia la

Industria 4.0 muy cuidadosamente, como los demás. Somos miembros de la Plataforma de la Industria 4.0 en Alemania, pero creo que la industria 4.0 tiene todavía mucho camino por recorrer. El foco ahora está en el Predictive Maintenance and Analytics Industrial IT, y la Industria 4.0 es el siguiente paso yo creo, pero estamos centrados en ello, eso sin duda. BDM: En IoT ¿Cuál es la novedad más importante que presenta Huawei? KK: Puedo decir que hemos

transformado digitalmente PSA por ejemplo, coches conectados, y eso fue recompensado en nuestra cita de hace unas semanas en Barcelona, por la mejor plataforma de transformación digital en el IoT SolutionS World Congress así que fuimos premiados por ello. Puedes ver que también tenemos nuestra plataforma que habilita multitalent, no hay muchos competidores que lo tengan. Pero también tenemos desarrollo en el área de las Smart Cities, así que es otro de nuestros puntos fuertes. Aprovechamos el momento con

Karabet Krikorian, Head of IoT & Industry 4.0 Solution Innovation de Huawei.

“Inteligencia Artificial, realidad aumentada, realidad cognitiva o machine learning, estarán todas presentes” vehículos conectados, ciudades inteligentes o medidores inteligentes. Estamos mejorando en el mercado, teniendo más presencia. BDM: Existen debates éticos y morales sobre el uso de la Inteligencia Artificial ¿Son considerados en Huawei? KK: Por supuesto, desde luego, pero

no tocamos esa área. No producimos o hacemos tecnología contra el ser

humano o quitando oportunidades al hombre, estamos habilitando. Si miras en las máquinas de los noventa, los robots podían hacer la producción y la gente era consciente de que muchas oportunidades se abrían en el mercado. Las oportunidades ahora son que hay más trabajos en el mercado. Nosotros no cerramos oportunidades. Ahora la gente puede diseñar robots o programarlos. Hay más trabajos en el mercado, tenemos que tenerlo en cuenta y no cerrarnos a ello. BDM: ¿Cómo imagina se imagina usted el mundo dentro de veinte años? KK: Creo que lo cognitivo y la realidad

estarán presentes, la digitalización también estará. Quizá hablemos a nuestros aparatos electrónicos con más secuencias que apretar los botones. Inteligencia Artificial, realidad aumentada, realidad cognitiva o machine learning, estarán todas presentes.

.

BigDatamagazine | Junio 2019


44 Big Data aplicado a la salud / medmesafe

“Ahora se explota entre un 1 y un 2 % del genoma, porque es lo que se puede interpretar” Entrevistamos a Clément Destoumieux, CEO de medmesafe. La empresa destinada a cambiar el mundo sanitario gracias a la medicina predictiva. Big Data e Inteligencia Artificial son protagonistas en una iniciativa que ha llegado para romper los esquemas de la sociedad en su relación con la salud.

C

Texto: José

Luis Arcángel

lêment Destoumieux ha traido desde Francia a nuestro país medmesafe una plataforma online que ofrece exámenes y análisis de salud basados en los últimos avances científicos y tecnológicos de la medicina con asesoramiento realizado por especialistas profesionales de la salud. Big Data Magazine: ¿Qué es medmesafe? ¿Qué aporta al mercado que no existiera hasta ahora? Clément Destoumieux: Es una plata-

forma online de medicina predictiva con asesoramiento médico. Hay cuatro factores que influyen en nuestra salud: los hábitos de vida, el entorno, la medicina curativa (cuando estamos enfermos), y los genes que influyen un 20%. En medmesafe queremos acompañar el cambio de paradigma de pasar de una medicina BigDatamagazine | Junio 2019

curativa, a una medicina predictiva basada en la genética. Hay otros actores en el mercado, aunque pocos porque es un tema bastante nuevo. Muchos de esos actores se dedican a la “genética lúdica”, algo que se ha puesto de moda en los últimos meses (“test ancestry”), mientras que en medmesafe trabajamos en un entorno médico, y lo que queremos es dar accesibilidad a la medicina predictiva. Queremos que sea sencillo y rápido. Nos hemos dado cuenta de que encontrar un asesor genético en España puede tardar entre tres meses y un año y medio. Gracias a medmesafe, podemos ofrecer una consulta con un experto genetista en menos de 48 horas. BDM: ¿En cuánto está valorado el servicio que ofrecéis? CD: Tenemos dos tipos de servicios.

Uno de asesoramiento genético global que es una videoconsulta donde puedes realizar todas las preguntas que quieras.

Por ejemplo, si algunos de tus antecedentes familiares son heredables, tu compatibilidad con tu pareja para tener un niño, si estas embarazada y si quieres saber si tu feto es sano. O incluso ¿qué te podría aportar la medicina predictiva? Durante 30 minutos un experto te asesorara a través de una videoconsulta. Luego en función de tu historia clínica y de tus antecedentes familiares, el experto te puede proponer un análisis o no. El otro servicio está pensado para personas que conocen sus antecedentes familiares y cuál es el análisis genético más adecuado para ellos. El usuario rellena sus antecedentes personales y familiares para que luego un médico de su elección dentro de la plataforma prescriba el análisis genético, si dicho análisis es adecuado para el usuario. Igualmente, le explica en qué consiste el análisis y cuáles pueden ser los resultados. Recibe un kit de extracción de


45

Clément Destoumieux, CEO de medmesafe ADN (frotis bucal indoloro) en casa y se procede al análisis. La entrega de resultados se realiza durante una videoconsulta con el médico. El coste del servicio completo oscila entre 200 y 1.000 euros, en función del tipo de análisis.

BDM: ¿Qué innovaciones de la Inteligencia Artificial permiten importantes avances en la salud? CD: Destacaría el diagnóstico a través

de imágenes. Muchas startups se posicionan en este campo con buenos resultados. Luego te diría todo lo que es el tema de robótica en cirugía. Vamos a tener unos robots que van a ser más precisos que el humano y además así podemos operar a distancia. Es bastante obvio que la IA aquí tiene una capacidad de cálculo que el humano no tiene. Y por último hablaría de la medicina personalizada. Con varios subcampos: medicina predictiva, medicina preventiva que será personalizada y medicina de precisión. En medmesafe, gracias a la AI, somos capaces de predecir qué análisis es el más adecuado para un usuario, en función de sus antecedentes familiares y personales. BDM: ¿Cómo ayuda la tecnología en la prevención y detección de enfermedades? CD: La tecnología ayuda a la detección

precoz de enfermedades en muchos campos, como por ejemplo la detección de cáncer de mama. Pero no es prevención, es una detección precoz. La única prevención que yo veo para un futuro es la herramienta CRISPR/ Cas9, con ella vamos a poder cambiar los genes, una vez la tecnología haya mejorado ya que actualmente está en fase de desarrollo. Esta técnica permite modificar los genes como si copiaremos y pegáramos en un editor de texto (es una simplificación, por supuesto), permitiendo cambiar aquellas mutaciones que son malignas. Esta técnica ha abierto un debate ético, como hemos visto estos días con el Doctor He Jiankui y su equipo que pretenden haber creado los primeros bebés modificados genéticamente. BDM: ¿Qué medidas se están realizando para la personalización de la salud? CD: Para personalizar la salud, primero

hay que conocer a la persona de forma única y para ello nos apoyamos en la genética. Una vez conocemos la genética de un individuo podemos hacer

Clément Destoumieux, CEO de medmesafe.

predicción personalizada y llegaremos a hacer prevención personalizada. Y en el tema farmacogenético, curación personalizada. BDM: Se habla mucho de las cuestiones éticas y morales del uso de la Inteligencia Artificial. ¿Cómo manejan ustedes este asunto en un sector tan delicado como el sanitario? CD: La ética es una preocupación

que empezó desde el inicio del proyecto medmesafe. Era un requisito para preparar el proyecto y todavía es un debate que tenemos. La ética y las buenas prácticas evolucionan con la sociedad y con los avances científicos y tecnológicos. Nuestro Comité Científico y de Ética nos ayuda con los problemas éticos que surgen en la definición de los nuevos servicios de medmesafe. Este Comité está formado por cinco reconocidos médicos y biólogos. Gracias a los miembros del comité y siguiendo las guide lines de la European Society of Human Genetics o del Colegio General de Colegios de Médicos, hemos podido seguir las buenas prácticas del sector y cumplir tanto con la legislación actual como con la ética adecuada que se exige en el campo de la genética. Dicho esto, estamos en un mundo que evoluciona muy rápido. La gente en temas de bioética ha evolucionado muchísimo. Estamos valorando

incorporar usuarios de la plataforma y pacientes de enfermedades hereditarias a nuestro Comité para que junto con el resto de los miembros sigamos definiendo las buenas prácticas en el campo de la medicina predictiva on-line. Al final nos dedicamos a la gente, y ahora estamos trabajando en temas fundamentales como si un usuario tiene derecho a que le informen de todas las posibles mutaciones y sus implicaciones que pueda tener en su genoma y no solo de aquellas de las que se ha hecho la prueba. Es un debate que ya tenemos interno y que puede ser que nuestras guide lines evolucionen.

BDM: Con la cantidad de datos que manejáis, ¿Cuántos se aprovechan realmente? CD: Aprovechamos todos, tenemos

datos genómicos, personales y familiares, contamos con los consentimientos informados para poder manejarlos. Es verdad que hay muchos datos que la ciencia aún no sabe interpretar. Cuando se hace el estudio del genoma de una persona se puede interpretar sólo entre un uno y un dos por ciento de la información. Nosotros no proponemos explotar todo el genoma, explotamos el exoma que es la parte más identificada. Todo el residuo es mucha información, cuesta mucho sacar el dato y luego analizarlo. Poco a poco, con Inteligencia Artificial se está intentando aprovechar todo.

.

BigDatamagazine | Junio 2019


46 Big Data Magazine / Inteligencia Artificial

¿Cómo cambiará el retail dentro de 10 años gracias a la IA? La transformación digital que están abordando las empresas cambia el retail en su cadena de valor y en su estructura organizativa. Ante este contexto Adigital, en colaboración con ICEX y Kairos, ha publicado el informe “IA, el futuro del retail”, en el que se da a conocer el impacto que esta nueva tecnología tendrá en el futuro del mercado minorista.

D

Texto: Álvaro

Gutiérrez

urante la presentación del estudio Carlos Moure, CEO y Cofundador de Kairos,

reflexionó sobre la necesidad del conocimiento para poder aplicar la IA con éxito en las empresas, ya que “solo entre 5 y el 7% de las empresas está utilizando la tecnología para aplicar valor”, explicó Moure. En este sentido, Moure señaló que la Inteligencia Artificial (IA) será uno de los grandes saltos de la humanidad, donde“va a cambiar la forma de comunicarse las personas y en la manera de trabajar las empresas”. En los años 2008 y 2009 existió una fase de congelación en el desarrollo BigDatamagazine | Junio 2019

“Si dentro de 10 años no se utiliza en España la IA, los retailers podrían enfrentarse ante problemas competitivos” de la Inteligencia Artificial, dada la ingente cantidad de información generada y por la democratización de la tecnología. Hoy día, por 1.000 dólares, se puede contratar un sistema de computación con la misma capacidad que el cerebro humano. En este contexto, Estados Unidos invertirá 30.000 millones de dólares para investigar en la Inteligencia Artificial para el área industrial.

Con respecto al desarrollo por parte de los gobiernos de esta tecnología disruptiva Jaime Salas, Lean Startup & Business Innovation de Kairos, afirmó que “Emiratos Árabes es el país que está invirtiendo más en IA, donde ha creado la figura del Ministro de IA en su gobierno, u otorgarle la ciudadanía al robot humanoide Sophia”.Caso contrario sucede en España, donde en nuestro país la situación no se encuentra


47

Big Data Magazine / Inteligencia Artificial tan desarrollada. En este sentido, tan solo el 11% de las empresas

españolas son capaces de aplicar la tecnología, según un estudio de

Microsoft. “Nos encontramos en España en el inicio de la curva de adopción de la tecnología. El que hoy dé el salto hacia esta tecnología dará un gran paso adelante. La Inteligencia Artificial aplica una ventaja comparativa; la globalización va a más, y se trata de una herramienta de competitividad. Si dentro de 10 años no se utiliza en España la IA, los retailers podrían enfrentarse ante problemas competitivos”, aseguró Moure. Del “Mobile First” al “AI First” Ambos ponentes de Kairos sostuvieron que el sector del retail va a sufrir una sobreexposición: “Va a dar lugar un modelo de hiperpersonalizacion, donde la forma de consumir será ‘Un mercado de masas a la empresa’, y no al revés como hoy en día”, señaló Salas. “Vamos hacia un modelo distinto de compra, donde se va a pasar del Mobile First al AI First”, indicó Moure. En este sentido, el Machine Learning es la capacidad de la IA de reconocer, y de manera autónoma comprender, patrones de producto y de comportamiento. Esto servirá en las campañas de marketing para analizar productos y servicios, e incluso evaluar aspectos tan subjetivos como el estado de ánimo que transmite una fotografía al cliente potencial, algo que será útil en publicidad. “El sistema por sí mismo aprende y se retroalimenta, es capaz de ofrecer un producto antes de que el cliente lo pida por medio de la previsión de demanda, hacer recomendaciones... Esto es muy valioso para las empresas que desean saber cómo actuarán los clientes”, subrayó Moure. 8 beneficios de la IA El informe “IA, el futuro del retail”  identifica 8 aspectos que la IA ofrece al sector: • Hiperpersonalización; entender con mayor profundidad y mejora las necesidades del usuario para así ofrecer soluciones que aporten una propuesta de valor diferencial, y en tiempo real, con capacidad para adaptarse a las necesidades tan cambiantes del consumidor. • Optimización logística; gracias a su potencial para ayudar a predecir

En los años 2008 y 2009 existió una fase de congelación en el desarrollo de la IA, dada la ingente cantidad de información generada y por la democratización de la tecnología. Hoy día, por 1.000 dólares, se puede contratar un sistema de computación con la misma capacidad que el cerebro humano las compras de los usuarios en tiempo real, la IA permite gestionar de forma más eficiente las existencias de producción y ajustar, por lo tanto, las necesidades de almacenamiento en función de la demanda. • Omnicanalidad; 1 de cada 5 compras online conlleva procesos de búsqueda offline y, a la inversa, 1 de cada 3 compras en tienda física está precedida por consultas en el mundo online. Las empresas tendrán que unificar a todos los canales para tratar al consumidor como un usuario único. • Interfaces virtuales; los nuevos asistentes digitales que utilizan la voz como interfaz principal serán uno de los principales recursos empleados en el sector. Gracias a esta tecnología los comercios podrán interactuar con sus usuarios de la misma forma que lo hiciesen dos personas, construyendo una relación más fluida y directa entre ambos. • Ubicación óptima; la ingente cantidad de datos que manejamos permitirá establecer cuál sería la mejor ubicación de cada sección dentro de un local comercial, puesto que es posible conocer el flujo de movimiento de los clientes, los días y horas de la semana de mayor demanda, y la frecuencia con que lo hacen. • Dotación de personal; al identificar las horas de mayor demanda, el comercio puede predecir con mayor precisión cuánto personal necesita en cada momento y de qué perfil. • Mejora del servicio al cliente; las empresas pasarán de la

fabricación única a ofrecer servicios de mantenimiento, asesoramiento,

formación o upgrading con el objetivo de mejorar la experiencia del consumidor y ofrecer una relación a largo plazo basada en la confianza y la experiencia. • Tiempo de entrega; gracias a la capacidad de las empresas para anticiparse a la demanda, podrán mejorar sus tiempos de distribución y ser más competitivas. Caso de éxito de Zara Zara desarrolla nuevas estrategias desde las necesidades del usuario, a través de un proceso de ideación, conceptualización y prototipado, es decir, un proceso de Design Thinking. En este sentido, el estudio apunta que el grupo Inditex ha creado un nuevo ecosistema retail donde las tiendas físicas, la web ecommerce y la app trabajan en armonía dentro una estrategia omnicanal, donde diferentes funciones basadas en la IA mejoran la experiencia de cliente. Entre las funciones Inditex dispone de un sastre virtual o algoritmo que crea una simulación de conjuntos que de manera personalizada se ajusta a los parámetros y preferencias que el cliente ha introducido, como la talla o el color de la prenda. Esta tecnología ha sido incorporada a los espejos interactivos equipados con RFID (identificación por radiofrecuencia) en las Flagship Stores de Milán y Londres, que identifica la prenda que se encuentra frente al espejo e informa sobre su precio, talla, así como sugerencias de otros artículos con lo que se benefician las ventas cruzadas. Además, en 2018 Zara lanzó la aplicación de Realidad Aumentada que muestra una modelo en movimiento vestida con la prenda para comprobar in situ cómo quedaría puesta, acercando la experiencia de tienda física al canal online.

.

BigDatamagazine | Junio 2019


48 Eventos / Woman in Data Science

Woman in Data Science reúne a las mujeres protagonistas de la Inteligencia Artificial en España Más de 250 personas asistieron al evento, en el que directivas de compañías como Endesa, BBVA, Fundación Telefónica, IE Exponential Learning, Altran y Llorente & Cuenca trataron el papel de la Inteligencia Artificial en la gestión del Talento y en los modelos de negocio tradicionales.

L

Texto: Mónica

Gallego

a conferencia WiDS (Women in Data Science) de la Universidad de Stanford se ha celebrado el 7 de marzo en Madrid en el Espacio Fundación Telefónica, y ha reunido a destacadas mujeres del ámbito tecnológico, empresarial y académico para debatir sobre el impacto de la Inteligencia Artificial (IA) y de la robotización en el ámbito empresarial, el mercado laboral y la gestión del talento. La jornada comenzó con la bienvenida de Carme Artigas, Embajadora WiDS Madrid y Co-Fundadora de Synergic Partners, y su presentación

sobre el futuro de la Inteligencia Artificial. Artigas ha alertado “del impacto que el desarrollo de la IA y la robotización tendrá en todas las industrias y en la competitividad de nuestro país”, y reclama “una IA inclusiva, transpaBigDatamagazine | Junio 2019

rente y ética haciendo un llamamiento al futuro gobierno de España para poner este tema como prioritario en la agenda”. A continuación, la Dra. Cristina

Aranda, Doctora en Lingüística de Intelygenz, trató los sesgos de los

datos y su impacto en la inteligencia artificial, y comentó la necesidad de prevenir estereotipos implícitos y prejuicios ocultos que pueden tener un impacto perjudicial en la sociedad. Tras ella, Lula Ballarino, Chief Digital Officer de Fundación Telefónica y Laura Castela, Responsable de Empleabilidad para Europa y Productos Digitales Globales de Fundación Telefónica, presentaron

su proyecto Conecta Empleo, con el que mejorar la empleabilidad gracias a la Inteligencia Artificial, ya que, aunque se identifica un cambio en el mercado laboral, la población activa todavía

desconoce cómo puede prepararse para lo que están demandando las empresas. Para cerrar el primer bloque de presentaciones, Ana Laguna, Data Scientist at BBVA Data & Analytics, contó cómo ha desarrollado una aplicación que descifra qué significa el llanto de un bebé. En la primera mesa redonda, moderada por Alberto Iglesias, redactor en Innovadores (La Razón), se debatió acerca de los retos para la gestión del talento y el mercado laboral en la nueva era digital. Teresa Martín-Retortillo, presidenta ejecutiva de IE Exponential Learning, destacó

que “el talento híbrido es el más sofisticado y protegido frente a la automatización ya que combina habilidades humanas y técnicas. Por eso, prevemos un crecimiento de estos puestos un 20% en la siguiente década”. La mesa también contó con la participación de


49

Eventos / Woman in Data Science

Las premiadas Alison Davey y Laura Rico Davey (dcha.) en el WiDS junto a Carme Artigas (izda.). Silvia Lázaro, Internal Comms, Engagement & Diversity Director de Ferrovial; Luisa García, Socia y Directora General Llorente & Cuenca España y Portugal; y María José Martín, Directora General de Right Management. Durante la

mesa, se ha hablado sobre la IA como creadora de empleo y nuevas oportunidades laborales, rompiendo los mitos de la destrucción de trabajos y destacando que los reconvierte, si bien existen retos como su escasez, cómo atraerlo y retenerlo y cómo actualizarlo. La segunda mesa, con un enfoque más empresarial, fue moderada por Jaime

García Cantero, Director de Contenidos de El País Retina y contó con la presencia de Endesa, BBVA y Altran. Alicia Mateo, Chapter Leader Advanced Analytics Market Iberia de Endesa, destacó que “estamos

inmersos en un proceso de profunda trasformación del sector energético que cambiará la forma de generar y consumir electricidad. La revolución digital, la inteligencia artificial y contar con talentos diversos, son palancas fundamentales que permitirán a Endesa liderar el cambio”. En la mesa también participaron Elena Alfaro, Head of Data & Open Innovation, Client Solutions en BBVA y Clarisa Martínez González, Solution Manager Data Analytics de Altran España, quienes

hicieron hincapié en que la transformación digital no es un destino sino un camino y que, de hecho, con la entrada de la Inteligencia Artificial plantea incógnitas todavía por despejar. La jornada, a la que han asistido más de 250 personas, finalizó con la entrega del premio entregado por IE Exponential Learning, local educational partner

Estos fueron todo los ponentes del WiDS.

de WiDS 2019, a ‘Full Fuego’, el equipo español que ha quedado segundo compitiendo contra los más de 200 que han participado en el Datathon WiDS en todo el mundo, un desafío analítico predictivo basado en el uso de datos reales que organiza Stanford. Alison Davey que junto a su hija Laura Rico Davey y María Dolores Jiménez Otero forman este equipo, ha querido destacar que “cualquiera puede aprender y disfrutar del análisis de datos gracias a las herramientas que todos tenemos a nuestra disposición online”. Esta británica de nacimiento lleva casi 20 años viviendo en Madrid, desde que se casó con un español y tuvieron a su hija Laura Rico Davey, estudiante de enfermería y otra de las integrantes del equipo. “Gracias a ella, que tiene una visión diferente – asegura Alison – hemos contado con un enfoque que nos ha aportado mucho valor”. Alison se dedicaba al análisis de datos geoespaciales en Reino Unido antes de venir a nuestro país, donde hace algo más de un año que ha retomado su afición al análisis de datos. Por eso, anima a cualquiera a profundizar en este campo de la ciencia. La tercera edición de WiDS Madrid supone la consolidación de la conferencia de Stanford en la capital española, un evento que según afirma Carme Artigas “aspira a convertirse en un referente mundial para empoderar a las mujeres interesadas en el Data Science y las disciplinas científicas y tecnológicas”.

.

BigDatamagazine | Junio 2019


50 Big Data Magazine / Ética en la Inteligencia Artificial

Más cerca que nunca del marco ético de la IA en Europa La inteligencia artificial no es una ficción, se ha metido ya en nuestras labores cotidianas. Robots abogados que resuelven casos, otros asistenciales para niños, ancianos o personas discapacitadas. Esta tecnología no solo se ha creado para facilitar nuestra vida cotidiana, sino que ya hoy se utiliza para el tratamiento de enfermedades crónicas, dar batalla al cambio climático o como arma de guerra. Europa no podía quedar atrás y se ha propuesto superar el desarrollo de la inteligencia artificial.

E

Texto: Angie

Parra

n la edición anterior, hacía una reflexión de la alarmante necesidad de adecuar un marco normativo en la Unión Europea bajo directrices éticas en el ámbito de la Robótica. Para quiénes nos preocupaba este vacío normativo, les tengo muy buenas noticias, el pasado mes de Abril de 2018, la Comisión publicó una serie de “medidas encaminadas a poner la inteligencia artificial (IA) al servicio de los ciudadanos europeos e impulsar la competitividad de Europa en este campo” en uno de sus capítulos se estipuló que con la llegada de esta ‘tercera revolución’ se pueden suscitar “nuevos problemas de carácter ético y jurídicos relativos a la responsabilidad o la toma de decisiones potencialmente sesgadas” por tanto, se hacía necesario garantizar un marco ético y jurídico adecuado. Así, el 18 de Diciembre de 2018, el grupo de expertos de alto nivel sobre inteligencia artificial (AI

HLEG siglas en inglés) creó el primer borrador de las Pautas de ética de la AI, este documento recoge las directrices éticas para que la inteligencia artificial se tornara confiable. Este escrito tiene como base la Carta de Derechos BigDatamagazine | Junio 2019

Fundamentales y principios éticos,

además que a diferencia de otros documentos deontológicos no sólo pretende proporcionar una lista de valores y principios fundamentales de la AI sino que además ofrece una orientación sobre la Implementación y aplicación efectiva de los mismos en sistemas de IA. Las Directrices se dividen en tres capítulos a resumir: • El primero, establece una guía clave para garantizar el propósito ético, adecuándose bajo los parámetros de los derechos fundamentales y sociales éticos, como los principios de beneficencia (do good), de no maleficiencia (do no harm) de autonomía de los seres humanos, justicia y el de explicabilidad (transparencia tecnológica). • En el segundo se recoge un listado de requisitos claves para que la AI sea confiable. Abarca dos fases principales, por una parte, incorpora los requisitos desde la primera fase de diseño, hasta enumerar el listado de métodos técnicos y no técnicos para asegurar la implementación de esos requisitos. Responsabilidad, diseño para todos, gobierno de la autonomía de la inteligencia artificial, no discriminación, respeto

a la autonomía privada, respeto a la privacidad, robustez, seguridad y transparencia son los requisitos que se estipulan para que la AI sea confiable. Por otro lado, se fijan auditorías de los sistemas de AI, trazabilidad, accesibilidad y la rendición de cuentas que asegurarían los métodos técnicos. • El último capítulo, desarrolla una guía clave para evaluar una AI confiable. Enumera una serie de ‘deberes’ que se deben cumplir para un correcto desarrollo, despliegue y uso de la AI, pues no se trata de marcar casillas, sino de un proceso continuo de identificación de requisitos, evaluación de soluciones y garantizar mejores resultados a lo largo de todo el ciclo de vida del sistema AI. Después de su presentación, se inició una etapa de consultas que finalizó el 1 de febrero de 2019 con más de 500 comentarios recibidos para la preparación de la última versión que se entregaría a principios de abril de 2019. Sin embargo, a la fecha no se ha publicado la versión final, seguiremos esperando un documento confiable, ético y completo que por fin ponga punto final a este desasosiego. 

.

Profile for Ecommerce News

BigData Magazine Nº1 (Junio 2019)  

¡Ya está online! Ya puedes consultar el Nº1 de BigData Magazine. En este número encontrarás entrevistas con especial atención a responsables...

BigData Magazine Nº1 (Junio 2019)  

¡Ya está online! Ya puedes consultar el Nº1 de BigData Magazine. En este número encontrarás entrevistas con especial atención a responsables...