El aprendizaje de las máquinas

Page 1

B@LEÓPOLIS EL MUNDO NÚMERO 346 / MARTES 24 DE MAYO DE 2016

www.elmundo.es/baleares

EL SUPLEMENTO DE LA INNOVACIÓN EN LAS ISLAS >Oceanografía/ Divulgación

El buque SOCIB abre sus puertas a la divulgación científica PÁGINA 3

El investigador Raúl Vicente Zafra, director del grupo de Computational Neuroscience de la Universidad de Tartu, Estonia. ELENA SOTO

>ENTREVISTA

El aprendizaje de las máquinas > Raúl Vicente Zafra es director del grupo de Neurociencia Computacional en la Universidad de Tartu, Estonia y autor de más de 40 publicaciones en revistas internacionales sobre inteligencia artificial. Elena Soto Doctor en Física por la UIB, en 2007, la European Physical Society premió su tesis doctoral como una de las mejores de Europa en su campo, actualmente es profesor en la Facultad de Matemáticas y Ciencia de la Computación de la Universidad de Tartu, Estonia; en la que dirige un grupo de investigación dedicado a la neurociencia computacional. En la novena edición del ciclo de conferencias Explorando las fronteras entre saberes, organizado por el Instituto de Física Interdisciplinar y Sistemas Complejos (IFISC, UIB-CSIC) en colaboración con La Caixa, Raúl Vicente habló sobre el Aprendizaje Profundo o “Deep Learning”, la última gran revolución en el campo de la Inteligencia Artificial y de

los temores que ésta ciencia despierta en parte de la sociedad. Pregunta.– Brevemente ¿cómo definiría inteligencia artificial? Respuesta.– Básicamente consiste en dotar a las máquinas de inteligencia. En pocas palabras, es diseñar un sistema que sea capaz de captar información del entorno y dar una respuesta para maximizar sus objetivos. Es una especie de enlace flexible entre sensores y decisiones o resultados y para que se pueda llamar inteligencia tiene que tener ciertas características, como ser flexible, adaptativo y capaz de funcionar en situaciones novedosas. P.– En 1996 Deep Blue venció a Gary Kasparov al ajedrez, en 2016 el programa de inteligencia artifi-

cial de Google, AlphaGo, ha ganado al campeón mundial de ‘Go’ ¿Qué ha cambiado en este tiempo? R.– En principio, el juego del Go es extraordinariamente complejo, bastante más que el ajedrez. Pero la diferencia esencial es que el sistema que ganó a Kasparov estaba diseñado con unas reglas para que jugara bien al ajedrez, mientras que en el caso de AlphaGo el método seguido ha sido el aprendizaje de la máquina. Fundamentalmente, lo que ha cambiado es que en lugar de diseñar máquinas para que jueguen de la manera que nosotros les decimos, se les enseña a que aprendan por ellas mismas. Además de otros factores extra como son, el disponer de muchos más datos, mejorar los algoritmos

o el incremento considerable de la velocidad de cálculo, que permite probar sistemas y saber cómo funcionan en poco tiempo. P.– ¿Cómo se consigue que una máquina sea cada vez más inteligente? R.– En la actualidad, la manera de conseguirlo es dándole muchos ejemplos y dejando que la máquina decida qué características son las que prefiere utilizar para resolver un problema. Eso es el ‘deep learning’ o ‘aprendizaje profundo’, dejar a la máquina representar los datos de manera que le sea más fácil resolver un problema. P.– Chatbots o coches inteligentes ¿está la inteligencia artificial detrás del éxito de empresas como Google, Facebook o Microsoft?

R.– No sé si el éxito, eso ya no lo puedo asegurar, pero la realidad es que todas las grandes empresas tecnológicas han abierto laboratorios de inteligencia artificial en los últimos cuatro años y su apuesta es indicativa de hacia dónde va el futuro. Por ejemplo, entre los proyectos prioritarios de Google, el mayor número son de ‘deep learning’. Quizás el más visible y el que más impacto inmediato puede tener es el del coche sin conductor y, si finalmente sale al mercado, podría ser una aplicación con inserción en la sociedad. Pero no solo Google, prácticamente todas las empresas automovilísticas están investigando y realizando grandes inversiones en este tipo de vehículos autónomos. SIGUE EN PÁGINA 2


EL MUNDO / AÑO XXII / MARTES 24 DE MAYO DE 2016

-VIENE DE PORTADA Otro grupo de proyectos está relacionado con el reconocimiento de voz y la traducción y, también, con el reconocimiento de imágenes; hay aplicaciones que traducen a palabras la escena que está viendo la cámara y que ayudan a las personas con discapacidad visual a reconocer su entorno. En definitiva, se está apostando fuerte en este campo. P.– Su conferencia se titula Inteligencia artificial y deep learning ¿Liberando al Kraken? ¿Hasta qué punto los temores son justificados? ¿Cuál es su opinión? R.– Es famosa la frase de Stephen Hawking «si logramos desarrollar una superinteligencia artificial no sabemos si es lo mejor o lo peor que nos pueda pasar». Mi visión personal es que todavía estamos muy lejos de llegar a crear máquinas que piensen o que puedan entender la complejidad del mundo como nosotros; de hecho muchos de los visionarios que han

B@LEÓPOLIS ?

EL SANTO GRIAL, LA INTELIGENCIA ARTIFICIAL GENERAL

con sistemas o agentes inteligentes que interactúan en tareas que requieren que se comuniquen entre ellos. Los agentes tienen que diseñar un lenguaje e ir aprendiendo del entorno y de las necesidades que vayan surgiendo y nosotros observamos qué estrategias emplean y qué tipo de comunicación y lenguajes acaban generando. Aunque nuestra investigación es sobre todo básica, con la incorporación de la inteligencia artificial se está a un paso de conectar con tecnología que la gente puede usar en su día a día y es un factor extra de motivación. P.– ¿Cuál sería el Santo Grial de la inteligencia artificial? R.– Lo que se busca es la inteligencia artificial general, este podría ser el mayor salto posible, porque una vez desarrollada, ella se encargaría de resolver otros problemas por sí misma. Pero conseguirlo es muy difícil, se necesitaría que las máquinas aprendieran a partir de pocos ejemplos, sobre tareas total-

Raúl Vicente, investigador en neurociencia computacional e inteligencia artificial.

«Todas las grandes empresas han abierto laboratorios de inteligencia artificial en los últimos años» manifestado estos temores como Hawking o Bill Gates no trabajan directamente en inteligencia artificial y, probablemente, se muestran preocupados porque miran más allá, pero a día de hoy estamos muy lejos de desarrollar algo que pueda representar una amenaza, quedan todavía grandes retos por resolver. Entre los que trabajan en este campo hay opiniones para todos los gustos, Demis Hassabis, fundador de Google DeepMind, dice que es como plantearse el problema de la superpoblación en Marte, algo que puede que en futuro lo sea, pero no en la actualidad. Otros, como Peter Norvig, experto en inteligencia artificial, comparan la situación con saber que en el fu-

turo un meteorito podría colisionar con la Tierra y que no empezáramos ya a trabajar en el tema para evitarlo. Mi visión es que, potencialmente, dentro de mucho tiempo podría llegar a ser un problema, pero desde luego no en un futuro cercano. Ahora bien, si llegamos a desarrollar máquinas de este tipo sería un tema de vital importancia saber cómo controlar una inteligencia que puede desarrollarse por sí misma y que podría rivalizar con la nuestra. De hecho, ya hay algún centro que estudia este tema. Tú a una máquina le puedes marcar un objetivo, pero si le quieres dar flexibilidad para que desarrolle sus propias estrategias y que lo consiga, la idea es cómo la limitas para que no realice algunas que van más allá de lo éticamente razonable. P.– ¿Qué tiene de especial el cerebro humano? R.– A las máquinas se les puede enseñar a reconocer patrones en datos, en imágenes, pero los humanos hacemos algo extra y es utilizar

los patrones para generar modelos causales de cómo funciona el mundo y éstos nos permiten simular el futuro, es decir ver cómo sería el resultado en nuestro entorno si realizáramos una u otra acción. Si un avión escorado vuela peligrosamente cerca de un edificio, por ejemplo, un sistema de reconocimiento de imagen describiría la escena (avión volando sobre una casa) y, sin embargo, un humano vería inmediatamente lo que va a ocurrir. A la máquina le falta interpretar qué puede suceder en los siguientes segundos y es difícil tomar decisiones adecuadas sin ese concepto. Los humanos somos muy buenos distinguiendo qué información es relevante y simular un modelo solo con las variables importantes, descartando lo superfluo, pero implementarlo en una máquina supone crear algoritmos para que ella decida qué es o no relevante, y es muy difícil. En el caso del coche sin conductor, el vehículo sabe qué hacer porque tiene un conjunto de reglas pa-

ra cada momento, pero no tiene un sistema de valores que le permita simular el futuro y ver las consecuencias de cada acción. A pesar de que haya tareas en las que rivalice, a la inteligencia artificial todavía le falta mucho para llegar a la humana. P.– ¿Qué investigaciones realizan en su laboratorio? R.– Nos dedicamos a la neurociencia computacional y básicamente desarrollamos tres líneas; la primera es modelar y simular pequeñas zonas del cerebro para entender cómo funcionan; la segunda es tomar datos del cerebro y analizarlos con técnicas de deep learning, para encontrar patrones y la tercera es la investigación en inteligencia artificial empleando redes neuronales. Las tres van encaminadas a tratar de entender cómo funciona el cerebro y cómo resuelve problemas. El tema del lenguaje también es muy interesante y estamos iniciando otra línea de estudio relacionada

«A día de hoy estamos muy lejos de desarrollar algo que pueda representar una amenaza» mente novedosas o problemas que nunca se han encontrado y para lograrlo todavía hay que investigar mucho en el cerebro, porque somos el único ejemplo de inteligencia general. El humano aprende con pocos ejemplos, no con patrones ¿qué revolución habrá qué hacer? Hay que seguir investigando y fijarse en cómo lo hacen los niños para descubrir cuál es el secreto. Creo que la gente que estudia primates y niños pequeños ve in situ cómo aprenden conceptos nuevos y está muy bien posicionada para entender qué es la inteligencia humana y cómo podríamos aplicarla a las máquinas. El Santo Grial sería la inteligencia artificial general.

>PROYECTOS CON FUTURO

ESTALMAT, un programa para estímular el talento matemático Por E. S. El proyecto ESTALMAT, un programa coordinado a nivel nacional por la Real Academia de Ciencias Exactas, Físicas y Naturales, tiene como objetivo la detección y el estímulo del talento matemático en alumnos de 11 a 13 años. En Baleares esta iniciativa está organizada por la UIB y la Societat Balear de Matemàtiques (SBM-Xeix). El programa formativo ofrece 15

plazas para el próximo curso y periodo de inscripción está abierto hasta el próximo 29 de mayo. Quienes consigan superar las pruebas de selección, que tendrán lugar el 4 de junio, seguirán una metodología de aprendizaje activo y lúdico, durante dos años que les permitirá mejorar su capacidad de razonamiento y de resolución de problemas. El curso no sigue el currículum

académico de secundaria, sino que, a través de metodologías innovadoras, se centra a desarrollar aspectos y competencias que generalmente se dejan fuera de la programación de las asignaturas, a pesar de que se consideran una parte esencial de la actividad matemática más genuina. Las sesiones son dirigidas por el equipo docente de ESTALMAT, formado por una veintena de profesores de secundaria y de la Universidad, y cuentan con el apoyo psicopedagógico de profesionales La participación en ESTALMAT es gratuita, y habrá bolsa de transporte (sujeta a disponibilidad presupuestaria) para aquellas familias que lo necesiten.


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.