11 minute read

IDENTIDAD Y RECONOCIMIENTO EN LA ERA DE LA POSVERDAD

IDENTIDAD Y RECONOCIMIENTO EN LA ERA DE LA POSVERDAD Del juego de la imitación al captcha

por: FRANCISCO GALLARDO NEGRETE

Advertisement

En 1955, John McCarthy, Marvin Lee Minsky, Nathaniel Rochester y Claude Elwood Shannon comenzaron los preparativos de la Conferencia de Dartmouth. Según sus planes, al año siguiente, durante el verano, diez especialistas provenientes de distintas latitudes convivirían estrechamente en la Universidad de Dartmouth e intercambiarían puntos de vista acerca de diversos temas relacionados con el funcionamiento o, mejor dicho, con el comportamiento de las máquinas.

La convocatoria, firmada al calce por los entusiastas organizadores, lucía prometedora: “Este estudio se centrará en la siguiente hipótesis: cada uno de los aspectos del aprendizaje y otras características de la inteligencia son susceptibles a ser descritos con exactitud y por eso una máquina puede simularlos.” Así pues, McCarthy y compañía pensaban en la inteligencia artificial, término que acuñaron en ese momento, como una gran simuladora, como una especie de maestra en el difícil arte del camuflaje, como la participante que lograría ganar de una buena vez y para siempre en el juego de la imitación que Alan Turing había replanteado justo un lustro antes.

En su artículo de 1950, Computing Machinery and Intelligence, el matemático londinense había introducido, en efecto, una variante crucial en el juego de la imitación, de tal suerte que lo había convertido en la prueba que hasta el día de hoy lleva su apellido, el test de Turing. Originalmente, el juego de la imitación contemplaba a tres participantes: A (un hombre), B (una mujer) y C (alguien con sexo indistinto). Puestos en habitaciones separadas, A y B en una y C en otra, C hacía las veces de interrogador y A y B de contestatarios. Sin ningún tipo de contacto visual y a través de mensajes tipográficos, escritos a máquina (para que ni siquiera la caligrafía fuera una pista delatora o un revelador indicio), A debía tratar de engañar a C, confundiéndose con la identidad de B, y B, por el contrario, tenía que tratar de ayudarlo, deslindándose de la identidad de A.

La modificación de Turing era, en realidad, muy sencilla: sustituir a A con una máquina o, más específicamente, con una computadora electrónica o con una computadora digital. Por lo demás, las reglas del juego de la imitación se mantenían inalterables. Si la computadora conseguía embaucar al interrogador, esto es, si lograba hacerse pasar por un ser humano, entonces “la pregunta rectora, ¿pueden pensar las máquinas?, con todo y su aparente sinsentido merecería ser, por lo menos, objeto de discusión y centro de debate”.

Su nombre no deja lugar a dudas: la inteligencia artificial pretende imitar, con la mayor fidelidad posible, a la inteligencia natural o humana. Los organizadores de la Conferencia de Dartmouth, guiados por el luminoso espíritu de Alan Turing — quien se había suicidado el 7 de junio de 1954—, creyeron que la clave de una inteligencia artificial eficiente era proveer a una computadora de un conocimiento universal y omnímodo ab initio. Equivocados todavía, ellos estaban a un paso de llegar al concepto de aprendizaje automático. Pero, para arribar ahí, había sido necesario que pasaran las décadas, los siglos y los milenios, y que algunas de las características de la inteligencia propiamente dicha cambiaran mientras otras, las estrictamente fundamentales, permanecían inmutables a través del tiempo.

INTELIGENCIA PARTICULAR E INTELIGENCIA GENERAL

Después de dos años de celebrada la Conferencia de Dartmouth, McCarthy y compañía se reunieron nuevamente con el objetivo de cristalizar algunas de sus ideas principales. En las instalaciones del mítico Instituto Tecnológico de Massachusetts, escribe McCarthy, “solicitamos una habitación,

un par de programadores extra, una secretaria y un equipo de cómputo”. En ese ambiente laboral, McCarthy y sus amigos trabajaron arduamente y crearon, a finales de la década de los cincuenta, uno de los primeros lenguajes de programación que buscaba optimizar el desarrollo de la inteligencia artificial: LISP (por su acrónimo en inglés, List Processor). Asimismo, idearon un mecanismo para que LISP y los lenguajes de programación posteriores fueran capaces de autorregular su memoria, al cual McCarthy bautizó con el nombre de “recolector de basura”.

Hasta ese momento, los avances de la inteligencia artificial mostraban un enfoque particularista. En otras palabras, las máquinas y las computadoras provistas de inteligencia artificial eran muy poco versátiles; podían desempeñar, en el mejor de los casos, una única función o cumplir una sola tarea y no más. Claude Elwood Shannon, verbigracia, había pensado en una cuya función exclusiva fuera jugar al ajedrez; en un artículo de 1949, Programming a Computer for Playing Chess, él había declarado que “quizá esta labor no tenga ninguna importancia práctica, pero a nivel teórico es de mucho interés [y, en este sentido, sería] motivo de satisfacción diseñar una máquina que realice buenos movimientos [en el tablero de ajedrez] aunque no siempre sean los mejores”.

Por su parte, McCarthy estaba plenamente convencido de que la inteligencia humana, si había de ser imitada, primero tenía que ser comprendida y valorada en su justa medida. Así llegó a la conclusión de que la inteligencia artificial no debía encargarse única y exclusivamente de una tarea singular, de que, más bien, tenía que estar capacitada para llevar a cabo diversas funciones. En su artículo de 1969, Some Philosophical Problems from the Standpoint of Artificial Intelligence, McCarthy y Patrick J. Hayes advirtieron que el ser humano no sólo es capaz “de jugar ajedrez o damas chinas, de formular teoremas matemáticos, de dar reglas por medio de expresiones simbólicas [o] de determinar componentes químicos”, sino de hacer eso y muchas otras cosas más. En opinión de McCarthy y de Hayes, sus predecesores habían incurrido en ese error de planteamiento; habían creído, por decirlo metafóricamente, “ver el bosque entero cuando de hecho nada más se habían quedado con los ojos fijos en un árbol”.

De ahí en adelante, en sus intentos por coadyuvar a la evolución y al perfeccionamiento de la inteligencia artificial, McCarthy y sus colaboradores trataron de emular a la inteligencia general. Su hipótesis era la siguiente: mientras más información insertara un programador en una máquina o en una computadora, ésta estaría más y mejor preparada para resolver todos y cada uno de los desafíos que se le presentaran en el porvenir. El resultado inmediato, sin embargo, fue contraproducente, y los investigadores Steve Hanks y Drew McDermott ilustrarían el meollo de este curioso problema de forma cruda pero también pedagógica más de tres lustros después.

EL PAVO Y LA PISTOLA, O DE POR QUÉ EL SENTIDO COMÚN ES EL MENOS COMÚN DE TODOS LOS SENTIDOS

Un ser humano se estima inteligente cuando, en posesión de determinada información, es capaz de manipularla a placer y a conveniencia. Si cuenta con una cantidad de información considerable, por regla general, le será más fácil dar con la solución de cualquier problema que se le plantee: lógico, matemáticoespacial, lingüístico, etcétera. La inteligencia artificial, sin embargo, procede de manera diferente, y con frecuencia el exceso de información afecta o por lo menos ralentiza sus operaciones, dificultando el hallazgo de las resoluciones que necesita.

Esta condición paradójica, que la inteligencia artificial experimenta como un verdadero inconveniente, ha sido llamada por los especialistas problema de marco. El problema de marco consiste, grosso modo, en una serie de dificultades que cualquier inteligencia artificial atraviesa a la hora de seleccionar la información más relevante de la que dispone y de descartar la que no lo es o, dicho de otra manera, en el momento preciso de quedarse con el grano y de desechar la paja.

En 1986, en el artículo Default Reasoning, Nonmonotonic Logics, and the Frame Problem, Steve Hanks y Drew McDermott, a la sazón profesores de la Universidad de Yale, imaginaron y expusieron un interesante escenario al respecto; en honor a su casa de estudios de adscripción, por cierto, tal escenario fue denominado el problema del disparo de Yale.

De acuerdo con ambos autores, es necesario tener en mente, por un lado, un individuo (que en artículos posteriores se convertiría en un pavo, de nombre Fred), y, por otro, una pistola; dos pares de condiciones posibles, estar vivo o muerto para el pavo o bien estar cargada o descargada para la pistola; tres acciones de flujo, capaces de modificar los valores de verdad o de falsedad de las condiciones, cargar, esperar, disparar; y cuatro situaciones distintas, indexadas en cero.

En la primera situación (S0), Fred, el pavo, está vivo, y la pistola, descargada. En la segunda situación (S1), la pistola está cargada y no se hace mención alguna a propósito de Fred. En la tercera situación (S2), la pistola sigue cargada y eventualmente produce una detonación. En la cuarta y última situación (S3), Fred reaparece muerto.

En un contexto semejante, en el que algunos datos cambian (los visibles) y otros permanecen (los no visibles), los seres humanos no experimentamos mayores dificultades. El razonamiento por defecto, que se entiende como la capacidad de sacar conclusiones tentativas con base en una información parcial, nos permite saber que Fred, el pavo, no puede estar muerto sino hasta que el ciclo de situaciones se haya cerrado. Una inteligencia artificial, por el contrario, aunque utilice una lógica no monotónica, aparentemente compatible con el razonamiento por defecto, no podrá determinar, considerando una información incompleta, la condición de Fred a lo largo de las situaciones y, más aún, será incapaz de predecir las condiciones de éste y de la pistola en una hipotética quinta situación (S4).

En un libro escrito y publicado ese mismo año, La sociedad de la mente. La inteligencia humana a la luz de la inteligencia artificial, Marvin Lee Minsky, uno más de los miembros que habían integrado el selecto grupo de McCarthy, realizó una aclaración importante: “Lo que la gente denomina vagamente sentido común es en realidad más intrincado que la mayor parte de la habilidad técnica que admiramos”. El problema de marco, curiosamente, aumenta conforme la información se diversifica y viene a más, cuando, por ejemplo, hay más agentes, más condiciones posibles, más acciones de flujo o más situaciones.

Por tal motivo, insertar desde el inicio una información extensa y sobreabundante en una máquina o en una computadora es un trabajo irrealizable y, en última instancia, bastante ineficiente e improductivo. A partir de las postrimerías de la década de los ochenta, las soluciones al problema del disparo de Yale se cuentan en grandes cantidades y la industria de la inteligencia artificial se ha inclinado, coherentemente, por el aprendizaje automático. El aprendizaje automático no pretende conceder de una sola vez todo el conocimiento a la inteligencia artificial correspondiente, sino más bien facultarla para que ella pueda adquirirlo paso a paso y por medio de la acumulación de sus experiencias. En resumen, el aprendizaje automático no está a favor del surgimiento abrupto e intempestivo de la inteligencia en las máquinas y en las computadoras; antes bien, lo que busca es su desarrollo gradual, paulatino y escalonado.

MENUDOS IMPOSTORES: LAS POLIFACÉTICAS MÁQUINAS UNIVERSALES Y LOS LATINOAMERICANOS QUE INVIRTIERON EL JUEGO DE LA IMITACIÓN

En su obra Yo soy un extraño bucle, Douglas R. Hofstadter observa que las máquinas universales nos han invadido, superpoblando nuestro mundo. Según Hofstadter, Turing había pensado en ellas catorce años antes de proponer su personal juego de la imitación, alrededor de 1936. Hoy día, las máquinas universales se caracterizan, en sentido amplio, porque llevan a cabo múltiples tareas, las cuales se han agregado de forma progresiva y con una decidida vocación de enjambre a su función inicial.

Las máquinas universales, desde este punto de vista, han desplazado a las máquinas particulares, condenándolas al averno del desuso y de la chatarra. Su éxito se debe, en buena medida, a que han adoptado el enfoque que McCarthy y Hayes propusieron en el remoto año de 1969, el de la inteligencia general, y a que lo han hecho, además, con un alto grado de eficacia.

Pero ¿qué sucedió con la versión del juego de la imitación que Alan Turing imaginó, en los cada vez más infrecuentes períodos de lucidez a los que intentaba asirse en medio del inhumano tratamiento experimental con hormonas que le había impuesto el gobierno de su país, en 1950? En 2003, dos latinoamericanos hicieron uso de la inteligencia artificial para invertirlo, para ponerlo, literalmente, de cabeza. En el artículo CAPTCHA: Using Hard AI Problems for Security, los latinoamericanos Luis von Ahn y Manuel Blum, en coautoría con Nicholas J. Hopper y John Langford, dieron a conocer CAPTCHA, “un programa que puede ser usado para distinguir entre los humanos y las computadoras”. CAPTCHA significa, si vertemos sus siglas al español, Test de Turing Completamente Automatizado y Público para Distinguir entre Computadoras y Humanos. Gracias a un sofisticado sistema de Reconocimiento Óptico de Caracteres (OCR, por sus siglas en inglés), los CAPTCHA presentan unas claves sui géneris, cuyas letras aparecen distorsionadas o bien difuminadas. Aunque parezca demasiado simple, este filtro es útil porque los seres humanos, a diferencia de un bot, sí somos capaces de identificar y de transcribir esas claves.

Con frecuencia, CAPTCHA, como los programas que le antecedieron y los que le han sucedido en la búsqueda de un objetivo similar, ha sido considerado una especie de test de Turing inverso. Al realizar una comparación con el juego de la imitación del matemático londinense, donde una persona era C (el interrogador) y una computadora era A (el contestatario que trataba de confundir su identidad con la de B, esto es, con la de un hombre de carne y hueso), podemos notar que los papeles se han invertido diametralmente en CAPTCHA: ya no es el ser humano quien debe determinar la identidad de su interlocutor; ahora es el programa computacional, más bien, el que tiene que comprobar cuál es la verdadera identidad del ser humano.