
2 minute read
¿Cómo las Inteligencias Artificiales saben cosas que nadie les ha dicho?
Los investigadores todavía están luchando para entender cómo los modelos entrenados para repetir como loros el texto de internet pueden realizar tareas tales como: ejecutar un código, jugar juegos y tratar de romper un matrimonio.

Advertisement
Nadie sabe todavía como chat GPT y sus primos de inteligencia artificial van a transformar el mundo y una razón es que nadie sabe realmente lo que pasa dentro de ellos. Algunas de estas habilidades de estos sistemas van más allá de lo que fueron entrenados para hacer que incluso sus inventores están desconcertados en cuanto al porqué.
Un número creciente de pruebas sugieren que estos sistemas de IA desarrollan modelos internos del mundo real, al igual que nuestro propio cerebro, a pesar de que la técnica de las máquinas es diferente. “Todo lo que queremos hacer con ellos para hacerlos mejores o más seguros o cualquier cosa por el estilo me parece ridículo si no entendemos como funcionan” dice Ellie Pavlick de la Universidad de Brown, una de las investigadoras que trabajan para llenar este vacío explicativo.
¿Cómo las Inteligencias Artificiales saben cosas que nadie les ha dicho? Crédito: https://www.freepik.es
Podría interesarte
A cierto nivel, ella y sus colegas entienden GPT (siglas de transformador preentrenado generativo en inglés) y otros grandes modelos de lenguaje o LLMs perfectamente bien. Los modelos se basan en un sistema de aprendizaje automático llamado red neural, tales redes tienen una estructura modelada aproximadamente a partir de las neuronas conectadas del cerebro humano.
9
Aunque un LLM se ejecuta en una computadora, no es una computadora en sí mismo, pues carece de elementos computacionales esenciales. En un reconocimiento tácito de que GPT por sí solo no debería ser capaz de ejecutar código, su inventor, la empresa de tecnología OpenAI, desde entonces ha introducido una herramienta especializada que ChatGPT puede utilizar cuando responde una pregunta y que le permite hacerlo.
Esta habilidad de improviso demuestra que los LLMs desarrollan una complejidad interna que va mucho más allá de un análisis estadístico superficial. Los investigadores están encontrando que estos sistemas parecen lograr una comprensión genuina de lo que han aprendido.
El código para estos programas es relativamente simple y llena solo unas pocas pantallas. Establece un algoritmo de corrección, que elige la palabra más probable para completar un pasaje basado en un laborioso análisis estadístico de cientos de gigabytes de texto de internet, en este todo lo que hace es regurgitar lo que aprendió. Es por eso que poco esperaban que un algoritmo de autocorrección bastante sencillo fuese capaz de adquirir habilidades tan amplias.
Por otro lado, el filósofo Raphaël Millière de la Universidad de Columbia plantea la hipótesis de que la máquina improvisó una memoria mediante el aprovechamiento de sus mecanismos para interpretar las palabras de acuerdo con su contexto, una situación similar a como la naturaleza reutiliza las capacidades existentes para nuevas funciones.
Crédito: https://www.freepik.es
Bard: la herramienta gratuita de inteligencia artificial que Google habilita en 180 países (los idiomas disponibles, las novedades y su alcance)










