Facultad de ingeniería en sistemas CREATED Táchira
Inteligencia Artificial y Redes de Memoria:
Modelos, Aplicaciones y Avances en el
Aprendizaje No Supervisado
Autor: Antony Jesús Chacón Gelviz
C.I: 30569638
Redes neuronales
Tutor: YUSBELIS DEL CARMEN PEREZ SANCHEZ
16 de marzo de 2025
Explora el fascinante mundo de las redes de memoria asociativa y su impacto en la inteligencia artificial. Descubre cómo estos modelos revolucionan el almacenamiento y recuperación de información, optimizando desde el reconocimiento de patrones hasta la corrección de errores en telecomunicaciones. Adéntrate en los avances del aprendizaje no supervisado y su papel en la evolución de los sistemas inteligentes.
Derechos de autor 2024 equipo editorial del e-book
Editor en jefe:
Antony Jesús Chacón Gelviz
C.I: 30569638
Equipo editorial del e-book:
Editor en jefe
Antony Jesús Chacón Gelviz
Docente:
Yusbelis Del Carmen Perez Sanchez
Correo electrónico para información: Chaconantonyjesús@gmail.com
Carrera en curso:
Ingeniería de sistemas
Sección: T1
Fecha de publicación 16 de marzo de 2025
Introducción
En el campo de la inteligencia artificial y las redes neuronales, las redes de memoria proasociativa han emergido como un enfoque intermedio entre los modelos estrictamente supervisados y las arquitecturas completamente autoorganizadas, siendo estas redes destacadas por su capacidad para almacenar y recuperar información mediante la detección de correlaciones en los datos, sin necesidad de aplicar supervisión explícita. Su operación se fundamenta en la modificación progresiva de los pesos sinápticos, basándose en principios como la regla de Hebb, lo que las convierte en grandes identificadores de patrones y recuperación de información, incluso en condiciones de ruido o incompletitud.
Por esta razón, sus capacidades las posicionan como herramientas clave en diversos ámbitos, como el reconocimiento de patrones, la optimización de bases de datos y la corrección de errores en telecomunicaciones Por su lado, modelos como las redes retroasociativas y las redes de Hopfield amplían este paradigma, permitiendo la reconstrucción de información corrupta y el almacenamiento de patrones en sistemas completamente conectados. Del mismo modo, los mapas de Kohonen representan un modelo autoorganizado que facilita la clasificación y segmentación de datos, destacando en tareas de visualización y análisis de grandes volúmenes de información
El estudio de estas redes neuronales no supervisadas es crucial para el desarrollo de sistemas de inteligencia artificial más eficientes y adaptativos. A medida que las tecnologías evolucionan, la aplicación de estos modelos en neurociencia computacional, procesamiento de imágenes y optimización de sistemas continúa expandiéndose, consolidándose como pilares casi imprescindibles para la investigación y aplicación de la IA moderna
Desarrollo
Redes de Memoria Proasociativa
Son aquellas que permiten representar una aproximación al almacenamiento y recuperación de información, la cual se encuentra basada en la capacidad de las redes neuronales artificiales y sus métodos de asignación en los patrones de entrada y salida La principal característica que diferencia este tipo de redes a las tradicionales, es su independencia a la supervisión explicita, ya que estas van aprendiendo mediante la detección de correlaciones en los datos, sin las intervenciones humanas.
De acuerdo a esta definición, se toma a este tipo de redes como una solución intermedia a los modelos estrictamente supervisados y las arquitecturas completamente auto organizadas; donde su principal fortaleza se observa al momento de completar o corregir información en entradas parciales o ruidosas, siendo muy útiles en entornos donde la información es incierta o incompleta. Más sin embargo, estas presentan ciertas limitaciones en términos de escalabilidad y flexibilidad, ya que su misma capacidad de almacenar y recuperar puede ser afectada por la superposición excesiva de patrones y el ruido de los datos.
Las principales características que pueden resaltarse son:
Asociación de patrones: Es la parte que permite establecer las relaciones entre los conjuntos de datos, sin tener que contar con una salida predefinida.
Tolerancia al ruido: Son capaces de recuperar información, aun cuando la entrada sea incompleta o distorsionada
Capacidad de generalización: Pueden inferir asociaciones basadas en experiencias previas, sin la necesidad de un etiquetado explicito.
Plasticidad limitada: Su eficiencia se encuentra definida por la cantidad de patrones almacenados y la capacidad de diferenciar con posibles patrones similares.
Funcionamiento: Este tipo de redes neuronales operan por medio de la modiuficación progresiva de los pesos sinápticos en función de la activación simultaneas de las neuronas. Además, el tipo de aprendizaje que implementan es el de Hebb, en el cual se postula la fuerza de conexión entre dos neuronas este se incrementara si ambas se activan de manera conjunta de forma repetitiva De esta manera, los patrones que se encuentren almacenados en la red podrán ser recuperados aun si la entrada es parcial o a sido alterada.
De acuerdo a esto último, se puede analizar que su comportamiento es muy similar al proceso biológico de memorización y recuperación de información, lo que convierte a estas redes en un modelo sencillo pero muy útil para las investigaciones en neurociencia computacional, y la aplicación práticas de IA
Aplicaciones.
Reconocimiento de patrones: Por medio del análisis de imágenes y texto, se utiliza como una base para la recuperación de datos o la detección de anomalías
Optimización de base de datos: Se aplican en sistemas de búsqueda y recuperación enlazados a una base de datos, lo que permite encontrar con mayor eficacia registros que puedan estar incompletos.
Corrección de errores en telecomunicaciones: Se implementan en sistemas de transmisión de datos para recuperar información corrupta o distorsionada durante el traspaso del emisor al receptor.
Neurociencia Computacional: Se emplea en la modelización de procesos cognitivos relacionados a la memoria y aprendizaje
Redes de Memoria Retroasociativa
Este es un tipo de red para el diseño y reconstrucción de patrones de entrada que tengan un estado incompleto o corrupto, donde se usa una memoria de almacenamiento previamente instalada; donde se utiliza el método de retroalimentación para que los nuevos datos obtenidos sean comparados con los ya almacenados, y finalmente sean ajustados iterativamente para obtener el patrón deseado.
A diferencia de las redes proasociativas que se encargan de asociar los patrones de entrada con una salida especifica, las retroasociativas son las encargas de corregir, recuperar e implementar la nueva información a los datos que correspondan, mientras se eliminan las distorsiones, siendo esta misma la característica en una herramienta fundamental para optimizar y solucionar problemas en sistemas de reconocimiento de patrones y procesamiento de información con ruido.
Funcionamiento: Principalmente trabajan reglas básicas como
Almacenamiento de patrones: La red se encarga de memorizar y almacenar un conjunto de patrones y sus características principales para una mejor identificación.
Entrada de datos corruptos o parciales: Se le proporciona una versión alterada a la red del patrón original.
Corrección iterativa: La red toma la entrada obtenida y la compara con la previamente almacenada, para posteriormente ajustar los valores necesarios y recuperar la versión más cercana al patrón original.
Salida óptima: Al finalizar todos los procesos anteriores, la red envía la versión reconstruida del patrón, eliminando el ruido.
Aplicaciones principales.
Reconocimiento de patrones: Son implementados en sistemas de reconocimiento de voz y caracteres, ya que en estos se pueden reconstruir datos dañados o incompletos.
Corrección de errores en las telecomunicaciones: Permiten restaurar señales con ruido, lo que permite una mejor garantía y confiabilidad en las señales y su continuidad
Optimización de base de datos: Permiten la recuperación de información almacenada aun cuando los registros originales hayan sido modificados.
Procesamiento de imagen y visión artificial: Se puede restaurar o mejorar la calidad de imagen deterioradas o incompletas.
Neurociencia computacional: Son implementados en modelos de estudio de cerebro humano, donde se coloca a prueba las capacidades de almacenamiento y recuperación.
De acuerdo a todo lo observado y estudiado, las redes retroasocitivas representan un modelo fundamental para el aprendizaje no supervisado y el desarrollo de IA; aunque esta presenta ciertas limitaciones en términos de escalabilidad y precisión, lo que contrasta con su capacidad de reconstruir datos dañados que actua como una herramienta al momento de trabajar en múltiples aplicaciones tecnológicas. A pesar de todo esto, en la actualidad sigue siendo una teoría y práctica importante para el desarrollo y estudio en la optimización y recuperación de información en los sistemas inteligentes.
Modelos de Hopfield
Son definidas como otro tipo de red neuronal recurrente que se utiliza en las memorias asociativas y la optimización de soluciones, las cuales fueron introducidas en 1982 por Jhon Hopfield, la cual funciona de acuerdo a la teoría de la actualización iterativa de las neuronas que les permite alcanzar un estado estable o mínimo de energía Principalmente se implementa para almacenar patrones de información y del mismo modo recuperarlos, incluso cuando estos están incompletos o con ruido.
Desde un punto de vista crítico, estos modelos de redes son una aproximación temprana a las redes neuronales autoasociativas, en las cuales se aplica corrección de errores y la optimización combinatoria Sin embargo, estas llegan a presentar limitaciones en su capacidad de almacenamiento y convergencia, lo que conlleva a evolucionar a redes más avanzadas para el correcto de desarrollo de las IA modernas.
Características:
Memoria asociativa: Como se planteo anteriormente, permite el almacenamiento y recuperación de patrones, utilizando la convergencia a estados estables
Red completamente conectada: Cada una de las neuronas esta conectada a todas las demás, pero estas no están conectadas así mismas.
Pasos simétricos: La matriz de pesos sinápticos es simétrica, lo que garantiza la estabilidad del sistema
Funcionamiento asincrónico y sincrónico: Las neuronas pueden ir actualizándose de manera secuencial o simultánea.
Optimización basada en energía: Por medio de una función de energía, se minimizan las diferencias entre el patrón deseado y la entrada
La estructura que maneja las redes de Hopfield se componen por: N neurona binarias: Cada una de estas neuronas se encuentra en un estado activo (+1) o desactivado (-1).
Matriz de pesos Y0: Es la parte que caracteriza las relaciones entre las neuronas, el cual es calculado de acuerdo a los patrones de memoria almacenados
Función de activación: Para actualizar cada una de las neuronas, están deben tomar en cuenta la sumatoria ponderada de las entradas, la cual se calcula con la formula:
Donde Si da el estado de la neurona, y Y0y0 es el peso sináptico entre las neuronas Si y y0.
Ejemplo:
Para comprender de manera práctica el como funcionan los modelos de Hopfield, se construirá una de estas redes para almacenar y recuperar patrones de memoria, dicha red contara con 4 neuronas y se utilizaran 3 patrones binarios como memoria.
1. Definición de los patrones de memoria: Los patrones binarios que se utilizaran para este ejercicio serán los siguientes:
Cada uno de estos patrones es la representación de la configuración de activación de las 4 neuronas en la red
2. Construcción de la matriz de pesos: La matriz de pesos W se calcula utilizando la regla de Hebb:
Donde:
METRO=3 (El número de patrones de memorias).
PAG y0 a= Es la transposición del patrón PAGa.
PAG y0a PAGa es el producto externo de cada patrón consigo mismo.
Entonces la matriz de pesos de definiría de la siguiente forma:
De acuerdo a esta formula la matriz de peso final sería:
Ahora se agrega un patrón corrupto (entrada de la red)
Se puede observar que es un patrón similar a PAG1, pero teniendo un error en la tercera neurona
4. Actualización de neuronas: Cada una de las neuronas debe ser actualizada con la regla de activación de Hopfield:
Si aplicamos esta regla en cada uno de los patrones, obtendríamos el siguiente resultado: notamos que el patrón PAG1 es el original.
Mapas de kohonen
También conocidos como mapas auto organizados, son un modelo de aprendizaje no supervisado implementado en redes neuronales artificiales, el cual permite desarrollar una organización y representación de los datos en alta dimensión en una estructura de baja dimensión (generalmente un espacio bidimensional); siendo este modelo propuesto por Teuvo Kohonen en 1980, el cual cuenta con la capacidad de ser utilizado en tareas de clasificación, segmentación y reducción de dimensionalidad.
Este tipo de redes neuronales van aprendiendo por medio de datos, sin la necesidad de contar con etiquetas o supervisión, además de permitir agrupar datos similares y preservar la topología de los datos creando una estructura interpretable, característica que los modelos Clustering jerárquico y K-means no pueden hacer. En otras palabras, se puede tomar este modelo como un mapa de características, donde cada neurona de la red representa un “prototipo” de una categoría de datos. Entre más la red va aprendiendo, las neuronas vecinas van presentando resultados similares, lo que da como resultado una estructura ordenada y comprensible
Funcionamiento: El proceso para desarrollar un mapa de Kohonen debe pasar por ciertas etapas
Inicialización de la red: La red SOM consiste en una malla de neuronas organizadas en una cuadrícula (por ejemplo, 10x10), donde cada neurona tiene un vector de pesos que representa una referencia en el espacio de entrada.
Entrada de datos y calculo del Neurón ganador: Cuando se presenta un dato de entrada xxx, se calcula cuál neurona tiene el vector de pesos más cercano a dicho dato Esta neurona se denomina Best Matching Unit (BMU) y se encuentra usando la distancia euclidiana:
Ajustes de peso de la BMU y vecindad: La neurona ganadora y sus vecinas ajustan sus pesos para parecerse más al dato de entrada Este ajuste sigue la regla de actualización:
Donde n es la taza de aprendizaje que va disminuyendo con el tiempo, y h(i,BMU,t) es la función de vecindad que decrece a medida que la distancia del BMU aumenta
Convergencia y formación del mapa: Después de muchas iteraciones, la red SOM se organiza en un mapa de características, donde las neuronas representan distintos grupos de datos y sus relaciones.
Ejemplo:
Se debe crear un Mapa de Kohonen para clasificar datos simples en dos categorías utilizando una red 2x2 (4 neuronas).
1. Definir el conjunto de datos: Tomemos 4 muestras en un espacio bidimensional:
2. Inicializar la red neuronal: Podemos notar que la red tiene 4 neuronas en una cuadricula 2x2, por lo que cada neurona debe tener pesos inicializados aleatoriamente en el espacio bidimensional:
3. Hallar la neurona ganadora (BMU): Por cada entrada Xi, calculamos la distancia euclidiana entre Xi y Wj usando la siguiente formula. Tomando como ejemplo la entrada X1 = (0,1, 08)
Del mismo modo se debe calcular d(W2), d(W3) y d(W4) para seleccionar la neurona con menor distancia
4. Actualización de pesos: Los pesos de la BMU y sus vecinas se actualizan con la ecuación:
donde:
η Es la tasa de aprendizaje h(j,BMU) es la función de vecindad
Si la BMU es W1 y η= 0.5, entonces:
Se repite para las neuronas vecinas con un menor ajuste
5. Iteraciones y convergencia: Se repiten los pasos para todas las muestras y la red se auto organiza en grupos similares. Al final Las neuronas cercanas representan grupos de datos similares, formando un mapa auto organizado donde cada neurona corresponde a un grupo.
Reglas de Aprendizaje
Importancia del ajuste de pesos en el aprendizaje no supervisado: El ajuste de los pesos en el aprendizaje no supervisado es un proceso clave que permite a una red neuronal organizar y reconocer patrones en los datos sin necesidad de etiquetas; que a diferencia del aprendizaje supervisado, donde los pesos se ajustan minimizando el error con respecto a un conjunto de respuestas conocidas, en el aprendizaje no supervisado el sistema se adapta de manera autónoma para encontrar estructuras, similitudes y agrupaciones dentro de los datos.
Descubrimiento de patrones en datos sin etiquetas: Ajustar los pesos permite que la red aprenda representaciones útiles de los datos, encontrando similitudes y diferencias automáticamente.
Adaptación a la variabilidad de datos: Si los pesos no se ajustaran, la red no podría adaptarse a nuevas entradas o variaciones en los datos.
Optimización en la representación de los datos: Ajustar los pesos permite reducir la dimensionalidad de los datos manteniendo sus relaciones más importantes
Creación de memorias asociativas: En redes como la de Hopfield, ajustar los pesos permite almacenar y recuperar patrones incluso si están incompletos o con ruido.
Regla de Hebb: La Regla de Hebb establece que si dos neuronas se activan simultáneamente de manera repetida, la conexión entre ellas se fortalece. Es un principio inspirado en la neurociencia que explica cómo el cerebro aprende a partir de asociaciones.
Regla del aprendizaje competitivo: En este esquema, las neuronas compiten entre sí para representar un dato de entrada. Solo la neurona más activada (ganadora) ajusta sus pesos, reforzando su especialización en ciertos patrones
Regla de aprendizaje de Kohonen: Es una extensión de la regla competitiva, pero en lugar de que solo la neurona ganadora aprenda, también lo hacen sus neuronas vecinas, aunque con menor intensidad Esto permite que el aprendizaje sea suave y organizado, formando estructuras topológicas en la red.
Conclusión
Tomando en cuenta la información recopilada, teorías y ejemplos presentados, las redes de memoria proasociativa y sus variantes han demostrado ser una solución valiosa en el aprendizaje no supervisado, permitiendo la recuperación y corrección de datos en entornos donde la información es incierta o incompleta, siendo así una herramienta fundamental para el desarrollo de IA. A través de la detección de patrones y la tolerancia al ruido, estas redes reflejan un comportamiento similar al proceso biológico de memorización, lo que las convierte en modelos esenciales para la investigación en neurociencia computacional y aplicaciones prácticas en inteligencia artificial Sin embargo, su capacidad de almacenamiento y diferenciación de patrones similares presenta desafíos en términos de escalabilidad y flexibilidad.
Por su parte, las redes retroasociativas y las redes de Hopfield amplían el campo de aplicación de estos modelos, ofreciendo mecanismos eficientes para la corrección iterativa de datos y la optimización de bases de datos; mientras, los mapas de Kohonen proporcionan una estructura autoorganizada que facilita la interpretación de grandes volúmenes de información, destacándose en la clasificación y segmentación de datos sin supervisión. Estas tecnologías continúan evolucionando y adaptándose a nuevos desafíos en inteligencia artificial y distintos tipos de redes neuronales menos complejas, demostrando su potencial en el análisis de datos complejos y en la optimización de procesos cognitivos artificiales
En conclusión, el estudio y desarrollo de estas redes representan un avance significativo en la comprensión de los mecanismos de aprendizaje no supervisado y en la aplicación de sistemas de inteligencia artificial adaptativos, donde a pesar de sus limitaciones, su implementación en diversos sectores sigue expandiéndose, consolidándose como una herramienta indispensable para la investigación y el desarrollo de tecnologías cognitivas más eficientes y precisas.
Bibliografía
Case Guard (2024). Redes neuronales recurrentes, nuevo desarrollo de la IA. Disponible en: https://caseguard.com/es/articles/redes-neuronalesrecurrentes-nuevo-desarrollo-de-la-ia/ Consultado el 14 de marzo de 2025
ESCOM (2009). Redes Neuronales Como Memorias Asociativas
Difusas. Disponible en: https://es.slideshare.net/slideshow/redesneuronales-como-memorias-asociativas-difusas/2037011. Consultado el 14 de marzo de 2025.
Monografias (s f) Redes Neuronales Disponible en: https://www.monografias.com/trabajos38/redes-neuronales/redesneuronales2. Consultado el 14 de marzo de 2025.
P. Goméz (s.f). Las redes de Hopfield. Disponible en: chromeextension://efaidnbmnnnibpcajpcglclefindmkaj/https://ccc.inaoep.mx/~pgome z/cursos/redes%20neuronales%20artificiales/presentaciones/hopfield pdf Consultado el 14 de marzo de 2025
Swaroop Siddhant (2023). Mapas autoorganizados de Kohonen. Disponible en: https://medium.com/subex-ai-labs/kohonen-self-organizing-maps5e790fe65934. Consultado el 14 de marzo de 2025.
Wikipedia (2024) Hopfield (RNA) Disponible en: https://es wikipedia org/wiki/Hopfield %28RNA%29?utm source=chatgpt com Consultado el 15 de marzo de 2025.