


Revista Bridge reloaded. Digital Número 2. Edición especial. 2025
Producción Integral Basanta Contenidos
Directora Editorial Karina Basanta
Director de Arte Nicolás Cuadros
Colaboran en este número Coly Escobar Pataro
Fotografía e ilustración
Freepik
Agradecimientos
Maite Carli Erik De Pablo
Staff/Sumario .......................
Editorial .................................
Columna - Fusión IACiberseguridad Industrial por Erik De Pablo ..................
Entrevista - Uno a uno por Karina Basanta ...............
basantacontenidos.com basanta@basantacontenidos.com @basantacontenidos +54 911 5014-4510 / 5260-8723
El contenido de los avisos publicitarios y de las notas no es responsabilidad del editor sino de las empresas y/o firmantes. La Editorial se reserva el derecho de publicación de las solicitudes de publicidad. La reproducción total o parcial de cualquiera de los artículos, secciones o material gráfico de esta revista no está permitida.
El deseo es el deseo del otro Jacques Lacan
Cuando la propia necesidad se pierde a favor del anhelo de alguien más, se convierte en el ansia del vínculo. Ya no es de uno o del otro, sino producto del enlace.
Proyectos distintos con un mismo fin hacen comunidad. Por eso el intercambio es fructífero: porque en la competencia algo y alguien pierde, mientras que en la colaboración ganan todos.
En esta edición, Bridge y el Centro de Ciberseguridad Industrial se hacen uno para abordar un tema de alta relevancia en el entorno: la Inteligencia Artificial aplicada.
De la mano de la experiencia y visión de Erik De Pablo, Consultor en Ciberseguridad y Auditor de Sistemas Fusión IA y con el respaldo y la mentoría del CCI, te invitamos a ser parte de esta nueva era, donde el aporte nos construye, desarrolla y lleva siempre a niveles mayores.
¡Buena lectura!
Karina Basanta Directora Editorial
Erik De Pablo
Consultor en Ciberseguridad
Auditoría de Sistemas Fusión IACiberseguridad Industrial.
“
Dentro del dinámico mundo de las empresas dedicadas a la IA está surgiendo la aplicación de esta tecnología a la ciberseguridad, y en particular a la ciberseguridad industrial. Se trata de un nicho complejo y difícil, pero de gran importancia, con un alto impacto en la protección de los activos industriales en todo el mundo sobre el que, sin duda, veremos grandes desarrollos y aplicaciones en los próximos meses y años ”
La inteligencia artificial (IA) está cambiando rápidamente nuestro mundo. Presente en diversos sectores, está transformando la medicina, el transporte, las finanzas y la seguridad. En 2024 la adopción de IA avanzó a un ritmo vertiginoso; por otro lado, la tecnología se considera cada vez más una capacidad integrada y estratégica en las empresas.
En el segundo trimestre de 2024, la inversión en IA representó un impresionante 28% de las inversiones globales de capital-riesgo. Esta concentración es poco común y refleja un intenso entusiasmo del mercado por esta tecnología. Adicionalmente, el aumento ha llevado a muchos a preguntarse si la IA representa una burbuja tecnológica similar a la de las “puntocom” del año 2000. Goldman Sachs lo niega en un reciente informe de septiembre de 2024.
Ahora bien, esta ebullición de empresas de IA impide ver que el sector de la ciberseguridad en general, y el entorno de la ciberseguridad industrial en particular, están recibiendo poca atención por parte de los desarrolladores de aplicaciones. En este artículo Intentaremos descifrar esta aparente contradicción profundizando en la aplicación de la Inteligencia Artificial en el ambiente de la ciberseguridad industrial.
Para delimitar el grado de avance de los sistemas de IA utilizaremos el último informe de la Universidad de Stanford sobre este asunto, que llega a algunas conclusiones interesantes:
La IA vence a los humanos en algunas tareas, pero no en todas: Esta tecnología ha superado el desempeño humano en varios puntos de referencia, incluidos algunos relacionados con la clasificación de imágenes, razonamiento visual y
comprensión del lenguaje (inglés). Sin embargo, se queda atrás en tareas más complejas como las matemáticas de nivel competitivo, el razonamiento visual de sentido común y la planificación.
La industria informática sigue dominando la investigación de vanguardia en IA.
Los modelos más avanzados se vuelven mucho más costosos: Los costes de entrenamiento de los modelos de IA de última generación han alcanzado niveles sin precedentes. Por ejemplo, GPT- 4 de OpenAI utilizó un valor estimado de 73 millones de euros mientras que Gemini Ultra de Google invirtió 178 millones de euros en computación. Aún estamos a la espera del anunciado GPT-5 y otros desarrollos.
Estados Unidos supera a China, la UE y el Reino Unido como principal fuente de modelos de IA de primer nivel, sin embargo, hay que ver cómo prospera el desarrollo chino DeepSeek, que logró entrenar un modelo comparable con ChatGPT con solo 6 millones de dólares.
Faltan evaluaciones sólidas y estandarizadas para la responsabilidad de LLM (modelos grandes de lenguaje generativo).
La inversión en IA generativa se dispara: La financiación aumentó notablemente hasta alcanzar los 23.500 millones de euros.
La IA hace que los trabajadores sean más productivos y conduce a un trabajo de mayor calidad.
El progreso científico se acelera aún más gracias a la IA.
El número de regulaciones sobre IA en Estados Unidos y Europa aumenta considerablemente.
Las personas en todo el mundo son más conscientes del impacto potencial de la IA y están más preocupadas.
La Inteligencia Artificial está comenzando a dar sus frutos en el entorno al que particularmente nos referimos. Por ejemplo, recientemente la empresa de ciberseguridad GreyNoise Intelligence ha utilizado una herramienta impulsada por IA para detectar intentos de explotar vulnerabilidades críticas en dispositivos IoT industriales.
Un informe publicado por OpenAI el pasado mes de octubre de 2024 revela que esta empresa ha interrumpido más de 20 operaciones cibernéticas y de influencia encubierta desde principios de año, incluidas las actividades de piratas informáticos patrocinados por los estados iraní y chino.
El informe destaca las actividades de tres grupos de amenazas que han abusado de ChatGPT para realizar ciberataques en entornos industriales. Uno de ellos es CyberAv3ngers, un grupo vinculado al Cuerpo de la Guardia Revolucionaria Islámica de Irán (CGRI), que ha sido noticia este año por sus ataques al sector del agua. El grupo ha atacado los sistemas de control industrial (ICS) de una empresa de agua en Irlanda bloqueando el acceso a esta red durante varios días, una empresa de agua en Pensilvania y otras instalaciones del sector en Estados Unidos.
Estos ejemplos indican que la IA se utiliza tanto para detectar ataques como para crearlos, por lo que el escenario actual es muy volátil.
Una de las aplicaciones mas interesantes de la IA “defensiva” es su utilización en los Centros de Operaciones de Seguridad (SOC) dedicados a los sistemas industriales.
Veamos un resumen de desafíos y oportunidades de la IA en un SOC.
Los SOC son intensivos en mano de obra: Requieren personal 24/7 con capacitación para manejar incidentes de seguridad.
Presentan un fuerte desgaste del rendimiento humano: La alta presión y la carga de trabajo pueden afectar la eficacia del equipo.
Cuentan con gran variedad de datos: Los SOC procesan información de diversas fuentes, lo que dificulta su análisis.
Están afectados por el análisis manual: La falta de integración de datos obliga a los analistas a realizar tareas manuales y tediosas.
Les incide el factor tiempo: Investigar incidentes puede tomar mucho tiempo lo que es contraproducente ante la urgencia de los ataques.
IA: La inteligencia artificial tiene el potencial de revolucionar los SOC al automatizar tareas, analizar grandes volúmenes de datos y acelerar la respuesta a incidentes.
Para lograr esto, se necesita:
Consolidación de datos: Integrar la información de diferentes fuentes.
Privacidad: Proteger la información sensible.
Potencia de cálculo: Contar con la infraestructura adecuada para el análisis de datos.
En resumen: existe la oportunidad de potenciar significativamente los SOC mediante el uso de la IA para acelerar su automatización y mejorar la eficiencia, la rapidez y la profundidad de la respuesta a las amenazas de seguridad
Para profundizar en el tema, conversamos con Erik sobre diversos puntos cruciales del asunto que nos convoca. Te invitamos a ser parte de este intercambio.
¿Cuál es el rol actual de la inteligencia artificial en la ciberseguridad industrial?
La inteligencia artificial es una técnica importante y novedosa, que está bajo un intenso estudio con el fin de desplegar diversas aplicaciones y analizar su posible impacto.
Su rol aún se encuentra en desarrollo y no está totalmente consolidado, más bien forma parte de una etapa que puede considerarse preliminar, sin embargo su aplicación y sus beneficios son inminentes.
¿Qué ventajas ofrece esta tecnología frente a los métodos tradicionales de ciberseguridad en entornos industriales?
La principal ventaja de la IA se centra en el desarrollo de algoritmos que potencien la detección de amenazas, combinando datos de múltiples fuentes -la mayoría de ellos en tiempo real-, minimizando los falsos positivos y ofreciendo soluciones y tácticas específicas de mitigación de incidentes.
¿Cómo puede la IA ayudar a detectar amenazas en tiempo real en entornos industriales?
El análisis de tráfico en una red industrial es una tecnología que ya lleva un tiempo en uso, aunque sus resultados son poco convincentes debido al gran número de falsos positivos y a su alcance limitado, derivado de las complejas arquitecturas en capas de las redes modernas.
Ello ocasiona que estos análisis de base más clásica se vean muy dificultados precisamente por esta complejidad, siendo por contra una excelente oportunidad para que la potencia de la IA resuelva el problema.
¿Podrías darnos ejemplos específicos de cómo la IA puede
identificar amenazas que los sistemas convencionales no pueden detectar?
En primer lugar, la inteligencia artificial puede discriminar ataques cibernéticos de lo que tan solo han sido errores de instrumentación, muy comunes en la industria.
Por otra parte, puede bloquear tráfico potencialmente peligroso analizando simultáneamente el impacto que podría tener en el control del proceso y evitando así incidentes no deseados.
¿Se pueden prever ciberataques con IA? ¿Qué tan confiables son estas predicciones en un entorno industrial?
Para la prevención de ataques se suele utilizar una combinación de algoritmos de IA junto con información de fuentes de inteligencia que detectan actividad maliciosa en la red externa a la planta industrial.
Esta actividad permite que la alerta se focalice en la detección de patrones conocidos y publicados, de manera automática y con tiempos de reacción que superan las capacidades de un SOC tradicional.
Por otra parte, con el análisis de tendencias, un sistema de IA puede identificar patrones que conducirán a un próximo ataque, lo que permitiría bloquearlo con antelación.
¿Qué desafíos específicos plantea la implementación de soluciones de IA en la ciberseguridad industrial?
Uno de los desafíos consiste en conseguir que los algoritmos puedan ser suficientemente rápidos para ser compatibles con el tiempo de respuesta de una red industrial, es decir, que adquieran el carácter de tiempo real.
Por otra parte, su robustez debe estar suficientemente comprobada antes de que se proceda a implementar en esa red, impidiendo que la IA muestre “alucinaciones” y errores que son habituales en otros entornos y que tienen menos consecuencias que en el entorno OT.
¿Cómo pueden las empresas superar obstáculos como la integración con sistemas heredados o la falta de personal capacitado?
Los sistemas heredados representan un problema muy grave en el entorno OT, situación que incrementa extraordinariamente la vulnerabilidad toda vez que tales sistemas pueden estar fuera de mantenimiento y llevar un tiempo sin recibir actualizaciones y parches. Por ello los sistemas de protección basados en IA deberán entrenarse específicamente para ampliar el alcance y mitigar estos riesgos.
Amenazas de IA legal y regulatoria
Amenazas procedentes de modelos IA
Amenazas de origen legal o regulatorio.
La capacitación del personal debería ser neutra con estos sistemas porque no suelen precisar de grandes conocimientos para su uso y mantenimiento.
La industria está cada vez más conectada. ¿Cómo se puede asegurar que los sistemas de IA no se conviertan en un vector de ataque?
Efectivamente la IA puede ser un vector de ataque, tanto por la interceptación de la aplicación, la manipulación externa y corrupción de datos en su fase entrenamiento como, finalmente, por el propio uso de la IA por parte de los atacantes para diseñar nuevas amenazas.
Según la organización OWASP (dedicada a combatir los errores que provocan que un software no sea seguro) las amenazas de ciberseguridad en IA se pueden clasificar en cuatro categorías muy diferenciadas:
Amenazas usando modelos IA
IAAmenazas hacia los modelos IA
Amenazas procedentes de sistemas IA (donde los vectores de ataque están creados total o parcialmente con técnicas de IA).
Amenazas al usar o interceptar modelos de IA.
Amenazas contra los modelos de IA (en los que el sistema puede ser manipulado, contaminado o modificado sobre su objetivo inicial).
¿Qué medidas adicionales se deben tomar para evitar que los algoritmos de IA sean manipulados o comprometidos por atacantes?
Por todo lo mencionado, es preciso diseñar estrategias de protección específicas para estos escenarios. En particular, para los tres primeros hay que aplicar modelos de protección similares a los que se utilizan en el desarrollo clásico de software.
Sobre los apartados 2 y 3, en abril de este año la Agencia de Seguridad Nacional de EE.UU. (NSA) publicó una hoja de información sobre seguridad cibernética (CSI): “Implementación de sistemas de IA de forma segura: mejores prácticas para implementar sistemas de IA seguros y resistentes”.
Esta hoja fue elaborada conjuntamente con el nuevo Centro de Seguridad de Inteligencia Artificial (AISC) y el centro norteamericano NIST, adoptando la metodología de este último.
En cuanto al punto final, se trata de una amenaza similar de las que pretendemos detectar y bloquear, aunque quizás pueda llegar a ser más compleja y difícil de mitigar.
La IA aprende de los datos que analiza. ¿Cómo podemos garantizar que esos datos sean seguros y no contengan información maliciosa?
La mejor forma de garantizar el aprendizaje del algoritmo es protegiendo especialmente el entorno de entrenamiento, impidiendo el acceso libre a datos externos y con pruebas posteriores exhaustivas en un entorno también protegido.
¿Qué riesgos existen si los modelos de IA se alimentan con datos contaminados o comprometidos?
Es evidente que, si un algoritmo de IA se ha entrenado con datos dañados, se convierte inmediatamente en un malware del tipo “troyano” por parte del atacante, por lo que es crítico evitarlo siguiendo las recomendaciones ya mencionadas.
¿Qué riesgos existen si los modelos de IA se alimentan con datos contaminados o comprometidos?
Si un atacante ha conseguido introducir un software malicioso convencional en la red industrial, un sistema de IA puede detectar fácilmente aquel malware que siga un perfil conocido al alcance de un SOC estándar.
Diferente sería el caso en el que el malware se haya creado con IA, puesto que podría mostrar comportamientos mucho más difíciles de detectar, como por ejemplo movimientos laterales sofisticados.
¿Qué especificidades observas en la protección de infraestructuras críticas como plantas de energía o fábricas frente a ataques comunes?
El principal aspecto específico es que los efectos de un malware que consiga afectar un sistema industrial pueden trascender el mero lucro cesante y generar sin embargo un impacto en el medio ambiente, las personas y la disponibilidad de servicios esenciales o críticos. Por ejemplo con carencia de energía, de combustibles, contaminación o incluso explosiones e incendios, con grave afección para la población.
La ciberseguridad en la industria no se limita a proteger sistemas informáticos, sino que también abarca OT (tecnología operativa). ¿Cómo equilibra la IA esta dualidad entre IT y OT?
“ ”
Dos desafíos en la implementación de IA en sistemas industriales son: rapidez en los algoritmos para ser compatibles con el tiempo de respuesta y alcanzar robustez comprobada
La IA ofrece soluciones que pueden ser compatibles en parte con las redes IT y OT, facilitando la comprensión de incidentes complejos y ayudando así a los equipos de ambos sectores a conseguir una remediación eficaz.
¿Qué desafíos específicos presenta la ciberseguridad de OT y cómo puede la IA abordarlos de manera eficaz?
La ciberseguridad OT presenta desafíos muy específicos en las arquitecturas de planta. La convivencia de dispositivos industriales con los de tipo estándar y la circulación de protocolos industriales hacen que el problema sea generalmente más complejo de tratar.
Por otra parte, las alternativas de remediación están limitadas porque la parada del proceso no suele ser una opción y es habitual que además haya algunas carencias en los sistemas de continuidad de negocio (los conocidos como planes de recuperación ante desastres).
¿Qué buenas prácticas recomendarías para implementar soluciones de IA en ciberseguridad industrial sin comprometer la seguridad general del sistema?
Siguiendo las recomendaciones ya mencionadas de la Agencia de Seguridad Nacional de EE.UU. (NSA)-NIST, algunas medidas particularmente importantes son:
Realizar evaluaciones continuas de compromiso en todos los dispositivos donde se utiliza acceso privilegiado o se realizan servicios críticos.
Reforzar y actualizar el entorno de implementación de TI.
Revisar la fuente de los modelos de IA y la seguridad de la cadena de suministro.
Validar el sistema de IA antes de su implementación.
Aplicar controles de acceso estrictos y seguridad API para el sistema de IA, empleando los conceptos de privilegio mínimo y defensa en profundidad.
Utilizar registros, monitoreo y análisis de comportamiento de usuarios y entidades (UEBA) sólidos para identificar amenazas internas y otras actividades maliciosas.
Limitar y proteger el acceso a los pesos del modelo, ya que son la esencia del sistema de IA.
Mantener actualizado el conocimiento sobre las amenazas actuales y emergentes, especialmente en el campo de la IA, y garantizar que los sistemas de IA de la organización estén reforzados para evitar brechas y vulnerabilidades de seguridad.
Por su parte, la citada organización OWASP ha publicado su “LLM AI Security & Governance Checklist” que puede ser una excelente guía para completar la metodología NSA-NIST.
En resumen, los sistemas de IA son también sistemas de software y por lo tanto proteger un sistema de IA implica el conocido proceso continuo de identificación de riesgos, implementación de mitigaciones adecuadas y seguimiento de problemas.
¿Qué pasos debe seguir una empresa para garantizar una integración segura de IA en sus sistemas de control industrial?
A las recomendaciones citadas se pueden añadir:
Crear un entorno de pruebas aislado y representativo del entorno OT.
Crear un conjunto de datos de prueba amplio y consistente.
Evaluar escenarios de actuación automática y compararlos con los escenarios de actuación asistida.
La aplicación de la tecnología de IA en ciberseguridad es una promesa que se está haciendo realidad y que debería ser capaz de bloquear, mitigar y ayudar en la gestión de incidentes de todo tipo
”
Crear registros de análisis para evaluar el desempeño del sistema.
Comenzar con entornos de impacto limitado, unidades pequeñas o de laboratorio.
Mirando hacia el futuro, ¿cómo visualizas la evolución de la IA y la ciberseguridad industrial en los próximos años?
La aplicación de la tecnología de IA en ciberseguridad es una promesa que se está haciendo realidad de forma inminente y que debería ser capaz de bloquear, mitigar y ayudar en la gestión de incidentes de todo tipo.
Mi esperanza es que se adelante al uso fraudulento de la tecnología y evite que los incidentes actuales escalen y aumenten su peligrosidad.
Otro aspecto crucial es conseguir la ayuda en la gestión de sucesos de gran alcance (plantas energéticas, redes de
energía globales, plantas peligrosas, industrias críticas) para facilitar y mejorar la recuperación de los procesos, lográndolo con el menor impacto posible.
¿Qué innovaciones crees que veremos en la intersección entre IA y la protección de infraestructuras críticas?
Con el fin de simplificar el entrenamiento y facilitar así su uso en todo tipo de plantas y de organizaciones, es de esperar que la rapidísima evolución de los sistemas de IA, incluyendo los nuevos sistemas de IA generativa, tengan un paralelismo con su adaptación a los sistemas industriales, especialmente en el capítulo de ciberseguridad.
La utilización de nuevas y más potentes versiones de estos sistemas tendrá una aplicación directa en la automatización y mejora sustancial del funcionamiento de los SOC orientados al entorno OT de infraestructuras críticas, con un horizonte inferior a 3 años