11 minute read

basados en Inteligencia Artificial se están usando para

Para conocer más sobre la implicancia de la Inteligencia Artificial en la ciberseguridad, entrevistamos a Hernán Espinoza, encargado de Auditoría en Ciberseguridad del CSIRT de Gobierno:

¿Cuáles son los potenciales riesgos existentes en la actualidad con la inteligencia artificial?

La inteligencia artificial (IA), como herramienta no es nueva, pero si es nueva la explosión de aplicaciones y herramientas cercanas a los ciudadanos que con una simplicidad asombrosa han aminorado muchas barreras de entrada. Hemos leído también sobre una carta que han emitido algunos próceres de las tecnologías y el mundo científico, señalando que debemos ir más lento con las IA para dejar paso a la reflexión de su impacto en la sociedad, lo que podría interpretarse como cierto temor al devenir de esta tecnología sin el suficiente control. ¿Subyace entonces el temor a que esta tecnología se pueda descontrolar y enfrentarse contra sus creadores?

Como toda tecnología hay riesgos inherentes a sus construcción e implementación misma, hay riesgos por el uso que la humanidad pueda darle, y eventualmente hay riesgos futuristas sobre su eventual autonomía y superioridad frente a la capacidad humana.

La IA y sus algoritmos son tremendamente potentes, mas son altamente dependiente de las bases de datos con las cuales éstas son entrenadas. En este sentido una base de datos débil puede producir malos algoritmos o incluso puede adolecer de sesgos propios de los datos mismos, es decir, las conclusiones o respuestas de la IA pueden llegar ser machistas, racistas, xenófobas, antisemitas o de otros tantos sesgos, incluyendo aquellos que son penalizados por países y leyes. En este contexto se abre la posibilidad para el envenenamiento de los datos y, por tanto, al contaminarlos poder afectar los algoritmos finales de las IA, es decir, torciendo de alguna manera la inteligencia hacia un estado de acciones manipuladas por terceras partes.

Otra fuente de potencial riesgo para la sociedad es que en ciertas tareas (hoy en día) son tan buenas, eficientes y eficaces que ciertamente reemplazarán a algunas profesiones u oficios. Para Chile ya hay señales que enfatizan este riesgo reflejado en señales que provienen de por ejemplo la OCDE, donde en un informe del 2019 ya se señalaba que el 53% de los trabajos podrían desaparecer o ser reemplazados por automatización . De hecho algunos agoreros ya pronostican que ha comenzado la “gran sustitución” donde gran parte de los trabajos y funciones laborales serán capturados por entidades automatizadas con base en la IA. No hay espacio laboral que no se esté explorando con las IA: Ya hay experimentos con la aplicación de justicia tanto por el lado de los jueces como por el lado de los abogados defensores. Ya hay una radio digital dirigida por un IA, el mismo ChatGPT nos ha sorprendido con su habilidad para entender y responder a nuestras consultas y desafíos en lenguaje natural.

La IA como herramienta puede ser hackeable y verse afectada a exponer datos de sus usuarios, como la recientemente conocida vulnerabilidad de ChatGPT que permi - tía a terceros acceder en parte a las preguntas de otros usuarios. Un problema permanente es que, además, toda tecnología que intentamos utilizar para el bien, alternativamente puede ser usada para el mal y por los ciberdelincuentes. En esta dimensión de posibilidades, la IA será usada para el desarrollo de malware que tienda a imitar conductas para evitar ser detectado por las herramientas des ciberseguridad; será usa para abusar de los asistentes inteligentes ya sea para extraer datos de estos o para inducir decisiones incorrectas con datos incorrectos; será usada para construir poderosas herramientas de quiebre de seguridad, como por ejemplo, la adivinación de nuestras contraseñas o quiebre de los captcha; aunque aun incipientemente también se han detectado señales que indican que las IA representan un riesgo para la seguridad de nuestros datos encriptados y con el advenimiento de la tecnología de computación cuántica estos son casi una certeza, razón por la que varias naciones ya se están preparando para esa fase tecnológica con algoritmos de encriptación post-cuánticos; serán usadas atendiendo a su nivel de humanización, para suplantarnos tanto por sus respuestas escritas como verbales (ya hay IA que con unos pocos segundos de audio digital de nuestra voz, pueden imitarla y seguir una conversación, donde al receptor no le resulta casi imposible darse cuenta de que está conversando con una IA y no contigo); los hacker llevarán sus acciones a otro nivel con estas herramientas y ya se observan los avances en DeepHacking , DeepFake y DeepExploit .

Todo esto solo irá incrementando en su escala y envergadura en base a la potencia de las IA (ya hemos visto algunos episodios donde la manipulación de la información a gran escala puede impactar en la sociedad y sus decisiones democráticas) y del soporte computacional que hará explotar la Computación Cuántica. Habrá ingeniería social a gran escala, generación de contenido en todos sus medios de expresión, verbal, escrito, visual, gesticular, etc.

Cada herramienta que soñamos para el bienestar de la humanidad y nuestro entorno, como el reconocimiento temprano del cáncer o la conducción autónoma podrá ser eventualmente un riesgo al ser potencialmente usada por ciberdelincuentes con fines maliciosos o vulnerable a éstos.

¿Cómo se pueden mitigar dichos riesgos?

Es cierto que los Estados o comunidades con intereses creados podrían intentar enlentecer el avance de las IA, pero a mi parecer es como intentar tapar el sol con un dedo, y por tanto más bien tenemos que acelerar nuestra capacidad para comprender la tecnología, sus impactos presentes y futuros y, en consecuencia, prepararnos para usar los avances que vienen y no terminar siendo usados por las tecnologías que si o si están en marcha: solo es cuestión de tiempo. O nos adaptamos a las nuevas tecnologías o rápidamente perderemos el sitial en la cima de la cadena alimenticia.

Los riesgos de plataforma y software exigirán robustos controles en todo el ciclo de desarrollo de las herramientas, pero expandiendo su ámbito de control a los datos que son la fuente clave del entrenamiento para cierto tipo de IA. Deberán los Estados esforzarse en lograr que estas herramientas sean producidas y controladas con altos estándares de ética y trabajar para que los sesgos que puedan introducir los datos débiles sean de bajo impacto.

¿Puede la inteligencia artificial mejorar la ciberseguridad de las organizaciones públicas o privadas?

Ciertamente que puede ayudar a las instituciones a mejorar la ciberseguridad desde múltiples dimensiones. Puede ayudarnos a entender la línea base de conductas dentro de una institución, es decir, puede entender la realidad de cada empresa e institución y de acuerdo a esa realidad identificar anomalías. Puede ayudarnos automatizar muchísimas tareas, a través de un “CiberAsistente IA”, dejando a los humanos aquellas tareas en las que todavía no pueden ingresar las IA o les es muy difícil aún desarrollar esa habilidad: la creatividad y la imaginación. En esta línea las instituciones y empresas contarán con herramientas de ciberseguridad que podrán actuar y responder ante ataques autónomamente con playbook altamente complejos y estarán en posición de aprender de las nuevas experiencias y responder ante casos nuevos. Los ingenieros en ciberseguridad tal vez deberán prepararse en pensamiento crítico/creativo y aprender a hacer las preguntas correctas a los cerebros artificiales que nos ayudarán con la ciberseguridad del mañana.

Cada vez más la IA podrá ayudarnos a realizar aquellas tareas tediosas que requieren análisis de grandes volúmenes de datos, o un funcionamiento en 7x24, o correlaciones complejas de muchas variables (realmente muchos parámetros), u otros.

La IA nos ayudará a mejorar la atención de los clientes y ciudadanos con ayudas cada vez más cercanas y disponibles a toda hora. Pero más importante aún debemos tender a que la IA no solo responda consultas o resuelva dudas, sino que ayude a resolver el trámite ante el estado o a adquirir el servicio o producto de una empresa.

La IA tendrá la facilidad de si - tuarse en el perfil de ciudadano o cliente y hablarle en su lenguaje contextual e idioma y de acuerdo a su perfil etario e intereses, sin perder calidad de información ni formalidad institucional.

¿Cuáles son las principales aplicaciones de la inteligencia artificial en la ciberseguridad?

La IA está revolucionado la ciberseguridad y la forma en que los profesionales trabajan en ella. Se trata de una tecnología que permite a múltiples dispositivos ubicados en casi cualquier parte de nuestro entorno, hogar, trabajo y ciudad (smartcity), aprender de los datos, identificar patrones y tomar decisiones sin intervención humana. Se ha convertido, por tanto, en una herramienta vital en la lucha contra la ciberdelincuencia, tanto para los profesionales de la ciberseguridad como para las policías que luchan contra el cibercrimen, porque puede analizar enormes cantidades de datos y más rápido de lo que lo haría cualquier ser humano.

Si bien, es un campo abierto donde el límite es la imaginación, se han logrado avances en la identificación de conductas y comportamiento maliciosos, actuando como un valioso complemento a la detección estática basada en firmas. Se han mejorado notablemente los usos en visión artificial para la identificación de anomalías en televigilacia. Se está posicionado fuertemente como asistentes que potencian las facultades de acción de los profesionales de ciberseguridad, aportándole datos, referencias, análisis y vías alternativas de respuestas eficientes y eficaces para responder ante ciberataques.

Sistemas basados en IA se están usando para detectar, prevenir e incluso predecir ciberataques o condiciones de riesgo en los equipos y sistemas.

Los algoritmos se entrenan con grandes conjuntos de datos de información histórica y en tiempo real sobre amenazas (es clave entender que estas bases de datos deben existir y deben ser de buena calidad para evitar los sesgos y deben ser protegidas para evitar los envenenamientos de datos), lo que les permite reconocer nuevas amenazas con rapidez. Esto permite reconocer patrones y anomalías que pueden conformar un Indicador de Ataque (IoA), detectar actividad sospechosa en la red o comportamientos inusuales de los usuarios (una conexión en un horario no habitual, un acceso a lugares no habituales, el uso de un protocolo de transferencia de archivos no habitual, etc.)También pueden identificar vulnerabilidades en los sistemas antes de que sean explotadas por los atacantes.

Como ya se ha explicado, una de las principales ventajas de su uso es la capacidad que poseen para automatizar actividades, análisis, o tareas recurrentes. Esto signifi - ca que los profesionales de la ciberseguridad pueden centrarse en funciones más complejas mientras la IA se ocupa de las actividades rutinarias como la supervisión y monitoreo del tráfico de red en busca de anomalías o la identificación de software malicioso.

Otra ventaja de la IA es su capacidad para aprender de experiencias históricas. Los algoritmos de aprendizaje automático permiten que los sistemas se adapten y mejoren con el tiempo basándose en la información que han recopilado a través de hallazgos pasados con amenazas potenciales.

Esto permite a los profesionales de la ciberseguridad eventualmente anticiparse a los eventos o incidentes de ciberseguridad, y aplicar o activar controles proactivos antes de que se produzca una brecha de seguridad. Además, permite automatizar las respuestas a ciertos tipos de ataques, liberando un tiempo valioso para que los profesionales de la ciberseguridad se centren en cuestiones más complejas.

La IA está transformando o más bien, revolucionando la forma en que la ciberseguridad está enfrentando la detección proactiva, predictiva y las respectivas estrategias de respuesta en formas que antes eran imposible.

La IA transformará definitivamente la forma en que trabajaremos en ciberseguridad, no desapareceremos, solo que nuestro rol será distinto y las tareas las haremos de formas distintas.

¿Cuáles son las limitaciones actuales de la inteligencia artificial en la ciberseguridad?

Las bases de datos son un elemento crucial en las IA, y por tanto, si los datos son de mala calidad y no en la cantidad adecuada, la matemática de las redes neuronales artificiales no podrá hacer su magia. Es clave que cualquier institución o empresa que quiera emprender el desafío de avanzar en la construcción de un aplicación de IA, antes de comenzar pueda asegurarse que tiene bases de datos relevantes con múltiples características, parámetros, y numerosos ejemplos.

El tiempo. La IA necesita inexorablemente tiempo para aprender su contexto particular y esto se puede traducir en meses de no producción y tiempo posiblemente sin acción operativa con la IA. Si queremos aplicar un contexto externo y genérico eso es rápido y directo, pero claramente no todas las instituciones y empresas son iguales. Sus trabajadores se conectan en horarios diferentes, realizan tareas que para unas instituciones son normales y para otras son extrañas, cometen errores diferentes, utilizan diferentes aplicativos y protocolos de red etc. Cada una tiene un perfil único de actividades que una IA, con el suficiente tiempo de aprendizaje, puede desentrañar y operar con esa huella y perfil únicos. Para lograr esta meta, la IA necesita tiempo de aprendizaje. Indudablemente con el advenimiento de las portentosas capacidades de procesamiento que ofrece la computación cuántica estos tiempos se acortarán muchísimo.

Por otra parte, para ciertos procesos o manejos de datos o búsquedas de soluciones a preguntas o problemas muy complejos, la capacidad de cómputo vigente puede constituir un problema o limitante, pero en el horizonte se observa un poderoso aliado de la IA que viene en su rescate: la Computación Cuántica.

Faltan profesionales que se estén especializado en estas materias y profundizando el entendimiento de estas herramientas y sus limitaciones. Por ahora su aprendizaje está limitado a los datos conocidos en su fase de entrenamiento, si es que se ha utilizado una red neuronal supervisada, lo que limita sus eventuales respuestas y acciones a lo ya conocido, al universo de su base de datos original y la de su validación. Las IA aún no pueden explotar y desarrollar la creatividad, una cualidad humana, por el momento (no desaprovechemos esta ventana de tiempo que tenemos, en la que podemos articular un mundo con las IA de nuestro lado y no en contra nuestra).

Otra limitación es nuestro propio miedo; aquel que nos produce el hecho de que algo pueda superarnos en todos los aspectos en los que como humanos creíamos reinar por siempre: la inteligencia, la innovación, la imaginación, la creatividad, el sueño de nuestra eterna búsqueda por desentrañar los misterios del universo entero. Ese miedo puede ser una limitante de las IA ciertamente; ese temor ancestral a lo desconocido nos puede llevar a censurar o quemar a los que estén detrás de estos actos de brujería. Cada avance tecnológico es un paso a un lugar desconocido, pero que potencialmente nos puede salvar o llevar a la destrucción total. Ejemplos hay muchos en nuestra historia humana.

La resistencia al cambio, la ignorancia como fuente de miedo a lo nuevo también pueden llegar a ser una barrera para el desarrollo de las IA. Ya se respira en el aire las primeras señales de esos miedos:

Estados intentando regular las IA, movimientos levantando problemas éticos de las IA, escritores plasmando el ideario colectivo las tres leyes de la robótica, tecnólogos y científicos mismos entregando señales de “alerta” ante una tecnología crucialmente disruptiva, oficinas gubernamentales analizando la propiedad intelectual de los contenidos generados por IA,…que más nos queda, les negaremos también el derecho a ser considerados una persona mañana o a tener sueños o a ser considerados seres inteligentes solo porque sus cuerpos no serán orgánicos como los nuestros. No quiero recordar un oscuro episodio legislativo en el que en nuestro honorable congreso, en algún momento, se intentó prohibir la nanotecnología en Chile. https://www.tvu.cl/prensa/2019/02/28/68-subio-en-desempleo-en-el-ultimo-trimestre.html https://www.oecd-ilibrary.org/science-and-technology/how-s-life-in-the-digital-age_9789264311800-en https://chat.openai.com/

La ciberseguridad es uno de los tantos aspectos en los que tendremos que confiar parte de nuestra protección, una ciberseguridad que como sabemos puede ser crítica y eventualmente, si falla, exponer o afectar seriamente a las personas, su salud, el medio ambiente y la economía de un país. Una seguridad pública expresada en el ciberespacio y el entorno físico con apoyo creciente de la IA, será clave, para la detección temprana de delitos y el desbaratamiento del crimen organizado, y así vivir con menos miedo. Aquello que hoy nos produce miedo podría terminar dándonos más seguridad y, en consecuencia, menos miedo.

AI-Supported Hacking https://expansion.mx/tecnologia/2023/04/03/deepfakes-que-son-como-detectarlos#:~:text=Los%20deepfakes%2C%20tambi%C3%A9n%20 conocidos%20como,virales%20este%20 tipo%20de%20im%C3%A1genes.

AI-Supported Hacking https://blogdelciso.com/qu%C3%A9-es-un-playbook-de-respuesta-a-incidentes-de-ciberseguridad-5c5c9e9765fc https://www.cdc.gov/spanish/niosh/topics/nanotecnologia.html#:~:text=La%20 nanotecnolog%C3%ADa%20es%20la%20 manipulaci%C3%B3n,%2C%20energ%C3%ADa%2C%20materiales%20y%20fabricaci%C3%B3n.

This article is from: