La sentencia T-323 de 2024 de la Corte Constitucional
Análisis de la sentencia mediante la cual la C. Constitucional aborda los riesgos de la inteligencia artificial (IA) en el ámbito judicial, especialmente frente a la protección de datos personales y la soberanía judicial.
En Contexto. Pág 08.
El uso de la inteligencia arti- ficial en la práctica del derecho en Colombia
Esta sección aborda el impacto de la inteligencia artificial en el ámbito judicial, destacando su capacidad para optimizar procesos y la formación ética y técnica de los abogados.
Debates CEJ. Pág 14.
El Arbitranje y la Inteligen- cia Artificial
Según el director de la CEJ, la IA está transformando el arbitraje al automatizar tareas repetitivas como la revisión y transcripción de documentos.
Contenidos CEJ. Pág 24.
Aplicaciones de la inteligencia artificial
en la valoración de la prueba judicial
En este artículo el Dr. Orión Vargas Vélez explica, entre otras, cómo la inteligencia artificial puede transformar la valoración de la prueba en el sistema de justicia colombiano, y de qué manera este enfoque puede mejorar la objetividad y la eficiencia del proceso judicial.
El contenido de los artículos es de exclusiva responsabilidad de los autores. Los textos pueden reproducirse total o parcialmente citando la fuente.
Editorial
08
Aplicaciones de la inteligencia artificial en la valoración de la prueba judicial por: Orión Vargas Vélez
Profesor titular de la Universidad de Medellín
La sentencia T-323 de2024 de la Corte Constitucional por: Grenfieth de J Sierra Cadena
Superintendente delegado para la protección de datos personales - SIC -
El uso de la inteligencia artificial en la práctica del derecho en Colombia
El Arbitraje y la Inteligencia Artificial por: Hernando Herrera Mercado Director de la CEJ, árbitro nacional e internacional y conjuez de altas cortes
Así se vivió una jornada histórica que reafirmó el compromiso con la justicia colombiana
En el constante interés del ser humano por crecer y evolucionar, la Inteligencia Artificial IA se ha convertido en una herramienta de uso cada vez más cotidiano, a través de la cual se busca facilitar el quehacer diario, mejorar los índices de productividad, o, incluso, ofrecer nuevas soluciones a problemáticas que aquel (el ser humano) no estaría en condiciones de resolver por su propia cuenta, o, por lo menos, tardaría en hacerlo.
En el contexto antes mencionado, la justicia y sus operadores no hemos sido ajenos a la llegada de este fenómeno que pretende revolucionar nuevamente la humanidad; por cuenta de ello, en esta ocasión, quisimos desde la CEJ dedicar un espacio exclusivo a tratar algunos de los temas que mayor interés y controversia han generado, y que tocan específicamente con el acceso a la justicia y su conexión con la Inteligencia Artificial IA.
Para estos propósitos, invitamos a varios expertos en la materia, quienes desde sus respectivos ámbitos de trabajo pudieron ofrecernos una visión de lo que representa la aparición de estas nuevas tecnologías, y los retos que se vienen con ellas.
El ejercicio propositivo y de análisis que el lector podrá encontrar en las siguientes páginas, inicia por mostrar la visión que tienen los decanos de las facultades de derecho y jurisprudencia de algunas de las universidades de mayor trayectoria e importancia del país, en torno a la manera como desde esos ámbitos educativos debe enfocarse la nueva formación del abogado; seguidamente, presentamos el concepto que tiene un experto en la materia con respecto a la recién expedida Sentencia T-323 de 2024, mediante la cual el máximo órgano de la jurisdicción constitucional sentó las bases de la utilización de la inteligencia generativa en los procesos judiciales, y el papel que deben desempeñar los jueces frente al particular. Para finalizar, y no por ello menos importante, nuestro director ejecutivo, por vez primera para esta revista, nos comparte igualmente algunos apuntes en torno al valor práctico que puede tener la inteligencia artificial IA en los denominados métodos alternativos de solución de controversias, y especialmente en materia arbitral.
Como es lo acostumbrado, aspiramos a que estos contenidos puedan ser del agrado de nuestros lectores, y así mismo insumo para avivar ese interés que sin duda cada uno de nosotros tiene en torno al futuro inmediato, y al impacto de las nuevas tecnologías en nuestro diario trascurrir.
la valoración de la prueba judicial
Por: Orión Vargas Vélez profesor titular de la Universidad de Medellín1
Imagen tomada de www.freepik.es
RESUMEN
Este artículo aborda cómo la inteligencia artificial (IA) puede transformar la valoración de la prueba judicial en el sistema de justicia colombiano. A través del sistema experto "Juez Inteligente", se explora cómo la IA asiste en la construcción de inferencias probatorias, utilizando lógica difusa y probabilidades baconianas. Se muestra cómo este enfoque mejora la objetividad y la eficiencia del proceso judicial, integrando la experiencia humana con la precisión computacional.
INTRODUCCIÓN
En la actualidad, la inteligencia artificial (IA) está revolucionando numerosos campos, y uno de los más prometedores es la administración de justicia. En particular, el uso de la IA en la valoración de la prueba judicial ofrece una nueva perspectiva en la forma en que los jueces construyen sus inferencias y decisiones. A través de sistemas expertos como el "Juez Inteligente", se busca mejorar la objetividad, la rapidez y la precisión en el proceso judicial. Este artículo explora cómo la IA, al integrar lógica difusa y probabilidades baconianas, puede asistir al juez en la valoración de la prueba, contribuyendo a un proceso más justo y transparente.
1. EL PAPEL DE LA INTELIGENCIA ARTIFICIAL EN LA JUSTICIA COLOMBIANA.
El uso de la IA en la justicia colombiana ha venido ganando terreno en los últimos años, con aplica-
ciones que buscan optimizar la eficiencia de los procesos judiciales. La implementación del sistema experto "Juez Inteligente" es uno de los ejemplos más destacados. Este sistema está diseñado para asistir al juez en la evaluación de las pruebas, proporcionando un marco más estructurado y preciso para la toma de decisiones.
2. METODOLOGÍA DEL "JUEZ INTELIGENTE"
El "Juez Inteligente" se basa en un conjunto de reglas de inferencia que integran la lógica difusa y las probabilidades baconianas para calcular el peso probatorio conjunto de las pruebas. Este sistema evalúa la pertinencia, la credibilidad y el peso probatorio de cada prueba, asignando valores probabilísticos a los hechos y las pretensiones o hipótesis planteadas por las partes en un proceso judicial. De esta manera, el juez recibe una herramienta que facilita la construcción de inferencias basadas en un análisis riguroso y detallado.
3. LA LÓGICA DIFUSA Y LAS PROBABILIDADES BACONIANAS.
El uso de lógica difusa es fundamental para manejar la incertidumbre inherente al proceso judicial. Los jueces, al evaluar pruebas, frecuentemente se enfrentan a situaciones donde la información es imprecisa o ambigua. La lógica difusa permite tratar estos casos al permitir que los términos utilizados (tales como "probable" o "muy probable") se conviertan en rangos numéricos, facilitando una evaluación más precisa. (Ver figura 1)
Figura 1
Figura 1. Estándares de prueba que pueden ser empleados en la decisión judicial por el sistema experto "Juez inteligente"
Por otro lado, las probabilidades baconianas proporcionan una herramienta para medir la "probabilidad de la demostrabilidad" de una hipótesis o alegato, lo que ayuda a estructurar y fundamentar de manera matemática la valoración probatoria. Este enfoque combina la intuición humana con la precisión lógica, logrando un balance entre la experiencia del juez y la velocidad y exactitud de la IA.
4. LAS ETAPAS DEL RAZONAMIENTO PROBATORIO EN EL SISTEMA "JUEZ INTELIGENTE"
El "Juez Inteligente" opera a través de varias etapas clave que estructuran el proceso de evaluación de la prueba. Estas etapas incluyen la producción de las pruebas, el ordenamiento de las mismas, su examen o práctica y su valoración conjunta. En cada etapa, el sistema el juez asigna valores de relevancia a los hechos y pertinencia y credibilidad
a las pruebas, facilitando la toma de decisiones de manera más rápida, estructurada y fundamentada.
4.1 Producción de la prueba. El sistema ayuda a determinar la relevancia de los hechos presentados por las partes, calculando la probabilidad de que dichos hechos respalden las hipótesis planteadas.
4.2 Ordenamiento de la prueba. En esta etapa, el sistema asiste al juez en la admisión y organización de la evidencia presentada, asegurando que cada pieza de evidencia se evalúe en función de su pertinencia.
4.3 Examen o práctica de la prueba. El "Juez Inteligente" ayuda al juez a examinar la credibilidad de cada prueba, proporcionando una evaluación precisa que va más allá de la intuición humana.
4.4 Valoración conjunta de las pruebas: Finalmente, el sistema calcula el peso total de las pruebas y determina cómo se debe considerar cada elemento de prueba en función de su impacto en la hipótesis o alegato en cuestión. (Ver figura 2)
de corroboración, convergencia, contradicción, conflicto probatorio empleados en la evaluación conjunta por el sistema experto "Juez inteligente".
Figura 2
Figura 2. Patrones probatorios
5. BENEFICIOS Y DESAFÍOS DEL USO DE IA EN LA VALORACIÓN DE PRUEBAS JUDICIALES.
La principal ventaja de utilizar la IA en la valoración de la prueba es la mejora en la objetividad y la transparencia del proceso judicial. Los sistemas como el "Juez Inteligente" permiten un análisis más detallado y riguroso de las pruebas, lo que puede reducir la subjetividad en la toma de decisiones y aumentar la confianza pública en el sistema judicial.
Sin embargo, la implementación de la IA también enfrenta desafíos. Uno de los principales es la resistencia al cambio, tanto por parte de los operadores jurídicos como por la sociedad en general. Además, la calidad de los datos y la necesidad de formación especializada para los jueces y abogados son aspectos que deben ser cuidadosamente gestionados para asegurar una correcta integración de la IA en el sistema judicial.
CONCLUSIONES.
El uso de la inteligencia artificial en la valoración de la prueba judicial en Colombia es una herramienta prometedora para mejorar la eficiencia y la precisión de los procesos judiciales. A través de
“
La
principal ventaja de utilizar la IA en la valoración de la prueba es la mejora en la objetividad y la transparencia del proceso judicial.
sistemas expertos como el "Juez Inteligente", es posible integrar la experiencia del juez con la precisión de la IA, lo que contribuye a una toma de decisiones más justa y objetiva. Sin embargo, es fundamental que se aborden los desafíos asociados con la implementación de estas tecnologías, asegurando que los operadores jurídicos reciban la formación adecuada y que la IA se utilice de manera ética y responsable.
Imagen tomada de www.freepik.es
La sentencia T-323 de 2024 de la Corte Constitucional
Una lectura crítica desde la protección de los datos personales
Por: Grenfieth de J Sierra Cadena Superintendente delegado para la protección de datos personales – SICProfesor de Derecho Público de la Universidad del Rosario
Imagen tomada de www.freepik.es
La sentencia T-323 de 2024 de la Corte Constitucional ha sido objeto de comentarios por su propuesta de regular el uso de IA generativa en la justicia. Sin embargo, desde la realidad de la protección de los datos personales podrían presentarse críticas. La realidad demuestra un escenario más complejo. Expondré dos argumentos para demostrarlo: Primero, la existencia de una mala comprensión del problema que se pretende resolver; y el segundo, la existencia de problemas de análisis sobre lo que es o puede ser la IA generativa en la justicia.
Mas allá del caso en concreto, el problema estructural es: ¿sistemas de IA generativa que se encuentran en la internet como ChatGPT pueden ser usados por jueces sin poner en riesgo el acceso a la justicia, la imparcialidad, la integridad procesal, la igualdad y la protección de los derechos fundamentales?
Luego de agotar una amplia doctrina mundial “técnica” y “jurídica” en modestas 210 páginas, la Corte Constitucional concluye que un juez puede utilizar IA sin vulnerar derechos fundamentales. Y lo expone en cuatro argumentos, a saber:
1. “La Corte estimó que no se reemplazó el juez por la ChatGPT por haber sido utilizado posterior a la “toma” de decisión. Procedió a efectuar preguntas en el referido sistema de IA, para transcribir las respuestas.”
Respecto al primer argumento, la utilización de sistema de IA se ha esbozado en la administracion de justicia como herramienta de ayuda para ampliar las capacidades de análisis del juez; como sucedió en el caso PRETORIA de la Corte Constitucional, donde frente a la selección de tutelas, una IA predictiva propia a la Corte ayuda a mejorar la selección. Sin embargo, al afirmar la Corte Constitucional en el caso presente que con ChatGPT no se afecta el análisis del caso por haberse identificado previamente el problema y haberse resuelto con antelación; no se permite determinar la utilidad procesal de esta IA ¿Si su impacto no fue sustancial, entonces para que usarla? Resulta contradictorio que un juez decida someter un caso a una serie de preguntas que no aportan nada a la solución del problema. Este tipo de usos violan el principio de eficiencia judicial, cronología y unidad procesal al desplegar medios técnicos no contemplados por la ley y claramente ineficaces.
“
la utilización de sistema de IA se ha esbozado en la administracion de justicia como herramienta de ayuda para ampliar las capacidades de análisis del juez.
La pregunta que deja la Corte Constitucional en el aire es: ¿El juez puede distorsionar y dilatar el proceso al hacer uso de herramientas de IA inocuas? ¿y si es así, dónde queda el principio de eficacia procesal? ¿no es parte del debido proceso y de la tutela judicial efectiva la eficiencia en los medios procesales y técnicos utilizados?
2. “Pero se evidenció que no se cumplieron a cabalidad los principios de transparencia y responsabilidad exigidos. En cambio, el principio de privacidad se satisfizo; el juez no introdujo datos personales.”
Respecto al segundo argumento, la Corte Constitucional amplía su contradicción argumentativa al identificar posibles violaciones a los principios de transparencia y responsabilidad objetiva; exigidos a quienes administran bases de datos personales, pero pretende validar que jueces entrenen sistemas de IA externos con información de casos reales sin que esto constituya un riesgo de violación a los derechos. Desde la ingeniería de la programación y desde el derecho de los datos no se puede desligar transparencia, responsabilidad objetiva, responsabilidad demostrada, corresponsabilidad y privacidad. Los expertos en IA generativa explican que no es necesario introducir datos personales para poder, a partir de técnicas de estadísticas y matemáticas, perfilar e identificar (con algunos patrones) una persona o a un grupo de personas. Son estándares de comportamiento que en un gru-
po humano pueden ayudar a identificar a una persona, un espacio geográfico, una raza, un género, un grupo económico, enfermedades. Es decir, la vulneración es técnicamente posible. Asi, cuando no se cumple el postulado de seguridad o una parte de ese postulado es relativizado, es toda la privacidad la que está en juego.
La privacidad de los datos es el fin constitucional, un todo protegido dentro del ecosistema de entrenamiento de una IA. Por ello se exige, en varios ordenamientos jurídicos, la obligación técnica de programar por Diseño y por Defecto, y estudios de impacto en privacidad. Y la Delegatura de datos de la Superintendencia de Industria y Comercio SIC ha instruido mediante la Circular No. 2 aplicar privacidad diferenciada en sistemas de IA para garantizar la privacidad de acuerdo con los fines constitucionales. Son medios matemáticos
que protegen de forma efectiva los derechos humanos.
Y es al legislador, en el marco de la ley estatutaria 1581, a quien le corresponde fijar las excepciones sobre las cuales la privacidad puede ser relativizada como derecho fundamental. Es claramente un tema de reserva de ley que no le corresponde a la Corte Constitucional relativizar. El problema no es solo de validez jurídica. El problema es de eficacia y de posibilidades matemáticas reales de crear riesgos a los derechos humanos con IA generativa.
3. “EL uso de ChatGPT en el caso sometido a estudio no comportó una usurpación de la función de administración de justicia.”
La privacidad de los datos es el fin constitucional, un todo protegido dentro del ecosistema de entrenamiento de una IA.
Respecto al tercer argumento, podría calificarse como erróneo. La propia Corte anota que el juez introdujo preguntas y guió parte del procedimiento ante la IA. La administración de justicia no puede ser fraccionada en etapas donde existe y otras donde no existe el debido proceso, en especial con sistemas de IA generativa. El debido proceso y la administracion de justicia es un todo completo en el poder de la jurisdicción; donde la preservación de la reserva del sumario, y la integridad del expediente deben ser garantizados. En el momento en que se abren puertas y excepciones a la integralidad del proceso nace una potencial vulneración a la reserva y al secreto del caso. Y con mayor evidencia en sistemas de IA generativa que pueden determinar patrones de seguimiento y comportamiento con mínima información, para identificar con alta probabilidad al titular o información
Imagen tomada de www.freepik.es
“
La administración de justicia no puede ser fraccionada en etapas donde existe y otras donde no existe el debido proceso, en especial con sistemas de IA generativa.
relevante. La Corte Constitucional no aborda el problema de fondo acá. El de la soberanía y el del poder del juez respecto del proceso frente a sistemas de IA, y cómo esa ausencia de soberanía puede erosionar el poder del juez cuando sistemas de IA generativa externos, como ChatGPT, no han sido entrenados con valores jurídicos.
4. “La Sala estima que en el marco del respeto por los derechos fundamentales y de la salvaguarda de las garantías constitucionales y dadas las posibilidades de alucinaciones, sesgos discriminatorios y demás riesgos asociados a la IA, es
procedente establecer criterios orientadores, desde el Consejo Superior de la Judicatura, se emitan guías o lineamientos sobre su implementación por parte de los jueces y que desde la judicatura misma se adopten las mejores prácticas que conforme a los principios y mandatos constitucionales, permitan hacer uso razonable y proporcional de herramientas innovadoras y dinámicas como ChtatGPT, sin admitir en modo alguno que se impacte el debido proceso o se restrinjan de cualquier forma la autonomía e independencia judiciales.”
El cuarto argumento podría calificarse de alucinación constitucional. Con banalidad, la Corte Constitucional termina por reconocer una serie de riesgos de gravedad que no pueden ser controlados por el operador jurídico. Sin embargo, exhorta al Consejo Superior de la Judicatura para que reglamente el uso de una tecnología con altos grados de incertidumbre y altos niveles de inseguridad, para que se pueda usar y normalizar la IA generativa sin “poner en riesgo” los derechos fundamentales. Se puede afirmar que el Consejo Superior de la Judicatura no tiene ni las herramientas técnicas, ni el conocimiento matemático para regular la IA generativa. Por el solo hecho que no la controla. En ingeniería de sistemas y en matemáticas de programación se sabe que solo se puede controlar los sesgos de un sistema de IA cuando se desarrolla y se entrena en un ambiente cerrado y controlado, que permita la explicabilidad y la auditabilidad de este. En lo que se conoce hoy como estudios de impacto algorítmicos. Conceptos y prácticas que
hoy no conoce, ni maneja el Consejo Superior de la Judicatura.
De otra parte, la Corte Constitucional al validar el uso de la IA en ambientes de programación abiertos y fuera del control del operador jurídico, ha terminado por institucionalizar un riesgo permanente, frente a lo cual, cualquier tipo de regulación que proponga el Consejo Superior de la Judicatura resulta inútil ante la magnitud global del desafío tecnológico y matemático que se enfrenta.
Lo que si resulta claro es la violación al principio de seguridad informática que guía la administracion de los datos personales. Allí, donde los sistemas informáticos se hacen porosos y las excepciones en seguridad se normatizan, todos los riesgos y todas las violaciones a los derechos de las personas son posibles. Los sistemas de IA generativa aprenden de forma autónoma y exponencial, y la inteligencia humana del juez parece disminuir día a día.
CONCLUSIONES:
¿No sería mejor desarrollar un sistema de IA generativa propio y controlado por el mismo siste-
ma de justicia en Colombia? Tal vez, y escribo tal vez, esto fue lo que debió escribir un juez con una lectura global y comprensiva del problema. Pocos jueces en el mundo han expedido sentencias como la de la Corte Constitucional de Colombia. Pero ya muchas altas cortes, como el Consejo de Estado de Francia, el sistema judicial español, la república popular china y otros países están comenzando a explorar sistemas de IA generativa propios a sus culturas jurídicas, para ser aplicados por sus jueces en ambientes cerrados y controlados. Allí el principio de equivalencia funcional se materializa al guiar la desmaterialización del procedimiento y los expedientes. Es un ejercicio de soberanía judicial. Pensar en tecnologías como la IA generativa, los datos y el debido proceso en la tutela judicial efectiva demandan jueces con capacidades de reaprender a pensar, tanto en lógicas inductivas como deductivas. Es mirar al mundo en su integralidad y comprender los inmensos desafíos, no de la moda jurídica, sino del pensamiento y la sociedad global para garantizar la efectividad jurídica en el siglo XXI. Pero no solo como validez jurídica; la cual resulta inútil frente a la evidencia del universo matemático y la llegada de la singularidad, sino como efectividad normativa que obliga a preguntarnos ¿qué es pensar el Derecho en el siglo XXI?
El uso de la inteligencia artificial en la práctica del derecho en Colombia
En el marco del análisis sobre el impacto de la inteligencia artificial en el ámbito jurídico, la revista
EXCEJLENCIA invitó a los decanos Jaime Alberto Arrubla Paucar, de la Pontificia Universidad Bolivariana; Laura Victoria García Matamoros, de la Universidad del Rosario; y Andrés Abel Rodríguez Villabona, de la Universidad Libre, para discutir su potencial para optimizar procesos, actualizar la formación de abogados, establecer lineamientos regulatorios y promover el acceso equitativo a la justicia.
Jaime Alberto Arrubla Paucar
Decano de la Escuela de Derecho y Ciencias Políticas de la Pontificia Universidad Bolivariana
Laura Victoria García Matamoros
Decana Facultad de Jurisprudencia Universidad del Rosario
Andrés Abel Rodríguez Villabona
Decano de la Facultad de Derecho, Ciencias Políticas y Sociales de la Universidad Nacional de Colombia.
Crédito: Archivo particular.
1. En el ámbito profesional del derecho, ¿cuál es el principal impacto esperado de la masificación de la inteligencia artificial?
La inteligencia artificial llegó para quedarse; es un gran instrumento tecnológico que está impactando todas las profesiones y actividades del ser humano. Por supuesto que el derecho no se queda atrás y si la tecnología se pone al servicio del ser humano, es de esperarse un impacto profundo en el derecho y en la administración de justicia, que mejore los tiempos y colabore con una pronta, rápida y mejor calidad en la administración de justicia.
La masificación de la IA en el derecho está transformando fundamen talmente la práctica legal. En primer lugar, está optimizando significativamente los procesos rutinarios como la revisión de documentos, investigación jurídica y análisis de jurisprudencia, permitiendo que los profesionales dediquen más tiempo a tareas que requieren juicio humano sofisticado.
Además, está revolucionando la forma en que se realizan los análisis predictivos de casos, utilizando grandes volúmenes de datos históricos para identificar patrones y tendencias en decisiones judiciales. Esto permite a los abogados ofrecer asesoramiento más preciso sobre posibles resultados legales.
Sin embargo, este impacto también presenta desafíos significativos. La necesidad de mantener el juicio humano en decisiones críticas, asegurar la transparencia en el uso de sistemas de IA, y garantizar la equidad en su implementación son aspectos que requieren atención cuidadosa. Es fundamental que la profesión legal encuentre un equilibrio entre aprovechar la eficiencia de la IA mientras preserva los valores fundamentales de la justicia y el debido proceso.
“
La masificación de la IA en el derecho está transformando fundamentalmente la práctica legal.
A partir de lo que se comprenda por inteligencia artificial, del ámbito de aplicación de su despliegue y de los esfuerzos mancomunados en la reducción de la brecha digital en sentido amplio (desigualdades digitales en el acceso y uso), se podría identificar un impacto trascendental de la masificación de una tecnología de este tipo. En el marco de una sociedad en red y globalizada, desde la perspectiva de la informática jurídica, este impacto supone la reconfiguración de la teoría del derecho, de la dogmática y de la práctica jurídica.
2. ¿Qué implicaciones tiene este fenómeno en la formación de futuros abogados en Colombia y de qué manera se deberían adaptar las facultades de ciencias jurídicas ante este panorama?
Como herramienta, la inteligencia artificial puede ser un gran instrumento para formación de los nuevos abogados. La IA como instrumento de soporte pedagógico, configura una revolución en los procesos de enseñanza-aprendizaje. Universaliza la información académica. Le facilitará al estudiante fuentes de información al instante. Permitirá el acceso remoto para estudiantes que están lejos de los centros universitarios.
Las implicaciones en la formación de futuros abogados son profundas y multifacéticas. Las facultades de derecho deben realizar una revisión integral de sus programas académicos para incorporar no solo el conocimiento técnico sobre IA, sino también desarrollar habilidades críticas para su uso efectivo en la práctica legal.
Esta adaptación requiere la introducción de nuevas materias específicas sobre tecnología legal, incluyendo fundamentos de IA, ética digital, protección de datos, y uso de herramientas de legal tech. Además, es necesario modificar la metodología de enseñanza tradicional para incluir componentes prácticos que permitan a los estudiantes familiarizarse con estas herramientas.
Las facultades también deben fortalecer la formación en áreas como pensamiento crítico, resolución creativa de problemas y juicio ético, que serán aún más cruciales en un entorno legal tecnológicamente avanzado. Esto implica un cambio en el paradigma educativo, pasando de un enfoque centrado en la memorización a uno que privilegie el análisis crítico y la adaptabilidad.
“
La inteligencia artificial impone la necesidad de un trabajo
articulado entre abogados, ingenieros y máquinas.
De acuerdo con el impacto señalado en la respuesta anterior, el avance de la informática jurídica a través del despliegue de la inteligencia artificial impone la necesidad de un trabajo articulado entre abogados, ingenieros y máquinas. El debate actual no reside en si se debe implementar o no la inteligencia artificial, la cuestión es cómo y en qué escenarios se debería desplegar. De modo que las facultades de ciencias jurídicas pueden contribuir en una primera etapa a través de las discusiones y reflexiones, desde el sur global, sobre el empleo de sistemas de inteligencia artificial desde cada una de las ramas del derecho y sus objetos. Con posterioridad, esto implicaría i) ajustes y modificaciones en la malla curricular de los
programas de derecho que permitan abordar el desafío de las tecnologías, sin reiterar contenido, en las diversas asignaturas; ii) la creación de una o varias asignaturas, dirigidas a estudiantes de derecho e ingeniería, que aborden de manera técnica los fundamentos básicos de la inteligencia artificial, las experiencias de implementación de inteligencia artificial en la justicia y los marcos regulatorios de protección de datos personales e IA; iii) la promoción de espacios de investigación y desarrollo de sistemas de decisión automatizados o sistemas de inteligencia artificial; iv) la articulación de actores relevantes en la salvaguarda de los derechos humanos en el ciclo de vida de la IA; v) el posicionamiento de las y los egresados de los programas de derecho como actores relevantes en la orientación de la inteligencia artificial con un enfoque de prevalencia de los derechos humanos.
3. ¿En qué etapas del proceso judicial es posible, e incluso deseable, permitir la integración de recursos basados en inteligencia artificial?
Todas las etapas de un proceso judicial pueden verse impactadas favorablemente con las herramientas que proporciona la IA. Facilita el estudio de la jurisprudencia y los precedentes, así como las fuentes doctrinales. Le puede ofrecer a la decisión judicial más certeza y más uniformidad.
La integración de IA en el proceso judicial puede ser particularmente beneficiosa en varias etapas. En la fase inicial, puede optimizar la admisión y clasificación de casos, análisis preliminar de competencia y jurisdicción, y verificación de requisitos formales.
Durante la etapa probatoria, la IA puede asistir en la organización y análisis de grandes volúmenes de evidencia, identificación de patrones en testimonios, y análisis de documentos complejos. También puede ser útil en la búsqueda y análisis de jurisprudencia relevante.
La tecnología debe funcionar como herramienta de apoyo para el juez, nunca como sustituto de su criterio.
En la etapa decisoria, aunque la IA puede apoyar en la proyección de providencias simples y estandarizadas, es crucial mantener el control humano sobre las decisiones de fondo. La tecnología debe funcionar como herramienta de apoyo para el juez, nunca como sustituto de su criterio.
La implementación de las tecnologías en el ámbito del derecho se aborda a través de la informática jurídica. De acuerdo con Guibourg (2015, p.791), se puede identificar la informática documental, la informática de gestión y la informática decisoria. En cuanto a los dos primeros tipos de informática, en general no hay controversia sobre su aplicación. En contraste, el último tipo de informática es objeto de múltiples debates, dado que implica la adopción de decisiones por parte de tecnologías.
Esto se puede ver reflejado en la sentencia T-323 de 2024, en especial, con la aceptación de la informática documental y de gestión y, a su turno, con la prohibición de la informática decisoria. Sin embargo, existe una línea fina divisoria entre los diversos tipos de informática que implica que, aun cuando la decisión sea tomada por el operador judicial, se emplean sistemas tecnológicos para su adopción. Este es un aspecto que eventualmente puede crear rechazo e incluso resistencia, pero que en el fondo no se aleja de la actual práctica jurídica del “copy and paste” (Nieva Fenoll, 2018). En efecto, frente a la congestión judicial y la escasez de personal, es común tener formatos editables respecto a diferentes problemas jurídicos que permitan adelantar las labores jurídicas en los tiempos determinados. En conclusión, la integración de recursos basados en inteligencia artificial dependerá del tipo de proceso, su fase concreta de implementación y su propósito. Sin perjuicio de los parámetros establecidos en la sentencia T-323 de 2024 y la legislación vigente, en un futuro puede existir la posibilidad de asignación de competencia de ciertos casos fáciles, cuyo precedente es en principio invariable, aplicando una IA con sus respectivos controles. Este tipo de desarrollos podría implementarse si se determinan de manera adecuada, en el marco de un sistema de frenos y contrapesos, con principios que orienten su implementación y, en últimas, permitan un acceso real de la justicia. Lejos de ser reemplazados por estas máquinas, hay mucho trabajo para lograr una sinergia entre estas y las y los juristas.
4. En el Congreso de la República se han conocido alrededor de diez iniciativas para regular la inteligencia artificial en Colombia, ¿qué lineamientos debe tener en cuenta el legislativo a la hora de regular el uso de esta tecnología en el sector judicial?
Ya hay importantes propuestas de regulación en Europa que podrían revisarse y utilizarse sobre la IA y los robots con inteligencia fuerte. Siempre mirando que la finalidad es que preste un servicio a la humanidad; que se reparen los daños que eventualmente pueden causar los robots con IA fuerte y con auto aprendizaje. La personalidad jurídica (e-personality), el registro de la IA y los robots, el fondo de compensación, la socialización de los riesgos y las modificaciones al derecho de daños son muchos de los tópicos que ameritan reflexión y regulación.
Siempre mirando que la finalidad es que preste un servicio a la humanidad; “
En cuanto a los lineamientos para la regulación de IA en el sector judicial, el legislativo debe considerar varios aspectos críticos. Primero, establecer estándares claros de transparencia algorítmica que permitan entender cómo los sistemas de IA llegan a sus conclusiones, garantizando así el debido proceso.
Es fundamental desarrollar marcos normativos para la protección de datos personales en el contexto judicial, considerando la sensibilidad de la información procesada. Esto incluye establecer protocolos de seguridad y privacidad específicos para el sector.
También debe regularse la responsabilidad por errores o sesgos en sistemas de IA, estableciendo mecanismos de supervisión y auditoría, así como procedimientos claros para impugnar decisiones basadas en IA. La normativa debe ser lo suficientemente flexible para adaptarse a la evolución tecnológica mientras mantiene salvaguardas efectivas.
Más allá de unos lineamientos en concreto, estos deben tener como punto de partida dos aspectos importantes: i) principios, concebidos como normas jurídicas de aplicación inmediata, que orienten el despliegue de la inteligencia artificial; ii) una institucionalidad robusta, que fortalezca el sistema de frenos y contrapesos frente a los diferentes riesgos que puede desencadenar una inadecuada implementación. Sobre este punto, se puede profundizar el análisis en el concepto enviado por la Universidad Nacional a la Asociación Colombiana de Universidades frente al Proyecto de Ley No. 200 de 2023 Cámara “Por medio del cual se define y regula la inteligencia artificial, se establecen límites frente a su desarrollo, uso e implementación y se dictan otras disposiciones”.
Esto implica, en principio en el ámbito del derecho, crear espacios donde se discutan i) nuevas causales de ejercicio de los recursos ordinarios y extraordinarios por motivos de implementación de IA; ii) la necesidad de tribunales especializados frente a eventuales disputas jurídicas; iii) la incorporación de declaración de uso informado, transparente, ético y seguro en las sentencias; iv) la designación de funciones relacionadas con la vigilancia, supervisión y fiscalización de la IA a una entidad del sistema judicial que trabaje de la mano con una entidad autónoma constitucional sobre el asunto. Sus funciones mínimas serían i) la integración de equipos interdisciplinares y diversos; ii) la recolección de información y registro; iii) el apoyo y supervisión en el análisis organizacional; iv) el apoyo y supervisión del análisis de funcionalidad; v) la certificación, evaluación y seguimiento; vi) la supervisión de precisión, solidez y ciberseguridad de la información de los sistemas de IA; vii) la presentación de dictámenes, recomendaciones o contribuciones.
5. ¿Qué habilidades y competencias deberían desarrollar los abogados para trabajar, de manera efectiva, con herramientas basadas en inteligencia artificial en su práctica diaria?
Son programas y herramientas que vienen desarrollados para ser utilizados por los abogados. Ya hay varios a disposición en el mercado que ofrecen firmas especializadas y vienen con sus instrucciones de manejo. Lo más importante es la disposición del abogado, del ser humano, para en adelante convivir con el IA en el ejercicio de su profesión. Lo más importante es la receptividad a utilizar estos instrumentos en su vida profesional.
“
Lo más importante es la disposición del abogado, del ser humano, para en adelante convivir con el IA en el ejercicio de su profesión.
Las habilidades y competencias necesarias para los abogados en la era de la IA son diversas. Es esencial desarrollar una comprensión sólida de los principios básicos de la IA, incluyendo sus capacidades y limitaciones, para poder evaluar críticamente su aplicabilidad en diferentes contextos legales.
Los profesionales deben adquirir competencias técnicas específicas, como el uso efectivo de herramientas de análisis legal predictivo, sistemas de gestión documental inteligente, y plataformas de investigación jurídica basadas en IA. También es crucial desarrollar habilidades en prompt engineering para interactuar efectivamente con sistemas de IA.
Además, se vuelve fundamental fortalecer habilidades blandas como el pensamiento crítico, la creatividad en la resolución de problemas, y la capacidad de síntesis para integrar efectivamente los insights generados por IA con el juicio legal profesional.
Con el propósito de crear una sinergia entre los abogados y los sistemas de inteligencia artificial, estos deben i) comprender los fundamentos básicos de la inteligencia artificial, sus diferentes caracterizaciones y su ciclo de vida; ii) entender el alcance actual del tipo de despliegue de IA, tanto sus potencialidades como limitaciones; iii) desde una perspectiva global y latinoamericana, comprender los debates constitucionales que desencadena su implementación; iv) identificar las de experiencias de implementación de IA en la justicia y las lecciones aprendidas; v) diferenciar el ámbito de implementación de la IA en un trabajo en concreto, porque existen tareas automatizables, semi automatizables y no automatizables; vi) identificar los marcos regulatorios de protección de datos personales e IA; vii) en últimas, recordar que los sistemas de IA son herramientas que están sujetas
a los estándares internacionales sobre derechos humanos y a la Constitución de 1991, lo que implica en la cotidianidad un uso adecuado, responsable, ético y transparente.
6. Tomando en cuenta la sentencia T-323 de 2024 de la Corte Constitucional, ¿cuáles serían, en su criterio, los principales tópicos que debe tener la guía o manual que realizará el Consejo Superior de la Judicatura, en relación con la implementación de la IA en la Rama Judicial, especialmente en cuanto al uso de la herramienta ChatGPT?
La sentencia es clara; son herramientas al servicio del juez y no al revés. No es el juez el que debe estar al servicio de la IA. La tecnología debe servir al ser humano. No debe la IA reemplazar al Juez, quién debe ser siempre quien tome la decisión, utilizando las herramientas que la tecnología pone a su disposición para apoyarlo en su labor.
Es esencial que la guía establezca límites claros sobre el uso de IA en diferentes tipos de providencias, distinguiendo entre decisiones administrativas rutinarias y aquellas que requieren mayor deliberación judicial. También debe abordar requisitos de transparencia, estableciendo cómo y cuándo debe documentarse el uso de IA en procesos judiciales.
“La guía debe incluir además directrices éticas específicas, procedimientos para mantener la independencia judicial, y protocolos para la capacitación continua de funcionarios judiciales en el uso responsable de estas tecnologías.
La guía debe incluir además directrices éticas específicas, procedimientos para mantener la independencia judicial, y protocolos para la capacitación continua de funcionarios judiciales en el uso responsable de estas tecnologías.
En principio, se deben de abordar los siguientes puntos en la guía o manual sobre la implementación de la IA en la Rama Judicial: a) declaración de uso informado, transparente, ético y seguro (entrega previa y posterior a las partes); b) preparar, desde un enfoque interseccional e interdisciplinario, propuestas mínimas de temarios teórico-prácticos de formación jurídica sobre i) introducción a los sistemas de IA; ii) experiencias de implementación de inteligencia artificial en la justicia; iii) desafíos legales y éticos de la IA; iv) derechos humanos e IA; c) redactar lineamientos que guíen proyectos de implementación de inteligencia artificial en la justicia. Estos deben contener como mínimo: i) reflexiones sobre despliegue de sistemas de IA; ii) análisis organizacional; iii) análisis de funcionalidad; iv) análisis de integración de equipos interdisciplinares; v) registro de despliegue de sistemas de IA; vi) obligaciones de las partes en el proceso, aplicación y seguimiento de sistemas de IA; vii) parámetros de eventual articulación con sector privado, ONG u otras entidades internacionales.
7. ¿Cómo puede la inteligencia artificial contribuir a mejorar el acceso a la justicia para poblaciones vulnerables en Colombia, y, en su concepto, qué medidas deberían implementarse para garantizar su equidad?
A lo largo de la historia de la humanidad, los adelantos de la ciencia han servido para mejorar la administración de justicia. La IA es un gran instrumento que debe cumplir la misma finalidad. Por supuesto que debe ser un instrumento para que todos los colombianos, sin discriminación, tengan acceso a la administración de justicia. La IA puede colaborar, no solo con facilitar el acceso a la justicia, sino con que se cumpla el principio de la independencia y de celeridad. Una justicia rápida y pronta puede ser la gran contribución de la IA.
Para garantizar la equidad, es necesario implementar medidas específi cas como el desarrollo de infraestructura tecnológica en zonas rurales y marginadas, programas de alfabetización digital, y sistemas de soporte técnico accesible. También es crucial establecer mecanismos para identificar y corregir sesgos algorítmicos que puedan afectar a poblaciones vulnerables.
La implementación debe incluir un enfoque diferencial que considere las necesidades específicas de diferentes grupos poblacionales, garantizando que la tecnología actúe como facilitador y no como barrera adicional en el acceso a la justicia.
Uno de los grandes desafíos de la revolución tecnológica en cuanto al despliegue de tecnologías es la vigencia del derecho a la igualdad y una justicia material mínima. Inicialmente, la inteligencia artificial tiene la potencialidad de contribuir en el acceso a la justicia a través de su apoyo en las diferentes fases de un proceso judicial que permite, en último término, adoptar una decisión. Sin embargo, la inteligencia artificial como herramienta no es suficiente si no viene acompañada de un conjunto de reflexiones y medidas sobre los beneficios y los riesgos de su despliegue. Entre ellas, contar con los recursos que permitan reducir y eliminar la brecha digital en cuanto a las desigualdades de acceso (motivaciones, material y habilidades) y uso (Van Dijk, 2005).
“
la inteligencia artificial tiene la potencialidad de contribuir en el acceso a la justicia a través de su apoyo en las diferentes fases de un proceso judicial que permite, en último término, adoptar una decisión.
El Arbitraje y la Inteligencia Artificial
Por: Hernando Herrera Mercado
Director
de la CEJ, árbitro nacional e internacional y conjuez de altas cortes.
La inteligencia artificial (IA) es comúnmente entendida como la posibilidad de lograr sistemas informáticos capaces de ejecutar operaciones antes reservadas al cerebro humano, tales como el razonamiento lógico, la percepción, o la resolución de problemas. De esa forma, se emplean equipos de computación para emular los procesos del intelecto humano con el objetivo de intentar duplicarlos. Uno de esos progresos lo encarna la IA utilizada por ChatGPT, que se encuentra en plena disponibilidad de simular diálogos, responder lógicamente preguntas vinculadas entre sí, y conectar información asociada buscada para un determinado fin. Desde luego, el crecimiento de las herramientas de IA en todos los sectores es vertiginoso, y lo que tiene especial transcendencia en el sector legal. En la actualidad, la IA puede proveer de herramientas útiles para ejecutar tareas propias de la cotidianidad de la abogacía dentro de lo que la doctrina especializada ha destacado la revisión de contratos y el due diligence o la revisión de documentos. Por supuesto, la implementación de tales herramientas conduce al indefectible debate de si su empleo debería ser objeto de regulación (estricta o blanda), o debería optarse por su desregulación.
A favor de la postura de la regulación, surgen argumentos relacionados con la necesidad de la protección de derechos y la confiabilidad de esos sistemas. Sin embargo, desde la otra orilla, se señala que la regulación podría obstaculizar la innovación y se frenarían los avances tecnológicos.
Más allá de esa polémica, son innegables las ventajas que la utilización de la IA generan para el mundo jurídico, y lo que desde luego incumbe al arbitraje. Por ejemplo, programas de IA son utilizados para procesar grandes volúmenes de información relacionada con pleitos de arbitraje, y lo que permite a litigantes acceder a datos relevantes para la estrategia de sus casos y para facilitarles la revisión de pruebas. Otros programas modernos, admiten la posibilidad de predecir resultados para una determinada controversia, o incluso, tecnologías de mayor desarrollo ofrecen la posibilidad de resolver disputas de
“
programas de IA son utilizados para procesar grandes volúmenes de información relacionada con pleitos de arbitraje, y lo que permite a litigantes acceder a datos relevantes para la estrategia de sus casos y para facilitarles la revisión de pruebas.
baja intensidad (como los que ofrecen eBay y PayPal) sin intervención humana. Todo lo anterior hace prever que, en tiempos para nada remotos, la IA y la alta tecnología vayan a generar nuevos potenciales que impactarán al arbitraje.
De hecho, ya se encuentran en fases desarrolladas y, en práctica, programas especializados que permiten asistir el nombramiento de árbitros, o en la proposición de estrategias legales para atender un caso, o que articulan con mediano éxito el análisis de prueba y la redacción de un laudo. Profundicemos en algunos de estos aspectos.
En lo que hace del proceso de escogencia de árbitros, son conocidas a nivel internacional plataformas que aportan claves para la selección de los posibles candidatos a integrar un tribunal al determinar quién sería la persona más adecuada para cumplir esa tarea. En cuanto a la formulación de la estrategia litigiosa, existen programas que pueden identificar eficientemente la jurisprudencia aplicable u otras variables axiales a un determinado proceso. En la esfera de la tarea arbitral, también se dispone de programas que pueden asistir la tarea de la redacción del laudo, o que ayudan a identificar aspectos relevantes de las cuestiones en disputa, o tecnologías que facilitan la ubicación de una determinada prueba.
De otro lado, en torno a estos tópicos, mucho se discute sobre la real posibilidad de que estos sistemas pudieran reemplazar a los humanos que participan (o participamos) en tribunales arbitrales, y con lo que se arribaría a la desafiante era de los “árbitros robots”. Al respecto es oportuno decir, que teniendo en cuenta que la IA evoluciona continua y persistentemente (dentro de una teoría que bien podría ser llamada la de la “pendiente resbaladiza” o la de “espiral” y que deriva en que un avance tecnológico propicia la casi inmediata llegada del siguiente), tan vertiginoso ritmo hace prácticamente imposible no avizorar escenarios en los cuales de manera parcial o total la máquina informática tienda a suplir la actividad humana.
Imagen tomada de www.freepik.es
Claro está que en la actualidad los programas de IA se encuentran fundamentalmente ligados a soportar aspectos específicos del arbitraje (revisión de documentos, procesamiento de grandes volúmenes de información, cotejo de pruebas y transcripción de declaraciones), e igualmente es cierto, que aún no existe una herramienta que sustituya las habilidades que posee un árbitro para resolver casos, pero el desarrollo de nuevas tecnologías hace pensar forzosamente para muchos en el próximo arribo de tener “árbitros artificiales”.
En todo caso, en torno a la viabilidad de que los árbitros sean reemplazados por robots, se discute si dada la complejidad que reviste el oficio arbitral, sería posible crear una herramienta que pudiera desarrollar fidedignamente el juicio del árbitro humano.
Algunos exponen que dado que los casos que se ventilan arbitralmente no son procedimientos repetitivos, resultaría muy difícil pensar en su automatización. Desde otra perspectiva, se señala que un árbitro-robot potenciado por IA, estaría efectiva y plenamente en capacidad de sustituir a los árbitros humanos.
En torno a esta polémica agregaríamos que evidentemente sería poco lógico suponer que se pudieran automatizar todas las tareas del árbitro humano, pero también sería poco práctico no admitir el empleo de sistemas de IA dentro del trámite arbitral. Por consiguiente, un punto medio de la cuestión sería coincidir en la incorporación de programas de IA en las labores de los árbitros, que no revistan de alta complejidad. En otras palabras, disponer de ellas en las tareas mecánicas a fin de enfocar los esfuerzos de los árbitros en lo sustancial, en el juicio basado en la experiencia y conocimiento jurídico para la resolución de la controversia. Tal visión ayudaría a soportar la misión de los árbitros sin desnaturalizarla, y daría mayor eficiencia a la gestión operativa arbitral. En síntesis, centrar la habilidad humana arbitral en lo cognitivo, delegando a la IA el trabajo que se pueda estandarizar.
Así se vivió una jornada histórica que reafirmó el compromiso con la justicia colombiana
Referencias bibliográficas
Aplicaciones de la inteligencia artificial en la valoración de la prueba judicial
1Ingeniero Químico y Doctor en Filosofía de la Universidad Pontificia Bolivariana. Abogado y Magister en Derecho Procesal de la Universidad de Medellín, Magister en Administración de Negocios de la Universidad EAFIT. Actualmente se desempeña como Director de la red mundial de IA aplicada a la justicia (RemagIA).
Referencias
Vargas, O. (2019). El razonamiento inductivo en la valoración de la prueba judicial. Salamanca: Ediciones Universidad de Salamanca.
Schum, D. A. (2016). Los fundamentos probatorios del razonamiento probabilístico. Medellín, Colombia: Orión Vargas.
Tecuci, G., Schum, D. A., Marcu, D., & Boicu, M. (2016). Knowledge engineering: building cognitive assistants for evidence-based reasoning. New York: Cambridge University Press. Cohen, L. J. (2017). Lo probable y lo demostrable. Medellín, Colombia: Orión Vargas.