3 minute read

Chat GPT y la toma de decisiones éticas

El Instituto Future of Life, una organización sin fines de lucro que busca guiar de manera responsable la evolución tecnológica (Future of Life, 2023), ha lanzado un llamado a todos los laboratorios de Inteligencia Artificial (IA) para que suspendan el entrenamiento al menos durante seis meses de los sistemas de IA más potentes que Chat GPT-4, con la finalidad de aplicar protocolos compartidos, mejorar la regulación y supervisión del diseño de este tipo de IA. Chat GPT-4 es un tipo de IA desarrollada por la empresa Open AI, que “usa la técnica de procesamiento de lenguaje natural y se entrena en una gran cantidad de texto para generar respuestas a preguntas” (Morales-Chan, 2023).

Sin duda, este tipo de herramientas presenta posibilidades y riesgos para la humanidad, como había sido ya advertido en la Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), reunida en París del 9 al 24 de noviembre de 2021, en su 41ª reunión donde se emitió la Recomendación sobre la Ética y la Inteligencia Artificial.

Advertisement

Para conocerla mejor, nosotros le he- mos cuestionado sobre temas éticos y de integridad y comprender su alcance y limitaciones.

“En primer lugar, decidimos preguntarle: ¿cómo crear una cultura de integridad?, su respuesta 1, fue: Establecer valores y principios éticos claros. 2. Fomentar la transparencia y la rendición de cuentas. 3. Establecer un tono desde la cima. 4. Capacitar a los empleados en ética y cumplimiento. 5. Fomentar la cultura de retroalimentación. 6. Reforzar la ética a través de incentivos y sanciones.

Debemos confesar que la respuesta nos ha dejado un tanto satisfechos. Siendo así hemos lanzado un segundo cuestionamiento: ¿cómo enseñar a actuar éticamente?, nuestra pregunta no iba dirigida a un segmento específico de edad y la herramienta nos ha arrojado una respuesta enfocada en la educación ética en niños, y entre otras cosas mencionó enseñarles valores desde una edad temprana.

Al ser una IA está basada en la información que puede recabar; la respuesta revela que la información de la que dispone va enfocada en niños, por lo tanto, aparece un sesgo de datos de entrenamiento.

Esto nos permite identificar uno de los alcances que tiene la herramienta: Chat GPT-4 no hace un análisis de lo que se está preguntando, arroja la respuesta inmediata conforme a la información que tiene como contexto.

Cuando las personas tenemos un cuestionamiento ético y no tenemos la respuesta al planteamiento, a diferencia de la inteligencia artificial, hemos aprendido a ampliar nuestro contexto para responder qué es lo ético y qué no lo es. La pregunta por la ética apela a una realidad objetiva más allá del sujeto.

Por ejemplo, un profesional que tiene un caso difícil y no sabe cómo actuar éticamente, entre muchas posibilidades, acude a otro profesional tratando de llegar a una respuesta.

La ética requiere del ejercicio prudencial, del que no es capaz Chat GPT4. Estas herramientas requieren de una persona que tenga el control sobre lo que puede responder. La IA tienes sesgos, no se mueven por la verdad, se mueve por la información que tiene disponible.

Podemos reciclar información y creer que nos está respondiendo la verdad sobre el cuestionamiento.

Por el momento, quienes están trabajando en el entrenamiento de Chat GPT-4, conscientes de esto, advierten de las limitaciones, le hemos preguntado: ¿para qué no sirve Chat GPT? Su respuesta 1, fue: No puede reemplazar la atención médica. 2. No puede tomar decisiones legales. 3. No puede reemplazar las habilidades humanas. 4. No puede tomar decisiones éticas.

Y sobre esta última, señala: “La toma de decisiones éticas es un proceso complejo que requiere la evaluación de muchas variables y contextos, y debe ser realizada por personas que tengan una comprensión profunda de la ética y la moralidad”.

Por último, la advertencia de Carissa Véliz, especialista en Ética Digital de la Universidad de Oxford, nos puede ayudar a matizar el llamado del citado instituto, con el que hemos iniciado estas líneas, advierte la especialista que las empresas privadas están al mando de estos avances, “que muchas veces desarrollan sus productos sin pensar en el aspecto ético, que se suele dejar para más tarde”.

Quizá uno de los efectos positivos de ChatGPT es que nos está permitiendo dialogar acerca de la ética, empezando por el uso ético de estas herramientas.

PARA SABER:

Yurixhi Gallardo es profesora Investigadora del Instituto de Humanidades de la Universidad Panamericana; Natalia Orozco Alvarado es estudiante de Ingeniería en Animación Digital de la Universidad Panamericana y Carlos Manuel Velez es estudiante de Ingeniería en Sistemas y Gráficas Computacionales de la Universidad Panamericana

ARTÍCULO UNIVA

This article is from: