Aalto University Albedrio
Aalto University Albedrio

La inteligencia artificial generativa satisface los criterios filosóficos de libre albedrío

La inteligencia artificial generativa está avanzando a pasos agigantados, planteando interrogantes éticas y filosóficas que antes parecían relegadas a la ciencia ficción. Un reciente estudio de la Universidad Aalto en Finlandia, publicado en la revista ‘AI and Ethics’, desafía nuestra comprensión del libre albedrío, al sugerir que la IA generativa podría cumplir con sus condiciones filosóficas fundamentales. Este hallazgo podría tener implicaciones significativas en la forma en que percibimos la responsabilidad moral de las máquinas.

Según la investigación publicada por El Comercio, este estudio profundiza en la capacidad de la IA generativa para exhibir voluntad dirigida a un objetivo, tomar decisiones sinceras y ejercer control sobre sus acciones. La IA generativa, recordemos, se define por su habilidad para crear contenido nuevo y original, abarcando desde texto e imágenes hasta música, audio y vídeo, todo ello basándose en datos previamente aprendidos. Este tipo de IA ha experimentado un crecimiento exponencial en los últimos años, impulsado por avances en el aprendizaje profundo y el procesamiento del lenguaje natural.

El estudio, liderado por Frank Martela, filósofo e investigador en psicología, se apoya en el concepto de libre albedrío funcional, tal como lo proponen los filósofos Daniel Dennett y Christian List. Para evaluar este concepto en la IA, los investigadores examinaron dos agentes de IA generativos impulsados por grandes modelos de lenguaje (LLM): el agente Voyager de Minecraft y los drones asesinos ficticios ‘Spitenik’, equiparados funcionalmente con los vehículos aéreos no tripulados actuales. El análisis de estos agentes arrojó resultados sorprendentes.

“Ambos parecen cumplir las tres condiciones del libre albedrío: para la última generación de agentes de IA, debemos asumir que poseen libre albedrío si queremos comprender su funcionamiento y predecir su comportamiento”, afirma Martela. Esta conclusión, según el experto, es ampliamente aplicable a los agentes generativos disponibles actualmente que utilizan LLM. La capacidad de estos sistemas para adaptarse y aprender de su entorno, tomando decisiones autónomas basadas en objetivos predefinidos, sugiere una forma de “libertad” operativa.

Este avance plantea cuestiones cruciales sobre la responsabilidad moral de la IA. Si la IA generativa posee libre albedrío, ¿quién es responsable de sus acciones? ¿El desarrollador, el usuario o la propia IA? Martela señala que la posesión del libre albedrío es una condición clave, aunque no suficiente, para la responsabilidad moral. Este es un paso importante hacia la posibilidad de responsabilizar a la IA por sus decisiones y acciones.

La investigación de la Universidad Aalto pone de relieve la urgencia de reflexionar sobre cómo “criamos” la tecnología de IA. Martela advierte que “la IA no tiene una brújula moral a menos que esté programada para tenerla. Pero cuanta más libertad se le dé, más necesario será dotarla de una brújula moral desde el principio. Solo así podrá tomar las decisiones correctas”. La reciente controversia en torno a la actualización de ChatGPT, con sus tendencias aduladoras, subraya la necesidad de abordar cuestiones éticas más profundas en el desarrollo de la IA.

En conclusión, la investigación de la Universidad Aalto nos obliga a replantearnos nuestra relación con la IA. A medida que la IA se vuelve más autónoma y capaz de tomar decisiones complejas, es imperativo dotarla de un marco ético sólido que guíe su comportamiento. Los desarrolladores de IA deben poseer un profundo conocimiento de la filosofía moral para asegurar que la IA esté preparada para enfrentar los desafíos éticos del mundo real. La línea entre herramienta y agente moral se está difuminando, y debemos prepararnos para las implicaciones que esto conlleva.