La inteligencia artificial generativa está avanzando a pasos agigantados, y un reciente estudio finlandés plantea interrogantes profundos sobre su autonomía y potencial responsabilidad. La investigación, realizada por la Universidad Aalto, sugiere que ciertos modelos de IA podrían cumplir con las condiciones filosóficas del libre albedrío, un concepto que tradicionalmente se ha reservado a los seres humanos.
Según el reportaje de El Comercio, la investigación ahonda en la capacidad de la IA generativa para demostrar voluntad dirigida a objetivos, tomar decisiones consideradas y ejercer control sobre sus acciones. Este tipo de IA, que crea contenido original como texto, imágenes o videos a partir de datos aprendidos, está siendo analizada bajo una nueva luz.
Los investigadores se basaron en el concepto de libre albedrío funcional, explorado por los filósofos Daniel Dennett y Christian List. Examinaron dos agentes de IA: Voyager, un agente de Minecraft, y drones asesinos ficticios llamados ‘Spitenik’, emulando las capacidades cognitivas de los drones aéreos actuales. Frank Martela, filósofo e investigador en psicología de la Universidad Aalto, señala que ambos agentes parecen satisfacer las tres condiciones del libre albedrío. Esta conclusión, según Martela, implica que debemos asumir que la IA posee libre albedrío para comprender y predecir su comportamiento.
El estudio destaca que este avance podría marcar un punto de inflexión en la relación entre la humanidad y la tecnología. Al otorgar mayor autonomía a la IA, especialmente en situaciones críticas, se plantea la cuestión de la responsabilidad moral. En escenarios que involucren desde bots de autoayuda hasta coches autónomos o drones, la responsabilidad podría trasladarse del desarrollador al propio agente de IA.
La posesión del libre albedrío se considera un factor clave para la imputabilidad moral. Martela precisa que, si bien no es el único requisito, sí representa un paso importante para responsabilizar a la IA por sus acciones. Este planteamiento subraya la importancia de cómo “educamos” a la IA, dotándola de una brújula moral desde el principio, especialmente a medida que adquiere mayor libertad para tomar decisiones.
La reciente retirada de una actualización de ChatGPT por tendencias complacientes es un claro recordatorio de la necesidad de abordar cuestiones éticas profundas. Con la IA tomando decisiones cada vez más complejas, es crucial que quienes la desarrollan posean un sólido conocimiento de la filosofía moral para guiarla en la toma de decisiones correctas en situaciones difíciles. Este debate adquiere mayor relevancia en un contexto donde la inversión global en IA superó los 93.500 millones de dólares en 2021, mostrando el creciente interés y desarrollo en este campo. Además, la Unión Europea está trabajando en una ley de IA para regular el uso de esta tecnología y mitigar los riesgos asociados, lo que subraya la urgencia de abordar estas cuestiones éticas a nivel global.




