La proliferación de la inteligencia artificial (IA) generativa, personificada en chatbots como ChatGPT, ha levantado interrogantes sobre su impacto en la sociedad, incluyendo el potencial de generar conductas adictivas. No obstante, un nuevo estudio internacional, desafía esta percepción popular, argumentando que no existe una base científica sólida para equiparar el uso de estas herramientas con adicciones como la drogadicción o el juego compulsivo. El debate se centra en la interpretación de patrones de uso frecuentes y su posible patologización prematura.
Según el reportaje de El Comercio, un equipo de investigación compuesto por Víctor Ciudad-Fernández (Universitat de Valencia), Cora von Hammerstein (Paris Cité University) y Joël Billieux (Université de Lausanne) ha analizado exhaustivamente estudios previos que intentaban medir la supuesta adicción a ChatGPT, revelando serias inconsistencias metodológicas.
La principal crítica radica en la extrapolación directa de criterios diagnósticos utilizados para adicciones a sustancias al ámbito del uso de chatbots. Los investigadores señalan que se aplican métricas como la “tolerancia” (necesidad de aumentar el uso para obtener el mismo efecto) o el “síndrome de abstinencia” (malestar al interrumpir el uso) de manera inapropiada, como si se tratara de evaluar una adicción química. Esta aplicación acrítica de herramientas de evaluación, según Víctor Ciudad, sería como diagnosticar adicción al baile usando los mismos parámetros que se emplean para detectar dependencia a la heroína.
El estudio cuestiona la evidencia de “daño clínicamente significativo” en los usuarios de ChatGPT. A diferencia de las adicciones reconocidas, no se han documentado casos de deterioro funcional grave o consecuencias negativas sustanciales en la vida personal, laboral o social de los individuos que utilizan con frecuencia estas herramientas de IA. En cambio, los investigadores sugieren que el uso recurrente de ChatGPT a menudo responde a motivaciones como la curiosidad intelectual, la búsqueda de aprendizaje o incluso como una estrategia de afrontamiento ante situaciones estresantes. Esto difiere sustancialmente de la compulsión y la pérdida de control que caracterizan las adicciones genuinas.
Los autores del estudio advierten sobre los peligros de etiquetar prematuramente el uso de ChatGPT como una adicción. Tal categorización podría conducir a la estigmatización de los usuarios, la implementación de tratamientos innecesarios y la promoción de regulaciones carentes de fundamento científico. Subrayan que la atención debe centrarse en comprender los factores que contribuyen a un uso problemático de la IA, en lugar de patologizar la herramienta en sí misma.
El equipo de investigación enfatiza la importancia de un uso consciente y regulado de la inteligencia artificial, promoviendo un enfoque analítico y crítico en lugar de ceder a discursos alarmistas infundados. Esta perspectiva invita a un cambio de paradigma: en lugar de centrarse en la potencial “adicción” a la IA, se debe investigar cuándo y por qué su uso se vuelve problemático en determinados contextos.
Publicado en la revista científica *Addictive Behaviors*, el estudio surge como una respuesta directa a la creciente ola de alarmismo mediático en torno a la supuesta naturaleza adictiva de los chatbots de IA, buscando aportar rigor científico a un debate a menudo impulsado por la especulación y el sensacionalismo.




