La creciente popularidad de las herramientas de inteligencia artificial para la creación de imágenes, impulsada por la nostalgia y la búsqueda de expresión creativa en redes sociales, plantea serias interrogantes sobre la privacidad y el control de nuestros datos personales. Desde la recreación de fotografías con estética Ghibli hasta la simulación de instantáneas Polaroid con personajes famosos, los usuarios se ven atraídos por la capacidad de la IA para difuminar las fronteras entre la realidad y la fantasía. No obstante, esta tendencia conlleva la cesión de importantes derechos sobre nuestras imágenes a las empresas tecnológicas.
Según la investigación publicada por Gestión, al participar en estas tendencias y subir fotografías a plataformas de IA, los usuarios, a menudo sin ser plenamente conscientes, otorgan licencias amplias y permanentes para el uso de su imagen. Estas licencias permiten a las compañías almacenar, modificar, distribuir e incluso comercializar las fotografías, generando un complejo panorama legal y ético.
Jenner Jose Fuentes, BDM de Digital Business en Tivit, advierte que los términos de servicio de estas plataformas, como Gemini de Google o YouCam Perfect, generalmente incluyen cláusulas que conceden a la empresa una licencia no exclusiva, mundial y transferible para el uso del contenido subido por el usuario. Esto significa que las empresas pueden utilizar las imágenes para diversos fines, incluyendo la creación de obras derivadas, sin necesidad de compensación económica al usuario.
Willy Ugarte, director académico de Ciencias de la Computación y de Ingeniería de Software de la UPC, subraya que los riesgos no se limitan a la imagen en sí misma, sino que también abarcan los metadatos asociados a las fotografías. Estos metadatos, que incluyen información sobre la ubicación, la hora y el dispositivo utilizado para tomar la foto, pueden ser utilizados para rastrear y perfilar a los usuarios, generando preocupaciones adicionales sobre la privacidad.
La utilización de estas imágenes para el “entrenamiento continuo” de los modelos de inteligencia artificial es otra de las preocupaciones planteadas por los expertos. Si bien este proceso permite mejorar la precisión y la capacidad de las IA, también implica la acumulación masiva de datos personales y la creación de perfiles detallados de los usuarios. Además, la seguridad de estos datos no está garantizada, ya que las plataformas de IA son vulnerables a ataques cibernéticos y a la creación de deepfakes, como demuestran los casos de estafas que involucran a figuras públicas como Julio Velarde y Elon Musk.
A diferencia de la Unión Europea, donde existe una regulación legal que protege los datos de los usuarios y su derecho a solicitar la eliminación de sus datos, en Perú no existe una legislación específica que regule el uso de licencias en las fotos generadas con inteligencia artificial. Esto deja a los usuarios en una situación de vulnerabilidad, ya que no tienen la posibilidad de controlar el uso que las empresas hacen de su imagen y de sus datos personales. El tiempo de almacenamiento de las imágenes, además, es indefinido.
En el ámbito corporativo, la falta de políticas claras sobre el uso de la IA puede generar riesgos importantes para las empresas. La dilución del control sobre los activos visuales, la pérdida de la gobernanza de datos y la dificultad para cumplir con normativas como el GDPR son algunas de las preocupaciones planteadas por los expertos. La trivialización de la imagen de los empleados y su potencial uso comercial por parte de terceros son otros riesgos a tener en cuenta en un entorno empresarial cada vez más digitalizado.




