Es posible que los datos filtrados alimenten algoritmos orientados a la comisión de delitos

La inteligencia artificial (IA) generativa ha emergido como una fuerza transformadora con la capacidad de abrir puertas a nuevas oportunidades en diversos campos. Sin embargo, esta tecnología también plantea desafíos significativos en áreas cruciales como la privacidad, la seguridad digital y la identificación de sesgos que podrían exacerbar las desigualdades existentes. El debate actual se centra en cómo aprovechar el potencial de la IA minimizando sus riesgos inherentes, un tema que requiere una atención cuidadosa y estrategias proactivas.

Según la investigación publicada por El Comercio, Marushka Chocobar, consejera en Inclusión Digital para Generativa Latam, subraya la importancia de que los usuarios se comprometan con su propia seguridad digital, además de adoptar una postura crítica y propositiva frente a las herramientas de IA. Chocobar advierte sobre el papel, a menudo inadvertido, que juegan los usuarios en el entrenamiento de algoritmos al compartir contenido en redes sociales, una dinámica que podría facilitar suplantaciones de identidad cada vez más sofisticadas y difíciles de detectar.

La experta destaca que la inteligencia artificial se desarrolla en dos etapas cruciales. En primer lugar, el diseño de los algoritmos debe asegurar que no incorporen sesgos desde el inicio. En segundo lugar, el entrenamiento de los sistemas, generalmente realizado con datos disponibles en internet, puede perpetuar y amplificar desigualdades si no se gestiona adecuadamente. Un ejemplo ilustrativo es el caso de una investigadora del MIT que evidenció cómo un sistema de reconocimiento facial era incapaz de identificar su rostro hasta que utilizó una máscara blanca, revelando un claro sesgo racial.

Un sesgo de género común, según Chocobar, es la práctica de asignar nombres femeninos a asistentes digitales, lo que refuerza estereotipos de género. En el contexto peruano, tanto en el sector público como en el privado, es frecuente encontrar asistentes digitales con nombres femeninos, lo que sugiere una asociación entre roles de apoyo y el género femenino. Esta tendencia, aunque aparentemente inocua, contribuye a la perpetuación de desigualdades en el ámbito laboral y social.

En sistemas automatizados de reclutamiento, la IA también puede reproducir sesgos. Algunos algoritmos, entrenados con datos históricos que favorecen perfiles masculinos en el sector digital, penalizan las hojas de vida de mujeres, lo que demuestra la necesidad de incorporar mecanismos efectivos para prevenir y mitigar estos sesgos tanto en el diseño como en la alimentación de los sistemas. Este problema no es exclusivo de Perú; a nivel global, empresas como Amazon han tenido que desmantelar sistemas de reclutamiento automatizados por reproducir sesgos de género.

Chocobar enfatiza la importancia de visibilizar esta situación y generar conciencia. En el caso del periodismo, los medios de comunicación juegan un papel crucial como «entrenadores de algoritmos» a través de las noticias, reportajes y documentales que publican. Desde una perspectiva técnica, es fundamental garantizar la equidad en los equipos que diseñan y desarrollan algoritmos, incorporando a más mujeres, personas con discapacidad y adultos mayores para asegurar la inclusión y la diversidad de perspectivas.

La transparencia algorítmica, un concepto clave para Chocobar, implica que las personas deben poder saber qué hará un algoritmo con sus datos. Propone que la Ley de Transparencia y Acceso a la Información Pública incorpore la transparencia algorítmica para que los ciudadanos puedan estar informados sobre cómo se utilizan sus datos. Esto implica ir más allá del simple consentimiento y comprender cómo los sistemas algorítmicos procesarán la información personal.

Finalmente, Chocobar advierte sobre la creación de deepfakes y la facilidad con la que se puede clonar la identidad de una persona a partir de imágenes disponibles en redes sociales. Insta a los usuarios a ser conscientes de cómo entrenan la inteligencia artificial al compartir contenido en línea y a preguntarse cuánto valen realmente sus datos antes de entregarlos a plataformas que no ofrecen un servicio proporcional. Además, destaca la importancia de desarrollar algoritmos que identifiquen sesgos de forma automatizada y de monitorear las brechas existentes en la participación y generación de información.