India exige a redes sociales eliminar deepfakes más rápido

India endurece normas contra “deepfakes” de IA, exigiendo a plataformas como Meta y YouTube eliminar contenido falso en solo 2-3 horas, o enfrentarán graves multas.

India ha impuesto nuevas y estrictas reglas a gigantes tecnológicos globales como Meta y YouTube, obligándolos a retirar contenido falso generado por inteligencia artificial, conocido como “deepfakes”, en un plazo ultrarrápido de hasta 2 o 3 horas a partir del 20 de febrero de 2026. Este cambio radical redefine la moderación digital.

Según la investigación publicada por TechCrunch, esta medida busca frenar la desinformación masiva en el segundo país más poblado del mundo, con más de 1.400 millones de habitantes y una base de usuarios de internet que supera los 1.000 millones, redefiniendo el futuro de la moderación digital globalmente.

India Impone Plazos Drásticos de 3 Horas para Eliminar “Deepfakes”

Las autoridades indias han lanzado una ofensiva sin precedentes contra el uso malicioso de la inteligencia artificial, especialmente los “deepfakes”, con enmiendas a sus Leyes de Tecnología de la Información de 2021 que entraron en vigor este 20 de febrero de 2026. Estas nuevas directrices obligan a plataformas de redes sociales a actuar con una velocidad alarmante. Para órdenes oficiales de eliminación, el plazo se ha reducido a solo 3 horas, mientras que para quejas urgentes de usuarios, la ventana es aún más corta, de 2 horas. Esto representa un cambio monumental respecto a normativas anteriores que permitían plazos de hasta 24 o 36 horas. El gobierno indio, que representa a más de 1.000 millones de ciudadanos conectados, busca proteger a su vasta población joven de los engaños digitales.

¿Cómo impactará esto a gigantes tecnológicos con millones de usuarios?

La relevancia de India como mercado digital, con una base de más de 1.000 millones de usuarios de internet activos y creciendo a un ritmo exponencial del 15% anual, magnifica el impacto global de estas nuevas reglas. Plataformas como Meta (con más de 300 millones de usuarios de WhatsApp en India), YouTube (con casi 500 millones de espectadores) y X (con más de 20 millones de usuarios) enfrentan ahora un desafío regulatorio considerable. Se espera que las medidas de cumplimiento adoptadas en India, que es el tercer mercado más grande para estas empresas después de EE. UU. y China, influyan directamente en sus políticas de productos y moderación a nivel mundial, estableciendo un precedente para otros 190 países. En 2023, India fue el país con el mayor número de descargas de aplicaciones móviles, superando los 25.000 millones de instalaciones.

La Transparencia como Eje: Etiquetado y Trazabilidad Obligatorios

Bajo las enmiendas, todas las plataformas que permitan subir o compartir contenido audiovisual deben exigir divulgaciones claras sobre si el material fue generado sintéticamente. Deben implementar herramientas técnicas avanzadas para verificar estas declaraciones y asegurar que los “deepfakes” estén claramente etiquetados, incrustando datos de procedencia trazable. Se espera que al menos el 80% de las plataformas implemente estas medidas en los próximos 6 meses.

¿Cuáles son los riesgos si las empresas no cumplen con la nueva normativa?

La no observancia de estas directrices tiene consecuencias graves. Rohit Kumar, socio fundador de la consultora The Quantum Hub en Nueva Delhi, advierte que los plazos de eliminación “materialmente elevan las cargas de cumplimiento”. Si las empresas no actúan con la rapidez requerida, especialmente en casos señalados por autoridades o usuarios, podrían perder sus “protecciones de puerto seguro” bajo la ley india. Esto significa que ya no estarían exentas de responsabilidad legal por el contenido de terceros, exponiéndolas a demandas y sanciones millonarias que podrían ascender a varios miles de millones de rupias. Además, ciertas categorías de contenido sintético —como suplantaciones engañosas, imágenes íntimas no consensuadas y material relacionado con delitos graves— están prohibidas por completo, con cero tolerancia.

Inversión Millonaria en Automatización para Evitar Sanciones

Para cumplir con estas obligaciones, las plataformas deberán invertir sumas cuantiosas, estimadas en cientos de millones de dólares a nivel global, en sistemas automatizados y herramientas de inteligencia artificial. Se espera que implementen soluciones técnicas robustas para verificar las divulgaciones de los usuarios, identificar y etiquetar “deepfakes” de forma autónoma, y prevenir la creación o distribución inicial de contenido sintético prohibido. Según proyecciones de la industria, el gasto en tecnología de moderación de contenido en India podría duplicarse en los próximos 18 meses. Aprajita Rana, socia de AZB & Partners, señala que aunque las reglas se enfocan en contenido audiovisual generado por IA, excluyen usos “cosméticos o de eficiencia”, buscando un equilibrio, aunque el plazo de 3 horas genera inquietud sobre los principios de libertad de expresión.

Un Periodo de Ajuste Crítico con Cero Tolerancia

Las plataformas tuvieron un tiempo mínimo, apenas unas 10 semanas desde el anuncio de las enmiendas, para adaptar sus sistemas de cumplimiento. Esta implementación coincide estratégicamente con la Cumbre de Impacto de la IA que India alberga en Nueva Delhi del 16 al 20 de febrero, atrayendo a más de 50 altos ejecutivos y formuladores de políticas tecnológicas de al menos 20 países.

¿Podrían estas reglas afectar la libertad de expresión y expandir la censura en línea?

Grupos como la Internet Freedom Foundation (IFF) han expresado serias preocupaciones, advirtiendo que los plazos “imposiblemente cortos” de eliminación podrían acelerar la censura y llevar a una “sobre-eliminación” automatizada de contenido, afectando potencialmente la libertad de expresión para los 1.000 millones de usuarios indios. Temen que se reduzca el margen para la revisión humana y que se amplíen las categorías de contenido prohibido, así como las disposiciones que permiten revelar identidades de usuarios sin supervisión judicial. Además, la consulta previa fue limitada, incorporando solo 2 de las 15 sugerencias de la industria, lo que genera dudas sobre la viabilidad y el impacto a largo plazo de estas reglas en un panorama digital que evoluciona a cada segundo. El debate sobre el equilibrio entre seguridad digital y derechos fundamentales apenas comienza.

Crédito de imagen: Fuente externa