No podemos ocultar que la utilización de la inteligencia artificial computa a su favor claras y múltiples ventajas y beneficios para la eficiencia y la operatividad de las administraciones públicas. Sin embargo, la toma decisiones administrativas basadas preferentemente en los cálculos matemáticos que supone el uso de algoritmos y big data, pueden ocasionar severos y enormes daños a los derechos de los ciudadanos.
El objetivo de los proyectos de inteligencia artificial y análisis de información desarrollados por la administración tributaria deben estar alineados con su doble misión, de un lado, ayudar a los contribuyentes a cumplir de forma voluntaria sus obligaciones tributarias mediante actividades de asistencia y de información y de otro, a fortalecer la lucha contra el fraude fiscal. Si bien es cierto el uso de la inteligencia artificial en aras de la consecución de ambos objetivos juega un papel esencial en la transformación de las administraciones tributarias ante la nueva realidad fiscal a la que nos enfrentamos, es mandatorio prestar una especial consideración a cómo esta transformación de la administración puede afectar a la posición jurídica de los contribuyentes. Sobre todo, en lo que respecta a sus derechos y garantías en un contexto que, en un futuro cercano, puede ser muy diferente al que hoy conocemos y que hasta el momento regula nuestro ordenamiento jurídico.
Uno de los mayores riesgos e incertidumbres que depara el uso de la inteligencia artificial en manos de una administración tributaria es la comisión de errores en la toma de decisiones automatizadas, y la introducción de sesgos y discriminaciones algorítmicas estratégicas al conculcar derechos individuales de los contribuyentes reconocidos en la normativa vigente, cuyas implicaciones prácticas no están todavía suficientemente exploradas dada la novedad intrínseca a este tipo de tecnología.
Cuando hacemos hincapié en la necesidad de mejorar la calidad de los algoritmos en manos de la administración tributaria, nos referimos al diseño interno del algoritmo y a las posibles discriminaciones introducidas en su configuración que invaliden sus hipótesis y sus resultados por producir posibles discriminaciones entre contribuyentes como ha sucedido en otras jurisdicciones fiscales. La administración tributaria debe ser especialmente cuidadosa al utilizar los resultados de modelos predictivos como indicadores de comportamiento futuro de un contribuyente.
Estos modelos, que basan sus predicciones en un entrenamiento a partir de situaciones del pasado para inferir el comportamiento futuro del contribuyente, siempre tendrán un margen de error que viene dado por la imposibilidad material de la administración tributaria para captar todas las posibles fuentes de información que pueden afectar las decisiones y el comportamiento de un contribuyente, que además puede no ser lineal, o aun suponiendo que las condiciones que afectan al comportamiento del contribuyente sean invariables en el tiempo.
Los datos empleados para el entrenamiento del modelo predictivo pueden incurrir en diversos sesgos que pueden dar lugar a discriminaciones entre contribuyentes, ya sea porque el entrenamiento de los algoritmos se haya basado en decisiones previas de funcionarios públicos quienes en un determinado procedimiento (de forma consciente o inconsciente) hayan incurrido en la toma de decisiones sesgadas que los algoritmos podrían limitarse a reproducir si no se supervisan y analizan cuidadosamente; o bien, porque los datos de entrenamiento del algoritmo estén sesgados por no ser una muestra suficientemente representativa. En este último caso, cuando se pretende entrenar un modelo predictivo para identificar el fraude fiscal a partir de casos de fraude previamente conocidos se debe tener en cuenta que en el ámbito tributario puede haber situaciones de fraude que queden sin identificar, más cuando tratamos con contribuyentes inmersos en la economía digital y transfronteriza. En las circunstancias antes descritas, tanto el algoritmo como el funcionario público encargado de la supervisión del tratamiento estarían “ciegos” frente a tipos de fraude fiscal no identificados hasta la fecha.
De ahí, que el resultado de modelos predictivos en el ámbito de la administración tributaria requiera, especialmente en la lucha contra el fraude fiscal, una necesaria supervisión humana de los algoritmos, no solo en su diseño sino también durante el uso del mismo, en este sentido se confirma que la inteligencia artificial debe servir de herramienta de apoyo a la toma de decisiones relevantes de naturaleza tributaria, pero en última instancia siempre se debe garantizar como mínimo el derecho a obtener intervención humana por parte del responsable del tratamiento de los datos respecto a la toma decisiones individuales automatizadas, incluida la elaboración de perfiles.




