El reto de la regulación normativa sobre la inteligencia artificial

Por César Augusto kanashiro Castañeda

El camino de la regulación internacional y nacional del uso de la inteligencia artificial promete ser largo y complejo debido a la necesaria implicación y coordinación de enfoques de varias disciplinas y de intereses económicos, tanto de las grandes corporaciones como de los propios gobiernos, por el impacto generalizado que se producirá sobre todos los sectores productivos.  Cabe mencionar el caso de El Libro Blanco de la IA de la Comisión Europea, el cual es un punto de partida para que, junto con las estrategias nacionales de IA, se produzca el diálogo sociopolítico necesario para sentar unas bases que permitan un uso confiable y seguro de la inteligencia artificial como herramienta de la auditoría digital y de inteligencia artificial.

La inteligencia artificial proporciona numerosas ventajas y avances en todos los campos de nuestras vidas, sobre todo para las empresas al optimizar sus procesos y resultados; sin embargo, su expansión obliga a establecer una regulación con modelos más confiables que eviten posibles riesgos. Resulta fundamental que, al planearla y llevarla a cabo, la regulación sea transparente, ética y marque un camino de buenas prácticas y una cultura de autorregulación para todos los niveles de uso.

También se recomienda crear la figura de un líder responsable de la ética en la IA dentro de las compañías, una figura que establezca las reglas y realice pruebas de sesgos para obtener el máximo provecho de la digitalización enfocados en la seguridad.

En el Foro Económico de Davos se generó la discusión sobre la regulación de la inteligencia artificial una tecnología que se está expandiendo en el mundo con fuerza. Los organismos internacionales ya están trabajando al respecto de una regulación y las empresas sienten que ese es el paso que debe dar la industria, para construir modelos más confiables.

De acuerdo con un reciente estudio global de IBM, 3 de cada 4 empresas están explorando o implementando la inteligencia artificial, y 78% dijo que es “muy” o “críticamente importante” que puedan confiar en que sus modelos (IBM Institute, s.f.).

Resulta importante mencionar “Las tres leyes de la inteligencia artificial”, que Oren Etizoni, director del Insituto Allen para la Inteligencia Artificial, cree que hay que ir pensando en unas leyes que regulen la inteligencia artificial. En la línea de Isaac Asimov y su libro Leyes de la robótica, hace esta propuesta de tres leyes:

–   Una inteligencia artificial debe estar sometida a todas las leyes que se apliquen a sus operadores humanos, ya sea una IA para uso particular, empresarial, o gubernamental; no queremos que hagan nada que sea ilegal para nosotros. Y también habría que modificar las leyes vigentes para que no se pudiera usar la excusa de: «mi IA lo hizo».

–   Una IA debe dejar siempre claro que no es humana. Ya no es sólo que los bots (robots) puedan confundir a algunas personas, es que las IA son cada vez capaces de producir mejor información, información falsa incluida.

–   Una IA no puede almacenar o diseminar información confidencial sin el permiso expreso de quien la ha generado, en especial teniendo en cuenta que ya hay productos en el mercado como Amazon Echo que está todo el rato a la escucha.

En el ámbito de la ética y la moralidad, es frecuente encontrar principios formulados de esta manera: por ejemplo, “no matarás”; o el conocido imperativo categórico de Immanuel Kant: “Obra de tal modo que uses a la humanidad, tanto en tu persona como en la persona de cualquier otro, siempre al mismo tiempo como fin y nunca simplemente como medio” (Kant, 1879).

De manera similar, el campo de la robótica y de la IA es susceptible también de albergar   formulaciones   semejantes.   Muchos   de   los   principios   que   es   posible encontrar en los documentos listados se inspiran previamente en las leyes de la robótica elaboradas por Isaac Asimov:

I.           Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño; 

II.          Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley; 

III.        Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley (1942).

Aunque estas tres leyes pertenezcan al ámbito de la ciencia ficción, constituyen un buen modelo en el que inspirarse, ya que identifican un bien en particular —en este caso, la vida y la autonomía de los seres humanos— que debe ser protegido y respetado —en el universo de Asimov, por los robots—.

No debe obviarse que la IA, a pesar de ser un fenómeno que en la última década ha crecido a un ritmo acelerado, tiene tras de sí una legislación y regulación escasa a nivel internacional. Esto se debe a que no existen leyes que versen particularmente sobre la convivencia entre personas y máquinas inteligentes.