La inteligencia artificial, una vez más, bajo escrutinio público. Esta vez, un fallo en el sistema de dictado automático de Apple ha generado controversia, planteando serias preguntas sobre la fiabilidad y seguridad de los algoritmos que impulsan nuestros dispositivos cotidianos.
Según la investigación publicada por The New York Times, algunos usuarios de iPhone reportaron que, al utilizar la función de dictado para enviar mensajes, la palabra “racist” (racista) era reemplazada momentáneamente por “Trump”, antes de ser corregida automáticamente.
Este incidente, inicialmente difundido a través de un video viral en TikTok, ha provocado un debate intenso sobre las capacidades y posibles sesgos de la inteligencia artificial de Apple. La empresa tecnológica, en respuesta a las crecientes críticas, ha atribuido el problema a una similitud fonética entre las dos palabras, asegurando que están trabajando diligentemente para implementar una solución definitiva.
John Burkey, fundador de Wonderrush.ai, una startup especializada en inteligencia artificial, y antiguo miembro del equipo de Siri, ofreció una perspectiva más profunda sobre el asunto. Burkey, quien mantiene contacto regular con sus ex-colegas en Apple, sugiere que el origen del problema podría no ser simplemente técnico. Si bien se descarta una manipulación de los datos de entrenamiento de la IA, la autocorrección rápida apunta a un posible componente malicioso en el código. Burkey incluso plantea la hipótesis de una “broma seria”, sembrando la duda sobre si alguien insertó deliberadamente este error en el sistema.
Cabe destacar que este fallo no es el primer tropiezo de Apple en relación con su nueva plataforma de inteligencia artificial, Apple Intelligence, lanzada el año pasado. Recientemente, la compañía se vio obligada a desactivar una de las funciones estrella del sistema, la agregación y resumen de noticias, debido a la generación de resúmenes inexactos de titulares de diversos medios de comunicación, lo que puso de manifiesto las dificultades inherentes a la interpretación precisa del lenguaje natural.
Un incidente similar ocurrió en 2018, cuando Siri, el asistente virtual de Apple, mostró una imagen inapropiada al responder a la pregunta “¿Quién es Donald Trump?”. En aquel entonces, se determinó que el error se originó en modificaciones vandálicas realizadas por editores maliciosos en la información de Wikipedia utilizada por Siri como fuente de datos. Estos eventos subrayan la vulnerabilidad de los sistemas de inteligencia artificial ante la manipulación externa y la importancia de implementar mecanismos robustos de verificación y seguridad.
El incidente del dictado automático surgió un día después de que Apple anunciara una inversión de 500 mil millones de dólares en Estados Unidos durante los próximos cuatro años, incluyendo la construcción de una nueva planta de fabricación de servidores de inteligencia artificial en Houston. Este anuncio siguió a una reunión entre Tim Cook, CEO de Apple, y el entonces Presidente Trump, en la que Cook prometió inversiones significativas en el país. La relación entre Cook y Trump ha sido objeto de atención pública, incluyendo una donación de un millón de dólares a la investidura de Trump y la presencia de Cook en el estrado durante la ceremonia.




