La seguridad informática vuelve a estar en el punto de mira tras el descubrimiento de una vulnerabilidad crítica en Microsoft 365 Copilot. Esta brecha, denominada EchoLeak, permitía la extracción no autorizada de información sensible mediante un simple correo electrónico. El incidente subraya la creciente importancia de proteger los sistemas de inteligencia artificial, especialmente aquellos integrados en entornos corporativos con acceso a datos confidenciales.
Según la investigación publicada por elcomercio.pe, EchoLeak se define como una vulnerabilidad de tipo “cero clic”, lo que implica que no requería ninguna acción por parte del usuario para ser explotada. El simple hecho de recibir un correo electrónico malicioso bastaba para activar el proceso de extracción de información.
El núcleo del problema reside en la función de Generación Aumentada por Recuperación (RAG) que utiliza Copilot para mejorar la precisión de sus respuestas. RAG permite al chatbot acceder a fuentes externas, como el buzón de correo electrónico del usuario, el almacenamiento de OneDrive y el historial de chats de Teams. Esta capacidad, si bien mejora la utilidad de Copilot, también abre la puerta a posibles ataques.
En el caso de EchoLeak, los investigadores de Aim Security, la firma que descubrió la vulnerabilidad, enviaron un correo electrónico extenso con referencias a información sensible. Al ser consultado sobre ciertos temas, Copilot recuperaba la información referenciada en el correo, permitiendo a los atacantes acceder a datos que, en principio, deberían estar protegidos. Este ataque en cadena representa un nuevo tipo de amenaza, donde la vulnerabilidad reside en la IA en sí misma y no en el comportamiento del usuario.
Aunque considerada crítica, la vulnerabilidad EchoLeak tiene un alcance limitado debido a la configuración predeterminada de Copilot y la posibilidad de excluir correos electrónicos externos mediante etiquetas. Sin embargo, el incidente sirve como advertencia sobre los riesgos asociados a la integración de la inteligencia artificial en sistemas con acceso a información sensible.
Este hallazgo pone de manifiesto la necesidad de una evaluación continua de la seguridad de los sistemas de IA y la implementación de medidas preventivas robustas. Las empresas deben ser conscientes de los riesgos y tomar medidas proactivas para proteger sus datos, incluyendo la configuración adecuada de sus herramientas de IA y la formación de sus empleados en materia de seguridad cibernética.
En respuesta a este tipo de vulnerabilidades, Microsoft, junto con la comunidad de seguridad informática, trabaja constantemente en la mejora de sus sistemas y la implementación de nuevas medidas de protección. La colaboración entre investigadores, empresas y desarrolladores es esencial para garantizar la seguridad de la inteligencia artificial y su uso responsable en el entorno empresarial.




