OpenAI, la empresa líder en inteligencia artificial, lanzó recientemente ChatGPT Agent, marcando la primera vez que un producto de la compañía recibe la clasificación más alta de riesgo por su capacidad para asistir en el desarrollo de amenazas biológicas y químicas. Esta decisión llevó a la activación de sus máximos protocolos de seguridad, en un esfuerzo sin precedentes por mitigar los peligros asociados a herramientas avanzadas de IA.
El principal motivo de preocupación radica en la capacidad de ChatGPT Agent de ejecutar tareas digitales complejas de manera autónoma, lo que podría ser aprovechado para facilitar la creación de armas biológicas o químicas incluso por actores sin conocimientos expertos. La advertencia fue confirmada por el propio CEO de OpenAI, Sam Altman, quien advirtió que la plataforma sigue siendo experimental y alertó sobre el potencial de que agentes maliciosos intenten manipular el sistema para obtener información confidencial o ejecutar acciones nocivas.
La clasificación de “alto riesgo” se emitió en concordancia con el Marco de Preparación de OpenAI, que exige verificar y prevenir riesgos extremos desde el diseño del modelo. Como resultado, se implementaron restricciones avanzadas como sistemas de monitoreo permanente, reglas estrictas de bloqueo de contenido y capacitación para rechazar solicitudes peligrosas. Además, la empresa reforzó su programa de recompensas (“bug bounty”) para quienes detecten vulnerabilidades relacionadas con riesgos biológicos.
Las capacidades del nuevo agente van mucho más allá de generar respuestas de texto; ChatGPT Agent puede controlar aplicaciones, navegar la web, analizar archivos e incluso hacer reservaciones, todo de forma autónoma y en tiempo real. Sin embargo, esta autonomía incrementa la superficie de ataque potencial. Investigadores de OpenAI advirtieron sobre escenarios donde sitios web maliciosos podrían inducir al agente a revelar información sensible, como datos de tarjetas de crédito, mediante técnicas de “inyección de instrucciones”.
El lanzamiento se da en un contexto de creciente preocupación internacional por el uso dual de la inteligencia artificial. Según evaluadores externos, ChatGPT Agent superó a modelos previos en pruebas de conocimientos biotecnológicos, lo que podría reducir barreras operativas para actores malintencionados. Si bien OpenAI reconoce que aún existen obstáculos físicos para la materialización de amenazas biológicas, enfatiza que estos no son insuperables. Por ello, la empresa ha iniciado colaboraciones con expertos en bioseguridad y autoridades gubernamentales, reforzando su compromiso con el desarrollo responsable de la inteligencia artificial.




