La inteligencia artificial que realiza tareas complejas con poca supervisión humana, conocida como «agente de IA», está generando graves vulnerabilidades de ciberseguridad. El problema es que aún no existen herramientas para proteger a las empresas de estos riesgos, según expertos.
Recientemente, se supo que algunas compañías han prohibido el uso de aplicativos como el modo Agente de ChatGPT de OpenAI, que puede tomar el control de un navegador para enviar correos o comprar en línea. Este es solo uno de los siete tipos de agentes de IA que existen, pero su capacidad de interactuar con otras aplicaciones lo hace especialmente riesgoso.
Algunos expertos aseguraron en el medio The Information, que están apostando por startups que buscan solucionar estos fallos, mientras que las empresas de ciberseguridad intentan desarrollar productos a contrarreloj.
Entre los riesgos más recurrentes están los agentes de IA que toman el control de los dispositivos, y terminan ejecutando tareas como borrar el código de una empresa para «arreglar» un error menor. También preocupa el acceso no controlado a aplicaciones externas como Gmail o Salesforce sin exponer contraseñas, así como las aplicaciones creadas con IA que incluyen código malicioso sin que nadie lo note. Además, existe el riesgo de que los agentes interactúen con sitios web fraudulentos diseñados por hackers.
Los agentes más avanzados, como el de ChatGPT, son los más preocupantes porque pueden manejar cuentas bancarias, enviar emails o hacer compras. Google y Anthropic también están desarrollando agentes similares, pero aún no los han lanzado masivamente. Según un estudio reciente de la compañía Flare, el número de cuentas expuestas está creciendo a un promedio de 28% anual.
Compañías que prohiben el uso de agentes de IA
Algunas compañías, como Plaid, han bloqueado el uso de agentes de IA hasta entender mejor los riesgos. Por esto, OpenAI ha recibido críticas debido a su modo Agente pide a los usuarios ingresar sus contraseñas, algo que va en contra de las buenas prácticas de seguridad. Aunque la empresa asegura que no almacena las claves, el riesgo persiste.
Microsoft y Google han presentado herramientas para verificar permisos de agentes de IA, pero solo funcionan en sus propias plataformas.
Mientras tanto, las empresas también lidian con el «vibe coding», donde empleados sin conocimientos técnicos crean apps con IA que pueden contener errores críticos o estar contaminadas con algún tipo de malware.
Lo cierto es que, ante los desafios, también existen las oportunidades. Estos riesgos representan una gran oportunidad para startups de ciberseguridad. Algunos inversores ya están apostando por invertir más en compañías que solucionen las brechas de seguridad de este tipo de inteligencia artificial.
Mientras tanto, las empresas que manejen IA en sus actividades deben hacerlo con precaución, diseñando controles o poniendo reglas para evitar una fuga de información. Mientras tanto, el mensaje es claro: los agentes de IA llegaron para quedarse, pero sus riesgos aún están sin resolver. (Stiven Cartagena)








