Icono del sitio Panda Security Mediacenter

Cómo los navegadores con IA están abriendo nuevas puertas a los ciberdelincuentes

como-los-navegadores-con-ia-estan-abriendo-nuevas-puertas-a-los-ciberdelincuentes
Los navegadores con IA integrada parecen caer con facilidad en estafas simples, que los usuarios humanos son mucho más propensos a detectar.

Vulnerabilidades emergentes en los navegadores con IA

Microsoft inauguró la carrera de los navegadores con inteligencia artificial (IA) con el lanzamiento de un “modo copiloto” en Edge. Esto le permite competir con ChatGPT Atlas. Ambos pueden responder preguntas, resumir páginas e incluso realizar acciones en tu nombre. Una experiencia de navegación que aún está dando sus primeros pasos. Apunta a un futuro mucho más cómodo y con menor necesidad de intervención humana. 

No obstante, ese futuro también podría ser un campo minado para la ciberseguridad, con nuevas vulnerabilidades y brechas de datos, según advierten los expertos. A lo largo de este año se ha hablado mucho de cómo la IA está facilitando nuevas estafas. Desde deepfakes en Facebook hasta hackers que se hacen pasar por Administraciones del Estado. Pero además, nuevos informes y estudios sugieren que la IA también plantea un riesgo de fraude desde otra perspectiva. La IA puede caer con facilidad en estafas que los usuarios humanos son mucho más propensos a detectar.

IA agéntica: riesgos que amenazan la ciberseguridad

Estos informes se refieren a los denominados navegadores con IA agéntica, sistemas de inteligencia artificial capaces de lograr un objetivo específico con poca supervisión humana. Los creadores de la IA agéntica afirman que puede realizar tareas complejas, como crear un sitio web o planificar un viaje, en las que los usuarios no tienen prácticamente nada que hacer. El problema es que tareas automatizadas gracias a la IA, aparentemente sencillas, como resumir tus correos electrónicos o comprar algo por Internet, conlleva innumerables oportunidades de cometer errores. La IA agéntica carece del sentido común humano, por lo que puede ser propensa a caer en trampas obvias.

Por eso, algunos de los primeros tests y estudios al respecto apuntan a que los navegadores con IA no solo son susceptibles a nuevos tipos de estafas, sino que también pueden ser especialmente vulnerables a las más antiguas que existen, aquellas que no ya funcionan nunca con usuarios humanos porque todo el mundo las conoce perfectamente. La IA está diseñada para hacer lo que sus prompts le pidan. Por lo que, si un usuario humano no detecta los indicios de una estafa en el primer vistazo, la IA no le va a servir como barrera de protección.

Una advertencia repetida por diferentes actores de la ciberseguridad. Además, llega en un momento en el que todos los grandes nombres de la tecnología están apostando muy fuerte por la IA agéntica. Microsoft está incorporando Copilot a Edge, OpenAI presentó este año su herramienta Operator y el Proyecto Mariner de Google lleva en marcha desde el año pasado. En esta carrera de la innovación, si los desarrolladores no empiezan a incorporar mejores sistemas de detección de estafas en sus navegadores, la IA agéntica corre el riesgo de convertirse en un enorme ángulo ciego y un nuevo vector de ataque.

¿Cómo puedo protegerme?

Los agentes de inteligencia artificial para la navegación web ofrecen completar tareas en nombre del usuario, haciendo clic en sitios web y rellenando formularios. En ese sentido es importante que los usuarios sean conscientes de los riesgos para la privacidad que puede implicar esa navegación pilotada por la IA. Deben plantearse el acceso que conceden a los agentes de navegación web basados en IA y si los supuestos beneficios compensan los riesgos. Para ser más útiles, esos navegadores con IA como Comet y ChatGPT Atlas solicitan un nivel significativo de permisos. Entre ellos se incluye la capacidad de ver y realizar acciones en el correo electrónico, el calendario y la lista de contactos del usuario. 

Una de las principales preocupaciones es la de los llamados ataques de inyección de comandos, una vulnerabilidad a la que los navegadores pueden quedar expuestos cuando los ciberdelincuentes ocultan instrucciones maliciosas en una página web. Si un agente de la IA analiza esa página web, puede ser engañado para que ejecute los comandos de malware de un atacante. Por eso, sin las medidas de seguridad adecuadas, dichos ataques pueden llevar a esos agentes a exponer involuntariamente los datos de los usuarios antes mencionados (mails, datos de inicio de sesión, etc…). O a realizar acciones maliciosas en nombre de un usuario (como compras no deseadas o publicaciones en redes sociales).

Problemas con los LLM

Los desarrolladores están introduciendo una serie de medidas de seguridad para intentar mitigar los peligros de estos ataques. Los grandes modelos de lenguaje (LLM) se han señalado como la probable raíz de los ataques de inyección de comandos. Los LLM no son muy buenos a la hora de identificar de dónde provienen los prompts. Establece una separación difusa entre las instrucciones principales del modelo y los datos que consume, lo que complica a las empresas la tarea de erradicar este problema por completo.

Hay algunas reglas prácticas con las que los usuarios pueden protegerse mientras usan navegadores con IA. Es probable que las credenciales de usuarios para navegadores con IA se conviertan en un nuevo objetivo para los atacantes. Por ello, los internautas deben asegurarse de utilizar contraseñas únicas y autenticación multifactorial para estas cuentas con el fin de protegerlas. Además, deberían plantearse limitar el acceso de estas primeras versiones y aislarlas de cuentas sensibles relacionadas con la banca, la salud y la información personal. Es probable que la seguridad de estas herramientas mejore a medida que maduren pero, por el momento, es recomendable esperar antes de otorgarles un control amplio sobre nuestros navegadores.

Salir de la versión móvil