Google añade medidas de seguridad para el uso de sus agentes de IA

Google añade medidas de seguridad para el uso de sus agentes de IA

La inteligencia artificial generativa puede realizar cada más acciones por nosotros, que no se limitan a investigar, redactar, crear imágenes o analizar webs, sino que van más allá, como agendar una cita con el médico o realizar la compra semanal en el supermercado. Esto es posible gracias a las nuevas capacidades agénticas introducidas por todas las grandes tecnológicas, como OpenAI, xAI, AnthropicPerplexity o Google.

A pesar de este gran avance, los usuarios aún tienen (tenemos) ciertas dudas sobre el nivel de seguridad que nos ofrecen estos nuevos agentes de IA, ya que para que realicen tareas tan avanzadas necesitan acceder a datos sensibles y tomar literalmente el mando de la PC para trabajar de forma autónoma.

Para llevar tranquilidad a los usuarios, Google anunció una serie de innovaciones para mejorar la seguridad de la navegación Agentic. Analizamos cada una de ellas.

Comprobación de las acciones del agente con el User Alignment Critic

Google ha puesto el foco en uno de los mayores riesgos de estos nuevos agentes: que alguien intente colarse entre las instrucciones del usuario y las del sistema para forzar comportamientos raros. Para evitarlo, Chrome estrena el User Alignment Critic, un modelo independiente que actúa como ese amigo prudente que te frena cuando estás a punto de darle a “comprar ahora” sin mirar dos veces.

Este crítico analiza cada acción que el agente quiere ejecutar y decide si realmente responde al objetivo del usuario. No ve contenido web sin filtrar, solo metadatos, así que no puede ser manipulado por páginas maliciosas. Si algo huele raro, la acción se bloquea y el agente tiene que replantearse su plan.

Esta capa adicional funciona como un cortafuegos contra comportamientos inesperados, fugas de datos y tentaciones de “clics locos”. Y si el agente se atasca varias veces, devuelve el control al usuario.

El diagrama de flujo representa el crítico de alineación del usuario: un componente confiable que examina cada acción antes de que llegue al navegador.

Límites de seguridad reforzados con los conjuntos de origen

Si los agentes pueden navegar e interactuar con múltiples webs por ti, también es necesario ponerle barreras claras para que no termine “paseando” por sitios que no toca. Aquí entran en juego los nuevos conjuntos de origen, una evolución del aislamiento de sitio clásico de Chrome.

El navegador decide qué orígenes son relevantes para la tarea y los divide en dos listas:

  1. Orígenes de solo lectura: el agente puede ver contenido.
  2. Orígenes de lectura y escritura: aquí sí puede actuar (hacer clic, escribir, completar formularios, etc.).

Si una web aparece en un iframe y no está en la lista, el modelo ni siquiera la ve. Esto reduce muchísimo el riesgo de que un atacante utilice sitios aleatorios para robar datos o empujar al agente a actuar donde no debe.

Además, cada vez que el agente quiere navegar a un origen nuevo, un “mini crítico” especial comprueba si ese sitio es pertinente. Y, para evitar filtraciones a través de URLs inventadas, Chrome impone comprobaciones deterministas que solo permiten acceder a direcciones públicas conocidas.

Es un sistema vivo: Google irá ajustándolo según vea cómo interactúan los usuarios con estas restricciones y buscando que la seguridad no se convierta en un estorbo.

El agente solo accede a los datos de los orígenes relacionados con la tarea en cuestión.

Transparencia y control para acciones sensibles

Otro pilar clave es que el usuario pueda ver en todo momento lo que el agente está haciendo. Chrome mostrará un registro de trabajo en tiempo real en la pestaña donde actúe el agente. Si algo no convence, puedes pausar o detener la tarea sin complicaciones.

Y, para las acciones que realmente importan, hay paradas obligatorias:

  • Antes de entrar en webs sensibles (banca, salud…).
  • Antes de usar el Administrador de Contraseñas de Google.
  • Antes de ejecutar cualquier acción que implique consecuencias de verdad: compras, pagos, envíos de mensajes…

El agente pedirá permiso o directamente te dejará a ti el último paso. Así se evitan errores, despistes o intentos de manipulación.

El agente solicita validación del usuario antes de realizar tareas sensibles, como pagos.

Detección activa de intentos de manipulación (social engineering para agentes)

Además de las barreras estructurales, Chrome incorpora un detector que revisa cada página que visita el agente para identificar intentos de inyección indirecta de mensajes. Funciona en paralelo al motor de navegación segura de Chrome, que ya detecta estafas más tradicionales.

Si este clasificador ve que una página está intentando empujar al agente a hacer algo contrario al objetivo del usuario, frena la acción antes de que pase. No es infalible, pero suma otra capa para complicar la vida a posibles atacantes.

Auditorías constantes y equipos rojos especializados

Google no se queda solo con pruebas internas. Para asegurar que estas defensas funcionan, ha montado sistemas de equipos rojos automatizados que generan páginas maliciosas —sí, webs trampa creadas a propósito— para intentar engañar al agente.

Estos ataques reproducen escenarios típicos: contenido generado por usuarios, anuncios sospechosos, intentos de movimientos financieros o robos de credenciales. Al medir la tasa de éxito de estos ataques de laboratorio, Google sabe inmediatamente si una actualización mejora la seguridad o si algo debe reforzarse.

Como Chrome se actualiza de forma automática, las correcciones llegan a los usuarios en tiempo récord.

Cooperación con la comunidad de ciberseguridad

Google abre la puerta a la comunidad de investigadores a través de su Programa de Recompensas por Vulnerabilidades (VRP). Ahora incluye específicamente la seguridad agentic y ofrece hasta 20.000 dólares por demostrar violaciones en estos límites de seguridad. Cuanta más gente mirando con lupa, mejor.

Prometen más avances a futuro

La llegada de agentes avanzados como Gemini a Chrome abre una nueva etapa donde el navegador ha evolucionado, dejando se ser solo una ventana al mundo para convertirse en un asistente capaz de actuar en él. Y, como todo superpoder, requiere un escudo a la altura.

Google apuesta por combinar principios probados (aislamiento de origen, defensa por capas) con nuevas arquitecturas de confianza para que esta experiencia sea útil… y segura. Y, aunque saben que este terreno aún está en pleno desarrollo, también dejan claro que seguirán iterando y colaborando para anticiparse a las amenazas.

Imagen: ChatGPT

[…]

La entrada Google añade medidas de seguridad para el uso de sus agentes de IA se publicó primero en Marketing4eCommerce.