El tráfico procedente de asistentes IA se ha multiplicado por 6 en apenas cinco meses. Y eso es una barbaridad.

un robot gigantesco, desde el espacio, esté viendo la Tierra de noche a través de una lupa

En los últimos meses, lo que hasta hace poco era una conversación hipotética se ha convertido en un cambio tangible.

Clic a clic, el impacto de las plataformas de inteligencia artificial en el tráfico web ya no es una cuestión de “si pasará”, sino de cuánto está ocurriendo sin que muchos se den cuenta. David Bell, de la consultora SEO Previsible, lo ha documentado con datos en un reciente análisis publicado en Search Engine Land: entre enero y mayo de 2025, las sesiones procedentes de asistentes como ChatGPT, Perplexity, Claude, Gemini y Copilot pasaron de 17.076 a 107.100 en 19 propiedades de Google Analytics 4, un salto del 527% en apenas cinco meses.

Preguntas complejas, respuestas precisas

El fenómeno no se reparte de manera uniforme. Bell muestra que los sectores donde la confianza y la precisión son esenciales concentran la mayoría de este nuevo tráfico. Legal, Finanzas, Salud, pequeñas empresas y Seguros suman ya el 55% de las visitas originadas por modelos de lenguaje. En algunos casos, como en determinados sitios de SaaS, más del 1% de todas las sesiones (todavía poco, pero creciendo) llegan ya desde estas plataformas.

Esto no es casualidad: los usuarios tienden a plantear a la IA preguntas complejas y muy contextualizadas, del tipo que antes reservaban a un especialista humano, como la preparación de un contrato, la compatibilidad de un medicamento o la estructuración de una nómina.

En este nuevo reparto, ChatGPT lidera con holgura, generando entre el 40% y el 60% del tráfico desde IA en casi todos los sectores. Pero el mapa se está diversificando.

Así, por ejemplo, Perplexity se ha hecho fuerte en Finanzas, Legal y en negocios pequeños; Copilot destaca especialmente en Finanzas y Legal; Gemini empieza a despuntar en Seguros y pequeñas empresas; y Claude, aunque todavía con cifras muy modestas, está presente en todos los verticales. Para Bell, esta diversidad es un aviso claro: optimizar contenido pensando en una sola plataforma es una estrategia arriesgada.

Un cambio de velocidad…

Pero el cambio de fondo va más allá de la procedencia de las visitas. La forma en que los modelos de lenguaje encuentran y muestran el contenido no sigue las reglas de Google. De acuerdo con el documento, no hay un rastreo gradual, ni una dura competencia por conseguir hacerse con un enlace azul en la primera página, ni periodos de espera para que se propague una etiqueta canónica. El criterio es inmediato: si el contenido responde a la pregunta de forma clara, fiable y estructurada, el modelo lo puede citar al instante.

Bell describe este cambio como la entrada en una “era del surfacing instantáneo”, en la que un artículo, una guía o incluso una página de producto pueden ser descubiertos y utilizados por la IA antes de haber escalado posiciones en los resultados orgánicos:

«El contenido no necesita aparecer en la parte superior de las SERP de Google para ser encontrado. Debe ser claro, estructurado y estar citado por el modelo, ya sea en un blog, un documento de ayuda, un caso práctico o una base de conocimientos. Y esto significa que la antigua mentalidad —publicar, esperar y esperar que Google lo descubra— está peligrosamente obsoleta».

Este término, “surfacing”, no es muy común (al menos no se oye demasiado) y se refiere al momento en que un contenido es descubierto y mostrado por una plataforma (en este caso, un LLM como ChatGPT, Perplexity o Gemini) como respuesta a la consulta de un usuario. Es decir, en el SEO de toda la vida, el proceso para que tu contenido “surface” (perdón por el palabro) pasa por varias fases:

  • Google rastrea e indexa tu página.
  • El algoritmo decide su posición en el ranking.
  • El usuario hace una búsqueda.
  • Tu página aparece en los resultados y, si tienes suerte, el usuario hace clic.

Ese flujo puede tardar días o semanas, y la visibilidad depende de competir con otras páginas por un puesto en los resultados. En cambio, en la era del surfacing instantáneo (perdón de nuevo) que describe Bell, los LLMs pueden mostrar tu contenido sin esperar a que esté bien posicionado en Google. La idea es que si un LLM como ChatGPT con navegación web o la Experiencia Generativa de Búsqueda (SGE) de Google está entrenado o tiene acceso a tu contenido, puede «seleccionar» la información relevante de inmediato. No tiene que esperar a que tu página «suba de puesto»

Este giro exige un replanteamiento de las estrategias de visibilidad. Para Bell, el primer paso es medir, aunque sea de forma imperfecta, el tráfico que llega desde estas plataformas: usar parámetros de seguimiento, observar picos inusuales en el tráfico directo y buscar correlaciones con menciones en chats de IA.

… Y un cambio de enfoque

A partir de ahí, hay que reestructurar el contenido para que funcione no solo en pantallas humanas, sino dentro de las respuestas generadas por un modelo: claridad, concisión, secciones bien delimitadas y formatos que faciliten la extracción de información. Lo importante ya no es rankear en un puesto concreto, sino convertirse en la fuente que un modelo selecciona y muestra. Y esto se aplica a todo el funnel, desde artículos y casos de estudio hasta páginas de producto o documentación de soporte.

El cambio de fondo va más allá de la procedencia de las visitas. Como hemos visto, la forma en que los modelos de lenguaje encuentran y muestran el contenido no sigue las reglas de Google. Y aquí es donde la foto de Bell se cruza con la realidad que ya vemos en el ecosistema dominado por Google. La compañía, a través de su vicepresidenta y Head of Search, Liz Reid, defendía hace unos días que su nueva experiencia de búsqueda impulsada por IA mantiene estable el tráfico web y que incluso aumenta la “calidad” de los clics. Sin embargo, la experiencia de creadores y marketers no siempre coincide: las impresiones pueden mantenerse, pero los clics orgánicos caen.

Esta tensión crea un contraste interesante: mientras Google asegura que su IA “destaca la web” y Previsible muestra que los LLMs pueden abrir nuevas vías de descubrimiento, el hecho es que en ambos casos el modelo de acceso a la información se está alejando del clic orgánico tradicional. En Google, la visibilidad no garantiza tráfico; en los LLMs, la selección depende de factores como la claridad, la estructura o la autoridad percibida por el modelo, no del ranking SEO de siempre.

Estamos en una fase de transición

Es evidente que todavía estamos adaptándonos a la nueva era de la búsqueda en IA generativa, y como este saldrán mil informes en los próximos meses. Pero lo que el estudio de Previsible deja claro es que el SEO no desaparece, sino que se divide. Una parte seguirá girando en torno al posicionamiento en buscadores tradicionales; la otra, cada vez más relevante, dependerá de cómo los modelos de IA encuentran y deciden mostrar la información.

Y, como en cada cambio de reglas anterior, quienes se adapten primero no solo mantendrán su visibilidad, sino que podrán conquistar terreno antes de que el resto de competidores reaccione.

Imagen: ChatGPT

[…]

La entrada El tráfico procedente de asistentes IA se ha multiplicado por 6 en apenas cinco meses. Y eso es una barbaridad. se publicó primero en Marketing4eCommerce.