Google lanza Gemini 3 Flash: más rápido, más barato y superior a GPT-5.2

Google lanza Gemini 3 Flash: más rápido, más barato y superior a GPT-5.2

Google acaba de ampliar su familia de modelos de IA con Gemini 3 Flash, una versión pensada para ser extremadamente rápida y barata, pero sin renunciar al nivel de inteligencia de los modelos recientemente presentados, Gemini 3 Pro y el modo Gemini 3 Deep Think.

La compañía lo define como “inteligencia de vanguardia diseñada para la velocidad”, y lo posiciona como el modelo por defecto en la app Gemini y en el modo IA del buscador, lo que significa que millones de usuarios ya están usando esta versión sin cambiar nada en su configuración.

Hasta ahora, el esquema mental era sencillo: si querías velocidad y buen precio, ibas a un modelo ligero; si necesitabas razonamiento complejo, subías a un modelo “grande” tipo Pro o Thinking. Gemini 3 Flash viene precisamente a romper esa dicotomía: mantiene el razonamiento de nivel Pro de Gemini 3, pero con tiempos de respuesta tres veces más rápidos que Gemini 2.5 Pro y a una fracción de su coste.

Un modelo que “piensa” lo justo… y gasta menos

La clave técnica de Gemini 3 Flash está en cómo gestiona su “pensamiento”. El modelo es capaz de modular cuánto trabajo procesa según la tarea: puede dedicar más pasos internos cuando el caso de uso es complejo, pero también recortar ese esfuerzo en encargos sencillos para no disparar costes ni tiempos.

Este enfoque se nota en el bolsillo, ya que, de media, Flash utiliza un 30% menos de tokens que Gemini 2.5 Pro en tráfico típico para completar tareas cotidianas con alta precisión. Esto quiere decir que para la misma tarea, procesa menos “unidades de texto” y, por tanto, sale más barato al usuario porque los créditos mensuales rinden más. En precio oficial, se queda en 0,50 dólares por millón de tokens de entrada y 3 dólares por millón de salida (el audio mantiene 1 dólar por millón de tokens de entrada), frente a los costes superiores de los modelos Pro.

“Con este lanzamiento, hacemos que la inteligencia de próxima generación de Gemini 3 sea accesible para todos en los productos de Google”, explican desde la compañía.

Mejor que GPT-5.2 Extra High

En los tests internos de Google, Gemini 3 Flash ofrece resultados propios de modelos de frontera en tareas de razonamiento académico y conocimiento experto, con cifras como el 90,4% en GPQA Diamond (preguntas de nivel doctorado en ciencia) o buenos resultados en Humanity’s Last Exam, donde se evalúa razonamiento avanzado sin tirar de herramientas externas. En MMMU Pro, un benchmark que mezcla matemáticas, ciencia, arte o ingeniería con imágenes, alcanza un 81,2%, un rendimiento comparable al de Gemini 3 Pro.

En comparación con modelos externos, Gemini 3 Flash supera a GPT-5.2 Extra High (el perfil de máximo razonamiento de OpenAI) en varios benchmarks clave. Por ejemplo, en SimpleQA Verified, centrado en preguntas de conocimiento, Flash llega al 68,7% frente al 38% de GPT-5.2 Extra High; en razonamiento multimodal MMMU-Pro, 81,2% frente a 79,5%; y en Video-MMMU, 86,9% frente a 85,9%.

Velocidad, coste y la famosa “frontera de Pareto”

Google insiste en que Gemini 3 Flash está en la “frontera de Pareto” entre calidad, coste y velocidad: es decir, es difícil encontrar un modelo que mejore una de esas tres variables sin empeorar otra. Frente a Gemini 2.5 Pro, Flash es aproximadamente tres veces más rápido y, aun así, ofrece mejor rendimiento global según la comparativa independiente de Artificial Analysis citada por la compañía.

En la práctica, esto coloca a Gemini 3 Flash como el modelo preferente para todo lo que necesite respuesta en tiempo casi real: interfaces conversacionales, asistentes dentro de productos, experiencias interactivas o análisis de contenido mientras el usuario está trabajando. El papel de los modelos como Gemini 3 Pro queda más acotado a escenarios donde cada punto extra de rendimiento justifica pagar más y esperar más.

Pensado para desarrolladores: agentes, código y vídeo

En el lado de los desarrolladores, Gemini 3 Flash se ha diseñado para crear flujos de trabajo iterativos de alta frecuencia, esos en los que la IA tiene que reaccionar muchas veces por minuto. En SWE-bench Verified, un benchmark que mide la capacidad de los modelos para actuar como agentes de codificación en repositorios de software reales, Flash alcanza un 78%, superando tanto a la serie 2.5 como al propio Gemini 3 Pro.

Google lo presenta como un equilibrio entre tres mundos: codificación agentica (un modelo que no solo escribe código, sino que navega por proyectos, localiza errores y propone parches), sistemas listos para producción y aplicaciones interactivas sensibles a la latencia. Además, su buen rendimiento en herramientas y en análisis multimodal lo hace especialmente adecuado para agentes que combinan texto, imágenes y vídeo, como bots de soporte que leen pantallazos o asistentes dentro de juegos que entienden lo que ocurre en la pantalla.

Multimodal para el usuario de a pie

En la app de Gemini, Gemini 3 Flash se convierte en el modelo por defecto, sustituyendo al anterior 2.5 Flash. Eso implica que cualquier usuario puede aprovechar sus capacidades multimodales para tareas muy concretas: desde pedirle que analice un vídeo corto y devuelva un plan accionable (por ejemplo, cómo mejorar el swing de golf) hasta convertir una idea hablada en un prototipo funcional de app en cuestión de minutos.

En el modo IA de búsqueda, Flash hereda el razonamiento de Gemini 3 Pro, pero empaquetado en la experiencia del buscador: entiende preguntas con múltiples matices, combina información local en tiempo real con enlaces de toda la web y devuelve respuestas organizadas para que el usuario pueda pasar de la investigación a la acción sin dar demasiadas vueltas.

Disponibilidad y adopción empresarial

Gemini 3 Flash ya está disponible en versión preliminar para desarrolladores a través de la API de Gemini en Google AI Studio, Google Antigravity, Vertex AI y Gemini Enterprise, además de integrarse con herramientas como Gemini CLI y Android Studio. En el plano de producto, se está desplegando globalmente como modelo por defecto tanto en la app Gemini como en el modo IA en la búsqueda.

En la parte empresarial, Google presume de casos reales: compañías como JetBrains, Bridgewater Associates o Figma ya están utilizando Gemini 3 Flash para transformar procesos internos, apoyándose en su velocidad de inferencia, eficiencia y razonamiento comparable al de modelos mucho más grandes.

Para quienes integren el modelo vía API, el precio anunciado (0,50 dólares por millón de tokens de entrada y 3 dólares por millón de salida) lo coloca en una franja muy competitiva frente a otros modelos ligeros del mercado, incluidos los de OpenAI.

[…]

La entrada Google lanza Gemini 3 Flash: más rápido, más barato y superior a GPT-5.2 se publicó primero en Marketing4eCommerce.