Con el nuevo Gemini 3, Google va por la corona de la inteligencia artificial
Llegó Gemini 3.0, el esperado nuevo modelo de lenguaj...
Llegó Gemini 3.0, el esperado nuevo modelo de lenguaje de inteligencia artificial de Google. En una conferencia de prensa virtual e internacional, los responsables de cada una de las partes de Gemini presentaron las novedades, que ya están disponibles en todo el mundo, aunque se irán habilitando de forma escalonada. Desde hoy, Gemini 3 será el modelo predeterminado de la plataforma de IA generativa.
Este lanzamiento tiene peso mundial y forma parte de la guerra de la IA, en la que los mercados financieros, casas de apuestas como Polymarket y Kalshi, usuarios, desarrolladores y también la competencia, corren para llegar al tope del podio en funciones y rendimiento.
Gemini 3 ofrece razonamiento avanzado, agentes autónomos, interfases generativas, mejoras en codificación y, sobre todo, la integración total del modelo en Google Search. Es el primer paso concreto de Google para convertir su buscador, sus apps y su ecosistema completo en un entorno impulsado por IA, y dar servicio a los 650 millones de usuarios que ya usan activamente a su IA.
La nueva app de Gemini incluye:
Gemini 3: El nuevo modelo de razonamiento que se desplegará por defecto.Interfaces generativas: hay un nuevo tipo de interfaz que se adapta al usuario y diseña la respuesta según el prompt. Gemini Agent: la nueva herramienta coordina y completa tareas complejas de múltiples pasos según las necesidades del usuario.Brian Gabriel, encargado de comunicación IA de Google, presentó los números actuales de la aplicación: ya son más de 13 millones los desarrolladores que usan estos sistemas para crear sus modelos basados en Gemini, con más de 2000 millones de usuarios mensuales de AI Overviews, la herramienta que complementa las búsquedas de Google con una respuesta generada en el momento por una IA.
Algunos ejemplos de lo que puede hacer la IA Gemini 3“Con Gemini 2 nos centramos en el razonamiento avanzado, la codificación y las capacidades de agencia; y con Gemini 2.5 dimos un paso de gigante hacia estos objetivos, especialmente gracias a nuestras capacidades de razonamiento y codificación de los modelos” repasó el ejecutivo, anticipando lo que quieren lograr: un modelo universal, nativo y multimodal. “Gemini 3 es nuestro modelo más inteligente, que ayudará a todos a materializar sus ideas, un agente potente que ofrece visualizaciones muy ricas gracias a sus sólidas capacidades de codificación, todo ello basado en un sistema de razonamiento de vanguardia que hemos mantenido desde Gemini 2 hasta la versión 2.5. Ahora, con Gemini, las respuestas que los usuarios obtendrán de este modelo son inteligentes” enfatizó.
Gemini 3 usa IA para mejorar las respuestas a una consultaGoogle anunció la implementación de Gemini 3 en las búsquedas. Desde ahora, en la casilla de búsqueda a partir de ahora se entregarán en forma automática las respuestas generadas por el Modo IA (la nueva función disponible desde hace unos meses que ofrece una respuesta generada por IA a una consulta antes que una serie de links). Y en esas respuestas, la interfaz generativa ofrecerá diferentes diseños visuales dinámicos con herramientas interactivas y simulaciones generadas específicamente para cada usuario.
Las búsquedas mejoradas con el Modo IA de Google que llega con Gemini 3“Nuestra visión es que puedas preguntar cualquier cosa y obtener información sin esfuerzo, por muy compleja o detallada que sea. No deberías depender de palabras clave ni de una forma específica: podés preguntar como quieras, ya sea escribiendo, usando lenguaje natural, la voz o la cámara. Con Gemini 3 damos un gran paso para llevar nuestro modelo más inteligente a la Búsqueda” enfatizó Josh Woodward, Vicepresidente de Google Labs, dando por sentado el desplazamiento de lo que veíamos hasta ahora con las visiones generales de las respuestas.
¿Cómo funciona? “En el menú desplegable del modo de IA, con la opción de pensamiento, podés hacer preguntas complejas, como una sobre surfear en diferentes condiciones, que incluyen clima, alquiler de tablas u otros detalles. Con el razonamiento superior de Gemini, obtendrás una respuesta rica y dinámica, con oportunidades de conexión”. Es decir, en el buscador cada respuesta estará personalizada para el perfil del usuario.
Esta funcionalidad de Gemini 3 en Modo IA estará disponible esta semana para suscriptores de Google AI Pro y Google Ultra en EE. UU, con límites más altos para quienes tengan AI Pro o Ultra.
AI Mode, el nuevo modo de búsquedas en GoogleEn busca de un modelo universalUna de las grandes novedades de Gemini 3 es el razonamiento mejorado. Según Tulsee Doshi, Google Sr. Director & Head of Product de Gemini, el nuevo modelo supera a Gemini 2.5 Pro en todas las principales pruebas de rendimiento por un margen significativo, en especial en la resolución de problemas científicos y matemáticos con un alto grado de fiabilidad.
Con pruebas en vivo, presentó Gemini 3 Deep Think, el modo de razonamiento mejorado de la empresa que estará disponible para los suscriptores de Google AI Ultra en las próximas semanas.
Si bien en la presentación no se mencionó la palabra privacidad -uno de los puntos cuestionados por el estudio de privacidad de Incogni- si se hizo mención constante de la importancia de la seguridad en cada uno de los modelos y los resultados satisfactorios de las pruebas.
“Una de las cosas más interesantes de Gemini 3 es que podés usarlo para aprender cualquier cosa. Se transforma de una simple herramienta de respuestas en un compañero que se adapta a tus necesidades, ya sea que estés aprendiendo una nueva habilidad, desarrollando un proyecto creativo o planificando tu vida” explicó Doshi, mientras mostraba en vivo la nueva manera de interactuar.
Google promete que será muy simple transformar información de un formato a otro: “Al combinar razonamiento de vanguardia, comprensión multimodal y codificación sólida, se convierte en un verdadero multiplicador de fuerza” explicó mientras mostraba como, en una prueba, Gemini ayudaba a explicar la investigación de Google DeepMind sobre la escalabilidad del aprendizaje profundo aplicado al descubrimiento de materiales. El ejemplo mostró cómo los investigadores utilizaron IA para descubrir más de dos millones de materiales previamente desconocidos a partir de un PDF en la nueva interfaz interactiva y explicativa que convertía datos complejos en visualizaciones 3D accesibles y conceptos claros.
Nuevo agente y funciones de codificaciónCon respecto a las capacidades agénticas y de vibe coding (es decir, usar una IA para programar software): “Gemini es también el modelo más potente que hemos creado para codificación, generación genética y vibe, que lidera el ranking de LMArena con una puntuación récord de 1501 Elo. Ya está tomando forma en AI Studio, donde podés crear aplicaciones simplemente describiéndolas en lenguaje natural. Con Gemini 3, las capacidades de generación de código sin necesidad de instrucciones subieron aún más: ofrece un seguimiento de instrucciones excepcional y puede generar y renderizar una estética más rica” explicó Doshi.
Los agentes de IA en Gemini 3Para probarlo en vivo, le dieron una sola indicación: “Generar una visualización 3D de la diferencia de escala entre distintos objetos, desde una partícula subatómica hasta una galaxia”. Gemini creó una simulación inmersiva desde cero, con comparaciones detalladas de escala que superan, en fidelidad y riqueza visual, a la versión 2.5 Pro. A partir de hoy, ya está disponible para empresas y desarrolladores en Gemini Enterprise y Vertex AI.
Google Antigravity, la nueva plataforma orientada a agentesOtra de las novedades es el lanzamiento de Google Antigravity, una plataforma orientada a tareas, administrando agentes a través de diferentes espacios de trabajo; los agentes son versiones de una IA que hacen una tarea específica en nuestro nombre fuera de la plataforma de Google (o de otra IA como ChatGPT o Perplexity).
Koray Kavukcuoglu, CTO de Google Deepmind, presentó la nueva interfaz de agente dedicada que permite a los desarrolladores operar en niveles superiores orientados a tareas. “Los agentes pueden actuar de forma autónoma a través del editor, la terminal y el navegador integrado, de modo que, cuando se quiere dar vida a una idea o replicar algo, el agente trabaja en esos entornos para ayudar a construir la aplicación de la mejor manera posible”, detalló y explicó que, por ejemplo, si se quiere crear una aplicación web de seguimiento de vuelos a partir de una sola instrucción, el agente generará primero subtareas y luego continuará ejecutando el proyecto casi por completo de manera autónoma. En el medio, generará informes de progreso y detallará qué etapas se han completado. Una vez lista, presenta un recorrido que muestra cómo funciona el producto final. “Además, si se desarrolla con Antigravity, el agente mejora con cada proyecto, ya que aprende del estilo y las preferencias del desarrollador”.
Google también incluye Gravity, compatible con Gemini 3 Pro y con el modelo de uso de computadora Gemini 2.5, que permite controlar el navegador y utilizar el modelo de imagen general para generar ideas y borradores para revisión pública. “Es un paso emocionante para los desarrolladores, porque podrán experimentar una forma mucho más interactiva de escribir código y crear aplicaciones, explicó.
Con respecto a la seguridad, afirmó que es el núcleo y la prioridad de cómo desarrollan sus modelos. “Diseñamos los sistemas desde cero con seguridad integrada, no como un añadido posterior. Nuestro modelo más seguro, probado exhaustivamente, muestra mayor resistencia a inyecciones rápidas y mejor protección frente al uso indebido. A medida que ampliamos los límites de la inteligencia y seguimos avanzando en IA, mantenemos el compromiso de implementar nuestra tecnología de la mejor manera posible y compartirla con los usuarios a través de nuestros productos”.
Google AI Studio en la aplicaciónPor su parte, Josh Woodward, Vicepresidente de Google Labs, confesó que fueron meses divertidos en el grupo de desarrollo y reveló que ya llegaron a 650 millones de usuarios activos mensuales. Su anuncio fue la llegada de Google AI Studio a la aplicación, con límites más altos para los suscriptores de AI Plus Pro y Ultra. En Estados Unidos, los estudiantes universitarios de podrán acceder a un año gratis (en Argentina los estudiantes pueden acceder a Gemini gratis por un año anotándose antes del 9 de diciembre).
Woodward contó que hasta ellos mismo se sorprendieron de nuevas capacidades latentes que descubrieron sobre la marcha. Por ejemplo, la habilidad para crear interfaces generativas con Diseño Visual: “alguien escribe una pregunta y el sistema genera widgets interactivos para refinarla, creando un recorrido virtual por Roma, por ejemplo, con imágenes estilo revista” contó mientras navegaba la interfaz.
También presentaron la Vista Dinámica, basada en las capacidades de codificación de agentes de Gemini 3. Si se le hace una pregunta sobre diferentes obras de arte realizadas a lo largo del tiempo, la herramienta genera una experiencia interactiva programada paso a paso. “La multimodalidad no se limita a cómo Gemini 3 entiende la entrada, sino a cómo puede generar salidas completamente nuevas”.
El otro experimento de Google Labs que estará disponible a partir de hoy es el agente generalista con capacidad para operar con los productos de Google del usuario cuando se le da control. “Este es el siguiente paso: Gemini 3 dentro de la app de Gemini”, detalló.