Google vuelve a entrar en la carrera de IA de código abierto con Gemma 4

Decrypt
GLM-3,03%

En resumen

  • Google lanzó Gemma 4, una familia de modelos abiertos bajo la licencia Apache 2.0.
  • La alineación de cuatro modelos va desde teléfonos hasta centros de datos, con el modelo de 31B ya clasificado como #3 a nivel global.
  • La IA de código abierto en EE. UU. recibe el impulso necesario, ya que Gemma 4—respaldado por DeepMind—se posiciona como el contendiente estadounidense más fuerte frente a DeepSeek, Qwen y otros líderes chinos.

Las ambiciones de IA abierta de Google se han vuelto mucho más serias hoy. La compañía lanzó Gemma 4, una familia de cuatro modelos con pesos abiertos construidos sobre la misma investigación que Gemini 3, y con licencia bajo Apache 2.0—un cambio significativo frente a los términos más restrictivos de versiones anteriores de Gemma. Los desarrolladores se han descargado generaciones anteriores de Gemma más de 400 millones de veces, dando lugar a más de 100.000 variantes de la comunidad. Este lanzamiento es el más ambicioso hasta ahora.

Acabamos de lanzar Gemma 4 — nuestros modelos abiertos más inteligentes hasta la fecha.

Construido con la misma investigación de nivel mundial que Gemini 3, Gemma 4 aporta inteligencia innovadora directamente a tu propio hardware para razonamiento avanzado y flujos de trabajo orientados a agentes.

Publicado bajo una licencia comercial… pic.twitter.com/W6Tvj9CuHW

— Google (@Google) 2 de abril de 2026

Durante el último año, el ranking de IA de código abierto ha sido en gran medida un asunto chino. DeepSeek, Minimax, GLM y Qwen han dominado los primeros puestos, dejando a las alternativas estadounidenses desesperadas por mantener relevancia. Como informó Decrypt el año pasado, los modelos abiertos chinos pasaron de ser apenas 1,2% del uso global de modelos abiertos a finales de 2024 a aproximadamente 30% para fines de 2025, y Qwen de Alibaba incluso superó a Llama de Meta como el modelo autoalojado más usado en todo el mundo. Llama de Meta solía ser la opción predeterminada para desarrolladores que querían un modelo capaz y ejecutable localmente. Esa reputación se ha erosionado—la licencia controlada por Meta de Llama planteó dudas sobre su estatus real de código abierto, y su rendimiento se quedó atrás frente a la competencia china. La familia OLMo del Allen Institute intentó llenar el vacío, pero no logró ganar tracción significativa. OpenAI lanzó sus modelos gpt-oss en agosto de 2025, lo que le dio un respiro fresco al ecosistema, pero nunca fueron diseñados para ser competidores de frontera.  Y ayer, una startup estadounidense de 30 personas llamada Arcee AI lanzó Trinity, un modelo abierto de 400 mil millones de parámetros que hizo un argumento convincente de que el panorama estadounidense no estaba completamente muerto. Gemma 4 sigue ese impulso, esta vez con todo el peso de Google DeepMind detrás, convirtiéndola—siendo discutible—en el mejor modelo estadounidense dentro de la escena de IA de código abierto. El modelo está «construido a partir de la misma investigación y tecnología de nivel mundial que Gemini 3», dijo Google en su anuncio. Gemma 4 se distribuye en cuatro tamaños: Effective 2B y 4B para teléfonos y dispositivos perimetrales, un modelo Mixture of Experts de 26B centrado en la velocidad, y un modelo Dense de 31B optimizado para la calidad bruta.

El Dense de 31B actualmente ocupa el tercer lugar entre todos los modelos abiertos en el leaderboard de texto de Arena AI. El MoE de 26B está en el sexto. Google afirma que ambos superan modelos 20 veces más grandes—aunque esa afirmación se sostiene, al menos frente a las cifras de Arena AI, donde los modelos chinos aún ocupan los dos primeros puestos.

Probamos Gemma 4. Es capaz, con algunas salvedades. El modelo aplica razonamiento incluso a tareas que no lo requieren, lo que puede hacer que las respuestas parezcan demasiado diseñadas para prompts simples. La escritura creativa es decente—funcional, no inspirada—y probablemente mejore con una guía y un trabajo de prompt engineering más específicos. Donde entregó más claramente fue en código. Cuando se le pidió que generara un juego, la salida no fue especialmente llamativa ni elaborada, pero se ejecutó sin errores en el primer intento. No está mal para un modelo de 41 mil millones de parámetros. Esa fiabilidad con cero ejemplos es, en teoría, más valiosa que un resultado más bonito que necesita depuración. Puedes probar el juego aquí.

Las cuatro variantes cubren todo el espectro de hardware. Los modelos E2B y E4B están construidos para teléfonos Android, Raspberry Pi y dispositivos perimetrales, y se ejecutan completamente sin conexión, con latencia casi cero, entrada de audio nativa y una ventana de contexto de 128K. Los modelos de 26B y 31B apuntan a estaciones de trabajo y despliegues en la nube, ampliando el contexto a 256K y añadiendo llamada de funciones nativa y salida JSON estructurada para construir agentes autónomos. Los cuatro modelos procesan imágenes y video de forma nativa. Los pesos de precisión completa de los modelos más grandes caben en una sola GPU NVIDIA H100 de 80GB; las versiones cuantizadas se ejecutan en hardware de consumo. La licencia Apache 2.0 es el otro gran titular. Las releases anteriores de Gemma de Google usaban una licencia personalizada que generaba ambigüedad legal para productos comerciales. Apache 2.0 elimina esa fricción por completo—los desarrolladores pueden modificar, redistribuir y comercializar sin preocuparse por que Google cambie los términos más tarde. Clement Delangue, cofundador de Hugging Face, la elogió y dijo que «Local AI está viviendo su momento», y que es el futuro de la industria de la IA. El CEO de Google DeepMind, Demis Hassabis, fue aún más allá, llamando a Gemma 4 «los mejores modelos abiertos del mundo para sus tamaños respectivos».

Emocionado por lanzar Gemma 4: los mejores modelos abiertos del mundo para sus tamaños respectivos. Disponible en 4 tamaños que se pueden ajustar para tu tarea específica: 31B denso para un rendimiento bruto excelente, 26B MoE para baja latencia y effective 2B & 4B para uso en dispositivos de borde: ¡feliz construcción! pic.twitter.com/Sjbe3ph8xr

— Demis Hassabis (@demishassabis) 2 de abril de 2026

Esa es una afirmación contundente. Los sistemas propietarios de Anthropic, OpenAI y la propia Gemini de Google todavía lideran en los benchmarks más difíciles. Pero para modelos con pesos abiertos que puedes ejecutar localmente, modificar libremente y desplegar en tu propia infraestructura, ¿la competencia se ha vuelto significativamente más delgada? Puedes probar Gemma 4 ahora en Google AI Studio (31B y 26B) o Google AI Edge Gallery (E2B y E4B). Los pesos del modelo también están disponibles en Hugging Face, Kaggle y Ollama.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios