Artículo
Gemma 4: Google libera su modelo mas potente bajo Apache 2.0
Google lanza Gemma 4 bajo licencia Apache 2.0 por primera vez, con modelos edge que corren en moviles y Raspberry Pi. Analisis tecnico y estrategico.
Google acaba de hacer algo que cambia las reglas del juego: liberar Gemma 4 bajo licencia Apache 2.0.
Para quien no siga el detalle: hasta ahora, los modelos open-source de Google venian con licencias restrictivas que complicaban su uso comercial y el fine-tuning empresarial. Apache 2.0 elimina todas esas fricciones de golpe. Es la primera vez que Google lo hace con un modelo de esta calibre.
Que trae Gemma 4 a la mesa
- Un modelo denso de 31B parametros que ya esta en el top 3 del Arena AI open-model leaderboard
- Su primer Mixture-of-Experts (26B total, solo 3.8B parametros activos), lo que significa rendimiento de modelo grande con coste computacional de modelo pequeno
- Dos modelos edge (E4B y E2B) que corren en un Raspberry Pi, moviles y Jetson Nano con latencia casi nula. El E2B necesita menos de 1.5GB de RAM
- Ventanas de contexto de 128K (edge) y 256K (modelos grandes)
- Procesamiento nativo de imagenes y video, mas audio en los modelos edge
- Function calling, JSON estructurado y system instructions de serie
Esto no es un experimento academico. Es infraestructura lista para produccion.
La perspectiva mobile
Lo que me parece mas relevante como desarrollador mobile: los modelos edge. Poder ejecutar un modelo multimodal con capacidades agenticas directamente en un dispositivo movil, sin depender de APIs en la nube, abre posibilidades que hasta hace meses eran ciencia ficcion. Aplicaciones con IA on-device que funcionan offline, con privacidad total de datos y sin costes de inferencia recurrentes.
La lectura estrategica
Pero el movimiento tiene tambien una lectura estrategica. Google esta atacando directamente a Meta (Llama) en el terreno open-source, y a la vez le esta diciendo a la industria: “no necesitais pagar por APIs propietarias para tener modelos competitivos”. Con mas de 400 millones de descargas y 100.000 variantes comunitarias, Gemma ya tiene un ecosistema.
La pregunta que queda abierta: si los modelos open-source siguen mejorando a este ritmo y con licencias cada vez mas permisivas, cual es el modelo de negocio sostenible para las empresas que venden acceso a APIs? La commoditizacion de la inferencia esta mas cerca de lo que muchos creen.
Empieza hoy
Ollama ya tiene las cuatro variantes disponibles. Si no has probado a correr un modelo de este nivel en local, hoy es un buen dia para empezar.