Google heeft gisteren Gemma 4 uitgebracht, een familie van vier open-source modellen gebouwd op dezelfde technologie als hun gesloten Gemini 3. De modellen variëren van mobiel-geoptimaliseerde varianten (Effective 2B en 4B) tot grotere modellen voor werkstations en servers (26B Mixture of Experts en 31B Dense). Het 31B-model staat momenteel op plek #3 op de Arena AI-ranglijst voor open modellen en presteert beter dan systemen die 20 keer zo groot zijn.
De technische mogelijkheden zijn substantieel: native function calling voor agentische workflows, gestructureerde JSON-output, een contextvenster van 256k tokens, en multimodale ondersteuning voor afbeeldingen en video. De mobiele varianten bevatten native spraakherkenning. Google werkte samen met Qualcomm en MediaTek om deze te optimaliseren voor apparaten zoals smartphones, Raspberry Pi en Jetson Nano. Voor codegeneratie claimt Google dat Gemma 4 vergelijkbare kwaliteit kan leveren als clouddiensten zoals Gemini Pro en Claude Code, maar volledig offline draaiend.
Maar het echte verhaal is de licentiewijziging. Eerdere Gemma-versies gebruikten een eigen licentie die ontwikkelaars als te restrictief bekritiseerden voor serieus commercieel gebruik. Met Gemma 4 stapte Google over naar Apache 2.0, dezelfde permissieve licentie die gebruikt wordt voor Android en talloze andere open-source projecten. Dit neemt de juridische onzekerheid weg die bedrijven terughoudend maakte om productiesystemen op Gemma te bouwen.
Waarom de Apache 2.0-licentie ertoe doet
Licentievoorwaarden bepalen wat je daadwerkelijk met een model kunt doen. Eerdere Gemma-licenties bevatten beperkingen op commerciële herdistributie, afgeleide werken en gebruik op schaal. Juridische teams bij grote organisaties blokkeerden vaak Gemma-adoptie omdat de licentievoorwaarden onduidelijk of onverenigbaar waren met bedrijfsbeleid. Apache 2.0 is anders: het staat expliciet commercieel gebruik, modificatie en distributie toe met minimale beperkingen.
Dit is belangrijk voor de discussie over soevereine AI. Europese organisaties willen steeds vaker AI-workloads draaien op infrastructuur die ze zelf beheren, zonder gevoelige data via Amerikaanse cloudproviders te routeren. Maar 'open-source' modellen met restrictieve licenties creëerden een tegenstrijdigheid: je kon het model zelf hosten, maar je kon het niet vrij gebruiken voor commerciële doeleinden of aanpassen aan je behoeften. Apache 2.0 lost dit op. Wanneer Google zegt dat deze modellen 400 miljoen keer zijn gedownload en meer dan 100.000 community-varianten hebben voortgebracht, betekent de Apache-licentie dat die varianten nu commercieel kunnen worden gebruikt zonder juridische onduidelijkheid.
De native agentische mogelijkheden zijn even significant voor enterprise deployment. Gemma 4 ondersteunt function calling en gestructureerde JSON-output als eersteklas features, niet als nagedachte toevoegingen. Dit betekent dat je AI-agents kunt bouwen die direct interacteren met je ERP, CRM of documentsystemen, met een model dat op je eigen hardware draait. Het 26B Mixture of Experts-model activeert slechts 3,8 miljard van zijn 26 miljard parameters tijdens inference, wat veel hogere doorvoer levert dan vergelijkbaar grote modellen.
Het perspectief van Laava
Laava heeft consequent betoogd dat Europese bedrijven hun AI-infrastructuur moeten bezitten in plaats van huren van cloudproviders. De uitdaging was dat echt open modellen vaak achterbleven bij gesloten alternatieven in capaciteit. Gemma 4 verkleint die kloof aanzienlijk. Een model dat wereldwijd op plek #3 staat terwijl het op een enkele H100 GPU draait, uitgebracht onder Apache 2.0, verandert de kosten-batenanalyse voor zelf-hosting.
De mobiel-geoptimaliseerde varianten zijn bijzonder interessant voor edge deployment. Veel enterprise use cases omvatten het verwerken van documenten of afhandelen van verzoeken op locaties zonder betrouwbare cloudconnectiviteit: magazijnen, winkels, buitendienstoperaties. Een model dat efficiënt draait op een Raspberry Pi of Jetson Nano opent deployment-patronen die voorheen onpraktisch waren. Stel je factuurverwerking voor aan een magazijndok, of klantenservice op een afgelegen winkellocatie, volledig draaiend op lokale hardware.
De combinatie met recente releases van Mistral en Qwen betekent dat organisaties nu meerdere hoogwaardige opties hebben voor soevereine AI-deployment. Je hoeft niet langer te kiezen tussen capaciteit en controle. Je kunt beide hebben. Laava's model-agnostische architectuur betekent dat klanten Gemma 4 kunnen adopteren zonder hun systemen te herbouwen. Het Model Gateway-patroon behandelt LLM's als vervangbare componenten: verander een configuratieregel en je workflows routeren naar Gemma 4 in plaats van je vorige model.
Wat je nu kunt doen
Als je hebt gewacht tot open-source modellen pariteit bereikten met cloud-API's voordat je soevereine AI-infrastructuur ging bouwen, komt dat moment nu. Gemma 4 is nu beschikbaar op Hugging Face, vLLM, llama.cpp en andere standaard inference-frameworks. De Apache 2.0-licentie betekent dat je juridische team het kan goedkeuren zonder uitgebreide review.
Laava helpt organisaties bij het evalueren en deployen van zelf-gehoste modellen voor productie-workloads. Onze vierwekelijkse Proof of Pilot neemt één specifiek proces, deployt een model op jouw infrastructuur, en meet real-world prestaties voordat je je committeert aan een bredere uitrol. Als je wilt begrijpen wat Gemma 4 kan doen voor je documentverwerking, klantenservice of workflowautomatisering, begin dan met een gerichte pilot op één use case.