Nvidia gebruikte de jaarlijkse GTC 2026-conferentie maandag om het DGX Station aan te kondigen: een desktop-supercomputer die AI-modellen met tot een biljoen parameters volledig offline kan draaien. Het apparaat bevat 748 gigabyte coherent geheugen en 20 petaflops rekenkracht in een behuizing die naast een monitor past. Het draait op de nieuwe GB300 Grace Blackwell Ultra Desktop Superchip, die CPU en GPU verbindt via Nvidia's NVLink-C2C-interconnect met een bandbreedte van 1,8 terabyte per seconde - zeven keer sneller dan PCIe Gen 6.
De aankondiging werd vergezeld door NemoClaw, een open-source agentic AI-stack die Nvidia's Nemotron open modellen combineert met OpenShell: een beveiligde runtime die beleidsgestuurde beveiliging en privacygaranties afdwingt voor autonome agents. Jensen Huang positioneerde de combinatie als de basis voor altijd-aan AI-agents - systemen die niet alleen op prompts reageren, maar continu redeneren, plannen en taken uitvoeren, met data die nooit het fysieke gebouw verlaat.
De prijs is zes cijfers. Nvidia verkoopt dit niet aan startups. De DGX Station richt zich op ondernemingen waar datasouvereiniteit geen voorkeur maar een vereiste is: financiële dienstverlening, gezondheidszorg, juridische sector, overheid, en elke organisatie die opereert onder de EU AI Act of strengere interpretaties van de AVG rondom geautomatiseerde verwerking van persoonsgegevens.
De aankondiging maakt een spanning zichtbaar waar Europese bedrijven al twee jaar mee zitten: de meest capabele AI-modellen zijn in de cloud gehost, in handen van Amerikaanse bedrijven en onderworpen aan Amerikaans recht. Voor organisaties die contracten, facturen, personeelsgegevens of klantcommunicatie verwerken, brengt het sturen van die data naar een Amerikaanse cloudprovider compliance-risico's met zich mee die juridische afdelingen steeds minder bereid zijn te accepteren.
Tot voor kort was het praktische antwoord: accepteer de afweging. Gebruik een kleiner, minder krachtig open-source model on-premise, of gebruik een krachtig cloudmodel en beheer de compliance-blootstelling. Het DGX Station maakt die afweging overbodig. Een model van biljoen parameters lokaal draaien - op het kwaliteitsniveau van GPT-4-era frontier modellen - is nu hardware die je kunt kopen, geen datacentrumproject dat je zelf moet bouwen.
Voor bedrijven heeft dit ook buiten compliance betekenis. Agents die gevoelige documenten verwerken - due diligence-rapporten, HR-dossiers, financiële overzichten - kunnen nu draaien op infrastructuur die het bedrijf zelf beheert. Geen zero-retention-overeenkomsten om te verifiëren. Geen SLA-clausules om te auditeren. Geen data die het pand verlaat.
Bij Laava is soevereine AI een kernprincipe sinds de oprichting. We bouwen productie-AI-agents die facturen, contracten en e-mail verwerken - documenten die vaak vertrouwelijke bedrijfsinformatie of persoonsgegevens bevatten die onder de AVG vallen. We bieden altijd drie implementatiemodi: cloud met zero-retention enterprise-overeenkomsten (Azure OpenAI, AWS Bedrock), zelf-gehoste open-source modellen (Llama 3, Mistral) in de eigen VPC van de klant, en volledig luchtdicht on-premise voor gereguleerde omgevingen.
Het DGX Station maakt het zelf-gehoste pad aanzienlijk krachtiger. Eerder vereiste het draaien van een concurrerend lokaal model het accepteren van kwaliteitsbeperkingen of het bouwen van een GPU-cluster - geen van beide toegankelijk voor een middelgroot Nederlands bedrijf. Een enkel DGX Station verandert die berekening. Het apparaat ondersteunt luchtdichte werking, is ontworpen om te combineren met NemoClaw's open-source agent-stack, en kan opschalen naar Nvidia's datacentruminfrastructuur zonder code te herschrijven.
Wat dit niet verandert, is de engineering-uitdaging. Hardware is geen architectuur. Een AI-agent die lokaal draait heeft nog steeds dezelfde dingen nodig als elke productie-agent: een metadatalaag die context geeft aan documenten, een redeneerlaag die tussen modellen kan worden gewisseld zonder alles te herbouwen, en een integratielaag die de agent verbindt met ERP, CRM en legacy-systemen. Het DGX Station levert de rekenkracht. De systeemengineering eromheen blijft het moeilijke gedeelte.
Als datasouvereiniteit een blokkade is voor AI-adoptie in jouw organisatie, is het hardware-antwoord nu helderder dan een week geleden. De engineering-vraag - welke agent bouw je, welk proces automatiseert hij, hoe integreert hij met je bestaande systemen - is het eerste wat je moet beantwoorden. Begin met een specifieke use case: factuurverwerking, contractbeoordeling, klantcommunicatie. Breng het bedrijfsproces in kaart. Bepaal daarna waar de rekenkracht moet staan.
Laava's Roadmap Session is een gratis gesprek van 90 minuten waarbij we beoordelen of en hoe AI een specifiek knelpunt in jouw bedrijfsvoering kan automatiseren - inclusief welke implementatie-architectuur passend is gezien jouw compliance-vereisten. Als on-premise het antwoord is, bouwen we daarvoor. Als cloud met zero-retention voldoende is, bouwen we daarvoor. De architectuur volgt de use case, niet andersom.