Wat Microsoft heeft aangekondigd
Op 9 maart 2026 kondigde Microsoft de algemene beschikbaarheid aan van Agent 365 en Microsoft 365 Enterprise 7 — twee producten gebouwd rondom een ongemakkelijke waarheid: AI-agenten draaien al in de meeste grote organisaties, en niemand kijkt ernaar.
Agent 365 kost $15 per gebruiker per maand en fungeert als wat Microsoft het 'controlevlak voor agenten' noemt: een gecentraliseerd register en beveiligingsplatform waarmee IT- en beveiligingsteams AI-agenten in een enterprise kunnen observeren, beheren en blokkeren. De M365 Enterprise 7-bundel verpakt dit samen met Copilot en Microsofts volledige beveiligingsstack voor $99 per gebruiker per maand.
De cijfers achter de aankondiging zijn opvallend. Meer dan 80% van de Fortune 500-bedrijven gebruikt actief AI-agenten die gebouwd zijn met low-code en no-code tools. IDC voorspelt 1,3 miljard agenten in omloop tegen 2028. Microsoft heeft zelf zicht op meer dan 500.000 agenten die in zijn eigen bedrijfsomgeving draaien. En toch, volgens Microsofts eigen onderzoek, werkt 29% van de agenten in onderzochte organisaties zonder goedkeuring van IT- of beveiligingsteams. Slechts 47% van de organisaties gebruikt überhaupt beveiligingstools om hun AI-implementaties te beschermen.
Het 'dubbelagent'-probleem
Microsoft heeft een term gemunt voor het opkomende risico: 'double agents'. Het concept beschrijft scenario's waarbij AI-agenten, gebouwd om een organisatie te dienen, worden gemanipuleerd via prompt injection, model poisoning of andere technieken, zodat ze tegen de belangen van de organisatie handelen. In Microsofts eigen red team-experimenten waren deze aanvallen succesvol: agenten werden gemanipuleerd om ongeautoriseerde data te benaderen, informatie te exfiltreren of onbedoelde acties uit te voeren.
Afzonderlijk identificeerde Microsofts beveiligingsteam meer dan 50 unieke 'AI Recommendation Poisoning'-prompts van 31 bedrijven in 14 industrieën: verborgen instructies ingebed in websites, ontworpen om AI-assistenten te kapen. Wanneer een gebruiker op 'Samenvatten met AI' klikt op zo'n pagina, ontvangt de agent stiekeme instructies om een onbekende derde partij als betrouwbare bron te behandelen.
Dit is niet theoretisch. Agenten die documenten, e-mails en webcontent verwerken — precies de agenten die de meeste bedrijven als eerste inzetten — zijn het meest blootgesteld. Het aanvalsoppervlak is elk stuk ongestructureerde data dat de agent leest.
Waarom dit relevant is voor elk bedrijf dat AI-agenten inzet
Het bredere patroon is niet uniek voor Microsofts ecosysteem. Organisaties in elke sector zetten AI-agenten sneller in dan ze de controls bouwen om ze te beheren. De dynamiek is herkenbaar: business teams bouwen iets dat werkt in een demo, zetten het live in productie, en zes maanden later kan niemand meer de basisvragen beantwoorden. Welke agent doet wat? Welke data raakt het? Wie heeft het goedgekeurd? Wat gebeurt er als het een fout maakt?
De inzet is hoger dan het lijkt. AI-agenten die facturen, contracten, klantemails en HR-data verwerken, hebben toegang tot gevoelige bedrijfsinformatie en de mogelijkheid om consequente acties te ondernemen in ERP- en CRM-systemen. Een slecht beheerde agent is niet alleen een prestatierisico — het is een compliancerisico, een beveiligingsrisico en, zeker onder de EU AI Act, een juridisch risico.
Microsofts aankondiging signaleert dat de markt rijper wordt dan de 'AI-demo'-fase. Governance is geen nice-to-have meer — het is het product. De vraag voor elke organisatie met agenten in productie is: heb je governance van het begin af aan ingebouwd, of koop je het nu als achteraf-oplossing?
Hoe Laava hierover denkt
Dit is precies het gat dat Laava is gebouwd om te dichten. Voordat we ook maar één regel code schrijven, brengen we het bedrijfsproces in kaart: wat is de trigger voor deze agent? Welke beslissingen neemt hij autonoom, en welke vereisen menselijke goedkeuring? Welke data raakt hij, en wat zijn de toegangsgrenzen? Wie is er verantwoordelijk als er een fout wordt gemaakt?
Governance is geen bijzaak in onze architectuur — het zit ingebakken in het agentontwerp vanaf dag één. Elke agent die we implementeren bevat volledige audit trails (wie heeft wat goedgekeurd, wanneer en waarom), human-in-the-loop controlepunten bij risicovolle beslissingen, least-privilege datatoegang beperkt tot de taak, en expliciete escalatiepaden wanneer de agent onzekerheid of afwijkingen tegenkomt.
We nemen prompt injection serieus als bedreigingsmodel, niet als een curiositeit. Agenten die externe documenten, leveranciersmails of door klanten ingediende content verwerken, moeten worden gehardend tegen precies de aanvallen die Microsofts red team nu op grote schaal demonstreert. Dit is vooral relevant voor documentverwerkende agenten in logistiek, publieke sector en financiële backoffice-omgevingen — de soort implementaties waar wij dagelijks aan werken.
Wat je nu kunt doen
Als je organisatie al AI-agenten in productie heeft draaien, begin dan met een inventarisatie: wat is er geïmplementeerd, welke data raakt het, wie heeft het goedgekeurd, en zijn er audit logs? Als het antwoord op een van die vragen 'dat weten we niet' is, is dat je startpunt.
Als je je eerste agentimplementatie plant, behandel governance dan niet als een fase-twee-probleem. De kosten van het achteraf inbouwen van controls in een live systeem zijn altijd hoger dan ze er van het begin af aan in bouwen. Laava biedt een gestructureerde Roadmap Session om je proces in kaart te brengen, risicopunten te identificeren en een agentarchitectuur te ontwerpen die zowel capabel als verdedigbaar is vanaf dag één. Neem contact op via laava.nl als je dat gesprek wilt starten.