Een standaard die sneller doorzette dan verwacht
In november 2024 publiceerde Anthropic het Model Context Protocol (MCP) als open standaard. Het was destijds een technisch voorstel: een gemeenschappelijke manier voor AI-modellen om verbinding te maken met externe tools en databronnen, als vervanging van de chaos aan aparte koppelingen die vroege AI-implementaties kenmerkte. Weinigen hadden verwacht hoe snel het zou doorzetten.
Inmiddels ziet het beeld er heel anders uit. In december 2025 droeg Anthropic MCP over aan de Linux Foundation's nieuwe Agentic AI Foundation, mede opgericht door Block en OpenAI, met ook Google, Microsoft, Amazon Web Services en Cloudflare aan boord. Er zijn nu meer dan 10.000 actieve publieke MCP-servers. ChatGPT, Google Gemini, Microsoft Copilot, Cursor en Visual Studio Code ondersteunen het protocol standaard. Elke maand worden zeven miljoen downloads geregistreerd.
Het San Francisco-gebaseerde startup Manufact, afkomstig uit de Y Combinator Summer 2025-batch, haalde zojuist 6,3 miljoen dollar op in een seed-ronde om open-source tooling en cloudinfrastructuur voor MCP te bouwen. Hoofdinvesteerder Peak XV (voorheen Sequoia Capital India en Zuidoost-Azie) noemde MCP 'de USB-C voor AI.' Hun stelling: software zonder MCP-interface wordt binnenkort onzichtbaar voor AI-agents en de gebruikers die steeds vaker op hen vertrouwen.
Waarom dit belangrijk is voor bedrijfssoftware
Voor MCP betekende het koppelen van een AI-agent aan interne systemen maatwerkkoppelingen voor elk afzonderlijk systeem. Een aparte connector voor je ERP, een voor je CRM, een voor je documentbeheer. Elk kostbaar om te bouwen en kwetsbaar in onderhoud. MCP verandert de rekensom: een protocol, consistent over modellen en platforms heen, waarmee elke AI-agent kan communiceren met elk systeem dat een MCP-server blootstelt.
De gevolgen zijn aanzienlijk. De wereldwijde markt voor AI-agents bereikte 7,84 miljard dollar in 2025 en wordt geraamd op 52,62 miljard dollar in 2030. Die groei is gebouwd op agents die daadwerkelijk iets kunnen doen: facturen verwerken, orderhistorie opvragen, klantgegevens bijwerken, rapporten genereren op basis van live data. Zonder de verbinding tussen de AI en de systemen die jouw bedrijfsdata bevatten werkt niets van dit alles.
Manufact-co-CEO Luigi Pederzani vergelijkt het direct met de mobiele transitie: 'Wie boekte er in de begindagen een hotel of vlucht via een app? Maar uiteindelijk werd het web mobile first.' Zijn voorspelling: software wordt MCP first. Bedrijven die wachten met het bouwen van een solide AI-integratielaag, lopen hetzelfde risico als organisaties zonder mobiele strategie in 2015.
Wat dit in de praktijk betekent
Bij Laava bouwen we al twee jaar AI-integraties voor Nederlandse bedrijven. Het feit dat MCP een universele standaard is geworden verandert de economie van dat werk aanzienlijk, maar het maakt het niet eenvoudig. Het protocol bepaalt hoe AI-agents communiceren met externe systemen. Het bepaalt niet welke data die systemen blootstellen, hoe toegang wordt beveiligd, of wat de agent daadwerkelijk mag doen met de data die hij ophaalt.
Als we een AI-agent bouwen die inkomende facturen verwerkt en geextraheerde data doorstuurt naar een ERP zoals Exact Online of SAP, is de MCP-laag een onderdeel van een grotere architectuur. Je moet nog steeds bepalen welke data de agent mag lezen en schrijven, validatielogica bouwen, uitzonderingen afhandelen en ervoor zorgen dat mensen de controle houden bij beslissingen met financiele of juridische gevolgen. De integratie goed inrichten is waar het echte werk zit.
Het goede nieuws: nu MCP een echte standaard is, is de integratieinfrastructuur die Laava bouwt flexibeler dan ooit. Een MCP-server die we bouwen voor het documentsysteem van een klant werkt vandaag met Claude en over twee jaar met welk model dan ook het beste presteert, zonder de connector opnieuw te bouwen. De investering in goede AI-integratie is niet langer gebonden aan een specifiek model of een specifieke leverancier.
Waar te beginnen
Als je AI evalueert voor je organisatie is de eerste vraag niet welk model je moet gebruiken. De vraag is: welke systemen bevatten de data die je AI nodig heeft om nuttig te zijn, en wat is er nodig om die goed te koppelen? Documentstromen, ERP-data, communicatiehistorie: dit zijn de bronnen die bepalen of een AI-agent echt zinvol werk kan automatiseren of alleen generieke vragen kan beantwoorden.
Laava voert pilots uit van vier weken die precies met die vraag beginnen. We brengen je meest waardevolle document- of workflowproces in kaart, bouwen de integratielaag inclusief MCP-servers waar dat van toepassing is, en leveren een werkende automatisering op die je kunt beoordelen aan de hand van echte bedrijfsresultaten. Wil je weten hoe een goede AI-integratie eruitziet voor jouw systemen? Neem contact op.