De cijfers worden slechter
Uit een nieuw onderzoek van S&P Global Market Intelligence onder meer dan 1.000 bedrijven in Noord-Amerika en Europa blijkt dat 42% van de ondervraagden het grootste deel van zijn AI-initiatieven in 2025 heeft stopgezet. Een jaar eerder was dat nog 17%. Gemiddeld haalde 46% van de AI proof-of-concepts de productiefase niet. VentureBeat schreef er op 15 maart over, met als centrale observatie dat bedrijven die wél slagen met AI een fundamenteel andere aanpak hanteren.
De meest genoemde obstakels: te hoge kosten, zorgen over dataprivacy en beveiliging, en de hardnekkige onmogelijkheid om pilots naar productie te brengen. Bijna twee derde van de ondervraagde organisaties geeft toe de stap van pilot naar productie niet te kunnen maken, terwijl de budgetten voor generatieve AI juist toenemen.
Het patroon is consistent: engineeringteams bouwen prototypes die operations of product niet kunnen gebruiken. Datascientists leveren demo's die bezwijken zodra echte data arriveert. AI-systemen worden uitgerold zonder duidelijke regels voor wanneer ze zelfstandig mogen handelen en wanneer menselijke beoordeling nodig is. Als het project dan mislukt, verdwijnt het budget en groeit de scepsis.
Waarom AI-projecten mislukken in productie
De VentureBeat-analyse identificeert drie terugkerende organisatieproblemen. Ten eerste blijft AI-kennis beperkt tot de engineeringafdeling. Als alleen het bouwteam begrijpt hoe een systeem werkt, loopt de samenwerking spaak. Operationeel managers kunnen niet valideren wat ze niet kunnen interpreteren. Als er dan iets misgaat, weet niemand buiten engineering hoe te reageren.
Ten tweede zijn autonomieregels ofwel te streng ofwel afwezig. Organisaties vervallen in twee gebroken extremen: elke AI-beslissing vereist menselijke goedkeuring (waarmee efficiëntiewinst teniet wordt gedaan) of het systeem draait zonder enig toezicht (totdat er iets kostbaars misgaat). Wat ontbreekt is een helder kader dat bepaalt wanneer AI mag handelen, wanneer het moet vragen, en wie verantwoordelijk is voor elke beslissing.
Ten derde is de overdracht van pilot naar productie niemands eigendom. Als afdelingen hun eigen AI-aanpak ontwikkelen in isolatie, resulteert dat in inconsistente kwaliteit, dubbel werk en systemen die werken in demoomstandigheden maar bezwijken in de rommelige werkelijkheid van productiedata.
Laava's perspectief: dit is een engineeringprobleem, geen AI-probleem
Deze patroon is precies waarom Laava is opgericht. De markt heeft geen gebrek aan AI-enthousiasme of leveranciersbeloften. Wat ontbreekt is engineeringdiscipline toegepast op het volledige probleem: niet alleen het model, maar het proces, de data, de integratie, de guardrails en de overdracht.
De 46% pilot-uitval die S&P Global rapporteert, is geen technologiefout. Het is een scopingfout. Projecten starten te breed, meten te laat, en gaan er vanuit dat productie werkt zoals de demo. Een pilot die facturen verwerkt voor één leverancier is een concrete, toetsbare hypothese. Een pilot die 'de inkoop automatiseert' is dat niet.
Het autonomieprobleem is eveneens oplosbaar met de juiste architectuur. Laava bouwt agenten standaard in shadow mode: de AI verwerkt de data en bereidt een actie voor, maar een mens keurt goed voor uitvoering. Dit bouwt organisatorisch vertrouwen op terwijl een reëel track record van nauwkeurigheid ontstaat. Zodra de foutenmarge laag genoeg is en de business unit klaar is, kan de autonomie stap voor stap worden uitgebreid. Geen big-bang lancering, geen rampzalige mislukking.
Het overdrachtsgebrek lost Laava op met documentatie en eigenaarschap. Elke opdracht levert infrastructure as code, architectuurdocumentatie en een overdrachtssessie voor het interne team van de klant. Het doel is geen afhankelijkheid, maar een systeem dat de klant na afloop zelf kan beheren.
Wat je anders kunt doen
Als een AI-pilot bij jouw organisatie is mislukt of vastgelopen, is de eerste vraag niet: 'welk model moeten we gebruiken?' De eerste vraag is: 'welk exact proces automatiseren we, wie is eigenaar, en hoe weten we of het werkt?' Die drie antwoorden bepalen of een pilot enige kans heeft om de productie te halen.
De Roadmap Session van Laava — gratis, 90 minuten — begint precies met die vragen. Als AI het probleem niet kan oplossen, zeggen we dat. Als dat wel zo is, definiëren we een Proof of Pilot smal genoeg om in vier weken te testen, met meetbare uitkomsten vastgelegd voordat er één regel code wordt geschreven. Dat is het verschil tussen de 42% die stopt en de bedrijven die dat niet doen.