Laava LogoLaava
Terug naar nieuws
Nieuws & analyse

42% van de bedrijven gooit AI-projecten weg — en dat ligt niet aan de technologie

42% van de bedrijven heeft het merendeel van zijn AI-initiatieven in 2025 stopgezet, tegenover 17% het jaar daarvoor. Gemiddeld haalt 46% van de AI-pilots de productie niet. Het probleem is niet de technologie, maar de aanpak.

Bron & datum

VentureBeat

Waarom dit telt

Nieuws wordt pas relevant als je kunt vertalen wat dit betekent voor processen, risico, investeringen en besluitvorming in je eigen organisatie.

De cijfers worden slechter

Uit een nieuw onderzoek van S&P Global Market Intelligence onder meer dan 1.000 bedrijven in Noord-Amerika en Europa blijkt dat 42% van de ondervraagden het grootste deel van zijn AI-initiatieven in 2025 heeft stopgezet. Een jaar eerder was dat nog 17%. Gemiddeld haalde 46% van de AI proof-of-concepts de productiefase niet. VentureBeat schreef er op 15 maart over, met als centrale observatie dat bedrijven die wél slagen met AI een fundamenteel andere aanpak hanteren.

De meest genoemde obstakels: te hoge kosten, zorgen over dataprivacy en beveiliging, en de hardnekkige onmogelijkheid om pilots naar productie te brengen. Bijna twee derde van de ondervraagde organisaties geeft toe de stap van pilot naar productie niet te kunnen maken, terwijl de budgetten voor generatieve AI juist toenemen.

Het patroon is consistent: engineeringteams bouwen prototypes die operations of product niet kunnen gebruiken. Datascientists leveren demo's die bezwijken zodra echte data arriveert. AI-systemen worden uitgerold zonder duidelijke regels voor wanneer ze zelfstandig mogen handelen en wanneer menselijke beoordeling nodig is. Als het project dan mislukt, verdwijnt het budget en groeit de scepsis.

Waarom AI-projecten mislukken in productie

De VentureBeat-analyse identificeert drie terugkerende organisatieproblemen. Ten eerste blijft AI-kennis beperkt tot de engineeringafdeling. Als alleen het bouwteam begrijpt hoe een systeem werkt, loopt de samenwerking spaak. Operationeel managers kunnen niet valideren wat ze niet kunnen interpreteren. Als er dan iets misgaat, weet niemand buiten engineering hoe te reageren.

Ten tweede zijn autonomieregels ofwel te streng ofwel afwezig. Organisaties vervallen in twee gebroken extremen: elke AI-beslissing vereist menselijke goedkeuring (waarmee efficiëntiewinst teniet wordt gedaan) of het systeem draait zonder enig toezicht (totdat er iets kostbaars misgaat). Wat ontbreekt is een helder kader dat bepaalt wanneer AI mag handelen, wanneer het moet vragen, en wie verantwoordelijk is voor elke beslissing.

Ten derde is de overdracht van pilot naar productie niemands eigendom. Als afdelingen hun eigen AI-aanpak ontwikkelen in isolatie, resulteert dat in inconsistente kwaliteit, dubbel werk en systemen die werken in demoomstandigheden maar bezwijken in de rommelige werkelijkheid van productiedata.

Laava's perspectief: dit is een engineeringprobleem, geen AI-probleem

Deze patroon is precies waarom Laava is opgericht. De markt heeft geen gebrek aan AI-enthousiasme of leveranciersbeloften. Wat ontbreekt is engineeringdiscipline toegepast op het volledige probleem: niet alleen het model, maar het proces, de data, de integratie, de guardrails en de overdracht.

De 46% pilot-uitval die S&P Global rapporteert, is geen technologiefout. Het is een scopingfout. Projecten starten te breed, meten te laat, en gaan er vanuit dat productie werkt zoals de demo. Een pilot die facturen verwerkt voor één leverancier is een concrete, toetsbare hypothese. Een pilot die 'de inkoop automatiseert' is dat niet.

Het autonomieprobleem is eveneens oplosbaar met de juiste architectuur. Laava bouwt agenten standaard in shadow mode: de AI verwerkt de data en bereidt een actie voor, maar een mens keurt goed voor uitvoering. Dit bouwt organisatorisch vertrouwen op terwijl een reëel track record van nauwkeurigheid ontstaat. Zodra de foutenmarge laag genoeg is en de business unit klaar is, kan de autonomie stap voor stap worden uitgebreid. Geen big-bang lancering, geen rampzalige mislukking.

Het overdrachtsgebrek lost Laava op met documentatie en eigenaarschap. Elke opdracht levert infrastructure as code, architectuurdocumentatie en een overdrachtssessie voor het interne team van de klant. Het doel is geen afhankelijkheid, maar een systeem dat de klant na afloop zelf kan beheren.

Wat je anders kunt doen

Als een AI-pilot bij jouw organisatie is mislukt of vastgelopen, is de eerste vraag niet: 'welk model moeten we gebruiken?' De eerste vraag is: 'welk exact proces automatiseren we, wie is eigenaar, en hoe weten we of het werkt?' Die drie antwoorden bepalen of een pilot enige kans heeft om de productie te halen.

De Roadmap Session van Laava — gratis, 90 minuten — begint precies met die vragen. Als AI het probleem niet kan oplossen, zeggen we dat. Als dat wel zo is, definiëren we een Proof of Pilot smal genoeg om in vier weken te testen, met meetbare uitkomsten vastgelegd voordat er één regel code wordt geschreven. Dat is het verschil tussen de 42% die stopt en de bedrijven die dat niet doen.

Vertaling naar jullie operatie

Bepaal waar dit jullie als eerste echt raakt

De praktische vraag is niet of dit nieuws interessant is, maar waar het direct iets verandert in jullie processen, tooling, risico of commerciële aanpak.

First serious step

Van nieuws naar een concrete eerste route

Gebruik marktontwikkelingen als context, maar neem beslissingen op basis van jullie eigen operatie, systemen en risicoafweging.

Included in the first conversation

Operationele impact inschattenRelevante risico’s scheiden van ruisEerste route bepalen
Start with one process. Leave with a sharper first route.
42% van de bedrijven gooit AI-projecten weg — en dat ligt niet aan de technologie | Laava News