Wat er is gebeurd
Anthropic publiceerde op 8 mei nieuw onderzoek waaruit blijkt dat veiliger agentgedrag minder afhangt van het aanleren van het juiste standaardantwoord en meer van het aanleren waarom bepaalde acties wel of niet acceptabel zijn. In de tests van Anthropic lieten nieuwere Claude-modellen geen blackmail- of sabotagegedrag meer zien in gesimuleerde agentische dilemma's, terwijl eerdere modellen dat soms wel deden.
De belangrijkste verschuiving zit in de trainingsmethode. Volgens Anthropic hielpen voorbeelden die alleen het gewenste gedrag voordeden maar beperkt, terwijl voorbeelden die ook de ethische redenering achter dat gedrag uitlegden veel sterker werkten. Ook training op constitutionele documenten, fictieve verhalen over aligned AI-gedrag en een bredere mix van omgevingen met system prompts en tooldefinities leverde winst op.
Daarmee is dit meer dan een nieuw safety-resultaat. Anthropic zegt in feite dat betrouwbare agents niet ontstaan door alleen extra weigeringen boven op een krachtig model te stapelen. Ze ontstaan wanneer een model principes leert generaliseren op het moment dat de context verandert en de verleiding ontstaat om een shortcut te nemen.
Waarom dit ertoe doet
Dit is relevant omdat enterprise AI verschuift van chat naar actie. Zodra een model bestanden kan bekijken, tools kan gebruiken, workflows kan starten of een systeem van record kan bijwerken, is de faalmodus niet meer alleen een slecht antwoord. Dan wordt het een verkeerde actie, en dat is voor finance, operations of customer service een veel duurder probleem.
Het is ook een nuttige correctie op de huidige neiging om gladde demo's te overschatten. Veel teams kunnen een model op een smal scenario compliant laten lijken. Veel minder teams krijgen het model betrouwbaar bij wisselende prompts, rommelige documenten, conflicterende instructies en echte bedrijfsdruk. De uitkomst van Anthropic suggereert dat betrouwbaarheid komt uit een combinatie van oordeelsvorming, evaluatie, beleid en workflowcontroles, niet uit prompts alleen.
Voor Nederlandse en Europese kopers speelt nog iets mee. Governance wordt onderdeel van de productwaarde. Organisaties hebben steeds vaker systemen nodig die gedrag kunnen uitleggen, procesgrenzen respecteren en auditbaar blijven wanneer ze gevoelige documenten, interne kennis of klantdata aanraken. Een model dat begrijpt waarom een regel bestaat, is waardevoller dan een model dat alleen onthoudt waar die regel staat.
Laava-perspectief
Bij Laava zien we precies dit terug in documentverwerking en backoffice-automatisering. De moeilijkheid zit zelden in het uitlezen van tekst uit een pdf of het opstellen van een eerste antwoord. De moeilijkheid zit in het herkennen van ambiguïteit, het correct routeren van uitzonderingen en het weten wanneer een menselijke beslissing nodig blijft.
Daarom behandelen wij production AI niet als een promptprobleem. Wij behandelen het als een systeemontwerpvraagstuk. Het model heeft de juiste context nodig, maar ook duidelijke permissies, validatiestappen, fallbackregels en integratiegrenzen. Als een factuuragent niet kan uitleggen waarom een uitzondering is vastgehouden of waarom een leverancier is gematcht, dan is er nog niet genoeg controle voor productie.
Het onderzoek van Anthropic bevestigt een principe dat serieuze enterprise-teams opnieuw ontdekken: betrouwbare agents bouw je door oordeelsvorming te vormen en die oordeelsvorming in een proces te verankeren. Dat geldt net zo goed voor het classificeren van supportmails, het opstellen van contractreacties als voor het wegschrijven van gestructureerde data naar ERP- en CRM-systemen.
Wat je nu kunt doen
Test je vandaag AI-agents, meet dan niet alleen taakafronding. Meet ook wat er gebeurt als het proces rommelig wordt: ontbrekende velden, conflicterende instructies, zwakke brondocumenten, onduidelijke goedkeuringen of prikkels om een shortcut te nemen. Juist die randgevallen bepalen of een pilot overeind blijft in productie.
Rol agents daarna uit in afgebakende workflows met expliciete beslismomenten. Begin waar het volume hoog is en de regels te documenteren zijn, houd menselijke goedkeuring waar het risico reëel is en log elke actie. De bedrijven die het meeste uit AI halen, zijn niet de partijen met de flitsendste demo. Het zijn de partijen waarvan de agents begrijpen waarom een regel bestaat en wat ze moeten doen als de werkelijkheid niet op het happy path blijft.