Wat er is gebeurd
OpenAI publiceerde op 9 april een nieuwe case study over CyberAgent, de Japanse internetgroep achter activiteiten in advertising, media en gaming. Het interessantste detail is niet de merknaam, maar het operating model. CyberAgent heeft ChatGPT Enterprise en Codex onderdeel gemaakt van het dagelijkse werk in vrijwel alle afdelingen, met volgens OpenAI een maandelijkse actieve gebruikersgraad van 93 procent, zonder een harde centrale verplichting op te leggen.
Dat getal is relevant omdat het laat zien dat de organisatie daar waarschijnlijk niet is gekomen door alleen chatbotlicenties uit te delen en medewerkers het verder zelf te laten uitzoeken. Volgens de case study bouwde CyberAgent over meerdere jaren institutionele ondersteuning rond AI adoptie, met een AI Lab sinds 2016 en een AI Operations Office sinds 2023. ChatGPT Enterprise werd de veilige basis, interne richtlijnen maakten duidelijk welke informatie wel en niet ingevoerd mocht worden, en governance haalde een groot deel van de terughoudendheid weg die enterprise uitrol vaak vertraagt.
Het Codex deel is misschien nog interessanter. CyberAgent gebruikt Codex volgens OpenAI niet alleen voor codegeneratie, maar ook voor het reviewen van designvoorstellen, het aandragen van opties tijdens code review, en het onderhouden van gedeelde kennisdocumenten zoals AGENTS.md zodat agents met rijkere context kunnen werken. OpenAI beschrijft daarnaast follow-ups via Slack voor inactieve gebruikers, het delen van prompts en use cases binnen het bedrijf, en meer dan tien trainingen en workshops met telkens meer dan honderd deelnemers.
Waarom dit voor bedrijven relevant is
Dit is een van de duidelijkste signalen in het nieuws van vandaag dat enterprise AI verschuift van experiment naar operatie. De echte headline is niet dat een model in isolatie iets knaps kan. De echte headline is dat een groot bedrijf blijkbaar herhaalbare gewoontes, controles en interne ondersteuning rond AI gebruik heeft gebouwd. Juist dat deel wordt in veel AI programma's nog onderschat. Adoptie strandt meestal niet alleen op modelkwaliteit, maar op onzekerheid, zwak procesontwerp en een gebrek aan vertrouwen.
De aanpak van CyberAgent laat ook zien waarom governance geen rem hoeft te zijn, maar juist een versneller van adoptie kan worden. Medewerkers aarzelden zolang onduidelijk was welke informatie veilig in AI tools ingevoerd mocht worden. Toen het bedrijf enterprise controls, expliciete regels en een goedgekeurd platform invoerde, nam het gebruik toe. Voor kopers die AI projecten beoordelen is dit een praktische les: security, toegangscontrole en operationele duidelijkheid zijn geen bijzaak. Het zijn randvoorwaarden voor schaal.
Er zit ook een belangrijke les in de plekken waar Codex waarde toevoegt. De case study suggereert dat AI niet alleen de laatste implementatiestap versnelt, maar ook eerder in het proces helpt bij design review, afstemming, documentatie en het schrijven van specificaties. Dat is relevant omdat betere beslissingen aan het begin van een workflow later minder herstelwerk opleveren. In enterprise omgevingen is die kwaliteitswinst vaak waardevoller dan pure snelheid, zeker wanneer de echte kosten niet in typen zitten maar in verkeerde keuzes en correcties achteraf.
Laava perspectief
Bij Laava kijken we precies zo naar productieklare AI. Een toollicentie is geen AI strategie, en toegang is geen adoptie. Als je wilt dat AI agents echt werk doen binnen een organisatie, heb je een operating model om die agents heen nodig: welke data ze mogen gebruiken, waar menselijke goedkeuring zit, met welke systemen ze koppelen, hoe goede voorbeelden worden gedeeld, hoe promptkwaliteit verbetert, en wat je doet wanneer gebruik in het ene team stokt en in het andere team juist werkt.
De case van CyberAgent is extra relevant omdat AI hier niet wordt neergezet als een magische vervanger van mensen. Mensen houden de finale beslissingen. AI helpt bij research, drafting, designdiscussies, code review en documentatie. Dat sluit nauw aan op Laava's visie op enterprise agents: ze creëren leverage wanneer ze gegrond zijn in context, ingebed zijn in de workflow, en verbonden zijn met de juiste systemen, met guardrails rond elke betekenisvolle actie. Het doel is geen flitsende autonomie. Het doel is saai, herhaalbaar resultaat.
Het onderstreept ook een punt dat we in bijna elke serieuze implementatie terugzien: integratie wint van nieuwigheid. Slack follow-ups, intern kennisdelen, rolgerichte workshops en duidelijke platformregels klinken minder spectaculair dan een nieuwe frontier model release, maar juist dit bepaalt meestal of een team blijvende waarde haalt. Enterprises hebben niet nog een demo nodig die tien minuten slim oogt. Ze hebben systemen nodig die passen bij hoe werk al gebeurt, en die de kwaliteit van beslissingen binnen die workflows verbeteren.
Wat je nu kunt doen
Als je interne AI adoptie plant, begin dan met één workflow waarin betere beslissingen en minder herstelwerk meetbare waarde hebben, bijvoorbeeld documentreview, saleskwalificatie, customer service triage of het opstellen van specificaties. Definieer daarna eerst het operating model voordat je breed toegang uitrolt. Bepaal welke data is toegestaan, welke output review nodig heeft, welke systemen de agent mag aanraken, welke succesmetric telt, en hoe je met uitzonderingen omgaat. Zonder die basis zorgen extra licenties vooral voor ruis.
Een praktische volgende stap is een kleine enablement loop rond de gekozen workflow. Bouw een bibliotheek met goede voorbeelden. Geef rolgerichte training. Zet de tool in de systemen waar mensen al werken. Meet herhaalgebruik, niet alleen aanmeldingen. Kijk waar AI herstelwerk heeft verminderd en waar juist verwarring ontstond. Daalt de adoptie, onderzoek dan waarom in plaats van automatisch het model de schuld te geven. Het verhaal van CyberAgent is een nuttige herinnering dat enterprise AI succes zelden draait om één lancering. Het draait om het ontwerpen van de omgeving waarin nuttig gedrag zich kan opstapelen.