Wat er gebeurde
Mintlify, een documentatieplatform dat honderdduizenden gebruikers bedient, heeft publiekelijk gedeeld hoe ze traditionele RAG (Retrieval Augmented Generation) hebben vervangen door ChromaFs: een virtueel bestandssysteem waarmee AI-agents documentatie kunnen navigeren zoals ontwikkelaars door code navigeren.
Het probleem met hun vorige aanpak was eenvoudig: RAG kon alleen tekstfragmenten ophalen die overeenkwamen met een zoekopdracht. Wanneer antwoorden verspreid waren over meerdere pagina's, of gebruikers exacte syntax nodig hadden die niet in een top-K resultaat terechtkwam, zat het systeem vast. De AI-assistent kon de documentatiestructuur niet verkennen of doorlopen.
Hun oplossing behandelt elke documentatiepagina als een bestand en elke sectie als een directory. De AI-agent kan nu vertrouwde commando's gebruiken: grep om naar exacte strings te zoeken, cat om volledige pagina's te lezen, ls om inhoud te tonen, en find om de structuur te doorlopen. Maar in plaats van dure sandbox-omgevingen met echte bestandssystemen op te starten, onderschept ChromaFs deze commando's en vertaalt ze naar queries tegen hun bestaande Chroma vector database.
Waarom dit belangrijk is
De prestatiewinst is opmerkelijk. Sessie-creatie daalde van ongeveer 46 seconden naar circa 100 milliseconden. De marginale compute-kosten per gesprek daalden van ongeveer $0,014 naar effectief nul, omdat ChromaFs infrastructuur hergebruikt waarvoor ze al betalen.
Op schaal vermenigvuldigen de besparingen zich. Mintlify schat dat het draaien van dedicated micro-VMs voor 850.000 maandelijkse gesprekken meer dan $70.000 per jaar zou kosten. Hun virtuele bestandssysteem-aanpak elimineert deze kosten volledig en levert tegelijk snellere responstijden.
Maar het architectuurinzicht is belangrijker dan de cijfers. AI-agents convergeren naar bestandssystemen als hun primaire interface omdat de primitieven universeel zijn. grep, cat, ls en find zijn alles wat een agent nodig heeft om gestructureerde informatie te verkennen. Het kernpunt: de agent heeft geen echt bestandssysteem nodig, alleen de illusie ervan.
Het Laava-perspectief
Deze aanpak valideert wat we bij Laava bouwen. RAG is een krachtig hulpmiddel, maar niet het enige. Productie AI-systemen hebben vaak hybride benaderingen nodig die semantisch zoeken combineren met deterministische navigatie.
Onze 3 Layer Architecture scheidt Context, Reasoning en Action precies omdat verschillende problemen verschillende ophaalstrategieën nodig hebben. Soms heb je semantische similarity search nodig. Soms heb je exacte string matching nodig. Soms moet je een documenthiërarchie doorlopen. Een goed ontworpen systeem ondersteunt alle drie.
Mintlify's aanpak demonstreert ook een principe dat we toepassen bij enterprise klanten: hergebruik bestaande infrastructuur. Ze hadden hun documentatie al geïndexeerd in Chroma. In plaats van nieuwe systemen toe te voegen, bouwden ze een dunne vertaallaag erop. Dit is de saaie, betrouwbare engineering die productie-AI vereist.
De access control-integratie is bijzonder elegant. Omdat bestandszichtbaarheid wordt bepaald voordat de bestandssysteemboom wordt opgebouwd, kan de agent niet eens verwijzen naar paden waarvoor een gebruiker niet geautoriseerd is. Beveiliging is architectureel, niet achteraf toegevoegd.
Wat je kunt doen
Als je AI-assistenten bouwt die gestructureerde informatie moeten navigeren, overweeg dan of pure RAG de juiste aanpak is. Vraag jezelf af: heeft de agent semantische similariteit nodig, of moet hij kunnen doorlopen en verkennen? Vaak is het antwoord: beide.
Laava helpt enterprises bij het ontwerpen van AI-architecturen die ophaalstrategie matchen aan use case. Als je tegen beperkingen aanloopt met je huidige RAG-implementatie, of als je AI-assistent worstelt met antwoorden over meerdere pagina's en exacte syntax-lookups, kunnen we je helpen hybride benaderingen te evalueren zoals die van Mintlify.