Laava LogoLaava
Nieuws & Analyse

Anthropic legt enorme TPU-capaciteit vast, en enterprise AI-kopers moeten opletten

Anthropic tekende een multi-gigawattdeal met Google en Broadcom voor TPU-capaciteit van de volgende generatie. De kop gaat over schaal, maar het echte verhaal gaat over enterprise AI-kosten, lock-in en infrastructuurstrategie.

Anthropic kondigde een nieuwe langetermijndeal aan met Google en Broadcom voor meerdere gigawatt aan TPU-capaciteit van de volgende generatie. De eerste capaciteit moet vanaf 2027 beschikbaar komen. Volgens Anthropic is dit de grootste compute-verplichting tot nu toe, gedreven door snelle groei in enterprise-vraag naar Claude en een run-rate omzet die inmiddels boven de 30 miljard dollar ligt.

Op het eerste gezicht lijkt dit vooral infrastructuurnieuws voor hyperscalers. In de praktijk laat het iets groters zien over de richting van de AI-markt. De spelers die enterprise-budgetten winnen, praten niet meer alleen over demo's, benchmarks of consumentenproducten. Ze reserveren nu al op industriële schaal rekenkracht voor training en inferentie, jaren vooruit.

Dat is relevant omdat compute strategisch wordt. Als een modelleverancier nu al multi-gigawattcapaciteit vastlegt voor gebruik in 2027, dan moeten enterprise-kopers ervan uitgaan dat capaciteit, prijs en platformafhankelijkheid net zo bepalend worden als modelkwaliteit. Het model is maar een laag. De infrastructuur eronder bepaalt prijsmacht, veerkracht, latency en hoeveel onderhandelingsruimte je overhoudt.

Waarom dit ertoe doet voor enterprise AI

Voor de meeste bedrijven is het grootste AI-risico niet dat een model te zwak is. Het grootste risico is dat een workflow in productie te duur, te traag of te afhankelijk van één leverancier wordt zodra het volume oploopt. Een proof of concept kan goedkoop lijken bij lage aantallen. Productie is iets anders. Als er elke dag duizenden documenten, e-mails, supportcases of goedkeuringen door dezelfde pipeline lopen, zie je infrastructuurkeuzes ineens direct terug in de kosten.

Anthropic benadrukte ook hardwarediversiteit. Claude draait inmiddels op AWS Trainium, Google TPU's en NVIDIA GPU's, en is beschikbaar via Amazon Bedrock, Google Cloud Vertex AI en Microsoft Azure Foundry. Dat is niet alleen een schaalverhaal. Het is ook een verhaal over veerkracht. De leveranciers die de volgende fase van enterprise AI overleven, zijn de partijen die workloads kunnen verplaatsen tussen hardware, regio's en clouds zonder dat productkwaliteit of economie instort.

Dat raakt Europa extra hard. Veel organisaties willen frontier-modellen gebruiken, maar niet eindigen in een architectuur die volledig leunt op één commerciële afhankelijkheid. Procurement kijkt naar lock-in. Security kijkt naar waar workloads draaien. Finance kijkt naar oplopende kosten. Zo'n compute-aankondiging herinnert eraan dat de upstream-markt consolideert rond infrastructuurrelaties waar klanten zelf weinig controle over hebben.

Laava's perspectief

Bij Laava behandelen we model-API's niet als het eindproduct. Het product is de bedrijfsworkflow: factuurverwerking, triage van klantmails, documentextractie, goedkeuringsstromen, offerte-opbouw en andere operationele processen die elke dag betrouwbaar moeten draaien. Daarom moet de modelkeuze flexibel blijven. Als een workflow alleen werkt met één vendor, één cloud of één prijsmodel, dan is die workflow nog niet productierijp.

Deze deal van Anthropic bevestigt een simpele les: bouw op portabiliteit voordat je die nodig hebt. Gebruik een architectuur waarin prompts, schema's, tools, goedkeuringslogica en observability losstaan van de onderliggende modelleverancier. Dan kun je workloads naar Claude sturen als dat de beste keuze is, overschakelen naar een andere frontier-API als de economie verandert, of specifieke taken naar open modellen verplaatsen als soevereiniteit of kosten belangrijker worden.

Hier ziet Laava ook een praktische tweedeling in de markt. Voor complexe redenering en orkestratie kan een premium closed model nog steeds logisch zijn. Maar gestructureerde documenttaken, repetitieve classificatie, extractiepipelines en interne copilots profiteren vaak van een hybride setup. Gebruik het dure model voor de moeilijke stap. Verplaats de voorspelbare stappen naar goedkopere of self-hosted infrastructuur. Zo houd je kwaliteit hoog zonder dat AI-kosten ontsporen.

Wat je nu kunt doen

Als je al AI-agents of documentworkflows uitrolt, bekijk dan nu je afhankelijkheden, niet pas wanneer het volume piekt. Stel drie concrete vragen. Eén: welke workflows hangen te sterk af van het gedrag van één modelleverancier? Twee: welke stappen hebben echt frontier-reasoning nodig, en welke kunnen draaien op goedkopere of soevereine infrastructuur? Drie: heb je zicht op kosten per document, kosten per case en fallbackgedrag als een provider vertraagt of voorwaarden wijzigt?

Het goede nieuws is dat dit oplosbaar is. Je hoeft niet te voorspellen welke modelleverancier in 2027 wint. Je hebt een architectuur nodig die meebeweegt. Dat betekent modelabstractie, monitoring op workflowniveau, sterke evaluatiedatasets en een duidelijke scheiding tussen taken met hoge redeneerwaarde en commodity-verwerkingsstappen. Anders gezegd: ontwerp je AI-systeem zo dat infrastructuurnieuws als dit een routeringsbeslissing wordt, geen bedrijfsrisico.

Voor bedrijven in logistiek, retail en zakelijke dienstverlening is dit het moment om minder abstract over AI te praten en één meetbare workflow te kiezen. Kies het proces, definieer de economie, houd de modelllaag vervangbaar en bewijs het resultaat in productie. Zo profiteer je van de AI-infrastructuurrace zonder erin vast te lopen.

Wil je weten hoe dit jouw organisatie raakt?

Wij helpen je bij het navigeren door deze veranderingen met praktische oplossingen.

Plan een gesprek

Klaar om aan de slag te gaan?

Neem contact op en ontdek wat we voor je kunnen betekenen. Vrijblijvend gesprek, concrete antwoorden.

Geen verplichtingen. We denken graag met je mee.

Anthropic legt enorme TPU-capaciteit vast, en enterprise AI-kopers moeten opletten | Laava News | Laava