Når AI-infrastruktur-giganter spiser deres egne: CDN-apokalypsen
Opsætningen, der ikke holdt
Forestil dig: Du styrer Fastlys aktieportefølje tidligt i 2026. Virksomheden har lige leveret sit første profitable år. CEO'en peger på AI-agent-trafik som vækstmotoren. Aktien er steget 233% siden årsskiftet. Alt ser lyst ud.
Så rammer 8. april.
Anthropic lancerer Claude Managed Agents – en hosted runtime til AI-agenter på Claude-infrastruktur. Fastly falder 18% på én handelsdag. Cloudflare ryger 11% ned. Akamai mister 12%. Alt inden for få dage.
Hvad skete der? Intet operationelt. Alle tre firmaer havde positiv outlook. Problemet var ikke regnskaber eller tech-udførelse. Det var markedets tro på deres kernebudskab, der forsvandt.
Sådan ville CDN-firmaerne eje AI-laget
For at forstå faldet skal du kende deres pitch.
De sidste to år har CDN- og edge-leverandører ompositioneret sig som det ideelle compute-lag til AI-agenter. Logikken hang sammen: AI-agenter kører kode, kalder API'er og håndterer data. Det kræver et sted at ske. Hvem er bedre egnet end globale infrastrukturspillere?
Cloudflare lavede Workers AI med et Agents SDK. Fastly pushede edge compute til AI-jobs. Akamai hoppede med på. Den fælles idé var enkel: Tag din AI-model med til os, vi kører udførelsen på vores netværk.
Historien solgte godt. De havde allerede:
- Globale edge-netværk
- Bevist skalérbarhed
- Erfaring med uforudsigelig trafik
- Etablerede dev-relationer
For udviklere lød det smart at outsource agent-kørsel til specialister. Hvorfor opfinde hjulet på ny?
Vendepunktet
Så vendte Anthropic det hele på hovedet.
Claude Managed Agents skifter fokus. I stedet for "bring modellen til vores infra" bliver det "bring din app-logik til os, vi tager resten". Udviklere definerer model, værktøjer og logik. Anthropic står for:
- Session-håndtering
- State-backup
- Fejlgenstart
- Multi-agent-samarbejde
- Container-orkestrering
Hver agent kører i en engangs Linux-container. Prisen er $0,08 pr. runtime-time plus token-omkostninger.
Til Claude-deployments forsvinder behovet for tredjeparts-infra.
Ingen grund til Cloudflares edge compute, når Anthropic håndterer runtime. Ingen vits i Fastlys agent-optimering, når udførelsen er dækket. Mellemanden – hele værditilbudet – ryger ud.
OpenAI startede tendensen to måneder tidligere med Responses API og hosted shell-containere. Men Anthropics lancering fik markedet til at indse: Model-firmaer bliver infra-virksomheder.
Hvorfor det betyder noget mere end aktiekurser
Denne begivenhed viser tech-markedets dynamik – vigtigt, hvis du bygger på cloud-platforme eller vælger hosting til kritiske ting.
Infrastruktur commoditiseres hurtigere. Tidligere byggede specialister forsvarsværker på performance, pålidelighed eller features. CDN'er havde edge-moats. Fordelen findes stadig – men betyder mindre, når model-udbyderen koordinerer alt.
Model-firmaer har strukturel overhånd. De kender deres models adfærd bedst. De optimerer runtime til præcis det. De integrerer betaling uden besvær. De itererer uden API-drøsler. Tredjeparter matcher det svært.
Dev-bekvemmelighed slår optimering. Et integreret setup – model + runtime + orkestrering – vinder over løse komponenter, selv hvis det teoretisk er mindre fleksibelt. Udviklere vil have løsninger, ikke dele.
Hvad det betyder for dine infra-valg
Bygger du AI-apps? Her er praktiske pointer:
Vurder vertical integration. Bruger du Claude eller lignende? Tjek om deres managed agents passer. Du ofrer fleksibilitet for pålidelighed og enkelhed. Ofte det rigtige valg.
Kend din afhængighed. Dybt integreret med én udbyder? Du satser på deres roadmap og priser. Ikke altid dårligt, men vær bevidst. Diversificering lønner sig, selv med mere kompleksitet.
Hold øje med næste lag. CDN'er er ikke pludselig ubrugelige. Multi-model-jobs eller heterogene AI-tjenester kræver stadig specialinfra. Men værdien er nu defensiv, ikke ekspansiv.
Det store billede
CDN-salgspresset var rationelt. Markedet så, at et stort værditilbud – AI-agent-hosting – blev suget opstrøms af model-udbydere med bedre position.
Mønsteret gentages. AI-infra modnes, og speciallag integreres opad (til model-firmaer) eller nedad (til edge-cases og non-AI). Vindere bliver de, der:
- Kontrollerer modellen (Anthropic, OpenAI)
- Ejer's uundværlig infra (AWS, Azure til raw compute; gamle CDN-kunder)
- Lever differentierede tjenester (ikke generisk compute)
For devs: Spørg ved infra-integration, om lagget tilføjer reel værdi – eller bare sidder imellem dig og dit behov. Nogle gange ja. Nogle gange nej.
Det er fint. Den bedste infra er den, du ikke skal tænke over.
Hvad synes du? Bruger du managed agent-platforme, eller bygger du custom orkestrering? Del dine tanker i kommentarerne – vi vil gerne høre, hvordan du tackler infra i AI-agent-æraen.