Quando le aziende AI diventano i loro peggiori concorrenti: il redde rationem delle CDN
Il Setup che Ha Tradito le Aspettative
Immagina di gestire un portafoglio con Fastly all'inizio del 2026. L'azienda ha chiuso il primo anno in profitto. Il CEO parla di boom grazie al traffico degli AI agent. Il titolo è salito del 233% da inizio anno. Tutto fila liscio.
Poi arriva l'8 aprile.
Anthropic lancia Claude Managed Agents: un runtime gestito per AI agent sulla loro infrastruttura Claude. Fastly crolla dell'18% in una sessione. Cloudflare perde l'11%. Akamai il 12%. Tutto in pochi giorni.
Cos'è successo? Niente di operativo. Guidance positive per tutti. Non era un problema di conti o esecuzione tecnica. Era più profondo: il mercato ha perso fiducia nel loro modello di business.
Come i CDN Hanno Puntato sull'AI
Per capirlo, guarda la loro strategia.
Negli ultimi due anni, i CDN e le piattaforme edge si sono riproposti come il layer ideale per il compute degli AI agent. Logica solida: gli agent autonomi eseguono codice, chiamano API, gestiscono dati. Serve un posto per farli girare. Chi meglio di chi ha già reti globali?
Cloudflare ha creato Workers AI con SDK per agent. Fastly ha spinto il suo edge compute per carichi AI. Akamai uguale. L'idea era semplice: porta il tuo modello da noi, noi gestiamo l'esecuzione.
Pitch forte. Avevano già:
- Reti edge mondiali
- Affidabilità scalabile
- Gestione di picchi imprevedibili
- Rapporti con developer consolidati
Per uno sviluppatore, scaricare l'esecuzione agent su infra specializzata sembrava ovvio. Perché partire da zero?
Il Colpo di Scena
Anthropic ha ribaltato tutto.
Claude Managed Agents cambia prospettiva. Non più "porta il modello da noi", ma "porta la logica dell'app, noi pensiamo al resto". Tu definisci modello, tool e logica. Anthropic si occupa di:
- Gestione sessioni
- Salvataggio stato
- Recovery da crash
- Coordinamento multi-agent
- Orchestrazione container
Ogni agent gira in un container Linux usa e getta. Costo: 0,08$ l'ora di runtime oltre i token.
Per chi usa Claude, il bisogno di un layer infra esterno svanisce.
Non serve l'edge compute di Cloudflare se Anthropic gestisce il runtime. Niente ottimizzazioni Fastly se l'esecuzione è già coperta. Il intermediario – l'intero valore – sparisce.
OpenAI aveva anticipato con Responses API due mesi prima, offrendo container hosted con terminale. Ma Anthropic ha fatto scattare la lampadina: i provider di modelli diventano infra company.
Perché Conta Oltre i Titoli
Questo episodio illumina dinamiche tech da tenere d'occhio, specie se buildi su cloud o scegli hosting per roba critica.
L'infra si commoditizza veloce. Prima, i player specializzati difendevano posizioni con perfomance o feature uniche. I CDN con le loro edge network. Vantaggio reale, ma meno rilevante se il provider modello orchestra tutto.
I modelli hanno vantaggio strutturale. Controlli il modello? Conosci i pattern di esecuzione alla perfezione. Ottimizzi runtime su misura. Billing integrato. Iterazioni senza trattative API. Terze parti faticano a competere.
Vince la semplicità per developer. Una piattaforma unica – modello + runtime + orchestrazione – batte un puzzle di servizi specializzati, anche se teoricamente più flessibili. Gli sviluppatori cercano soluzioni pronte.
Impatto sulle Tue Scelte di Infra
Se sviluppi app AI-powered, rifletti:
Valuta l'integrazione verticale. Con Claude o modelli hosted, i managed agent valgono per il tuo caso? Scambi flessibilità per affidabilità e semplicità. Spesso conviene.
Pesa le dipendenze. Legato a un provider? Scommetti sul loro roadmap e prezzi. Non è male, ma riconosci il rischio. Diversificare paga, anche con più complessità.
Occhio al layer successivo. I CDN non sono finiti. Workload multi-modello o eterogenei terranno valore per infra specializzata. Ma ora è difensivo, non espansivo.
Il Quadro Generale
Il crollo dei CDN non era follia. Il mercato ha visto giusto: un pezzo grosso del valore – hosting esecuzione agent – è stato inghiottito upstream dai provider modelli, con più leva.
Si ripeterà. Man mano che l'infra AI matura, i layer specializzati o salgono (nei modelli) o scendono (su nicchie non-AI). Vince chi:
- Controlla il modello (Anthropic, OpenAI)
- Ha infra insostituibile (AWS, Azure per compute raw; relazioni CDN legacy)
- Offre servizi davvero unici (non compute generico)
Per developer: quando integri infra, chiediti se aggiunge valore difendibile o è solo un ponte. A volte sì. A volte no.
E va bene. L'infra ideale è quella che non devi pensare.
Tu che ne dici? Usi piattaforme managed per agent o buildi orchestrazioni custom? Dimmi nei commenti come gestisci le scelte infra nell'era degli AI agent.