In sintesi
Anthropic fattura a token, non a chiamata API. Claude Sonnet 4.6 costa 3 $ per milione di token in input e 15 $ per milione di token in output. Haiku 4.5 è a 1/5 $ e Opus 4.6 a 5/25 $. I token in output costano 5 volte quelli in input su ogni modello: una volta misurati i pattern di utilizzo reali, il forecasting diventa prevedibile. Prompt caching e batch processing possono ridurre i costi rispettivamente fino al 90% e al 50%, ma solo se queste leve vengono integrate nell'architettura fin dall'inizio.
I workloads AI sono oggi una delle voci di costo in più rapida crescita nei budget aziendali. Secondo Gartner, la spesa globale per l'AI raggiungerà i 2,52 trilioni di dollari nel 2026, con un incremento del 44% su base annua. In parallelo, il report 2026 State of FinOps della FinOps Foundation ha rilevato che il 98% dei professionisti FinOps gestisce oggi la spesa AI, contro appena il 31% di due anni fa. La disciplina ha recuperato terreno in fretta.
La particolarità del pricing dell'API Anthropic è che non si comporta come l'infrastruttura cloud tradizionale. Non si pagano ore di compute o capacità provisionata: si paga a token, e il consumo di token oscilla con ogni prompt e ogni risposta. Un team che invia brevi query di classificazione spende una frazione di quanto spende un team che fa girare agent multi-turn con context window molto ampie. Senza misurare i pattern di utilizzo reali, le previsioni di budget si scollegano in fretta dalla realtà.
Questa guida illustra il funzionamento del pricing dell'API Anthropic, come tradurre l'utilizzo di token in previsioni di budget e cosa possono fare i team FinOps per mantenere la spesa AI prevedibile e difendibile man mano che i workloads crescono.
Come funziona il pricing dell'API Anthropic?
Il modello di pricing a token di Anthropic fattura separatamente i token in input (quelli inviati al modello) e i token in output (quelli generati dal modello). Ogni modello Claude della generazione attuale mantiene un rapporto costante di 5 a 1 tra output e input, il che semplifica i calcoli rapidi: noto il costo dell'input, basta moltiplicare per cinque per ottenere quello dell'output.
Un token corrisponde all'incirca a 4 caratteri di testo, ovvero a circa 0,75 parole in inglese. Un system prompt tipico da 1.000 parole equivale a circa 1.300 token; una risposta API da 500 parole a circa 650 token. Queste medie variano in modo significativo in presenza di codice, dati strutturati o contenuti multilingua. Tutti i prezzi riportati di seguito provengono dalla documentazione ufficiale di Anthropic sul pricing API.
Quanto costa Claude Sonnet 4.6?
Claude Sonnet 4.6 costa 3 $ per milione di token in input e 15 $ per milione di token in output alle tariffe API standard. Supporta una context window da 1 milione di token a tariffa piatta: una richiesta da 900.000 token costa la stessa tariffa per token di una richiesta da 9.000 token. Con il batch processing, queste tariffe scendono a 1,50/7,50 $ per milione di token. Con il prompt caching, le letture dell'input in cache costano 0,30 $ per milione di token (uno sconto del 90% sulla tariffa di input di base).
Sonnet 4.6 copre la maggior parte dei workloads di produzione: coding, analisi, scrittura, applicazioni rivolte al cliente e pipeline RAG. In ottica FinOps, si colloca nel punto di equilibrio in cui la capacità giustifica il costo su un'ampia gamma di casi d'uso.
Pricing di Claude Sonnet 4.6. Tariffe aggiornate a maggio 2026. Verifichi le tariffe attuali
| Tipo di tariffa | Input (per MTok) | Output (per MTok) |
|---|---|---|
| Standard | 3,00 $ | 15,00 $ |
| Batch processing (-50%) | 1,50 $ | 7,50 $ |
| Cache write (5 min, 1,25x) | 3,75 $ | 15,00 $ |
| Cache read (0,1x, risparmio del 90%) | 0,30 $ | 15,00 $ |
Quanto costa Claude Haiku 4.5?
Claude Haiku 4.5 costa 1 $ per milione di token in input e 5 $ per milione di token in output. Supporta una context window da 200.000 token. Con il batch processing le tariffe scendono a 0,50/2,50 $ per milione di token; le letture in cache costano 0,10 $ per milione di token.
Haiku 4.5 è pensato per workloads ad alto volume e sensibili alla latenza, in cui l'efficienza di costo conta più della massima profondità di ragionamento. Qui rientrano classificazione, routing, estrazione, sintesi e moderazione. Un'operazione editoriale che consuma 20 milioni di token in input e 10 milioni in output al mese su Haiku 4.5 spende 70 $ a tariffe standard, oppure 35 $ con il batch processing.
Pricing di Claude Haiku 4.5. Tariffe aggiornate a maggio 2026. Verifichi le tariffe attuali
| Tipo di tariffa | Input (per MTok) | Output (per MTok) |
|---|---|---|
| Standard | 1,00 $ | 5,00 $ |
| Batch processing (-50%) | 0,50 $ | 2,50 $ |
| Cache write (5 min, 1,25x) | 1,25 $ | 5,00 $ |
| Cache read (0,1x, risparmio del 90%) | 0,10 $ | 5,00 $ |
Quanto costa Claude Opus 4.6?
Claude Opus 4.6 costa 5 $ per milione di token in input e 25 $ per milione di token in output. Come Sonnet 4.6, supporta l'intera context window da 1 milione di token a tariffa piatta. Il batch processing porta queste tariffe a 2,50/12,50 $; le letture in cache costano 0,50 $ per milione di token.
Opus 4.6 è pensato per attività in cui serve la massima profondità di ragionamento: coding complesso, lavori legali e di compliance, workflow agentici che richiedono un rispetto puntuale delle istruzioni. Costa 1,67 volte Sonnet 4.6, un divario più contenuto rispetto a quello tra Haiku e Sonnet. Nella pianificazione del budget FinOps, la vera domanda è se l'attività richieda davvero un ragionamento di livello Opus. Molti team che eseguono tutto su Opus scoprono che il 70-80% delle richieste potrebbe essere gestito da Sonnet o Haiku a una frazione del costo.
Confronto del pricing API di Anthropic Claude. Tariffe aggiornate a maggio 2026. Verifichi le tariffe attuali
| Modello | Input standard | Output standard | Input batch | Context window |
|---|---|---|---|---|
| Haiku 4.5 | 1,00 $/MTok | 5,00 $/MTok | 0,50 $/MTok | 200K token |
| Sonnet 4.6 | 3,00 $/MTok | 15,00 $/MTok | 1,50 $/MTok | 1M token |
| Opus 4.6 | 5,00 $/MTok | 25,00 $/MTok | 2,50 $/MTok | 1M token |
Come calcolare e prevedere i costi dell'API Anthropic
Prevedere la spesa per l'API Anthropic parte dalla misurazione, non dalla stima. Il consumo di token varia in modo significativo a seconda del tipo di applicazione e le medie generiche fuorviano più di quanto aiutino. Un chatbot di supporto, un assistente di coding e un workflow agentico producono rapporti di token, frequenze di richiesta e profili di costo del tutto diversi. Il report 2026 State of FinOps della FinOps Foundation segnala che "molti professionisti faticano a ottenere una visibilità chiara sull'utilizzo e sui costi legati all'AI", proprio perché "i workloads AI hanno spesso un pricing meno trasparente o più variabile" rispetto all'infrastruttura cloud tradizionale.
Quali metodi di calcolo dei costi a token funzionano davvero?
La formula base è: (token in input / 1.000.000 × tariffa input) + (token in output / 1.000.000 × tariffa output) = costo della richiesta. La si applica a una richiesta media, si moltiplica per il volume giornaliero di richieste e si ottiene una stima quotidiana, da proiettare poi su base mensile e annuale.
Un esempio pratico con Sonnet 4.6. Un chatbot di supporto utilizza in media 2.000 token in input (system prompt più cronologia della conversazione) e 400 token in output per turno. Alle tariffe standard di Sonnet: (2.000 / 1.000.000 × 3 $) + (400 / 1.000.000 × 15 $) = 0,006 $ + 0,006 $ = 0,012 $ per turno di conversazione. Con 50.000 turni al giorno, si arriva a 600 $/giorno, ovvero 18.000 $/mese.
Aggiunga il prompt caching allo stesso chatbot: il system prompt da 1.500 token è presente in ogni richiesta. Mettendo in cache quei token alla tariffa di lettura di 0,30 $/MTok invece dei 3,00 $/MTok dell'input standard, il loro costo passa da 0,0045 $ a 0,00045 $ per richiesta, con un risparmio di 0,004 $ per turno. Con 50.000 turni al giorno, mettere in cache il system prompt fa risparmiare circa 200 $/giorno, ovvero 6.000 $/mese, su una base di 18.000 $.
Come analizzare i pattern di utilizzo per il forecasting dei costi
I calcoli statici reggono solo finché i pattern di utilizzo non cambiano. I workflow agentici basati su server MCP e Strands agents possono moltiplicare il consumo di token senza preavviso, quando gli agent attivano sub-agent, iterano passi di ragionamento o recuperano documenti di contesto estesi. Un'attività che in isolamento costa 0,10 $ può arrivare a costare 2-5 $ se eseguita all'interno di una pipeline di agent.
Un forecasting efficace richiede di tenere traccia di tre elementi: volume di richieste per endpoint, distribuzione dei token (rapporto input/output) e conteggio di token p95 rispetto a quello medio per richiesta. I costi medi traggono in inganno quando sono le richieste della coda lunga a dominare la fattura. Un workload in cui l'80% delle richieste ha in media 500 token ma il 5% raggiunge i 50.000 può sembrare economico in media e rivelarsi costoso a consuntivo.
Costruisca dashboard di utilizzo che scompongano il consumo di token per team, funzionalità di prodotto e versione del modello. Senza questa attribuzione, le iniziative di ottimizzazione non possono concentrarsi sui workloads giusti. Il report 2025 State of FinOps della FinOps Foundation ha indicato la gestione della spesa AI/ML come una delle priorità in più rapida ascesa (+4 posizioni) tra i professionisti del settore, proprio perché i team stavano scoprendo che i costi AI si comportano in modo diverso rispetto ai costi cloud che già sapevano gestire.
Quali strategie di ottimizzazione dei costi API Anthropic dovrebbero adottare i team FinOps?
L'ottimizzazione dei costi dell'API Anthropic segue lo stesso principio di qualsiasi altro workload cloud: allineare la capacità delle risorse alla complessità dell'attività, eliminare gli sprechi e automatizzare i controlli. La differenza è che qui le "risorse" sono i tier dei modelli e i volumi di token, non i tipi di istanza e le ore di compute.
Come funzionano rate limiting e controlli di utilizzo per i workloads AI?
I rate limit di Anthropic operano per tier, da quelli base per i nuovi account fino a quelli negoziati a livello enterprise. Raggiungere i rate limit non si limita a rallentare l'applicazione: genera una latenza imprevedibile che i team di engineering spesso aggirano aggiungendo logiche di retry, le quali a loro volta possono gonfiare ulteriormente l'utilizzo di token.
Sul fronte del controllo del budget, imposti alert di spesa nel dashboard di utilizzo di Anthropic prima che i costi esplodano, non dopo. Definisca budget di token per team o per funzionalità e integri soft limit nel livello applicativo. Le pipeline agentiche necessitano di cap rigidi sulla profondità delle tool call e sull'accumulo di contesto: un agent libero di espandere ricorsivamente la propria context window può consumare token in modo esponenziale all'interno di una singola sessione.
La responsabilità condivisa tra engineering e finance chiude il cerchio. Gli Engineers controllano il codice che determina il consumo di token; il finance presidia il budget. Senza check-in strutturati che colleghino i due gruppi, i picchi di costo tendono a emergere nella fattura mensile anziché durante lo sprint che li ha generati.
Come usare la scelta del modello per l'efficienza di costo
La decisione di ottimizzazione a più alto impatto per la maggior parte degli utenti dell'API Anthropic è il routing dei modelli. Far passare ogni richiesta da Opus quando Haiku gestirebbe correttamente il compito costa 5 volte in più del necessario. Una distribuzione 70/20/10 tra Haiku/Sonnet/Opus su un workload misto tipico riduce di oltre la metà i costi API totali rispetto a un utilizzo esclusivo di Sonnet.
Classifichi le richieste per tipo di attività. Haiku 4.5 gestisce bene classificazione, routing, estrazione, sintesi e moderazione a un quinto del costo di Sonnet. Sonnet 4.6 copre coding, analisi, scrittura e generazione rivolta al cliente. Opus 4.6 va riservato ad attività che richiedono la massima precisione: catene di ragionamento complesse, istruzioni con molti vincoli e attività agentiche di lungo orizzonte. Inserisca la logica di routing nel livello applicativo e misuri la qualità dell'output per confermare che Haiku gestisca davvero ciò che pensa di affidargli.
La Batch API offre uno sconto del 50% su tutti i costi di token per i workloads non in tempo reale. I job vengono elaborati in modo asincrono entro 24 ore. Generazione di contenuti, arricchimento dei dati, sintesi notturne e pipeline di valutazione rientrano tutti nel batch. Su larga scala, il delta si accumula in fretta: un team che spende 30.000 $/mese alle tariffe standard di Sonnet ne spende 15.000 $ per lo stesso workload tramite la Batch API, se i vincoli di tempistica lo consentono.
Come prendere decisioni intelligenti sul pricing dell'API Anthropic per il proprio budget
Le decisioni sul pricing dell'API Anthropic non si esauriscono nella scelta del modello più economico. L'obiettivo dei team FinOps è costruire una spesa AI prevedibile e difendibile, capace di reggere i cicli di budget e di scalare con la domanda di business. Significa scegliere un'infrastruttura che offra visibilità sul consumo, non solo accesso ai modelli.
Quando valuta Anthropic rispetto ad alternative come OpenAI o Google Vertex AI, consideri il costo della gestione di più provider accanto alle tariffe per token. La proliferazione di strumenti nell'infrastruttura AI genera lacune di attribuzione, duplicazione dei costi di monitoraggio e governance disomogenea tra i team. Una tariffa per token leggermente più bassa altrove non compensa il costo operativo di gestire quella complessità senza una visibilità unificata.
I vantaggi del pricing Anthropic per il forecasting FinOps: il rapporto costante 5x tra output e input su ogni modello attuale rende immediati i calcoli di budget. La struttura a tier Sonnet/Haiku/Opus offre all'engineering una scala chiara capacità-costo su cui costruire il routing. E la context window da 1M token a tariffe piatte elimina i sovrapprezzi variabili per i contesti lunghi che complicano il forecasting presso altri provider.
GenAI Intelligence di DoiT offre ai team FinOps visibilità sulla spesa API AI su più provider, con attribuzione dei costi a livello di modello, rilevamento delle anomalie e controlli di budget che applicano ai workloads a token la stessa disciplina già adottata per l'infrastruttura cloud. Il team Procurement di DoiT aiuta inoltre a negoziare commitments di volume e accordi enterprise man mano che la spesa AI cresce.
Parli con DoiT per rendere la spesa per l'API Anthropic prevedibile e difendibile.
Domande frequenti sul pricing dell'API Anthropic
In cosa differisce il pricing dell'API Anthropic da quello del cloud tradizionale?
Il pricing cloud tradizionale fattura risorse provisionate: ore di compute, storage e traffico di rete. Si paga indipendentemente dal fatto che la capacità esegua workloads o resti inattiva. Il pricing dell'API Anthropic fattura per token consumato: si paga solo l'utilizzo effettivo. La sfida per i team FinOps è che il consumo di token varia con ogni richiesta. Lunghezza del prompt, lunghezza della risposta, scelta del modello e comportamento degli agent incidono tutti sulla fattura, e questo rende i costi AI usage-based più difficili da prevedere rispetto ai costi cloud a capacità fissa, in assenza di un'infrastruttura di misurazione adeguata.
Qual è il modo più economico per usare Claude su workloads ad alto volume?
Combini Claude Haiku 4.5 con la Batch API e il prompt caching. Haiku 4.5, a 1/5 $ per milione di token, scende a 0,50/2,50 $ con il batch processing. Aggiungendo il prompt caching per i system prompt ripetuti, le letture dell'input in cache costano 0,10 $ per milione di token. Questa combinazione copre attività ad alto volume di classificazione, estrazione, sintesi e moderazione a una frazione dei costi di Sonnet. Il batch processing elabora i job in modo asincrono entro 24 ore: il trade-off è quindi latenza in cambio di efficienza di costo.
Come dovrebbero i team FinOps allocare e monitorare i costi dell'API Anthropic?
Tagghi le richieste API per team, funzionalità di prodotto e ambiente a livello applicativo. Il dashboard di utilizzo di Anthropic mostra il consumo per modello, ma di default non lo scompone per team interno o per linea di prodotto: integri questa attribuzione nei metadati delle richieste fin dall'inizio. Imposti alert di spesa settimanali rispetto ai budget di team, non solo limiti aggregati mensili. Monitori la distribuzione dei token (il rapporto input/output per tipo di richiesta) insieme al volume delle richieste: variazioni in uno dei due segnalano cambiamenti nei pattern di utilizzo che incidono sull'accuratezza delle previsioni.