Cloud Intelligence™Cloud Intelligence™

Cloud Intelligence™

Custos de Cloud Storage sob Controle para Times Multi-Cloud (2026)

By Josh PalmerMar 23, 202611 min read

Esta página também está disponível em English, Deutsch, Español, Français, Italiano e 日本語.

cloud cost management

Resumo rápido

  • Classes de armazenamento, taxas de egress, cobranças por requisições de API e custos de transição são camadas de cobrança independentes — a tarifa por GB é apenas o ponto de partida.
  • O AWS S3 Standard sai por cerca de US$ 23/TB ao mês; o Glacier Deep Archive cai para algo em torno de US$ 1/TB. Essa diferença só vira economia de verdade quando as políticas de ciclo de vida direcionam os dados corretamente.
  • O egress costuma ser o maior custo variável em ambientes multi-cloud. Replicação entre regiões e transferências entre provedores geram cobranças que se acumulam rápido.
  • Tiering inteligente (S3 Intelligent-Tiering, GCP Autoclass) faz sentido para workloads imprevisíveis. Workloads previsíveis economizam mais com regras manuais de ciclo de vida.
  • A detecção de anomalias em tempo real identifica jobs descontrolados e políticas mal configuradas antes que virem dor de cabeça no orçamento. As revisões mensais da fatura só pegam o estrago depois de feito.

Quase todo time tem uma noção aproximada do que vai custar o cloud storage quando começa a guardar dados em vários provedores. As tarifas por gigabyte na AWS, Azure e Google Cloud são fáceis de achar e comparar, mas a fatura real depende de muito mais do que do preço do armazenamento. Taxas de egress, cobranças por requisições de API, transições entre classes e taxas de retrieval vão se somando, muitas vezes de jeitos que só ficam claros quando a fatura aparece. Sem visibilidade em tempo real, esses custos podem se acumular por meses sem ninguém perceber.

Este post detalha os principais fatores de custo no armazenamento multi-cloud, mostra como AWS, Azure e Google Cloud cobram de formas diferentes e aponta as estratégias que de fato colocam o gasto sob controle.

O que realmente define os custos de cloud storage?

O billing de armazenamento tem quatro camadas de custo distintas, e elas interagem de uma forma que torna o total realmente difícil de prever só pela tarifa por GB.

Classes de armazenamento

A maioria dos times paga a mais porque os dados acabam parando no tier errado. Todo grande provedor de nuvem oferece várias classes de armazenamento, com preços que variam conforme a frequência de acesso: AWS S3 Standard para dados quentes, Glacier Deep Archive para arquivamento e vários tiers intermediários. Google Cloud Storage e Azure Blob Storage seguem o mesmo modelo.

A diferença de preço entre os tiers é grande. Um terabyte no S3 Standard custa cerca de US$ 23 por mês. O mesmo terabyte no Glacier Deep Archive cai para perto de US$ 1. Mas essa economia só aparece quando os dados realmente vão para o tier certo. Na prática, backups ficam meses em armazenamento premium, arquivos de log que ninguém abre permanecem no Standard por um ano e cópias de disaster recovery acabam no mesmo tier caro dos dados ativos.

Transferência de dados e taxas de egress

Os provedores de nuvem não cobram pela entrada de dados — embora a ingestão em escala ainda tenha custo real em mão de obra, ferramentas e requisições de escrita via API. Já tirar dados de lá gera, sim, cobrança do provedor. As taxas de egress se aplicam sempre que os dados trafegam entre regiões, entre provedores ou para a internet.

Em ambientes multi-cloud, essas taxas se acumulam rapidamente. Uma configuração de disaster recovery que replica dados da AWS para o Azure gera custos contínuos de transferência que os times costumam subestimar no planejamento. Pipelines de analytics que extraem grandes volumes do cloud storage para processar em outro lugar têm o mesmo problema, assim como os pipelines de entrega de conteúdo que servem arquivos para usuários em várias regiões.

Cobranças por API e requisições

Em escala, os custos de requisições de API viram uma linha de peso na fatura. Cada read, write, list ou delete em um bucket de cloud storage gera uma chamada de API cobrável. A tarifa por requisição é mínima — frações de centavo —, mas migrações, jobs de processamento em batch e testes de disaster recovery podem facilmente levar o volume de requisições à casa dos milhões dentro de um único ciclo de billing.

Um job de backup mal otimizado, disparando requisições LIST ou GET desnecessárias, pode gerar centenas ou milhares de dólares em cobranças antes que alguém perceba. O custo não chama atenção em nenhuma requisição isolada. Ele só fica visível quando você soma o ciclo inteiro do job.

Sobrecarga operacional

O armazenamento multi-cloud cria um custo de gestão que não aparece em nenhuma fatura de provedor. Acompanhar o uso, configurar políticas de ciclo de vida, revisar faturas, investigar anomalias e coordenar várias contas consomem tempo de engenharia — e esse tempo se multiplica a cada nuvem nova.

Cada provedor tem suas próprias ferramentas, dashboards e formato de billing. Essa fragmentação dificulta enxergar o quadro completo e facilita o acúmulo de desperdício. Para times sem automação robusta e práticas de FinOps claras, a sobrecarga operacional acaba sendo um dos maiores custos ocultos no armazenamento multi-cloud.

Como AWS, Azure e Google Cloud se comparam em preços de armazenamento?

Os três provedores precificam o armazenamento de objetos de forma parecida na linha principal, mas as diferenças em transições, egress e preços de requisições abrem oportunidades reais de otimização para times que rodam workloads em várias nuvens.

Provedor

Armazenamento padrão

Armazenamento de arquivamento

Egress (primeiro tier)

Duração mínima do arquivamento

AWS S3

US$ 0,023/GB

~US$ 0,004/GB (Glacier Deep Archive)

~US$ 0,09/GB

180 dias

Azure Blob

US$ 0,018/GB (Hot tier)

~US$ 0,002/GB (Archive tier)

~US$ 0,087/GB

180 dias

Google Cloud

US$ 0,020/GB (Standard)

~US$ 0,001/GB (Archive)

~US$ 0,12/GB

Nenhuma

Os preços são tarifas de tabela para regiões dos EUA em março de 2025. Confira os valores atualizados nas páginas de preços da AWS, Azure e Google Cloud antes de fechar o orçamento.

Para armazenamento de acesso frequente em regiões dos EUA: o AWS S3 Standard começa em US$ 0,023 por GB ao mês, o Hot tier do Azure Blob sai por US$ 0,018 por GB e o Google Cloud Storage Standard fica em torno de US$ 0,020 por GB. As três tarifas caem em volumes maiores.

Como funcionam as transições entre classes de armazenamento?

A AWS cobra a cada 1.000 objetos transferidos entre classes de armazenamento. Mover milhões de arquivos pequenos pode custar mais do que a economia que a movimentação deveria gerar. Azure e Google Cloud cobram taxas de transição parecidas, com estruturas tarifárias e durações mínimas de armazenamento diferentes.

Políticas de ciclo de vida que empurram dados para tiers mais frios sem considerar os custos de transição podem dar resultado negativo. Faça as contas pela quantidade de objetos antes de automatizar qualquer migração de tier em larga escala.

Onde o preço de egress fica caro?

O egress é onde as operações multi-cloud doem no bolso. Dentro de um mesmo provedor, transferências na mesma região entre serviços não têm cobrança. Já a replicação entre regiões e as transferências entre serviços em regiões diferentes sempre têm.

AWS e Azure cobram pelos dados que saem das suas redes, com tarifas que caem por volume — mas os primeiros terabytes do mês têm a maior tarifa por GB. O Google Cloud historicamente oferece preços de egress mais competitivos e cotas de free tier mais generosas para certos tipos de transferência.

Para times que movem dados entre nuvens para disaster recovery ou analytics, o egress costuma virar o maior custo variável da fatura. Esse é um dos grandes motivos pelos quais o planejamento financeiro de nuvem faz tanta diferença em ambientes multi-cloud.

Como o preço de requisições varia entre provedores?

Os custos de requisições de API variam por provedor e por classe de armazenamento. Uma requisição GET no S3 Standard custa uma fração de centavo. A mesma requisição no Glacier Flexible Retrieval custa bem mais. Azure e Google Cloud têm cada um suas próprias curvas de preço, e as diferenças ficam mais visíveis em eventos de alto volume: migrações, processamento de dados em massa ou rodadas de relatórios de fim de trimestre.

A Cloud Intelligence platform da DoiT consolida os custos de armazenamento de AWS, Azure e Google Cloud em uma única visão, deixando claro onde o gasto se concentra e onde mudanças de tier ou de workload trariam economia real — sem prender você à ferramenta de um único fornecedor.

Como estimar e reduzir custos de cloud storage

A otimização de cloud storage gera economia duradoura quando vira prática contínua, e não faxina pontual. Comece por uma baseline confiável, automatize o que der e estabeleça revisões periódicas para que mudanças nos padrões de acesso não revertam seus ganhos sem aviso.

Comece por uma baseline clara

Não dá para otimizar o que você não enxerga. Antes de mexer em qualquer coisa, monte um quadro completo do gasto por classe de armazenamento, região e workload — não apenas o total mensal da fatura.

Cada provedor entrega ferramentas nativas de custo: AWS Cost Explorer, Azure Cost Management e Google Cloud Billing Reports. Em um ambiente multi-cloud, costurar essas visões na mão produz um quadro incompleto e deixa escapar padrões entre nuvens. A maioria dos times descobre que seu perfil real de uso é bem diferente das premissas originais de arquitetura, sobretudo em workloads que evoluíram com o tempo.

O Cloud Analytics da DoiT consolida os dados de billing dos três provedores em uma visão única, fazendo as comparações de armazenamento entre nuvens aparecerem automaticamente. Cruzar esses dados com KPIs de FinOps de utilização e desperdício de armazenamento dá ao time uma forma consistente de medir progresso, em vez de só ficar olhando a fatura todo mês.

Como implementar políticas de ciclo de vida?

Regras de ciclo de vida movem objetos automaticamente para classes mais baratas com base em idade ou padrões de acesso e os excluem quando os períodos de retenção expiram. Os três grandes provedores têm suporte. Acertar a configuração exige conhecer seus dados o suficiente para definir prazos de transição que reflitam como os objetos são realmente usados.

Uma política de ciclo de vida bem configurada para dados de log pode ser assim:

  • Mover objetos para armazenamento de acesso infrequente após 30 dias sem leituras
  • Migrar para armazenamento de arquivamento após 90 dias
  • Excluir dados expirados no limite de retenção definido

O erro mais caro em ciclo de vida não é a falta de política — é um filtro mal configurado que impede a política existente de disparar. Os objetos vão se acumulando no armazenamento premium por meses, até alguém rastrear a fatura e descobrir a regra silenciosamente quebrada.

Inclua uma revisão trimestral das configurações de ciclo de vida no seu fluxo de FinOps. Os padrões de acesso mudam conforme as aplicações evoluem, e uma política que funcionava bem para os seus dados há um ano pode não fazer mais sentido hoje.

Quando o tiering inteligente faz sentido?

O tiering inteligente se paga em workloads com padrões de acesso genuinamente imprevisíveis. O AWS S3 Intelligent-Tiering move objetos entre tiers de acesso automaticamente conforme o uso, sem taxa de retrieval quando os dados voltam para um tier mais quente. O Autoclass do Google Cloud funciona de forma parecida, movendo objetos sem penalidades de exclusão antecipada. O Azure lançou o Smart Tier com a mesma proposta, embora ele continue em public preview no início de 2026.

Esses recursos não são gratuitos. O S3 Intelligent-Tiering cobra uma taxa de monitoramento por objeto, e o Autoclass do Google adiciona uma taxa de gerenciamento. Em workloads com padrões de acesso previsíveis, regras de ciclo de vida configuradas manualmente economizam mais. Em buckets grandes de uso misto, com alguns objetos recebendo tráfego regular e outros parados por meses, o tiering inteligente elimina o achismo e costuma se pagar rapidamente.

Comprima e deduplique

Compressão e deduplicação reduzem o volume de dados que você está guardando antes mesmo de o preço da nuvem entrar na conta. A maioria das ferramentas de backup e dos frameworks de pipeline de dados suporta compressão de forma nativa — habilitar costuma ser uma simples mudança de configuração.

A deduplicação rende mais quando vários sistemas escrevem dados parecidos em locais diferentes. Identificar e consolidar essas cópias redundantes pode cortar 30% ou mais do volume armazenado em ambientes com pipelines de backup e arquivamento sobrepostos.

Monitore em tempo real, não depois do fato

Revisões mensais da fatura deixam os problemas se acumularem por 30 dias antes de alguém vê-los. Um job de migração descontrolado disparando milhões de chamadas de API inesperadas ou uma política de ciclo de vida mal configurada empurrando dados para um tier caro podem rodar por semanas sem aparecer numa checagem mensal de billing.

A plataforma da DoiT entrega detecção de anomalias em tempo real e recomendações automatizadas de otimização nas três grandes nuvens. É essa visibilidade contínua que separa os times que controlam custos de nuvem dos que só reagem a eles.

Que custos ocultos os times de CloudOps deixam passar?

Mesmo times com hábitos sólidos de FinOps deixam passar consistentemente as mesmas três categorias de custo. Todas elas estão em algum lugar da documentação dos provedores, mas só entram nas conversas de orçamento depois de já terem gerado uma fatura considerável.

Transferência de dados entre regiões

Cobranças de replicação entre regiões pegam quase todo time de surpresa porque o custo por evento parece baixo, enquanto o agregado fica alto. Atualizações frequentes de dataset geram cobranças de egress a cada ciclo de replicação — em dados ativos, essas cobranças podem se aproximar do próprio custo de armazenamento.

Na AWS, a replicação entre regiões tem duas cobranças: a taxa de transferência de dados e as requisições PUT que escrevem as réplicas na região de destino. Muitos times configuram replicação entre regiões no deployment inicial e esquecem dela, mesmo quando a justificativa de negócio original já mudou ou os dados deixaram de ser relevantes.

Cobranças de API durante migrações

Migrações grandes entre classes de armazenamento, provedores ou regiões geram volumes de requisições de API que a maioria das projeções de custo subestima. Uma migração com dezenas de milhões de objetos pequenos pode produzir cobranças de requisições na casa dos milhares de dólares, em cima das taxas de transferência.

Cálculos por amostragem e projeção tendem a subestimar os custos reais porque o volume de chamadas de API cresce mais rápido que o volume de dados conforme as migrações escalam. Faça uma estimativa completa em modo dry-run sobre a contagem real de objetos antes de fechar uma migração de grande porte.

Taxas de transição entre classes de armazenamento

As taxas de transição podem transformar uma movimentação de ciclo de vida pensada para economizar em despesa líquida. Quando os dados vão para um tier frio e depois passam a ser recuperados com frequência, a soma das taxas de transição com as cobranças de retrieval pode passar do que custaria mantê-los no tier original.

As penalidades de exclusão antecipada acrescentam mais uma camada de risco. O Glacier tem duração mínima de armazenamento de 90 dias; o Azure Archive, 180 dias. Excluir dados antes desses mínimos significa pagar pelo período mínimo completo de qualquer jeito. E esses mínimos valem mesmo quando uma regra de ciclo de vida envia os dados para um tier de exclusão antes do prazo.

As três categorias de custo seguem o mesmo padrão: vão se acumulando aos poucos em dezenas de pequenas linhas da fatura e ficam invisíveis nas revisões mensais de billing. Quando aparecem como pico perceptível, já vêm crescendo há semanas. O monitoramento em tempo real pega cada uma delas na origem.

Assumindo o controle do gasto em cloud storage

Os custos de armazenamento multi-cloud ficam gerenciáveis quando três coisas rodam em paralelo: monitoramento contínuo que detecta anomalias em tempo real, políticas automatizadas de ciclo de vida e tiering que direcionam os dados corretamente sem intervenção manual e uma leitura clara de como cada decisão de arquitetura se traduz em fatura.

A Cloud Intelligence platform da DoiT entrega aos times de FinOps e CloudOps uma visão unificada dos custos de armazenamento em AWS, Azure e Google Cloud, com recomendações automatizadas que funcionam nos três provedores. Combinada com uma estratégia disciplinada de planejamento financeiro de nuvem, é um caminho prático para colocar os custos de armazenamento multi-cloud sob controle e mantê-los assim.

Se suas faturas de armazenamento estão crescendo mais rápido que seus dados, vale dar uma olhada mais de perto. Fale com a DoiT e tenha visibilidade e controle em tempo real do seu gasto em armazenamento multi-cloud.