Cloud Intelligence™Cloud Intelligence™

Cloud Intelligence™

Cloud Service Providers: Guía de Evaluación para CloudOps

By Josh PalmerMar 16, 202615 min read

Esta página también está disponible en English, Deutsch, Français, Italiano, 日本語 y Português.

logos for the main cloud service providers CSPs including AWS, GCP and Azure

Los cloud service providers les dan a los equipos de CloudOps la infraestructura, los servicios administrados y las herramientas necesarias para correr workloads confiables y escalables sin tener que construir ni mantener hardware físico. Para los equipos que gestionan entornos en AWS, Google Cloud, Azure y plataformas especializadas, la relación con el proveedor moldea directamente los resultados operativos: desde los tiempos de respuesta a incidentes hasta la precisión en la atribución de costos. Elegir y gobernar bien a los CSPs es una de las decisiones de mayor impacto que toma un equipo de CloudOps.

La mayoría de los equipos de CloudOps no eligen sus cloud service providers desde cero. Heredan entornos que crecieron de forma orgánica: un workload en AWS por aquí, un pipeline de datos en Google Cloud por allá, un requisito de cumplimiento que llevó ciertos datos a Azure. ¿El resultado? Según el Flexera 2025 State of the Cloud Report, hoy el 89% de las empresas opera entornos multi-cloud.

Eso no es un problema en sí mismo. Los entornos multi-cloud ofrecen ventajas reales: flexibilidad para colocar workloads, resiliencia gracias a la diversificación de proveedores y la posibilidad de usar los mejores servicios de cada categoría a lo largo del stack.

El problema operativo se nota en la complejidad. Cada CSP trae su propio modelo de facturación, su propio sistema de gestión de identidades y accesos, su propia cadena de herramientas de monitoreo y su propia ruta de escalamiento de soporte. Gestionar dos o tres de estos proveedores de forma consistente, sin duplicar la carga operativa ni dejar vacíos en la atribución, exige un nivel de estandarización que la mayoría de los equipos construye de forma reactiva en lugar de proactiva.

Esta guía aborda ese vacío. Para una mirada más amplia sobre los patrones de infraestructura que los equipos de CloudOps construyen sobre su stack de CSPs, nuestra guía de arquitectura cloud repasa las decisiones estructurales que conectan la elección del proveedor con el diseño operativo.

¿Qué son los cloud service providers y cómo le sirven a los equipos de CloudOps?

Los cloud service providers entregan recursos de cómputo, infraestructura, plataformas y servicios administrados por internet, bajo un modelo de precios por consumo. En lugar de comprar y mantener servidores físicos, equipos de red y hardware de almacenamiento, los equipos de CloudOps consumen esas capacidades como servicio y pagan por lo que usan.

La definición suena simple. La realidad operativa va mucho más allá.

La relación con un CSP cubre mucho más que el acceso a cómputo y almacenamiento. Los compromisos de SLA rigen lo que sucede durante un incidente. Los tiers de soporte determinan qué tan rápido los problemas llegan a los Engineers que pueden resolverlos de verdad. Los sistemas de facturación generan los datos de costos que los equipos de CloudOps necesitan para atribuir y gobernar el gasto. Las capas de servicios administrados reducen la carga operativa o la redistribuyen, según cómo se configuren.

Para los equipos de CloudOps en particular, los CSPs habilitan cuatro resultados operativos críticos:

  • Resolución de incidentes más rápida: el monitoreo nativo del CSP, los dashboards de salud y las rutas de escalamiento de soporte impactan directamente en el tiempo medio de resolución cuando algo se rompe. Un proveedor con herramientas pobres o soporte lento no solo genera molestias: prolonga las caídas y eso se traduce en dinero real.
  • Escalado automático: el autoscaling administrado, el cómputo serverless y los servicios nativos de Kubernetes permiten a los equipos de CloudOps responder a la demanda variable de los workloads sin intervención manual a las 2 de la mañana.
  • Infraestructura para la atribución de costos: las exportaciones de facturación, los frameworks de tagging y las herramientas de asignación de costos integradas en la capa del CSP son la base de cualquier práctica FinOps. Sin ellas, la gobernanza del gasto termina en hojas de cálculo.
  • Menor carga operativa: las bases de datos administradas, los control planes administrados de Kubernetes y los servicios de red administrados trasladan al proveedor la responsabilidad operativa sobre capas que no diferencian a tu negocio.

Los proveedores que entregan estos resultados de forma consistente y predecible generan apalancamiento para los equipos de CloudOps. Los que no, suman fricción a cada decisión operativa.

¿Cuáles son los principales tipos de cloud service providers?

El panorama de los CSPs se ha fragmentado mucho más allá de los tres hyperscalers. Hoy los equipos de CloudOps gestionan relaciones con nubes públicas hyperscale, plataformas especializadas de datos y analítica, y proveedores de infraestructura híbrida o de borde. Cada categoría trae características operativas distintas y palancas de optimización diferentes.

Proveedores hyperscale de nube pública: AWS, Google Cloud y Azure

Los tres hyperscalers (Amazon Web Services, Google Cloud Platform y Microsoft Azure) concentran la mayor parte del gasto cloud empresarial y los catálogos de servicios más amplios. AWS controla cerca del 30% del mercado de nube pública, Azure alrededor del 20% y Google Cloud cerca del 13%, según datos de mercado de 2025. No son solo proveedores de infraestructura: son plataformas con cientos de servicios administrados que cubren cómputo, almacenamiento, redes, bases de datos, machine learning y seguridad.

Para los equipos de CloudOps, la relación con el hyperscaler define el grueso de la complejidad operativa. Cada proveedor ha desarrollado fortalezas distintas:

AWS lidera en amplitud de servicios y madurez del ecosistema. Su catálogo de servicios administrados cubre más casos de uso que cualquier otro proveedor, y el ecosistema de partners y herramientas que lo rodea (monitoreo de terceros, gestión de costos, seguridad y herramientas de automatización) ofrece una profundidad que ninguna otra nube iguala. La contracara: los entornos AWS acumulan complejidad con el tiempo, con desafíos de costos y gobernanza que escalan junto con la estructura de cuentas.

Google Cloud lidera en workloads de datos y analítica. El modelo serverless de BigQuery para análisis de datos a gran escala, Vertex AI para pipelines de machine learning y Kubernetes (que Google inventó) le dan a GCP una posición diferenciada para arquitecturas intensivas en datos. El rendimiento de la red sobre la backbone global de Google también destaca para aplicaciones sensibles a la latencia.

Azure lidera en integración empresarial. Las organizaciones que usan Microsoft 365, Active Directory o licencias Microsoft existentes obtienen ventajas significativas de costo y operación al correr workloads en Azure. Su cobertura de cumplimiento en industrias reguladas (salud, finanzas, gobierno) supera a los demás proveedores en amplitud de certificaciones.

La mayoría de los equipos de CloudOps no optimizan para un único hyperscaler. Optimizan por encaje del workload: ubican cada categoría de workload en el proveedor donde corre con mayor eficiencia de costos y confiabilidad, y luego gestionan la complejidad cruzada entre proveedores que eso genera.

Plataformas cloud especializadas y servicios de datos

Junto a los hyperscalers, un conjunto creciente de plataformas cloud especializadas aparece en el radar operativo de los equipos de CloudOps, no porque alguien las haya elegido como alternativas a AWS o Azure, sino porque equipos de ingeniería específicos las adoptaron para resolver problemas específicos.

Las plataformas de datos son el ejemplo más claro. Snowflake, Databricks y Google BigQuery operan como servicios cloud administrados con sus propios modelos de costos, sus propias palancas de optimización y sus propios requisitos de gobernanza. Un entorno Snowflake corriendo en AWS sigue generando facturas de Snowflake que requieren optimización propia (dimensionamiento de warehouses, configuración de suspensión, gestión de costos por consulta), además de los costos subyacentes de la infraestructura AWS.

Las plataformas de observabilidad como Datadog, New Relic y Grafana Cloud caen en la misma categoría. También los servicios de registros de contenedores, las plataformas de seguridad y las CDNs. Cada una suma una relación de facturación, un pipeline de datos y un área operativa al ámbito del equipo de CloudOps.

El desafío operativo: estas plataformas normalmente no aparecen en la misma vista de reportes de costos que el gasto del hyperscaler. Un equipo puede aplicar right-sizing a cada instancia EC2 y aun así pasar por alto el pico de costo de Snowflake que está impulsando el 30% de la factura total de infraestructura de ingeniería.

Proveedores de infraestructura híbrida y multi-cloud

Algunos workloads nunca llegan a la nube pública, no por razones técnicas sino prácticas. Un mandato de cumplimiento obliga a que los datos se queden en una jurisdicción específica. Restricciones de latencia en el borde hacen inaceptables los viajes de ida y vuelta a una nube regional. El cómputo on-premises de alto rendimiento sale más barato que la capacidad cloud equivalente cuando hay escala suficiente. No son casos extremos: son lo bastante comunes como para que la mayoría de las organizaciones gestione infraestructura híbrida como procedimiento operativo estándar.

En arquitecturas bien diseñadas, los proveedores de infraestructura híbrida (instalaciones de colocation, plataformas de borde, soluciones de cloud privada) extienden el entorno de nube pública en lugar de quedar al margen. Kubernetes funciona como la capa principal de portabilidad: la misma aplicación contenerizada corre en EKS en AWS, GKE en Google Cloud o un clúster on-premises, con el cambio de proveedor abstraído de la aplicación.

Para los equipos de CloudOps que gestionan entornos híbridos, el desafío de gobernanza refleja el desafío multi-cloud: lograr tagging, monitoreo, control de acceso y atribución de costos consistentes en una infraestructura que abarca proveedores con modelos de facturación y observabilidad fundamentalmente distintos.

Cómo evaluar y comparar cloud service providers para el éxito de CloudOps

La mayoría de los frameworks de evaluación de CSPs se quedan, por defecto, en checklists de funcionalidades: qué proveedor corre Kafka administrado, cuál ofrece mejor disponibilidad de GPU, cuál cubre tal marco de cumplimiento. Esas preguntas importan para las decisiones de arquitectura. No responden la pregunta que los equipos de CloudOps realmente enfrentan: ¿qué relación con el proveedor genera la menor fricción operativa a medida que el entorno escala?

Cuatro criterios pesan más que cualquier comparación de funcionalidades para los resultados de CloudOps.

Paso 1: Evalúa la confiabilidad operativa y el desempeño del SLA

Los SLAs publicados establecen el piso contractual para las garantías de disponibilidad, pero no te dicen lo que realmente ocurre durante un incidente. Un SLA de uptime del 99,99% permite 52 minutos de caída por año, y la distribución de esa caída importa tanto como el total. Una caída de 52 minutos en hora pico golpea muy distinto a 52 interrupciones de un minuto repartidas a lo largo del año.

Según el Uptime Institute Annual Outage Analysis 2025, más de la mitad de las organizaciones reportan que su caída significativa más reciente costó más de 100.000 dólares, y una de cada cinco superó el millón de dólares. Cabe destacar que las caídas atribuidas a problemas de TI y de red, la categoría más influida por la configuración del proveedor cloud y la complejidad de las herramientas, aumentaron al 23% de las caídas con impacto en 2024.

Qué evaluar más allá del papeleo del SLA: la arquitectura de failover regional y qué tan rápido se redirige el tráfico cuando una zona o región se degrada. El historial de comunicación de incidentes del proveedor: ¿avisa proactivamente a los clientes o los equipos se enteran de las caídas a través de su propio monitoreo? Y las rutas de escalamiento del tier de soporte: ¿en qué punto tu incidente llega a un Engineer que puede influir en arreglos a nivel de infraestructura?

Paso 2: Evalúa la transparencia de costos y las herramientas de optimización

Todos los CSPs principales publican páginas de Precios. Ninguno facilita responder la pregunta que de verdad importa en producción: ¿por qué la factura del mes pasado subió un 23%, qué equipo es dueño de ese delta y cuál es el recurso o patrón de uso específico que lo está impulsando?

La transparencia de costos en la práctica requiere tres capacidades trabajando juntas: datos de facturación exportables a un formato consultable (AWS Cost and Usage Report, exportación de facturación de GCP a BigQuery, exportaciones de Azure Cost Management), tagging consistente de recursos que mapee el gasto a equipos y workloads, y detección de anomalías que saque a la luz cambios de costos inesperados antes de que se acumulen.

La brecha entre lo que los proveedores ofrecen de forma nativa y lo que los equipos de CloudOps realmente necesitan se hace más grande en entornos multi-cloud. Las herramientas nativas de costos muestran el gasto dentro de un solo proveedor. No te muestran que los costos de transferencia de datos cross-AZ desde tu entorno AWS están conectados con el job de BigQuery en GCP que está consultando esos datos del otro lado.

Evaluar las herramientas de costos de un CSP implica preguntarse: ¿la exportación de datos de facturación nos da la granularidad que necesitamos para showback y chargeback? ¿El sistema de tagging fuerza los tags al momento del aprovisionamiento o solo marca las violaciones después? Y, lo crítico: ¿el soporte del proveedor para herramientas de gestión de costos de terceros nos permite construir una vista unificada en todo el stack? Nuestra guía de estrategias de optimización de costos cloud explica cómo los equipos de CloudOps construyen la capa de atribución que convierte las exportaciones de facturación en datos accionables. Para equipos que evalúan herramientas FinOps específicas de AWS, nuestra comparación de herramientas FinOps de AWS cubre el panorama completo de opciones.

Paso 3: Evalúa las capacidades de automatización e integración

Las capacidades de automatización de un CSP determinan cuánta carga operativa terminan llevando manualmente los equipos de CloudOps. Los proveedores que han invertido fuerte en servicios administrados, herramientas de infraestructura como código y automatización basada en eventos reducen esa carga. Los que requieren configuración manual en cada capa la multiplican.

Áreas clave a evaluar:

  • Madurez del autoscaling: ¿el autoscaling del proveedor se comporta de forma predecible bajo carga variable? ¿Cuál es el tiempo de calentamiento? ¿Cómo interactúa el escalado con commitments de costos como Reserved Instances o Committed Use Discounts?
  • Soporte para infraestructura como código: ¿qué tan bien se integra el proveedor con Terraform, Pulumi o herramientas IaC nativas? Un soporte IaC inconsistente genera drift entre lo que está desplegado y lo que está documentado.
  • Automatización basada en eventos: ¿pueden las respuestas operativas (remediación, escalado, alertas) dispararse automáticamente desde eventos del proveedor? ¿O exigen intervención manual en una consola?
  • Profundidad de API e integraciones: ¿el proveedor expone los datos de telemetría, costos y operación que tu cadena de herramientas existente necesita? Un proveedor con cobertura de API pobre obliga a los equipos a trabajar a pesar de sus limitaciones, no con ellas.

La herramienta DoiT Cloud Diagrams ofrece una forma útil de visualizar cómo se conectan estos puntos de integración a lo largo de tu arquitectura; revisa las actualizaciones recientes en las capacidades de cloud diagrams para ver cómo el mapeo visual de arquitectura ayuda a los equipos a entender la complejidad de integración antes de que genere problemas operativos.

Paso 4: Evalúa la calidad del soporte y el acceso a expertos

La calidad del soporte queda subvalorada en casi cualquier evaluación de CSPs. No debería. Cada proveedor importante vende planes de soporte por niveles con distintos compromisos de tiempo de respuesta. La distinción que importa operativamente no tiene nada que ver con el nombre del tier ni con el SLA: tiene que ver con si los Engineers del otro lado del ticket entienden tu arquitectura específica y pueden realmente influir en arreglos a nivel de infraestructura.

En los tiers más bajos, el soporte de los hyperscalers entrega básicamente referencias a documentación y guía de configuración. Los tiers más altos (AWS Enterprise Support, Google Cloud Premium Support, Azure Unified Support) habilitan technical account managers con visibilidad a nivel de proveedor sobre la salud de la infraestructura y aviso temprano sobre degradación de servicios.

La tercera opción: contratar a un Managed Service Provider (MSP) con experiencia profunda en el proveedor y una relación directa con los equipos de ingeniería del CSP. Una relación con un MSP puede ofrecer un nivel de escalamiento y respaldo que la mayoría de las organizaciones no consigue por los tiers de soporte estándar, sumado a la experiencia operativa para resolver incidentes más rápido que el escalamiento tier por tier de la estructura de soporte estándar del proveedor.

¿Cuáles son las mejores prácticas para gestionar entornos multi-cloud e híbridos?

Gestionar varios cloud service providers de forma consistente siempre supera en complejidad a las operaciones con un solo proveedor. Eso no convierte a multi-cloud en la elección equivocada: los beneficios de ubicación de workloads y resiliencia se sostienen. Lo que sí hace es volver innegociable construir las bases operativas de forma deliberada y no reactiva.

Cuatro prácticas separan a los equipos de CloudOps que gestionan multi-cloud bien de aquellos que acumulan deuda técnica con cada nuevo proveedor que suman.

¿Cómo establecer una gobernanza consistente entre cloud providers?

La gobernanza en entornos multi-cloud se rompe en los bordes, en los lugares donde una política definida para AWS no aplica a un workload en GCP, o donde un estándar de tagging aplicado en una cuenta no se replica en las demás.

Una gobernanza consistente requiere políticas que vivan por encima de la capa del proveedor, no dentro de ella. Eso significa:

  • Estándares de tagging definidos y aplicados a nivel de organización, no a nivel de cuenta. Un esquema de tags que funciona para resource groups de AWS pero no mapea con labels de GCP genera vacíos de atribución que crecen con cada nuevo workload.
  • Políticas de control de acceso implementadas a través de una capa de identidad centralizada cuando sea posible: identidad federada, con el IAM del CSP como mecanismo de aplicación, no como fuente de verdad.
  • Logs de auditoría y cumplimiento estandarizados entre proveedores, agregados en un único almacén consultable en lugar de quedar guardados en silos específicos de cada proveedor.
  • Runbooks de respuesta a incidentes que indiquen explícitamente qué proveedor es dueño de cada capa del stack de un workload determinado, para que cuando algo se rompa, no haya que descifrar la propiedad y la ruta de escalamiento bajo presión.

¿Cómo implementar una gestión unificada de costos entre cloud providers?

La gestión unificada de costos en entornos multi-cloud exige más que agregar datos de facturación de varios proveedores. Exige un modelo común de atribución, una respuesta consistente a "¿qué equipo, producto o unidad de negocio es dueño de este costo?", que se mantenga sin importar qué proveedor generó el cargo. La práctica FinOps de DoiT aborda exactamente este problema en AWS, GCP y Azure.

Los pasos prácticos:

  • Exporta los datos de facturación de todos los proveedores a un único almacén consultable. AWS CUR a S3, exportación de facturación de GCP a BigQuery y exportaciones de Azure Cost Management a Azure Storage producen datos de facturación crudos. Llevarlos a un formato común, o usar una plataforma de gestión unificada de costos que ingiera los tres, habilita el análisis cross-provider.
  • Aplica tagging consistente entre proveedores usando políticas a nivel de organización. Tags que existen en AWS pero no en GCP generan vacíos de showback que los equipos de finanzas no pueden reconciliar.
  • Aplica el análisis de cobertura de commitments por proveedor de forma separada. AWS Reserved Instances y Savings Plans, GCP Committed Use Discounts y Azure Reserved VM Instances tienen mecánicas distintas. Optimizar la cobertura de commitments requiere entender el modelo de cada proveedor, no aplicar una única estrategia a los tres.
  • Configura los umbrales de detección de anomalías a nivel de workload, no solo a nivel de cuenta. Una alerta a nivel de cuenta que se dispara cuando el gasto total sube un 20% no detecta el pico a nivel de equipo que la está causando.

¿Cómo mantener estándares de seguridad y cumplimiento entre proveedores?

La postura de seguridad en entornos multi-cloud se degrada en los bordes, en los lugares donde una mala configuración en los controles de acceso de un proveedor expone datos o servicios en otro. Los modos de falla más comunes: roles IAM cross-cloud demasiado permisivos, políticas de cifrado inconsistentes entre capas de almacenamiento y marcos de cumplimiento aplicados en un proveedor pero no replicados en otros.

La línea base operativa para seguridad multi-cloud:

  • Principio de mínimo privilegio aplicado de forma consistente en todos los proveedores. Una service account con permisos amplios en una nube no debería ser el modelo de cómo se otorga acceso en otra.
  • Cifrado en reposo y en tránsito aplicado por política, no por convención. Los valores por defecto de los proveedores varían: dar por hecho que el cifrado está activado sin verificarlo crea vacíos que las auditorías de cumplimiento sacan a la luz en el peor momento posible.
  • Escaneo de seguridad y detección de configuraciones erróneas corriendo de forma continua en todas las cuentas de proveedores. La superficie de ataque en un entorno multi-cloud escala con la cantidad de cuentas, servicios y puntos de integración, no solo con el volumen de workloads.
  • Límites de responsabilidad compartida documentados para cada proveedor y cada tier de servicio. Lo que el CSP maneja y lo que el equipo de CloudOps maneja varía según el servicio: Kubernetes administrado traslada la responsabilidad del control plane al proveedor, pero la seguridad del runtime de contenedores se queda con el equipo.

¿Cómo optimizar la ubicación de workloads y el movimiento de datos entre proveedores?

Las decisiones de ubicación de workloads tienen consecuencias directas de costo y rendimiento que se acumulan con el tiempo. Un workload ubicado en el proveedor equivocado para su patrón de uso genera exceso de costo cada mes, y el costo de moverlo aumenta a medida que crecen los volúmenes de datos y se multiplican los servicios dependientes.

El framework práctico para la ubicación de workloads:

  • Coloca el cómputo cerca de los datos. Los costos de transferencia de datos entre proveedores se acumulan más rápido que casi cualquier otra categoría de costo cloud. Una aplicación en AWS consultando una base de datos en GCP paga cargos de egress en cada consulta. Diseñar pensando en la localidad de los datos, manteniendo cómputo y almacenamiento en el mismo proveedor y región cuando sea posible, es una de las decisiones arquitectónicas de mayor impacto para el control del costo de red.
  • Empareja las características del workload con las fortalezas del proveedor. Los workloads de analítica intensivos en datos encajan con el modelo BigQuery de GCP. Los workloads empresariales con dependencias de Microsoft encajan con Azure. Los workloads de propósito general con requisitos complejos de servicios administrados encajan con el catálogo más amplio de AWS.
  • Evalúa los costos de movimiento de datos antes de sumar un nuevo proveedor. Traer un nuevo CSP al stack significa nuevos costos de egress en cada punto de integración. Ese cálculo debe hacerse antes de desplegar el workload, no después del primer ciclo de facturación.
  • Trata a Kubernetes como la capa de portabilidad. Los workloads basados en contenedores que corren sobre Kubernetes administrado pueden migrar entre proveedores sin cambios en la aplicación. Esa portabilidad reduce el riesgo de lock-in y habilita la optimización de la ubicación de workloads en el tiempo.

Cómo elegir la estrategia correcta de cloud service providers para tu equipo de CloudOps

Ningún cloud service provider lo hace todo a la perfección. AWS lidera en amplitud de servicios. Google Cloud lidera en workloads de datos. Azure lidera en integración empresarial. Las plataformas especializadas atienden problemas puntuales mejor que cualquier hyperscaler. La meta no es elegir un ganador: es construir una estrategia de CSPs que produzca resultados operativos predecibles y un gasto defendible a medida que los workloads escalan.

Los equipos que gestionan multi-cloud bien no se estandarizan en un proveedor: se estandarizan en la capa que está por encima del proveedor. Monitoreo unificado, tagging consistente, atribución cross-provider y políticas de gobernanza que no dependen de las herramientas de un único vendor generan apalancamiento que escala con el entorno en lugar de acumular sobrecarga.

Los equipos que sufren acumulan herramientas específicas de cada proveedor, procesos específicos de cada proveedor y silos de conocimiento específicos de cada proveedor. Cada nuevo CSP sumado al stack multiplica la superficie operativa en lugar de sumarse limpiamente.

Explora la gama completa de soluciones DoiT para equipos de CloudOps y FinOps, o si tu entorno se ha vuelto más complejo de lo que tus herramientas actuales pueden gobernar, habla con nuestro equipo sobre cómo lo han resuelto otras organizaciones de CloudOps.