Virtualización: Red Hat OpenShift Virtualization+Azure

Virtualización: Red Hat OpenShift Virtualization+Azure 1 camino con seguridad

El Camino Definitivo hacia la Modernización de la Virtualización: Un Análisis Profundo de Red Hat OpenShift Virtualization en Microsoft Azure

 

Red Hat Open Shift Virtualization en Azure

La Oferta Central: Unificando Máquinas Virtuales y Cargas de Trabajo Contenerizadas

Red Hat OpenShift Virtualization, cuando se implementa en Azure Red Hat OpenShift (ARO), permite a las organizaciones ejecutar y gestionar máquinas virtuales (VMs) junto con contenedores en una única plataforma nativa de Kubernetes.

Virtualización: Red Hat OpenShift Virtualization+Azure
Virtualización: Red Hat OpenShift Virtualization+Azure

Este es un cambio significativo desde las infraestructuras tradicionalmente aisladas, donde las VMs y los contenedores se gestionaban con herramientas y equipos dispares, hacia un modelo convergente.

La esencia de esta oferta no es simplemente la coubicación de diferentes tipos de cargas de trabajo, sino su  cogestión utilizando los principios y herramientas de Kubernetes.

Esta unificación promete una consistencia operativa sin precedentes y la capacidad de aplicar prácticas de DevOps, como la infraestructura como código (IaC) y la integración/entrega continua (CI/CD), a las cargas de trabajo de VMs tradicionales.

Al tratar las VMs como otro recurso dentro del ecosistema de Kubernetes, las organizaciones pueden estandarizar sus operaciones, mejorar la agilidad y optimizar la utilización de recursos en todo su panorama de aplicaciones.   

Beneficios Estratégicos para las Empresas

El comunicado de prensa y la documentación de respaldo destacan varios beneficios estratégicos clave para las empresas que adoptan Red Hat Open Shift Virtualization en ARO:   

1. Migración Acelerada de VMs: La solución está diseñada para optimizar y acelerar la migración de VMs desde plataformas de virtualización existentes.

Esto se logra mediante “herramientas de migración y capacidades de automatización integradas” [User Query]. Específicamente, se mencionan plataformas como Red Hat Ansible Automation Platform y Red Hat Advanced Cluster Management como facilitadores clave de este proceso.

Estas herramientas ayudan a simplificar los flujos de trabajo de migración, minimizar las interrupciones durante la transición y permitir a los equipos trasladar cargas de trabajo con agilidad a una infraestructura moderna.

La inclusión de herramientas de gestión consolidadas como Ansible y Advanced Cluster Management es particularmente significativa.

Para las empresas que ya utilizan estas soluciones de Red Hat para otros aspectos de su infraestructura, la barrera de entrada para adoptar la migración de VMs se reduce considerablemente.

Pueden aprovechar las habilidades y procesos existentes, lo que acelera la adopción más allá de la simple capacidad de virtualización y facilita una transición más rápida y fluida.   

2. Operaciones Simplificadas y Gestión Unificada: Un beneficio central es la provisión de una “visión unificada para gestionar tanto VM como contenedores dentro de la misma plataforma en la nube híbrida” [User Query]. La implementación y gestión automatizadas de los clústeres de Red Hat OpenShift reducen aún más la complejidad operativa y los riesgos asociados.

Esta gestión unificada tiene el potencial de transformar la estructura de los equipos de operaciones de TI.

Tradicionalmente, los administradores de VMs y los especialistas en Kubernetes/contenedores operaban en silos, utilizando conjuntos de herramientas distintos.

Una plataforma unificada fomenta un enfoque operativo unificado, lo que puede llevar a una mayor capacitación cruzada y al surgimiento de roles de “ingeniería de plataforma” más versátiles, capaces de gestionar ambos tipos de cargas de trabajo. Esto no solo mejora la eficiencia, sino que también puede romper las barreras organizativas tradicionales.   

3. Modernización de la Infraestructura mediante una Plataforma Nativa de Kubernetes: Al adoptar esta solución basada en Kubernetes, las empresas modernizan inherentemente su infraestructura, acercándose a sus objetivos de aplicaciones nativas de la nube.

La plataforma “integra en las VM procesos y herramientas de desarrollo modernas” [User Query], lo que agiliza la evolución de las aplicaciones basadas en máquinas virtuales. Esto implica que la migración de VMs a OpenShift Virtualization no es simplemente un “levantar y cambiar” (lift and shift); es más bien un “levantar, cambiar y evolucionar”.

Las VMs, una vez en la plataforma OpenShift, pueden obtener acceso al ecosistema nativo de la nube circundante, como mallas de servicios, observabilidad avanzada y pipelines de CI/CD integrados con OpenShift. Esto permite que las aplicaciones heredadas comiencen a beneficiarse de las prácticas modernas incluso antes de una refactorización completa del código, proporcionando un camino incremental hacia la modernización.   

4. Optimización de Recursos y Agilidad DevOps Mejorada: La solución contribuye a optimizar los recursos, aumentando la productividad de DevOps y reduciendo el tiempo de implementación de aplicaciones.

Un aspecto clave es la capacidad de realizar un “dimensionamiento más preciso de las VM, ajustándolas mejor a las necesidades específicas de cada carga de trabajo” [User Query].

Esta afirmación sobre el “dimensionamiento más preciso” sugiere la aplicación de la gestión granular de recursos de Kubernetes a las VMs. Kubernetes es conocido por su uso eficiente de recursos y su capacidad para gestionar CPU y memoria de forma detallada.

Las VMs tradicionales a menudo se sobre aprovisionan para garantizar el rendimiento.

Al ejecutarlas en Kubernetes, las organizaciones pueden aprovechar las solicitudes y límites de recursos más dinámicos y precisos, lo que potencialmente conduce a una mayor densidad de VMs, una reducción del desperdicio de recursos y una mejor eficiencia general en comparación con los modelos de asignación de hipervisores tradicionales.   

C. Tecnología Subyacente

1. Azure Red Hat OpenShift (ARO) como Fundación: Azure Red Hat OpenShift (ARO) se describe como una “plataforma de aplicaciones llave en mano, con gestión y soporte conjuntos de Red Hat y Microsoft” [User Query].

Está diseñada para reducir las complejidades de la gestión de la infraestructura subyacente, permitiendo a los equipos de TI centrarse en la innovación. Construida sobre Kubernetes y la infraestructura de nube de confianza de Microsoft Azure , ARO proporciona la base robusta para OpenShift Virtualization. El aspecto de “gestión y soporte conjuntos” es un diferenciador crítico.

Ofrece a las empresas un único punto de contacto y responsabilidad para una pila tecnológica compleja que involucra a múltiples proveedores.

Esto es muy atractivo para las organizaciones que buscan reducir el riesgo operativo y simplificar los procesos de soporte, especialmente para cargas de trabajo críticas.   

2. KubeVirt: El Motor para VMs en Kubernetes: KubeVirt es el proyecto de código abierto que permite ejecutar máquinas virtuales en Kubernetes. Su arquitectura extiende la API de Kubernetes mediante Definiciones de Recursos Personalizados (CRDs), lo que permite gestionar VMs como si fueran objetos nativos de Kubernetes, como los pods. Los componentes clave de KubeVirt incluyen:   

  • virt-controller: Gestiona el ciclo de vida de la VM, su estado y configuración.
  • virt-handler: Se ejecuta en cada nodo del clúster y maneja tareas específicas del nodo relacionadas con la virtualización, comunicándose con libvirt.
  • virt-launcher: Es un pod que envuelve el proceso de la VM, utilizando QEMU/KVM para la ejecución real de la VM.   

    KVM (Kernel-based Virtual Machine) juega un papel crucial como el hipervisor basado en el kernel de Linux que proporciona la capa de virtualización subyacente.   

El enfoque de KubeVirt de tratar las VMs como objetos nativos de Kubernetes es transformador. Permite que todo el ecosistema de herramientas, prácticas y APIs de Kubernetes se aplique a las VMs.

Esto cambia fundamentalmente la forma en que se gestionan y se integran en los paisajes de aplicaciones modernas. Las VMs ya no son cajas negras opacas gestionadas por un sistema separado; se convierten en ciudadanos de primera clase dentro del clúster de Kubernetes.

Esto facilita una gestión consistente, la aplicación de políticas y la integración con el ecosistema más amplio de Kubernetes (por ejemplo, monitorización con Prometheus, registro con pilas EFK/ELK, descubrimiento de servicios).

Además, la dependencia de KVM, un hipervisor de código abierto maduro y ampliamente adoptado, proporciona una capa de virtualización robusta y de alto rendimiento sin los costos de licencia asociados a los hipervisores propietarios. Esto se alinea perfectamente con la filosofía de código abierto de Red Hat y ofrece una solución rentable.

3. Prerrequisitos Técnicos e Implementación en ARO: La ejecución de OpenShift Virtualization en ARO tiene requisitos específicos. Se necesita almacenamiento de volúmenes persistentes, siendo Red Hat OpenShift Data Foundation (ODF) la solución recomendada, particularmente utilizando volúmenes Ceph RBD para capacidades de almacenamiento avanzadas.

Solo se admiten familias de nodos específicas: la familia Dsv5 con ocho (8) núcleos o más, que aprovecha las tecnologías Azure Boost para mejorar el rendimiento. Se requiere una versión mínima del clúster ARO de 4.18, y las organizaciones deben asegurarse de tener suficiente cuota en su suscripción de Azure para al menos un nodo de trabajo D8sv5 o superior. También se deben tener en cuenta las posibles sobrecargas de rendimiento, que pueden variar según la carga de trabajo de la VM.   

Estos requisitos, especialmente la especificación de la familia de nodos Dsv5 con Azure Boost y la recomendación de ODF, indican que el rendimiento y el almacenamiento robusto son consideraciones críticas.

Esto sugiere que la solución está dirigida a cargas de trabajo de VM de producción, potencialmente intensivas en E/S, donde el rendimiento y la fiabilidad son primordiales, en lugar de VMs ligeras o de prueba.

La dependencia de una infraestructura específica de Azure (nodos Dsv5, Azure Boost) y potencialmente de ODF significa que los clientes deben planificar cuidadosamente su capacidad y gasto en Azure, teniendo en cuenta estos componentes de especificaciones más altas.

No se trata de una solución que pueda ejecutarse en cualquier clúster ARO; requiere una provisión o actualización para cumplir con estos requisitos de hardware y software, lo que exige una planificación de capacidad y una asignación presupuestaria meticulosas.

La Alianza Microsoft-Red Hat: Una Potencia Sinergética

A. Evolución de la Asociación

La colaboración entre Red Hat y Microsoft tiene una historia significativa, que se remonta a la disponibilidad de Red Hat Enterprise Linux (RHEL) en Azure en noviembre de 2015.

Esta asociación inicial sentó las bases para una cooperación más profunda, que llevó al codesarrollo y lanzamiento de Azure Red Hat OpenShift (ARO), una plataforma Kubernetes empresarial gestionada conjuntamente.

Virtualización: Red Hat OpenShift Virtualization+Azure
Virtualización: Red Hat OpenShift Virtualization+Azure

El anuncio de Red Hat OpenShift Virtualization en ARO es la última manifestación de esta alianza en expansión. La asociación se extendió formalmente hasta al menos 2024, aunque el comunicado de prensa analizado está fechado en 2025, lo que subraya un compromiso continuo.

Esta colaboración también ha facilitado la disponibilidad de tecnologías emblemáticas de Microsoft, como SQL Server y.NET, en RHEL y Red Hat OpenShift, demostrando un esfuerzo bidireccional para integrar sus respectivos ecosistemas.

La longevidad y la creciente profundidad de esta asociación indican una alineación estratégica sostenida, enfocada en proporcionar soluciones integrales de código abierto empresarial en la plataforma Azure.

Esto va más allá de la simple provisión de un sistema operativo como servicio, evolucionando hacia servicios de plataforma profundamente integrados y co-desarrollados.  

El Valor de la Gestión y el Soporte Conjuntos para Azure Red Hat OpenShift

Un aspecto fundamental de la propuesta de valor de ARO, y por extensión de OpenShift Virtualization en ARO, es que la plataforma está “conjuntamente diseñada, gestionada y soportada” por Red Hat y Microsoft. Esto reduce significativamente la complejidad para los clientes y ofrece una experiencia de soporte optimizada.

En entornos de TI empresariales que utilizan pilas tecnológicas de múltiples proveedores, uno de los mayores puntos débiles es la resolución de problemas, que a menudo puede degenerar en un “juego de culpas” entre proveedores.

El modelo de soporte conjunto de ARO aborda directamente este problema al ofrecer un único punto de responsabilidad.

Como se menciona, los equipos de ingeniería de fiabilidad del sitio (SRE) supervisan y gestionan proactivamente los clústeres, y cuando surgen problemas, los clientes tienen una vía clara para la resolución.

Este enfoque de “un solo cuello al que estrangular” es una ventaja operativa considerable y un mitigador de riesgos que aumenta la confianza del cliente para ejecutar cargas de trabajo críticas en la plataforma.   

C. Impacto en la Innovación, la Fiabilidad y la Confianza del Cliente

La combinación de la experiencia y los recursos de dos gigantes de la industria como Microsoft y Red Hat fomenta una mayor innovación, asegura una mayor fiabilidad de la plataforma y genera una mayor confianza en los clientes para adoptar estas soluciones avanzadas para sus cargas de trabajo de misión crítica.

Esta asociación permite a ambas empresas aprovechar los ecosistemas y las bases de clientes de la otra, creando un efecto de volante para la adopción y la innovación en torno a las tecnologías de código abierto en la empresa.

Red Hat, como líder en soluciones de código abierto empresarial , aporta su profunda experiencia en Kubernetes, Linux y middleware. Microsoft aporta su vasta infraestructura de nube global, Azure, y su extenso alcance en el mercado empresarial.

Esta polinización cruzada expone las soluciones de Red Hat a una amplia base de usuarios de Azure y enriquece Azure con plataformas robustas de código abierto.

Este refuerzo mutuo puede impulsar ciclos de innovación más rápidos y una adopción más amplia de lo que cualquiera de las dos empresas podría lograr por sí sola en este dominio específico.   

Dinámica del Mercado y Posicionamiento Competitivo

A. La Importancia Estratégica de OpenShift sobre Kubernetes Estándar en este Contexto

Para ejecutar máquinas virtuales de importancia empresarial, una plataforma de grado empresarial como Red Hat OpenShift ofrece ventajas significativas sobre una implementación de Kubernetes estándar (a menudo denominada “vanilla Kubernetes”).

Aunque KubeVirt, la tecnología subyacente que permite ejecutar VMs en Kubernetes, es de código abierto y podría implementarse en cualquier distribución de Kubernetes, OpenShift proporciona un conjunto integrado de herramientas, características de seguridad mejoradas, mejoras en la productividad del desarrollador y soporte empresarial que son cruciales para las cargas de trabajo de producción.   

Las VMs a menudo alojan aplicaciones heredadas y críticas que tienen requisitos estrictos de seguridad, fiabilidad y soporte. OpenShift aborda estas necesidades de forma nativa con políticas de seguridad más estrictas por defecto, un registro de imágenes integrado, herramientas de CI/CD incorporadas (como Jenkins para flujos de trabajo de origen a imagen) y un soporte empresarial dedicado.

En contraste, Kubernetes estándar requeriría un esfuerzo significativo de “hágalo usted mismo” para seleccionar, integrar y mantener herramientas de terceros para lograr un nivel comparable de preparación empresarial.

Esta complejidad adicional y la carga operativa hacen que OpenShift sea una propuesta más convincente para la gestión de VMs en entornos corporativos, justificando la inversión en una plataforma Kubernetes más completa.   

Tabla 1: OpenShift vs. Kubernetes – Diferenciadores Clave para la Gestión de Virtualización Empresarial

CaracterísticaKubernetes (Estándar)Red Hat OpenShift
SeguridadRequiere configuración manual compleja; carece de autenticación/autorización nativa robusta.   Políticas de seguridad estrictas por defecto; controles de acceso basados en roles (RBAC) integrados.   
Registro de ImágenesNo incluye un registro de imágenes integrado; requiere configuración de terceros.   Incluye un registro de imágenes integrado y seguro, compatible con Docker Hub y Red Hat.   
Enfoque de DespliegueUtiliza objetos de despliegue y Helm para la gestión de paquetes; más manual.   Ofrece DeploymentConfigs (DC) con disparadores automáticos; plantillas de aplicaciones predefinidas.   

Integración CI/CDRequiere herramientas de terceros como CircleCI para flujos de CI/CD.   Proporciona Jenkins integrado para pipelines de CI/CD y capacidades de Source-to-Image (S2I).   
Soporte EmpresarialBasado en la comunidad; el soporte puede ser limitado y depender de foros.   

Ofrece soporte empresarial 24/7 de Red Hat; acuerdos de nivel de servicio (SLAs).   
Complejidad de GestiónMás complejo de configurar y gestionar; requiere más configuración manual.   Más fácil de gestionar con muchas funciones integradas; consola web unificada.   

El Cambio más Amplio: La Justificación y los Beneficios de Ejecutar VMs en Kubernetes

La tendencia de la industria hacia la gestión de VMs utilizando Kubernetes es una respuesta pragmática a las necesidades de modernización de las empresas.

Este enfoque permite a las organizaciones aprovechar los beneficios operativos de Kubernetes para sus aplicaciones existentes, mientras modernizan progresivamente estas aplicaciones a su propio ritmo, en lugar de forzar una migración disruptiva de todo o nada.

Las ventajas de ejecutar VMs en Kubernetes son múltiples:   

  • Aislamiento Completo a Nivel de SO: Las VMs proporcionan un aislamiento robusto a nivel del sistema operativo, lo cual es ideal para necesidades estrictas de seguridad y cumplimiento normativo, como en los sectores financiero y de salud.   
  • Compatibilidad con Aplicaciones Heredadas: Muchas aplicaciones heredadas fueron construidas antes de la era de los contenedores o tienen dependencias específicas del sistema operativo que dificultan su contenerización inmediata. KubeVirt permite que estas aplicaciones se “levanten y trasladen” al entorno Kubernetes.   
  • Uso Eficiente de Recursos: Aunque las VMs tradicionalmente consumen más recursos que los contenedores, gestionarlas a través de Kubernetes puede llevar a una utilización más eficiente en comparación con los silos de VMs tradicionales, gracias a la orquestación y el escalado dinámico de Kubernetes.   
  • Portabilidad y Consistencia Operativa: Kubernetes ofrece una capa de abstracción que puede mejorar la portabilidad de las cargas de trabajo (incluidas las VMs gestionadas por KubeVirt) entre diferentes entornos (on-premises, nube pública, multinube) y proporcionar un modelo operativo consistente.
  • Modernización Incremental: Las empresas pueden migrar VMs a Kubernetes y luego, gradualmente, refactorizar componentes de esas aplicaciones en microservicios contenerizados, o integrar las VMs con servicios nativos de la nube, todo dentro de la misma plataforma de gestión. Esta estrategia de “modernizar a su propio ritmo” es un atractivo clave.   

C. Análisis Comparativo con Plataformas Alternativas

Azure Red Hat OpenShift con OpenShift Virtualization no es la única solución que aborda la coexistencia y gestión unificada de VMs y contenedores. El mercado ofrece varias alternativas, cada una con sus propias fortalezas y enfoques.

1. Panorama de Competidores Clave para Azure Red Hat OpenShift: El espacio de las plataformas Kubernetes gestionadas y las plataformas de nube híbrida es competitivo. Entre los principales competidores de Azure Red Hat OpenShift se encuentran AWS Systems Manager (aunque más enfocado en la gestión de la configuración y operaciones), Google Cloud (con Anthos), VMware Cloud Foundation Operations (ahora parte de Broadcom), BMC Multi-Cloud y Amazon Kinesis (para streaming de datos, pero a veces listado en comparaciones de plataformas cloud). Para la gestión específica de VMs y contenedores, VMware Tanzu y Google Anthos son particularmente relevantes.   

2. VMware Tanzu: Enfoque en la Coexistencia de VMs y Contenedores: La estrategia de VMware con Tanzu se centra en permitir a sus clientes ejecutar VMs y contenedores de manera conjunta, aprovechando su extensa base instalada de vSphere y ESXi. Tanzu incluye un “VM Service” que permite a los ingenieros de DevOps desplegar y ejecutar VMs en un entorno Kubernetes compartido junto con contenedores, utilizando    

kubectl para la gestión. Este servicio está profundamente integrado con vSphere, y las VMs comparten los recursos del Namespace de vSphere. Los casos de uso principales incluyen aplicaciones que no pueden ser fácilmente contenerizadas, aquellas con requisitos de hardware específicos, o la necesidad de un kernel o sistema operativo personalizado.   

La aproximación de VMware con Tanzu puede considerarse en gran medida como una estrategia para retener y evolucionar su masiva base instalada de vSphere. Al extender las capacidades de Kubernetes a su ecosistema existente, VMware permite a sus clientes adoptar Kubernetes sin abandonar sus significativas inversiones y conocimientos operativos en vSphere.

Es una evolución desde su base existente. En contraste, el enfoque de Red Hat con OpenShift Virtualization busca atraer cargas de trabajo de VM a una plataforma que es primordialmente Kubernetes-céntrica, aunque pueda ejecutarse en diversas infraestructuras, incluida vSphere.

Esta diferencia en el punto de partida (centrado en vSphere vs. centrado en Kubernetes) refleja objetivos estratégicos distintos: VMware busca proteger y modernizar su base, mientras que Red Hat busca expandir el dominio de Kubernetes.

3. Google Cloud Anthos: Aprovechando KubeVirt para VMs On-Premises y en el Borde: Google Cloud Anthos también ofrece la capacidad de gestionar VMs junto con contenedores, con un enfoque particular en implementaciones on-premises (ahora parte de Google Distributed Cloud Virtual) y en el borde.

Anthos utiliza una versión extendida y mejorada de KubeVirt, denominada Anthos VM Runtime, para esta funcionalidad. Permite a los usuarios gestionar VMs utilizando la consola de Google Cloud, APIs y la interfaz de línea de comandos (CLI), proporcionando operaciones consistentes para ambos tipos de cargas de trabajo.   

El enfoque de Google con el soporte de VMs en Anthos para bare metal y el borde aborda un caso de uso primario diferente al de ARO, que típicamente se enfoca en la modernización de centros de datos a gran escala y cargas de trabajo en la nube pública.

Anthos busca extender una experiencia de gestión consistente, conectada a Google Cloud, a estos entornos distribuidos, a menudo con huellas de infraestructura más pequeñas y la necesidad de ejecutar VMs heredadas junto con nuevas aplicaciones de contenedores localmente.

Aunque ambas soluciones (ARO con OpenShift Virtualization y Anthos con VM Runtime) utilizan KubeVirt como tecnología fundamental, el contexto de implementación y el problema principal que resuelven presentan matices distintos.   

Tabla 2: Comparativa – ARO con OpenShift Virtualization vs. VMware Tanzu vs. Google Anthos para Gestión de VMs/Contenedores

CaracterísticaARO + OpenShift VirtualizationVMware TanzuGoogle Anthos (con soporte de VMs)
Tecnología de Virtualización BaseKubeVirt (sobre KVM)    

Integrado con vSphere/ESXi (hipervisor de VMware)    Anthos VM Runtime (KubeVirt extendido)    
Entorno de Despliegue PrincipalNube pública (Microsoft Azure) [User Query]On-premises (vSphere), Nube pública (VMware Cloud)    

On-premises (bare metal), Borde, Nubes públicas (GCP, AWS, Azure con limitaciones)    

Integración con Hipervisor ExistenteSe ejecuta sobre la infraestructura de Azure; puede interactuar con VMs existentes para migración.Profundamente integrado con vSphere; las VMs se ejecutan dentro del ecosistema vSphere.   

Diseñado para bare metal o sobre hipervisores existentes (ej. VMware) para Anthos on-prem.   

Plano de GestiónConsola de OpenShift, Azure Portal, oc CLI, kubectlvCenter, Tanzu Mission Control, kubectl    

Google Cloud Console, APIs de Google Cloud, gcloud CLI, kubectl    

Enfoque de Portabilidad de VMsMigración a la plataforma OpenShift/Kubernetes en Azure.Movilidad dentro del ecosistema VMware (vMotion); gestión de VMs en Kubernetes.Consistencia entre on-prem, borde y Google Cloud.
Caso de Uso IdealModernización de VMs a una plataforma Kubernetes nativa en Azure; unificación de operaciones de VMs y contenedores en Azure.Empresas con fuerte inversión en VMware que buscan modernizar con Kubernetes, manteniendo la gestión de VMs en vSphere.Gestión unificada de VMs y contenedores en entornos híbridos y de borde, conectados a Google Cloud.

VI. Maximizando el Valor: Aprovechando el Ecosistema Azure

La propuesta de valor de Red Hat OpenShift Virtualization en Microsoft Azure se ve significativamente reforzada por la capacidad de los clientes para aprovechar diversos programas e incentivos ofrecidos dentro del ecosistema de Azure. Estos programas pueden optimizar costos, acelerar migraciones y facilitar la adopción de la plataforma.

A. Microsoft Azure Consumption Commitment (MACC): Gasto Estratégico y Beneficios

Virtualización: Red Hat OpenShift Virtualization+Azure
Virtualización: Red Hat OpenShift Virtualization+Azure

El Microsoft Azure Consumption Commitment (MACC) es un acuerdo contractual mediante el cual una organización se compromete a gastar una cantidad específica en servicios de Azure durante un período definido, típicamente de uno a tres años. A cambio, Microsoft suele ofrecer descuentos, créditos u otros incentivos financieros. Las compras elegibles realizadas a través del Azure Marketplace, que pueden incluir Azure Red Hat OpenShift y servicios relacionados, contribuyen automáticamente a cumplir con este compromiso. Es importante notar que existen ciertas exclusiones, como el prepago de Azure (anteriormente conocido como “compromiso monetario”), y el beneficio MACC generalmente se aplica a licencias utilizadas exclusivamente en Azure.   

La elegibilidad de ARO para MACC es un factor importante para las grandes empresas que ya tienen un compromiso de gasto con Azure. Para estas organizaciones, el gasto en ARO para la modernización de la virtualización cuenta para su compromiso MACC existente. Esto puede hacer que la adopción de ARO sea financieramente más atractiva, ya que alinea la nueva inversión con los acuerdos financieros preexistentes con Microsoft, reduciendo efectivamente el costo incremental de la solución si el gasto MACC se hubiera realizado de todos modos en otros servicios de Azure.

B. Azure Migration and Modernization Program (AMMP): Aceleración e Inversión Dirigida por Socios

El Azure Migration and Modernization Program (AMMP) es una iniciativa de Microsoft que ofrece una combinación de recursos, ayuda de expertos, herramientas e incentivos financieros para ayudar a las empresas a migrar y modernizar sus cargas de trabajo en Azure. El comunicado de prensa indica que los clientes pueden utilizar el AMMP para Azure Red Hat OpenShift [User Query]. Los socios de Microsoft desempeñan un papel crucial en este programa, ya que a menudo son ellos quienes nominan a los clientes, diseñan y ejecutan los proyectos de migración y modernización, y facilitan el acceso a la financiación del programa.   

El AMMP puede reducir significativamente el riesgo y el costo inicial de la migración para los clientes. Los proyectos de migración, especialmente aquellos que involucran VMs heredadas y aplicaciones complejas, pueden ser costosos y requerir experiencia especializada. La financiación proporcionada a través de AMMP, a menudo canalizada a través de socios cualificados, puede ayudar a cubrir los costos de evaluación, planificación y ejecución de la migración. Esta asistencia financiera, combinada con el acceso a la experiencia de los socios, disminuye la barrera de adopción para ARO, convirtiéndolo en una opción más factible y atractiva, especialmente para transformaciones complejas.   

C. Azure Hybrid Benefit para Linux (RHEL): Optimización de Costos de Licencia y Pasos de Activación

El Azure Hybrid Benefit (AHB) para Linux permite a los clientes utilizar sus suscripciones existentes de Red Hat Enterprise Linux (RHEL) en Azure, pagando únicamente los costos de computación de la infraestructura de Azure y evitando así el doble pago por las licencias de software. El comunicado de prensa menciona explícitamente que los clientes pueden usar la Ventaja Híbrida de Azure para reutilizar las licencias locales existentes de RHEL [User Query].

Para activar este beneficio, los clientes generalmente deben habilitar sus productos Red Hat para Cloud Access en Azure a través de Red Hat Subscription Management y luego, durante la creación de una VM o en una VM existente en el portal de Azure, seleccionar la opción para usar una suscripción RHEL existente.   

Este beneficio mejora significativamente el costo total de propiedad (TCO) de ejecutar VMs basadas en RHEL en Azure, incluidas aquellas que serían gestionadas por OpenShift Virtualization. Al permitir el modelo “traiga su propia suscripción” (BYOS) para RHEL, AHB elimina el costo del software RHEL que de otro modo estaría incluido en el precio de las VMs de Azure con RHEL. Esto se traduce en ahorros directos y hace que la migración de cargas de trabajo RHEL existentes a ARO sea financieramente más viable y atractiva, abordando directamente una de las principales preocupaciones de costos en las migraciones a la nube.

VII. Enfoque Sectorial: Azure Red Hat OpenShift en Servicios Financieros

A. Adaptación de ARO para Entornos Altamente Regulados

La industria de servicios financieros (FSI, por sus siglas en inglés) opera bajo estrictos requisitos de seguridad, cumplimiento normativo y gobernanza de datos. Azure Red Hat OpenShift, con las configuraciones y arquitecturas adecuadas, es adecuado para este sector exigente. La disponibilidad de una guía arquitectónica detallada y específica para ARO en FSI indica un enfoque estratégico por parte de Microsoft y Red Hat para dirigirse a esta vertical lucrativa y compleja. Esto sugiere que la plataforma ha alcanzado un nivel de madurez y configurabilidad que le permite satisfacer las necesidades regulatorias intrincadas de las instituciones financieras.   

B. Imperativos Arquitectónicos para FSI en ARO

La arquitectura de referencia para Azure Red Hat OpenShift en la industria de servicios financieros prescribe varios componentes y configuraciones clave para garantizar la seguridad y el cumplimiento:   

1. Conectividad Privada: Un requisito fundamental es la conectividad de red privada exclusiva, sin acceso a Internet público. Esto se logra mediante el uso de Azure Private Links, que proporcionan direcciones IP privadas inaccesibles desde Internet, y Azure ExpressRoute para establecer conexiones privadas de gran ancho de banda desde los centros de datos locales a Azure.

Además, se pueden configurar puertas de enlace de Private Link para un acceso de solo entrada (“push-only”) desde los centros de datos privados a Azure, restringiendo el tráfico de las cargas de trabajo de Azure para que no se conecten de nuevo a los centros de datos, a menos que sea explícitamente permitido a través de excepciones de firewall gestionadas según los principios de mínimo privilegio.   

2. Segmentación de Red: Es crucial segmentar las subredes para lograr un aislamiento de red y seguridad robustos. Se recomienda utilizar las capacidades de red de Azure para crear subredes distintas para los planos de control de ARO, los planos de trabajo y los planos de datos, así como para servicios auxiliares como Azure Front Door (si se usa), Azure Firewall, Azure Bastion y Azure Application Gateway.   

3. Registros de Contenedores Seguros: Se debe utilizar un repositorio de contenedores centralizado y privado, como Azure Container Registry, dentro del perímetro de la organización. Esto permite escanear imágenes en busca de vulnerabilidades y evitar el uso de imágenes comprometidas. Las imágenes de contenedores deben distribuirse de forma segura a las ubicaciones de tiempo de ejecución.   

4. Gestión de Identidad y Acceso (IAM) y RBAC: Se recomienda utilizar Microsoft Entra ID (anteriormente Azure Active Directory) para la gestión centralizada de identidades de los clústeres de ARO. Además, se debe implementar un control de acceso basado en roles (RBAC) granular dentro de Azure Red Hat OpenShift para garantizar que los usuarios solo tengan los niveles de acceso necesarios para realizar sus tareas (principio de mínimo privilegio).   

La arquitectura prescrita para FSI en ARO depende en gran medida de los servicios nativos de seguridad y redes de Azure (Private Link, ExpressRoute, Azure Firewall, Microsoft Entra ID). Esto demuestra una profunda integración y una estrategia de defensa en profundidad que aprovecha las fortalezas de la plataforma Azure subyacente. Esta integración es crucial para cumplir con los exigentes requisitos de FSI, ya que permite una postura de seguridad integral y de múltiples capas gestionada dentro del entorno de Azure.

Perspectiva del Analista: El Panorama en Evolución de la Virtualización Empresarial

A. Implicaciones a Largo Plazo de la Integración de VMs con Kubernetes

La convergencia de la gestión de máquinas virtuales y contenedores bajo el paraguas de Kubernetes está destinada a remodelar significativamente las operaciones de TI empresariales, los conjuntos de habilidades requeridas y las estrategias de infraestructura. Se espera una mayor difuminación de las líneas entre la Infraestructura como Servicio (IaaS) y la Plataforma como Servicio (PaaS).

Una de las consecuencias más profundas de esta tendencia es la posibilidad de aplicar de forma más amplia los principios de “infraestructura como código” (IaC) y GitOps, típicamente asociados con los contenedores, al ciclo de vida completo de las aplicaciones tradicionales basadas en VMs.

Al ejecutar VMs en Kubernetes, sus definiciones y configuraciones pueden gestionarse mediante manifiestos declarativos (por ejemplo, los CRDs de KubeVirt ), de forma similar a como se gestionan los contenedores. Estos manifiestos pueden versionarse en repositorios Git, y los cambios pueden aplicarse a través de pipelines automatizados de GitOps. Esto extiende las prácticas modernas de DevOps, que anteriormente se centraban principalmente en aplicaciones nativas de la nube, al ámbito de las cargas de trabajo de VMs tradicionales, lo que lleva a una mayor automatización, estandarización y auditabilidad de las operaciones de TI.   

B. Posibles Cambios en la Cuota de Mercado de los Líderes de Virtualización Tradicional

Las soluciones como Red Hat OpenShift Virtualization, especialmente cuando se ofrecen en plataformas de nube pública líderes como Microsoft Azure, tienen el potencial de impactar la cuota de mercado de los proveedores de virtualización establecidos, como VMware. Aunque los líderes tradicionales de la virtualización todavía mantienen una posición significativa en el mercado , el auge de las soluciones basadas en KubeVirt en plataformas como OpenShift presenta una alternativa creíble, a menudo más rentable y operacionalmente consistente.

Esta alternativa podría erosionar la cuota de mercado de los incumbentes con el tiempo, particularmente para nuevas cargas de trabajo o proyectos de modernización donde la unificación de la gestión de VMs y contenedores es una prioridad. La presión competitiva está impulsando a los incumbentes a adaptarse, como se evidencia en la propia estrategia Tanzu de VMware, que también busca integrar la gestión de VMs y contenedores. Sin embargo, la combinación de una plataforma Kubernetes empresarial robusta (OpenShift), el respaldo de dos gigantes tecnológicos (Red Hat y Microsoft), la integración con un ecosistema de nube maduro (Azure) y los incentivos financieros asociados (MACC, AMMP, AHB) posicionan a ARO con OpenShift Virtualization como un contendiente formidable.   

De CIO a CIO – Recomendaciones Estratégicas

 

Para los directores de informática (CIOs) y otros responsables de la toma de decisiones de TI que navegan por las complejidades de la modernización de la infraestructura, se pueden ofrecer las siguientes recomendaciones estratégicas:

  • Evaluar OpenShift Virtualization en ARO como una plataforma estratégica: Considerar esta solución no solo como una forma de ejecutar VMs, sino como una plataforma para modernizar las cargas de trabajo de VMs en paralelo con la adopción de contenedores, buscando una gestión unificada.
  • Invertir en habilidades de Kubernetes y OpenShift: La transición hacia plataformas basadas en Kubernetes requiere una evolución en las habilidades de los equipos de TI. Es crucial invertir en programas de capacitación y desarrollo para cerrar cualquier brecha de conocimiento.  
  • Desarrollar una estrategia de migración por fases: Aprovechar herramientas como Red Hat Ansible Automation Platform y Red Hat Advanced Cluster Management, junto con programas como el Azure Migration and Modernization Program (AMMP), para planificar y ejecutar migraciones de manera estructurada y con menor riesgo.
  • Evaluar los beneficios del TCO de manera integral: Al calcular el costo total de propiedad, considerar los ahorros potenciales derivados de programas como MACC, AMMP y Azure Hybrid Benefit para RHEL, que pueden mejorar significativamente la viabilidad económica de la solución.
  • Considerar la visión a largo plazo de un plano de control unificado: La capacidad de gestionar todos los tipos de aplicaciones (VMs, contenedores, funciones serverless) a través de un plano de control consistente y basado en Kubernetes ofrece ventajas significativas en términos de eficiencia operativa, agilidad y preparación para el futuro. La modernización de VMs debe verse como un paso integral dentro de una estrategia de plataforma más amplia, donde la consistencia, la automatización y la preparación para el futuro son objetivos clave. Esto implica un cambio de mentalidad, pasando de gestionar las VMs como entidades aisladas y únicas (“mascotas”) a tratarlas de manera más estandarizada y automatizada (“ganado”), aprovechando el poder de la plataforma Kubernetes.

Trazando el Rumbo para la Infraestructura de Próxima Generación

 

Red Hat OpenShift Virtualization en Microsoft Azure representa un avance transformador en el panorama de la infraestructura empresarial. Su capacidad para unificar la gestión de máquinas virtuales y contenedores bajo un único plano de control basado en Kubernetes ofrece una vía acelerada hacia la modernización, la simplificación de las operaciones y la creación de una plataforma preparada para los desafíos futuros. Los beneficios clave, que incluyen la migración optimizada de VMs, una mayor agilidad de DevOps y una utilización de recursos más eficiente, son convincentes para las empresas que buscan modernizar sus aplicaciones heredadas sin abandonar por completo sus inversiones existentes en virtualización.

La fortaleza de la alianza entre Red Hat y Microsoft proporciona una base de confianza y soporte robusto, mitigando los riesgos asociados con la adopción de nuevas tecnologías. Además, la integración con el ecosistema de Azure, a través de programas como MACC, AMMP y Azure Hybrid Benefit, mejora la propuesta de valor económica y facilita la transición.

En última instancia, Red Hat OpenShift Virtualization en Azure es más que una nueva característica tecnológica; es un facilitador de la evolución estratégica de TI. Permite a las empresas aprovechar sus inversiones existentes en máquinas virtuales mientras abrazan simultáneamente la agilidad y la innovación del mundo nativo de la nube.

Todo esto se logra bajo un marco de gestión unificado y de grado empresarial, respaldado por dos titanes de la industria, lo que posiciona a esta solución como un componente crucial para las organizaciones que navegan por las complejidades de la TI híbrida y buscan alcanzar sus objetivos de transformación digital. La capacidad de gestionar cargas de trabajo diversas de manera consistente y eficiente no es solo una ventaja operativa, sino un imperativo estratégico en la economía digital actual.

 

Por Marcelo Lozano – General Publisher IT CONNECT LATAM
Lea más sobre  Aplicaciones empresariales

GoverniFY: el revolucionario GRC 2025 que esperábamos 🚀

RCS 2024: Experiencia espectacular y de bajo costo

FreedomPay 2024: el futuro es dinámico y espectacular

Energía 4.0: Tecnología Eficaz para Optimización de Activos

10 tendencias en CX que definirán el año

 

Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, 

Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, Virtualización, 

Table of Contents

Scroll al inicio