ĀæOpenShift se volvió loco? šŸ’£ Presentamos la arquitectura del plano de control de 4 y 5 nodos de OpenShift

Aumentando la resiliencia en clĆŗsteres activos-activos bare-metal: arquitectura del plano de control de 4 y 5 nodos (  versión 4.17 ⬆ )

Las organizaciones que ejecutan implementaciones activo-activo en dos ubicaciones , especialmente aquellas que alojan cargas de trabajo con estado, como las mĆ”quinas virtuales de OpenShift Virtualization que ejecutan una sola instancia , dependen en gran medida de la infraestructura subyacente para garantizar la disponibilidad.
Si bien las plataformas de virtualización tradicionales manejan esto de forma nativa, ejecutar estas cargas de trabajo en OpenShift bare metal introduce nuevas consideraciones arquitectónicas.

 

El desafĆ­o: ĀæQuĆ© sucede cuando falla el sitio principal? āš ļø

En los clĆŗsteres de OpenShift extendidos tĆ­picos, el plano de control a menudo se implementa en una topologĆ­a 2+1 o 1+1+1 .
Pero si el centro de datos que aloja la mayorĆ­a de los nodos del plano de control se cae:

  • El nodo del plano de control superviviente se convierte en laĀ Ćŗnica fuente de información verazĀ para el clĆŗster.
  • Ese Ćŗnico nodo debe cambiar al modo de lectura y escritura y actuar como la copia exclusiva de etcd.
  • SiĀ eseĀ nodo falla… la recuperación se vuelveĀ catastróficaĀ , especialmente al ejecutar mĆ”quinas virtuales con estado.

Este riesgo se vuelve aĆŗn mĆ”s crĆ­tico en entornos que aprovechan OpenShift Virtualization para cargas de trabajo de producción

 

La solución: Plano de control de 4 y 5 nodos para clĆŗsteres extendidos šŸš€

Para aumentar la resiliencia durante fallas a nivel de centro de datos, OpenShift puede aprovechar implementaciones de plano de control de 4 o 5 nodos , como:

  • 2+2
  • 3+2

Con estos diseƱos, incluso si se pierde un sitio completo, la ubicación restante conserva dos copias de solo lectura de etcd , lo que aumenta significativamente la capacidad de recuperación del clĆŗster y reduce el riesgo de perder el quórum

Actualmente, el operador cluster-etcd ya admite hasta cinco miembros etcd , con escalado automĆ”tico en entornos que utilizan MachineSets.
Sin embargo, en instalaciones bare-metal o basadas en agentes , MachineSets no estĆ” disponible, lo que significa que el operador no escalarĆ” automĆ”ticamente, sino que ajustarĆ” los pares etcd cuando se agreguen manualmente nodos del plano de control .

Este es exactamente el flujo de trabajo que pretendemos validar y admitir oficialmente.

šŸ”§ Nota: Esta capacidad estĆ” especĆ­ficamente dirigida a clĆŗsteres bare-metal , con un fuerte enfoque en los casos de uso de virtualización de OpenShift .

 

Objetivos šŸŽÆ

Validar y admitir arquitecturas de plano de control de 4 y 5 nodos para clĆŗsteres bare-metal extendidos, bajo las siguientes restricciones:

  • Nodos de plano de control bare-metal
  • Instalado medianteĀ el instalador asistidoĀ oĀ el instalador basado en agentes
  • Red de capa 3Ā compartidaĀ entre ubicaciones
  • Latencia < 10 msĀ entre todos los nodos del plano de control
  • Ancho de bandaĀ mĆ­nimo de 10 Gbps
  • etcd almacenado enĀ SSD o NVMe

 

Criterios de aceptación āœ”ļø

šŸ“Œ Rendimiento

El rendimiento y la escalabilidad del plano de control deben mostrar una degradación inferior al 10 % en comparación con los clĆŗsteres HA estĆ”ndar.

šŸ“Œ Procedimientos de recuperación

La documentación debe validarse y actualizarse para la recuperación manual del plano de control en casos de pĆ©rdida de quórum.

🧠 Mapeo de Redes de VMware — De vSphere a OpenShift Virtualization

Todo lo mostrado aquĆ­ estĆ” incluido en todas las suscripciones de OpenShift.

Al migrar desde VMware, una de las primeras dudas es cómo se trasladan los conceptos de red. Este post lo explica visualmente.

Figure 1: Virtual Machine Networking in OpenShift

Las VMs pueden conectarse a:

  • La SDN de OpenShift (red de pods/servicios)
  • Redes externas usando Multus + nmstate

Interfaces soportadas:

  • Linux Bridge
  • VLAN
  • Bond
  • Ethernet

Esto permite emular redes como las de VMware a nivel de nodo.

Figure 2: Core VMware to OpenShift Mapping

NIC fĆ­sica (vmnic) ā†’ Se configura con NodeNetworkConfigurationPolicy (NNCP)

VM Network ā†’ NetworkAttachmentDefinition (NAD)

Virtual Machine ā†’ Recurso VirtualMachine en OpenShift

Figure 3 & 4: OVS-Bridges and NADs

  • OVS-bridges son equivalentes a port groups distribuidos.
  • Las NADs representan esos port groups dentro de un proyecto OpenShift.!

Ejemplo: airgap-VLAN999 es una NAD dentro del proyecto, conectada al bridge definido por NNCP.

Figure 5: Micro-segmentation with OpenShift SDN

OpenShift supports NetworkPolicies to enable true micro-segmentation, even for VMs.

āœ… Tu Puedes:

Gracias a las NetworkPolicies, OpenShift permite aislar trĆ”fico:

  • Entre proyectos
  • Entre pods y VMs
  • SegĆŗn puertos o etiquetas!

Ejemplos:

  • Permitir trĆ”fico solo a la VM violeta en el puerto 8080
  • Bloquear trĆ”fico del proyecto B al A
  • Permitir solo conexiones internas!

Todo esto tambiƩn se aplica a VMs, sin costo adicional ni extensiones extra.

OpenShift permite crear una red virtualizada robusta y segura, compatible con prĆ”cticas de VMware — y todo estĆ” incluido con tu suscripción.

ĀæCómo medir CPU Ready en OpenShift Virtualization? šŸš€šŸ¤“

Todos los que administramos VMware sabemos de lo que hablamos cuando nombramos CPU Ready (%RDY) como MĆ©trica de Rendimiento, entonces explicare que es, y como se mide en Openshift Virtualization.

 

¿Qué es CPU Ready?

El tĆ©rmino ā€œCPU Readyā€ puede dar lugar a malentendidos. Se podrĆ­a pensar que representa la cantidad de CPU lista para ser usada y que un alto valor es algo positivo. Sin embargo, cuanto mayor sea el CPU Ready, peor serĆ” el rendimiento de la infraestructura vSphere y mĆ”s sufrirĆ”n las aplicaciones.

Definición oficial de VMware:

Es el porcentaje de tiempo en que un Ā«worldĀ» estĆ” listo para ejecutarse y esperando la aprobación del CPU Scheduler.

  • En vSphere, unĀ Ā«Ciclo» es un proceso.
  • Cuanto mayor sea el CPU Ready, mĆ”s tiempo pasarĆ”n las VM sin ejecutar lo que deberĆ­an.

En otras palabras, un Ā«CicloĀ» es una vCPU esperando su turno para ejecutarse en un CPU fĆ­sicoCPU Ready mide cuĆ”nto tiempo esa vCPU espera para ser programada y ejecutarse en un nĆŗcleo fĆ­sico.

¿Qué causa un alto CPU Ready?

Identificar el alto uso de CPU es sencillo, pero encontrar la causa del CPU Ready puede ser mĆ”s difĆ­cil. Las dos causas principales de un alto CPU Ready son:

  1. Alta sobreasignación de CPU (CPU Oversubscription)
  2. Uso de lĆ­mites de CPU (CPU Limits)

Sobreasignación de CPU

  • La razón mĆ”s comĆŗn de CPU Ready alto esĀ asignar mĆ”s vCPUs de las que pueden ser manejadas por los CPU fĆ­sicos.
  • Reglas generalesĀ para la relación vCPU:pCPU:
    • 1:1 a 1:3 → No hay problema.
    • 1:3 a 1:5 → Puede empezar a degradarse el rendimiento.
    • 1:5 o mayor → Probable problema de CPU Ready.

¿Cómo ver el CPU Ready en VMware?

  • La mejor manera de analizar CPU Ready es aĀ nivel de VM y por vCPU, no a nivel de host.
  • EnĀ vSphere Client, en los grĆ”ficos de rendimiento, se puede agregarĀ CPU ReadyĀ como mĆ©trica.
  • En esxtop, se puede ver elĀ %RDYĀ para cada VM.

ĀæCuĆ”nto CPU Ready es ā€œnormalā€?

  • VMware recomienda mantener CPU Ready por debajo del 5% por vCPU.
  • CPU Ready se mide enĀ milisegundos (ms)Ā en la UI de vSphere, pero para calcular el porcentaje real:
    • Si en 20 segundos (20000 ms) una VM tieneĀ 2173 ms de CPU Ready, entonces:Ā (2173 / 20000) = 10.87% → Esto esĀ alto.

¿Cómo medir CPU Ready en OpenShift Virtualization?

En VMware vSphereCPU Ready (%RDY) mide el tiempo que una vCPU pasa esperando ser programada en un CPU fĆ­sico.
En OpenShift Virtualization, no existe una mĆ©trica llamada CPU Ready directamente, pero el equivalente en Kubernetes y OpenShift se mide a travĆ©s del CPU Throttling.

šŸ“Œ MĆ©trica equivalente en OpenShift:

  • container_cpu_cfs_throttled_seconds_total
    • Mide elĀ tiempo total (en segundos)Ā que un contenedor (o VM en OpenShift Virtualization) ha estadoĀ Ā«throttledĀ», es decir, ha sido limitado en su uso de CPU porque excedió los recursos asignados.

šŸ“Œ Otras mĆ©tricas relacionadas:

  • container_cpu_cfs_periods_total
    • Cantidad total de perĆ­odos de CPU asignados al contenedor.
  • container_cpu_cfs_throttled_periods_total
    • NĆŗmero de perĆ­odos de CPU en los que la VMĀ fue restringida.
  • Usar Grafana en OpenShift Monitoring
    • Si tenĆ©s configuradoĀ Prometheus y Grafana, podĆ©s crear unĀ dashboardĀ con:
      • MĆ©trica:Ā container_cpu_cfs_throttled_seconds_total
      • Filtro:Ā {pod=~"mi-vm-.*"}Ā (para enfocarse en VMs especĆ­ficas)
  • UsarĀ oc adm topĀ para obtener CPU en tiempo real
    • Comando:oc adm top pods -n mi-namespace
    • Esto muestra el uso de CPU y memoria en tiempo real para cada VM.

šŸš€ Recomendaciones para evitar CPU Throttling en OpenShift Virtualization

  1. No usar CPU Limits innecesarios
    • Si una VM tiene unĀ CPU Limit bajo, puede ser constantemente restringida, causandoĀ CPU Throttling alto.
    • En su lugar, definir soloĀ CPU RequestsĀ y dejar elĀ Limit abiertoĀ si el host tiene recursos disponibles.
  2. Monitorear y ajustar los recursos asignados
    • Revisar periódicamente las mĆ©tricas deĀ CPU ThrottlingĀ en Prometheus/Grafana.
    • Asegurar que las VMs crĆ­ticas tengan suficientes recursos.
  3. Evitar la sobreasignación de vCPUs en los nodos físicos
    • En OpenShift, asignarĀ mĆ”s vCPUs de las que tiene el nodo fĆ­sicoĀ puede causar contención y throttling.
    • Seguir ratios recomendados deĀ vCPU vs. pCPU.

šŸ“Š Umbrales para interpretar CPU Throttling en OpenShift

CPU Throttling (%)EstadoImpacto en el rendimiento
0 – 5%šŸ”µ Ć“ptimoNo hay impacto en el rendimiento.
5 – 10%🟔 AdvertenciaPosible latencia en aplicaciones sensibles a la CPU.
10 – 20%🟠 Problema moderadoPueden aparecer retrasos y degradación en el rendimiento.
> 20%šŸ”“ CrĆ­ticoLa VM o contenedor estĆ” fuertemente limitado, afectando su desempeƱo.

šŸ› ļø Comparación rĆ”pida: VMware vs. OpenShift Virtualization

ConceptoVMware (vSphere)OpenShift Virtualization (KubeVirt)
CPU Ready (%)%RDY en esxtopcontainer_cpu_cfs_throttled_seconds_total
Medición en GUIvSphere ClientOpenShift Grafana Dashboard
Medición CLIesxtopoc adm top pods + Prometheus
Causa principalCPU OversubscriptionCPU Limits o sobrecarga del nodo

Performance Best Practices for VMware vSphere 8.0 Update 2 šŸš€

Buenas a todos, les dejo por aqui elĀ šŸŽ de este super Book que nos trae todas las buenas practicas de Performance enĀ vSphere 8.0 U2.

Download AquĆ­Ā Book

Este libro consta de los siguientes capĆ­tulos:

  • CapĆ­tulo 1, Ā«Hardware para Uso con VMware vSphereĀ», en la pĆ”gina 11, ofrece orientación sobre la selección de hardware para usar con vSphere.
  • CapĆ­tulo 2, Ā«ESXi y MĆ”quinas VirtualesĀ», en la pĆ”gina 25, proporciona orientación sobre el software VMware ESXiā„¢ y las mĆ”quinas virtuales que se ejecutan en Ć©l.
  • CapĆ­tulo 3, Ā«Sistemas Operativos HuĆ©spedĀ», en la pĆ”gina 55, brinda orientación sobre los sistemas operativos huĆ©sped que se ejecutan en las mĆ”quinas virtuales de vSphere.
  • CapĆ­tulo 4, Ā«Gestión de Infraestructura VirtualĀ», en la pĆ”gina 67, ofrece orientación sobre las mejores prĆ”cticas de gestión de infraestructura.

Audiencia Prevista: Este libro estÔ dirigido a administradores de sistemas que estén planificando una implementación de VMware vSphere 8.0 Actualización 2 y deseen maximizar su rendimiento. El libro asume que el lector ya estÔ familiarizado con los conceptos y la terminología de VMware vSphere.

Espero que lo disfruten !!

vSphere Software Asset Management Tool šŸ› ļøšŸŖ›

Hola !! les traigo una herramienta super util para todos, vSAM recopila y resume la información de implementación de productos vSphere. Requiere las API de vSphere para los datos de implementación y produce un informe en PDF que el cliente puede consultar como parte de su proceso de revisión y planificación de la infraestructura

Podes bajartelo aqui: vSAM

CARACTERƍSTICAS

  • Admite tanto el clĆŗster vCenter Server como el host independiente ESXi con una versión de vSphere 5.5, 6. X o mĆ”s reciente.
  • Generar un informe completo desde varios aspectos:
    • Resumen de implementación de productos de alto nivel
    • Informe de implementación de productos por objetivos (cluster independiente ESXi o VC)
    • Informe de uso de claves de licencia de alto nivel
    • Uso de la clave de licencia por objetivos
  • ProporcionaĀ sugerencias de gestión de activos de software sobre:
    • Advertencia de licencia de evaluación
    • Plazo de la licencia
      • Aviso previo a la expiración de 90 dĆ­as
      • Alerta de caducidad
    • Capacidad de la licencia
      • Advertencia de residuos de capacidad potencial basada en un umbral personalizado
      • Advertencia de escasez de capacidad potencial basada en un umbral personalizado
      • Alerta de uso excesivo de capacidad
    • Soporte de producto
      • Fin de la información de soporte general
      • Aviso previo al vencimiento del soporte general de 90 dĆ­as
      • Alerta de producto no compatible
    • Proteja la información confidencial del cliente mediante:
      • Recopilación de un conjunto mĆ­nimo de información relativa con la gestión de activos de software
      • Enmascarar información confidencial en el informe
      • Soporte para el cifrado de archivos de datos sin procesar
  • Admite la fusión de varios informes en un solo informe
  • Informe de apoyo en inglĆ©s y chino
  • Soporte de personalización del informe

Ejemplo de informe:

Primeros Pasos Con vSphere+ šŸ’Æ

Ventajas y CaracterĆ­sticas

  • vSphere+ es una oferta (no un nuevo producto o versión) que permite a los clientes hacer la transición a un modelo de licencia de suscripción.
  • vSphere+ conecta la infraestructura on-prem a la nube
    • No hay migración de vCenters, hosts ESXi, cargas de trabajo, etc.
    • vCenters, hosts ESXi, VM permanecen en las instalaciones. No hay migración de estos objetos a la nube
    • Los clientes todavĆ­a pueden gestionar su infraestructura en el DC con la interfaz de usuario de vCenter que conocen y aman.

Entonces que va a pasar si tengo la oferta de vSphere+ ????

Voy a poder tener en el OnPrem (DC & Sitios Remotos) todos los vCenters que necesite sin tener que licenciarlos.

vSphere+ aƱade valor a la infraestructura virtual existente, local y de varias maneras:

  • Servicios administrativos:
    • Gestión centralizada, operaciones, alertas, registros.
    • Gestionar la configuración entre vCenters desde una consola de gestión central accesible desde cualquier lugar es ahora una realidad.
  • Servicios de desarrollo:
    • TransformarĆ­as tu infraestructura virtual en una plataforma lista para desarrolladores con VMware Tanzu
    • VMware Tanzu Runtime y Tanzu Mission Control Essentials formarĆ”n parte de vSphere+ sin cargo adicional.
  • Servicios adicionales en la nube:
    • Una vez conectados a VMware Cloud, los clientes pueden utilizar servicios basados en la nube como VMware Cloud Disaster Recovery (VCDR) en un enfoque sin problemas y estrechamente integrado.
    • MuĆ©vete fĆ”cilmente a un modelo de consumo de OpEx convirtiendo licencias perpetuas desde la VMware Console. Una vez pasado al modelo de suscripción, los clientes pueden implementar un nĆŗmero ilimitado de vCenters en las instalaciones sin costo adicional como mencionamos anteriormente.

Paso 1 – Crear una cuenta y organización de VMware Cloud

Los clientes se pondrÔn en contacto con su representante de VMware para planificar y determinar la licencia requerida. Los clientes existentes pueden actualizar/convertir su inversión actual en suscripción a través del Programa de Actualización de Suscripción (SUP). Una vez que se haya completado la adquisición/conversión de la licencia, se notificarÔ a los clientes la preparación de los derechos, y en este punto el cliente crearÔ una cuenta de VMware Cloud (si aún no se ha creado) y una organización dentro de los servicios en la nube de VMware

Paso 2 – Implementar el dispositivo Cloud Gateway

El paso 2 implica descargar e instalar un dispositivo Cloud Gateway en el vCenter local que se va a añadir. Este dispositivo se puede descargar desde nuestro sitio web y se implementarÔ en un clúster de vSphere existente. El dispositivo se utiliza como Bridge de comunicación entre vCenter(s) y la Nube. No hay conexión directa desde vCenter a la Nube, y toda la comunicación desde el dispositivo Cloud Gateway a la nube estÔ cifrada. No se transmiten nombres de usuario ni contraseñas externamente.

Paso 3 – Conecte su nube privada a VMware Cloud Services

Hasta este punto, hemos creado una cuenta y una organización de VMware Cloud, e implementado el dispositivo Cloud Gateway. Este siguiente paso es simplemente conectar su dispositivo Cloud Gateway a la cuenta de VMware Cloud y seleccionar una organización que tenga derechos de vSphere+. En este paso, esencialmente estamos emparejando el Gateway con la organización de la nube.

Paso 4 – Registre sus instancias de vCenter Server

Este último paso también es muy simple, aquí registraremos el (los) vCenter(s) en el Cloud Gateway Appliance. Recuerde que el Gateway ya sabe dónde conectarse. Cuando registramos uno o mÔs vCenters en el Gateway, la conexión a la nube se completa y, en pocos minutos, los clientes pueden comenzar a disfrutar de los beneficios de una infraestructura local conectada a la nube. El resultado es una consola en la nube para gestionar todos los entornos locales

Descubre el Poder de Veeam Size Estimator!! šŸŽÆ

La semana pasada en el Veeam User Group de MCA LaTAM en Telegram, donde charlamos de problemas que pueden ir teniendo, o consultas varias.

(Dejo por aqui el link para que unan a este grupo por Telegram)

Unirse al Veeam User Group en Telegram Aqui

Uno de los usuarios pregunto si existĆ­a alguna tool donde pueda estimar los recursos que utilizara para el entorno que utilizara.

šŸ’”Ā”Accede al enlace y descubre el poder del Veeam Size Estimator!

šŸ“ Link Aqui Veeam Size

En este Link podremos acceder al Veeam Size Estimator, una herramienta extremadamente útil para estimar el tamaño de tus datos respaldados. PodrÔs determinar cuÔnto espacio de almacenamiento necesitarÔs para tus copias de seguridad y así planificar adecuadamente los recursos requeridos.

El Veeam Size Estimator te permite ingresar diferentes parÔmetros, como la cantidad de mÔquinas virtuales, el tamaño de los discos, el nivel de cambio diario y la retención deseada, entre otros. A partir de estos datos, la herramienta realiza cÔlculos complejos y te proporciona un estimado detallado sobre el espacio de almacenamiento necesario y el crecimiento esperado en el tiempo. Esto es especialmente útil para empresas de todos los tamaños que desean garantizar que su infraestructura de respaldo cumpla con los requisitos de capacidad y rendimiento.

AdemÔs de ayudarte a planificar los recursos necesarios, el Veeam Size Estimator también te permite explorar diferentes configuraciones y escenarios. Puedes ajustar los parÔmetros y ver cómo varía el tamaño estimado del respaldo. Esto te brinda flexibilidad para adaptar tu infraestructura de respaldo a medida que cambian las necesidades de tu organización.

No dudes en aprovechar esta herramienta y estar un paso adelante en la protección de tus datos críticos.

šŸ‘‰ Empecemos šŸ¤“ Paso 1

Podemos ir añadiendo algunos sitios. Un sitio actúa como un mecanismo de grupo para recursos como repositorios y cargas de trabajo. Se supone que los recursos del sitio estÔn bien conectados. Por lo general, un sitio es un centro de datos o una ubicación física. Por ejemplo, en un entorno de producción, es posible que tengas un centro de datos en Peru y Argentina. En este caso, puede crear un sitio para representar cada ubicación, una llamada Londres y la otra. Puede optar por generar automÔticamente un repositorio predeterminado en cada sitio para crear una copia de seguridad local. De forma predeterminada, el asistente crea 2 sitios que representan un diseño simple de dos centros de datos. Si estÔs satisfecho con este diseño simple, no tienes que cambiar nada y puedes seguir con el siguiente paso.

šŸ‘‰ Paso 2

Los repositorios pueden representar un repositorio de copia de seguridad Ćŗnico o un repositorio de Scale-Out. Como esta en la imagen hemos creado 1 repositorio por sitio que permite una copia fuera del sitio.

Opcionalmente, puede configurar los datos de copia de seguridad por niveles en la nube (Object Storage) en este paso, de la manera que lo harĆ­a en VBR.

Consejo: TambiƩn puede crear 2 (o mƔs) repositorios por sitio, uno para copias de seguridad locales y otro para recibir los trabajos de copia de seguridad. Esto le permite ver la diferencia entre las copias de seguridad locales y las copias entrantes

šŸ‘‰ Paso 3

Los perfiles son preajustes que puedes reutilizar en las pestañas de carga de trabajo. El perfil o preajuste mÔs relevante es el perfil de retención, que le permite definir su retención para sus copias de seguridad. Al definirlo por separado, puede (re)utilizarlos al definir sus cargas de trabajo y adaptarlos rÔpidamente para simular diferentes SLA.

Consejo: Establezca su perfil principal como el perfil predeterminado en cualquiera de las pestaƱas. Cuando creas una nueva carga de trabajo, el ajuste preestablecido predeterminado se seleccionarƔ automƔticamente.

Hay 4 tipos principales

  • Ventanas de copia de seguridad: definen el tiempo mĆ”ximo que el sistema puede ocupar para hacer una copia de seguridad de una determinada carga de trabajo. Esto tiene un impacto en el tamaƱo de la CPU y la memoria. Si la ventana de copia de seguridad es mĆ”s pequeƱa para las mismas cargas de trabajo, el sistema debe hacer una copia de seguridad de mĆ”s cargas de trabajo en paralelo. Una ventana de copia de seguridad tiene 2 ajustes, incrementales y completos. Incremental es el tiempo que se suele utilizar para ejecutar una copia de seguridad. La ventana de copia de seguridad completa es la cantidad de tiempo que el sistema puede tardar en hacer una copia de seguridad completa. Por lo general, ejecutar una copia de seguridad completa es una rara opción o se puede extender a lo largo de varios dĆ­as con mĆŗltiples trabajos. Es por eso que, por lo general, estas ventanas son mĆ”s grandes, ya que es poco comĆŗn hacer una copia de seguridad de toda la carga de trabajo a la vez, excepto al principio
  • Propiedades de los datos: define cómo se comportan los datos a lo largo del tiempo. Por ejemplo, describe la tasa de cambio diario o el crecimiento anual. Las propiedades de los datos suelen compartirse entre cargas de trabajo similares.
  • General: Ajustes generales que se aplican en todo el tamaƱo, independientemente de las cargas de trabajo individuales.

šŸ‘‰ Paso 4

El VSE se centra en las cargas de trabajo. Las cargas de trabajo representan mÔquinas virtuales, mÔquinas físicas de Windows u otros conjuntos de datos que requieren una copia de seguridad. Las cargas de trabajo son un mecanismo para agrupar ciertos tipos de conjuntos de datos. Por ejemplo, 3 mÔquinas virtuales SQL de cada 1 TB de tamaño requieren estar protegidas con un SLA similar. En este caso, se puede crear una sola carga de trabajo «VM SQL» de tipo VM con un tamaño de fuente de 3 TB e instancias o unidades establecidas en 3 (represeniendo 3 mÔquinas virtuales). De manera similar, si tiene 4 mÔquinas físicas Linux, puede crear una carga de trabajo y establecer el tamaño de la fuente en la suma de todos los datos actualmente consumidos en el disco en estas mÔquinas físicas. En este caso, establezca la carga de trabajo en el tipo «Agente»

Las cargas de trabajo se ejecutan en servidores físicos directamente (copia de seguridad basada en agentes) o virtualmente en un hipervisor. Estas mÔquinas físicas se encuentran en una ubicación física a menudo conocida como centro de datos o sitio. Los sitios le permiten presentar esta ubicación física y asignarles las cargas de trabajo para que la herramienta de tamaño sepa dónde se encuentran. Le permiten agrupar las cargas de trabajo y los repositorios que documentan el diseño actual de un entorno de producción.

Los repositorios son repositorios de Veeam Backup & Replication en los que puede hacer una copia de seguridad de los datos de sus cargas de trabajo. Representan activos de infraestructuras fƭsicas como un servidor x64, dispositivos NAS, etc. EstƔn ubicados dentro de un sitio. Por lo general, las cargas de trabajo se respaldan en un repositorio local (en el mismo sitio) y se copian en un repositorio externo. Se puede configurar la copia entre sitios.

En caso de que esté utilizando el almacenamiento de objetos como destino local, puede considerar el tamaño de bloque de 4 MB si su proveedor de almacenamiento de objetos lo recomienda. El tamaño del bloque de 4 MB limita la cantidad de factor de metadatos por un factor potencial de 4 en comparación con el tamaño de bloque tradicional de 1 MB. Esto puede mejorar las operaciones de manejo de meta, como las eliminaciones o el bloqueo de objetos, ya que se crean menos bloques. Considere un disco de 100 GB. Con un tamaño de bloque de 1 MB, obtienes un total de 100.000 bloques durante una copia de seguridad completa. Sin embargo, con un tamaño de bloque de 4 MB, este número se reduce a 25.000 bloques.

Sin embargo, esto se produce con un mayor consumo de almacenamiento en un factor potencial de 4 durante la copia de seguridad incremental. Sin embargo, según la experiencia de campo, este factor es mÔs probable que sea 2x. Esto se debe a que los sistemas de archivos modernos intentan mantener juntos los bloques de datos para el mismo archivo de una manera secuencial que mitiga el impacto de un tamaño de bloque mÔs grande.

Por Ćŗltimo, mĆŗltiples cargas de trabajo podrĆ­an compartir caracterĆ­sticas similares. Es por eso que se abstraen en los perfiles. Esto elimina las necesidades de redefinirlos una y otra vez. El perfil predeterminado se seleccionarĆ” cuando agregue una carga de trabajo, por lo que es una buena idea establecerlo como predeterminado cuando haya un perfil que cubra la mayorĆ­a de las cargas de trabajo.

šŸ‘‰ Paso 5 Resultados šŸ

Aqui vemos como resultado los Cores y la Memoria RAM que necesitaran los componentes de Veeam para el entorno que hemos propuesto & la capacidad de Storage del mismo.

Espero que les haya servido !!!

Aqui Tambien les dejo como realizar estos calculos manualmente

Workspace ONE UEM for Linux 🐧Endpoints šŸ‘‰ Parte 1

Requisitos del dispositivo šŸ“± šŸ§šŸ’» Linux

Puede inscribir dispositivos que ejecuten cualquier distribución de Linux que se ejecute en arquitecturas x86_64, ARM5 o ARM7 en Workspace ONE UEM.

  • Los instaladores se crean para distribuciones y arquitecturas especĆ­ficas. AsegĆŗrese de que estĆ” utilizando el instalador correcto para su caso de uso.
  • El dispositivo debe estar ejecutando System D o System V para que Hub se ejecute como un servicio del sistema.
  • The Puppet agent (código abierto) es necesario para las configuraciones que utilizan perfiles de Workspace ONE. Si ejecuta un sistema basado en Debian (deb) o Red Hat (rpm), esto se instalarĆ” automĆ”ticamente con Hub. Para otros sistemas, o cuando se utiliza el mĆ©todo de instalación tarball, debe instalarse manualmente antes de la inscripción en WS1.

Requisitos de Workspace ONE UEM

No esta disponible para entornos On-Prem, Workspace ONE UEM se ha sometido a una rearquitectura completa. Actualmente, esto estƔ disponible en entornos Saas UAT compartidos CN135, CN137 y CN138 y lo implementaremos en entornos Saas dedicados y compartidos despuƩs de que se implementen el nuevo Control Plane y UEM v2109

La forma mÔs fÔcil de validar si la gestión de Linux estÔ habilitada o no en su entorno Workspace ONE UEM es crear un nuevo perfil y comprobar si Linux es una plataforma disponible. Para ello, vaya a Recursos > Perfiles y líneas base > Perfiles > Añadir > Añadir perfil.

Si ve Linux como una plataforma disponible, similar a la siguiente captura de pantalla, su entorno SaaS se ha actualizado y puede inscribir un dispositivo Linux.

Que se podrĆ” hacer con Linux en WS1

  • Sampling Support en Linux
  • Soporte para perfiles de Wi-Fi y credenciales
  • Gestión del ciclo de vida del certificado de soporte
  • Sensores Workspace ONE para Linux
  • Configuración del dispositivo que utiliza código abierto de Puppet (perfil de configuración personalizado)
  • Mejoras de configuración personalizadas (opciones para hacer cumplir y eliminar manifiestos)
  • Admite gestión remota (WS1 Assist) para dispositivos Linux
  • Mejore y mejore la interfaz de lĆ­nea de comandos del Hub

šŸ“Œ Recordemos que iran liberando muchisimas capacidades en cada realease de WS1

Inscribir sus dispositivos Linux

  1. Descargue Workspace ONE Intelligent Hub para Linux en su dispositivo previsto. El archivo descargado debe corresponder a la arquitectura y distribución del procesador objetivo. El agente estÔ disponible como paquetes deb, rpm o tgz y se puede descargar directamente en su dispositivo Linux o se puede transferir al dispositivo Linux a través de USB o SSH.

Los instaladores se pueden recuperar de las siguientes ubicaciones:

https://packages.vmware.com/wsone

2. Ejecute el instalador del cliente Workspace ONE Intelligent Hub con privilegios de root.

Por ejemplo:

Para el paquete Debian en Ubuntu: $ sudo apt install Ā«/tmp/workspaceone-intelligent-hub-amd64-21.10.0.1.debĀ»

Para el paquete de RPM en Fedora: $ sudo dnf install workspaceone-intelligent-hub-amd64-21.10.0.1.rpm

Para el paquete RPM en OpenSUSE: $ sudo zypper install workspaceone-intelligent-hub-amd64-21.10.0.1.rpm

Para Tarball (cualquier otra distribución de Linux): 1. Extraiga el paquete usando: $ tar xvf workspaceone-intelligent-hub-<arch>.21.10.0.1.tgz 2. Instale el paquete usando: $ sudo ./install.sh

Nota: Al utilizar Tarball, Ruby debe instalarse manualmente antes de instalar el Intelligent Hub.

3. InscripciónInscriba su dispositivo en Workspace ONE UEM después de la instalación utilizando thews1HubUtil. Elija enviar los detalles de inscripción en un solo comando o por separado. Siga los pasos a continuación para enviarlos en un solo comando.

4. Cambie el directorio al directorio binario Hub bajo el directorio de instalación.

5. Ejecute **ws1HubUtil** e incluya los argumentos de inscripción en orden.

$ sudo ./ws1HubUtil enroll --server https://host.com --user <username> --password <password> --group <organization group id>

Para solicitar a los usuarios las credenciales de inscripción cuando se inscriban, ejecute ws1HubUtil sin estos argumentos adicionales. Consulte Argumentos de línea de comandos admitidos para obtener mÔs detalles antes de intentar una inscripción.

6. Después de una instalación y registro exitosos, el dispositivo Linux aparecerÔ en la consola WS1 UEM.

7. Desinstalar:

Para desinstalar Intelligent Hub para Linux, puede enviar un comando Enterprise Wipe desde la consola WS1 UEM (para un dispositivo inscrito) o puede desinstalar manualmente el lado del dispositivo. Si el comando de desinstalación se utiliza en el lado del dispositivo inscrito, el dispositivo se cancelarÔ primero.

Para Debian: $ sudo apt eliminar workspaceone-intelligent-hub

Para RPM para Fedora: $ sudo zypper eliminar espacio de trabajoone-intelligent-hub

Para Tarball: $ sudo /opt/Workspace-ONE-Intelligent-Hub/uninstall.sh

ĀæOpenShift se volvió loco? šŸ’£ Presentamos la arquitectura del plano de control de 4 y 5 nodos de OpenShift

Aumentando la resiliencia en clĆŗsteres activos-activos bare-metal: arquitectura del plano de control de 4 y 5 nodos (  versión 4.17 ⬆ ) Las organizaciones que ejecutan implementaciones activo-activo en dos ubicaciones , especialmente aquellas que alojan cargas de trabajo con estado, como las mĆ”quinas virtuales de OpenShift Virtualization que ejecutan una sola instancia , dependen en gran medida de la infraestructura subyacente para…

🧠 Mapeo de Redes de VMware — De vSphere a OpenShift Virtualization

Todo lo mostrado aquĆ­ estĆ” incluido en todas las suscripciones de OpenShift. Al migrar desde VMware, una de las primeras dudas es cómo se trasladan los conceptos de red. Este post lo explica visualmente. Figure 1: Virtual Machine Networking in OpenShift Las VMs pueden conectarse a: Interfaces soportadas: Esto permite emular redes como las de VMware…

VMware šŸ¤“ Blockchain en VMworld 2021šŸŒ

šŸ“¢ Atención #BlockChain#Fans šŸ‘€šŸ‘‡
Hemos estado trabajando šŸ‘Øā€šŸ­ duro desde #VMworld del aƱo pasado donde Lanzamos šŸš€ #VMware #Blockchain #VMBC
Ahora en el #VMworld2021 šŸŒ
Aprende šŸ¤“ cómo #blockchain estĆ” transformando las #industrias šŸ­ y ponete al dĆ­a sobre las finanzas šŸ’° descentralizadas #DeFi, los #NFT y los intercambios descentralizados #DEX šŸ’³ con estas sesiones:

šŸ“Œ Sesión VI1553: ObtĆ©n una comprensión mĆ”s profunda de #DeFi šŸ’° y cómo funciona un #DEX šŸ’³ . Nos sumergiremos en los detalles tĆ©cnicos y demostraremos una #dApp šŸ’Æ de intercambio de #tokens construida sobre #VMBC.

šŸ“Œ Sesión 1553: Aprende a crear un intercambio de activos digitales #NFT usando #VMBC.

šŸ“Œ Sesión APP1781: ObtĆ©n una visión del futuro de #DevSecOps con Web3 Distributed Ledger Technologies

Estas y mas sesiones en
Registro šŸ‘‰ https://lnkd.in/gcSKG98p
Ā”Nos vemos en #VMworld!


šŸš€ VMware to the #Moon šŸŒš !!

ĀæCómo medir CPU Ready en OpenShift Virtualization? šŸš€šŸ¤“

Todos los que administramos VMware sabemos de lo que hablamos cuando nombramos CPU Ready (%RDY) como MĆ©trica de Rendimiento, entonces explicare que es, y como se mide en Openshift Virtualization.   ĀæQuĆ© es CPU Ready? El tĆ©rmino ā€œCPU Readyā€ puede dar lugar a malentendidos. Se podrĆ­a pensar que representa la cantidad de CPU lista para ser…

Performance Best Practices for VMware vSphere 8.0 Update 2 šŸš€

Buenas a todos, les dejo por aqui elĀ šŸŽ de este super Book que nos trae todas las buenas practicas de Performance enĀ vSphere 8.0 U2. Download AquĆ­Ā Book Este libro consta de los siguientes capĆ­tulos: Audiencia Prevista: Este libro estĆ” dirigido a administradores de sistemas que estĆ©n planificando una implementación de VMware vSphere 8.0 Actualización 2 y…

vSphere Software Asset Management Tool šŸ› ļøšŸŖ›

Hola !! les traigo una herramienta super util para todos, vSAM recopila y resume la información de implementación de productos vSphere. Requiere las API de vSphere para los datos de implementación y produce un informe en PDF que el cliente puede consultar como parte de su proceso de revisión y planificación de la infraestructura Podes…