Aumentando la resiliencia en clústeres activos-activos bare-metal: arquitectura del plano de control de 4 y 5 nodos ( versión 4.17 ⬠)
Las organizaciones que ejecutan implementaciones activo-activo en dos ubicaciones , especialmente aquellas que alojan cargas de trabajo con estado, como las mÔquinas virtuales de OpenShift Virtualization que ejecutan una sola instancia , dependen en gran medida de la infraestructura subyacente para garantizar la disponibilidad. Si bien las plataformas de virtualización tradicionales manejan esto de forma nativa, ejecutar estas cargas de trabajo en OpenShift bare metal introduce nuevas consideraciones arquitectónicas.
En los clĆŗsteres de OpenShift extendidos tĆpicos, el plano de control a menudo se implementa en una topologĆa 2+1 o 1+1+1 . Pero si el centro de datos que aloja la mayorĆa de los nodos del plano de control se cae:
El nodo del plano de control superviviente se convierte en la única fuente de información veraz para el clúster.
Ese Ćŗnico nodo debe cambiar al modo de lectura y escritura y actuar como la copia exclusiva de etcd.
Si ese nodo falla⦠la recuperación se vuelve catastrófica , especialmente al ejecutar mÔquinas virtuales con estado.
Este riesgo se vuelve aĆŗn mĆ”s crĆtico en entornos que aprovechan OpenShift Virtualization para cargas de trabajo de producción
La solución: Plano de control de 4 y 5 nodos para clĆŗsteres extendidos š
Para aumentar la resiliencia durante fallas a nivel de centro de datos, OpenShift puede aprovechar implementaciones de plano de control de 4 o 5 nodos , como:
2+2
3+2
Con estos diseños, incluso si se pierde un sitio completo, la ubicación restante conserva dos copias de solo lectura de etcd , lo que aumenta significativamente la capacidad de recuperación del clúster y reduce el riesgo de perder el quórum
Actualmente, el operador cluster-etcd ya admite hasta cinco miembros etcd , con escalado automƔtico en entornos que utilizan MachineSets. Sin embargo, en instalaciones bare-metal o basadas en agentes , MachineSets no estƔ disponible, lo que significa que el operador no escalarƔ automƔticamente, sino que ajustarƔ los pares etcd cuando se agreguen manualmente nodos del plano de control .
Este es exactamente el flujo de trabajo que pretendemos validar y admitir oficialmente.
š§ Nota: Esta capacidad estĆ” especĆficamente dirigida a clĆŗsteres bare-metal , con un fuerte enfoque en los casos de uso de virtualización de OpenShift .
Objetivos šÆ
Validar y admitir arquitecturas de plano de control de 4 y 5 nodos para clĆŗsteres bare-metal extendidos, bajo las siguientes restricciones:
Nodos de plano de control bare-metal
Instalado medianteĀ el instalador asistidoĀ oĀ el instalador basado en agentes
Red de capa 3Ā compartidaĀ entre ubicaciones
Latencia < 10 msĀ entre todos los nodos del plano de control
Ancho de bandaĀ mĆnimo de 10 Gbps
etcd almacenado enĀ SSD o NVMe
Criterios de aceptación āļø
š Rendimiento
El rendimiento y la escalabilidad del plano de control deben mostrar una degradación inferior al 10 % en comparación con los clústeres HA estÔndar.
Es el porcentaje de tiempo en que un «world» estÔ listo para ejecutarse y esperando la aprobación del CPU Scheduler.
En vSphere, un «Ciclo» es un proceso.
Cuanto mayor sea el CPU Ready, mĆ”s tiempo pasarĆ”n las VM sin ejecutar lo que deberĆan.
En otras palabras, un Ā«CicloĀ» es una vCPU esperando su turno para ejecutarse en un CPU fĆsico. CPU Ready mide cuĆ”nto tiempo esa vCPU espera para ser programada y ejecutarse en un nĆŗcleo fĆsico.
Identificar el alto uso de CPU es sencillo, pero encontrar la causa del CPU Ready puede ser mĆ”s difĆcil. Las dos causas principales de un alto CPU Ready son:
Alta sobreasignación de CPU (CPU Oversubscription)
Uso de lĆmites de CPU (CPU Limits)
Sobreasignación de CPU
La razón mĆ”s comĆŗn de CPU Ready alto esĀ asignar mĆ”s vCPUs de las que pueden ser manejadas por los CPU fĆsicos.
Reglas generales para la relación vCPU:pCPU:
1:1 a 1:3Ā ā No hay problema.
1:3 a 1:5Ā ā Puede empezar a degradarse el rendimiento.
1:5 o mayorĀ ā Probable problema de CPU Ready.
¿Cómo ver el CPU Ready en VMware?
La mejor manera de analizar CPU Ready es aĀ nivel de VM y por vCPU, no a nivel de host.
Mide el tiempo total (en segundos) que un contenedor (o VM en OpenShift Virtualization) ha estado «throttled», es decir, ha sido limitado en su uso de CPU porque excedió los recursos asignados.
CapĆtulo 4, Ā«Gestión de Infraestructura VirtualĀ», en la pĆ”gina 67, ofrece orientación sobre las mejores prĆ”cticas de gestión de infraestructura.
Hola !! les traigo una herramienta super util para todos, vSAM recopila y resume la información de implementación de productos vSphere. Requiere las API de vSphere para los datos de implementación y produce un informe en PDF que el cliente puede consultar como parte de su proceso de revisión y planificación de la infraestructura
Gestionar la configuración entre vCenters desde una consola de gestión central accesible desde cualquier lugar es ahora una realidad.
Servicios de desarrollo:
TransformarĆas tu infraestructura virtual en una plataforma lista para desarrolladores con VMware Tanzu
VMware Tanzu Runtime y Tanzu Mission Control Essentials formarƔn parte de vSphere+ sin cargo adicional.
Servicios adicionales en la nube:
Una vez conectados a VMware Cloud, los clientes pueden utilizar servicios basados en la nube como VMware Cloud Disaster Recovery (VCDR) en un enfoque sin problemas y estrechamente integrado.
El paso 2 implica descargar e instalar un dispositivo Cloud Gateway en el vCenter local que se va a añadir. Este dispositivo se puede descargar desde nuestro sitio web y se implementarÔ en un clúster de vSphere existente. El dispositivo se utiliza como Bridge de comunicación entre vCenter(s) y la Nube. No hay conexión directa desde vCenter a la Nube, y toda la comunicación desde el dispositivo Cloud Gateway a la nube estÔ cifrada. No se transmiten nombres de usuario ni contraseñas externamente.
Paso 3 – Conecte su nube privada a VMware Cloud Services
Hasta este punto, hemos creado una cuenta y una organización de VMware Cloud, e implementado el dispositivo Cloud Gateway. Este siguiente paso es simplemente conectar su dispositivo Cloud Gateway a la cuenta de VMware Cloud y seleccionar una organización que tenga derechos de vSphere+. En este paso, esencialmente estamos emparejando el Gateway con la organización de la nube.
Paso 4 – Registre sus instancias de vCenter Server
En este Link podremos acceder al Veeam Size Estimator, una herramienta extremadamente útil para estimar el tamaño de tus datos respaldados. PodrÔs determinar cuÔnto espacio de almacenamiento necesitarÔs para tus copias de seguridad y asà planificar adecuadamente los recursos requeridos.
El Veeam Size Estimator te permite ingresar diferentes parÔmetros, como la cantidad de mÔquinas virtuales, el tamaño de los discos, el nivel de cambio diario y la retención deseada, entre otros. A partir de estos datos, la herramienta realiza cÔlculos complejos y te proporciona un estimado detallado sobre el espacio de almacenamiento necesario y el crecimiento esperado en el tiempo. Esto es especialmente útil para empresas de todos lostamaños que desean garantizar que su infraestructura de respaldo cumpla con los requisitos de capacidad y rendimiento.
No dudes en aprovechar esta herramienta y estar un paso adelante en la protección de tus datos crĆticos.
š Empecemos š¤ Paso 1
Podemos ir aƱadiendo algunos sitios. Un sitio actĆŗa como un mecanismo de grupo para recursos como repositorios y cargas de trabajo. Se supone que los recursos del sitio estĆ”n bien conectados. Por lo general, un sitio es un centro de datos o una ubicación fĆsica. Por ejemplo, en un entorno de producción, es posible que tengas un centro de datos en Peru y Argentina. En este caso, puede crear un sitio para representar cada ubicación, una llamada Londres y la otra. Puede optar por generar automĆ”ticamente un repositorio predeterminado en cada sitio para crear una copia de seguridad local. De forma predeterminada, el asistente crea 2 sitios que representan un diseƱo simple de dos centros de datos. Si estĆ”s satisfecho con este diseƱo simple, no tienes que cambiar nada y puedes seguir con el siguiente paso.
š Paso 2
Los repositorios pueden representar un repositorio de copia de seguridad Ćŗnico o un repositorio de Scale-Out. Como esta en la imagen hemos creado 1 repositorio por sitio que permite una copia fuera del sitio.
Opcionalmente, puede configurar los datos de copia de seguridad por niveles en la nube (Object Storage) en este paso, de la manera que lo harĆa en VBR.
Los perfiles son preajustes que puedes reutilizar en las pestañas de carga de trabajo. El perfil o preajuste mÔs relevante es el perfil de retención, que le permite definir su retención para sus copias de seguridad. Al definirlo por separado, puede (re)utilizarlos al definir sus cargas de trabajo y adaptarlos rÔpidamente para simular diferentes SLA.
Consejo: Establezca su perfil principal como el perfil predeterminado en cualquiera de las pestaƱas. Cuando creas una nueva carga de trabajo, el ajuste preestablecido predeterminado se seleccionarƔ automƔticamente.
Hay 4 tipos principales
Retención: define el SLA, por lo general cargas de trabajo similares comparten el mismo SLA. Por lo general, esta es la cantidad de incrementales (diarios) + los Fulls de GFS que quieres mantener. Consulte la documentación de Veeam Backup & Replication
Ventanas de copia de seguridad: definen el tiempo mĆ”ximo que el sistema puede ocupar para hacer una copia de seguridad de una determinada carga de trabajo. Esto tiene un impacto en el tamaƱo de la CPU y la memoria. Si la ventana de copia de seguridad es mĆ”s pequeƱa para las mismas cargas de trabajo, el sistema debe hacer una copia de seguridad de mĆ”s cargas de trabajo en paralelo. Una ventana de copia de seguridad tiene 2 ajustes, incrementales y completos. Incremental es el tiempo que se suele utilizar para ejecutar una copia de seguridad. La ventana de copia de seguridad completa es la cantidad de tiempo que el sistema puede tardar en hacer una copia de seguridad completa. Por lo general, ejecutar una copia de seguridad completa es una rara opción o se puede extender a lo largo de varios dĆas con mĆŗltiples trabajos. Es por eso que, por lo general, estas ventanas son mĆ”s grandes, ya que es poco comĆŗn hacer una copia de seguridad de toda la carga de trabajo a la vez, excepto al principio
Propiedades de los datos: define cómo se comportan los datos a lo largo del tiempo. Por ejemplo, describe la tasa de cambio diario o el crecimiento anual. Las propiedades de los datos suelen compartirse entre cargas de trabajo similares.
General: Ajustes generales que se aplican en todo el tamaƱo, independientemente de las cargas de trabajo individuales.
š Paso 4
El VSE se centra en las cargas de trabajo. Las cargas de trabajo representan mĆ”quinas virtuales, mĆ”quinas fĆsicas de Windows u otros conjuntos de datos que requieren una copia de seguridad. Las cargas de trabajo son un mecanismo para agrupar ciertos tipos de conjuntos de datos. Por ejemplo, 3 mĆ”quinas virtuales SQL de cada 1 TB de tamaƱo requieren estar protegidas con un SLA similar. En este caso, se puede crear una sola carga de trabajo Ā«VM SQLĀ» de tipo VM con un tamaƱo de fuente de 3 TB e instancias o unidades establecidas en 3 (represeniendo 3 mĆ”quinas virtuales). De manera similar, si tiene 4 mĆ”quinas fĆsicas Linux, puede crear una carga de trabajo y establecer el tamaƱo de la fuente en la suma de todos los datos actualmente consumidos en el disco en estas mĆ”quinas fĆsicas. En este caso, establezca la carga de trabajo en el tipo Ā«AgenteĀ»
Las cargas de trabajo se ejecutan en servidores fĆsicos directamente (copia de seguridad basada en agentes) o virtualmente en un hipervisor. Estas mĆ”quinas fĆsicas se encuentran en una ubicación fĆsica a menudo conocida como centro de datos o sitio. Los sitios le permiten presentar esta ubicación fĆsica y asignarles las cargas de trabajo para que la herramienta de tamaƱo sepa dónde se encuentran. Le permiten agrupar las cargas de trabajo y los repositorios que documentan el diseƱo actual de un entorno de producción.
Los repositorios son repositorios de Veeam Backup & Replication en los que puede hacer una copia de seguridad de los datos de sus cargas de trabajo. Representan activos de infraestructuras fĆsicas como un servidor x64, dispositivos NAS, etc. EstĆ”n ubicados dentro de un sitio. Por lo general, las cargas de trabajo se respaldan en un repositorio local (en el mismo sitio) y se copian en un repositorio externo. Se puede configurar la copia entre sitios.
Sin embargo, esto se produce con un mayor consumo de almacenamiento en un factor potencial de 4 durante la copia de seguridad incremental. Sin embargo, según la experiencia de campo, este factor es mÔs probable que sea 2x. Esto se debe a que los sistemas de archivos modernos intentan mantener juntos los bloques de datos para el mismo archivo de una manera secuencial que mitiga el impacto de un tamaño de bloque mÔs grande.
Por Ćŗltimo, mĆŗltiples cargas de trabajo podrĆan compartir caracterĆsticas similares. Es por eso que se abstraen en los perfiles. Esto elimina las necesidades de redefinirlos una y otra vez. El perfil predeterminado se seleccionarĆ” cuando agregue una carga de trabajo, por lo que es una buena idea establecerlo como predeterminado cuando haya un perfil que cubra la mayorĆa de las cargas de trabajo.
š Paso 5 Resultados š
Aqui vemos como resultado los Cores y la Memoria RAM que necesitaran los componentes de Veeam para el entorno que hemos propuesto & la capacidad de Storage del mismo.
Espero que les haya servido !!!
Aqui Tambien les dejo como realizar estos calculos manualmente
Puede inscribir dispositivos que ejecuten cualquier distribución de Linux que se ejecute en arquitecturas x86_64, ARM5 o ARM7 en Workspace ONE UEM.
Los instaladores se crean para distribuciones y arquitecturas especĆficas. AsegĆŗrese de que estĆ” utilizando el instalador correcto para su caso de uso.
El dispositivo debe estar ejecutando System D o System V para que Hub se ejecute como un servicio del sistema.
La forma mĆ”s fĆ”cil de validar si la gestión de Linux estĆ” habilitada o no en su entorno Workspace ONE UEM es crear un nuevo perfil y comprobar si Linux es una plataforma disponible. Para ello, vaya a Recursos > Perfiles y lĆneas base > Perfiles > AƱadir > AƱadir perfil.
Si ve Linux como una plataforma disponible, similar a la siguiente captura de pantalla, su entorno SaaS se ha actualizado y puede inscribir un dispositivo Linux.
Que se podrĆ” hacer con Linux en WS1
Sampling Support en Linux
Soporte para perfiles de Wi-Fi y credenciales
Gestión del ciclo de vida del certificado de soporte
Sensores Workspace ONE para Linux
Configuración del dispositivo que utiliza código abierto de Puppet (perfil de configuración personalizado)
Mejoras de configuración personalizadas (opciones para hacer cumplir y eliminar manifiestos)
Admite gestión remota (WS1 Assist) para dispositivos Linux
Mejore y mejore la interfaz de lĆnea de comandos del Hub
š Recordemos que iran liberando muchisimas capacidades en cada realease de WS1
2. Ejecute el instalador del cliente Workspace ONE Intelligent Hub con privilegios de root.
Por ejemplo:
Para el paquete Debian en Ubuntu: $ sudo apt install Ā«/tmp/workspaceone-intelligent-hub-amd64-21.10.0.1.debĀ»
Para el paquete de RPM en Fedora: $ sudo dnf install workspaceone-intelligent-hub-amd64-21.10.0.1.rpm
Para el paquete RPM en OpenSUSE: $ sudo zypper install workspaceone-intelligent-hub-amd64-21.10.0.1.rpm
Para Tarball (cualquier otra distribución de Linux): 1. Extraiga el paquete usando: $ tar xvf workspaceone-intelligent-hub-<arch>.21.10.0.1.tgz 2. Instale el paquete usando: $ sudo ./install.sh
Nota: Al utilizar Tarball, Ruby debe instalarse manualmente antes de instalar el Intelligent Hub.
Para solicitar a los usuarios las credenciales de inscripción cuando se inscriban, ejecute ws1HubUtil sin estos argumentos adicionales. Consulte Argumentos de lĆnea de comandos admitidos para obtener mĆ”s detalles antes de intentar una inscripción.
Para desinstalar Intelligent Hub para Linux, puede enviar un comando Enterprise Wipe desde la consola WS1 UEM (para un dispositivo inscrito) o puede desinstalar manualmente el lado del dispositivo. Si el comando de desinstalación se utiliza en el lado del dispositivo inscrito, el dispositivo se cancelarÔ primero.
Para Debian: $ sudo apt eliminar workspaceone-intelligent-hub
Para RPM para Fedora: $ sudo zypper eliminar espacio de trabajoone-intelligent-hub
Para Tarball: $ sudo /opt/Workspace-ONE-Intelligent-Hub/uninstall.sh
Aumentando la resiliencia en clĆŗsteres activos-activos bare-metal: arquitectura del plano de control de 4 y 5 nodos ( versión 4.17 ⬠) Las organizaciones que ejecutan implementaciones activo-activo en dos ubicaciones , especialmente aquellas que alojan cargas de trabajo con estado, como las mĆ”quinas virtuales de OpenShift Virtualization que ejecutan una sola instancia , dependen en gran medida de la infraestructura subyacente paraā¦
Todo lo mostrado aquĆ estĆ” incluido en todas las suscripciones de OpenShift. Al migrar desde VMware, una de las primeras dudas es cómo se trasladan los conceptos de red. Este post lo explica visualmente. Figure 1: Virtual Machine Networking in OpenShift Las VMs pueden conectarse a: Interfaces soportadas: Esto permite emular redes como las de VMwareā¦
š¢ Atención #BlockChain#Fans šš Hemos estado trabajando šØāš duro desde #VMworld del aƱo pasado donde Lanzamos š #VMware #Blockchain #VMBC Ahora en el #VMworld2021 š Aprende š¤ cómo #blockchain estĆ” transformando las #industrias š y ponete al dĆa sobre las finanzas š° descentralizadas #DeFi, los #NFT y los intercambios descentralizados #DEX š³ con estas sesiones:
Hola !! les traigo una herramienta super util para todos, vSAM recopila y resume la información de implementación de productos vSphere. Requiere las API de vSphere para los datos de implementación y produce un informe en PDF que el cliente puede consultar como parte de su proceso de revisión y planificación de la infraestructura Podesā¦