Limitaciones de Veeam Disaster Recovery Orchestrator con las ofertas de VMware Cloud

Visión general

Las ofertas verificadas de VMware Cloud existen de varias formas. Este artículo https://www.veeam.com/kb4207 destaca consideraciones específicas cuando se trabaja con Veeam Disaster Recovery Orchestrator, Veeam Backup & Replication y Veeam ONE con fines de orquestación de recuperación ante desastres.

Dependiendo de la solución VMware específica del proveedor que ofrece algunas características y permisos, no estÔn disponibles. Esto puede significar que es posible restaurar una copia de seguridad o conmutación por error de una réplica, pero otras características principales de Veeam Disaster Recovery Orchestrator pueden ser limitadas o no estar disponibles. Esta situación puede cambiar a medida que las características de la siguiente tabla puedan estar disponibles en el futuro.

Se requiere una red de extremo a extremo desde el entorno de origen y destino, incluido DNS y el acceso a la misma infraestructura de Active Directory en todos los sitios. Veeam ONE debe usarse paraĀ configurar gruposĀ deĀ VM.

Descubre el Poder de Veeam Size Estimator!! šŸŽÆ

La semana pasada en el Veeam User Group de MCA LaTAM en Telegram, donde charlamos de problemas que pueden ir teniendo, o consultas varias. (Dejo por aqui el link para que unan a este grupo por Telegram) Unirse al Veeam User Group en Telegram Aqui Uno de los usuarios pregunto si existĆ­a alguna tool donde…

Mi Experiencia Como Veeam Vaguard & Veeam Legends

Les cuento un poco de mi, Soy Esteban Prieto vivo en Argentina – Buenos Aires, actualmente trabajo como System Engineer en VMware, soy Veeam Vanguard 2019/21 Class šŸ’Æ y Veeam Legend First Class 2021 šŸ‘Øā€šŸŽ“. Lo primero que descubrĆ­ siendo parte de las 2 comunidades mas importantes de tecnologĆ­a, es que el Ć©xito de cada…

VBR v11 šŸ”„ Como trabaja CDP con Retention Policies

CDP – Retention Policies Una polĆ­tica de retención define durante cuĆ”nto tiempo Veeam Backup & Replication debe almacenar los puntos de restauración para las rĆ©plicas de VM. Veeam Backup & Replication ofrece dos esquemas de polĆ­ticas de retención: Retención a largo plazo Retención a corto plazo Retención a largo plazo Veeam Backup & Replication conserva…

Mi Experiencia Como Veeam Vaguard & Veeam Legends

Les cuento un poco de mi, Soy Esteban Prieto vivo en Argentina – Buenos Aires, actualmente trabajo como System Engineer en VMware, soy Veeam Vanguard 2019/21 Class šŸ’Æ y Veeam Legend First Class 2021 šŸ‘Øā€šŸŽ“.

La imagen tiene un atributo ALT vacĆ­o; su nombre de archivo es img_4263.jpeg

Lo primero que descubrí siendo parte de las 2 comunidades mas importantes de tecnología, es que el éxito de cada una de ellas se debe a la pasión de quienes las componen, y ese es un gran diferencial. Personas que viven en distintas partes del mundo, otras culturas, todos apasionados y dispuestos a participar en las distintas actividades durante el año. Dos increíbles personas se encargan de unir a estos paises a pesar de la distancia fisica, Nikola Pejkova por parte de Veeam Vanguard y Kseniya Zvereva por parte de Veeam Legends, sumando a Rick Vanover como gran impulsor y a quien tuve el placer de conocer.

Voy a destacar mi experiencia en el aƱo 2019, en el Vanguard Summit en Praga šŸ° , donde nos reunimos todos juntos: estuvo el equipo de Veeam Product Strategy acompaƱado tambiĆ©n con miembros del equipo de R&D toda una semana en Praga junto con Vanguards de todo el mundo šŸŒŽ para compartir las Ćŗltimas actualizaciones del lanzamiento de la v10 VB&R, lo cual fue super divertido y Ā”todos lo pasamos increĆ­ble! šŸ•ŗ

Ahora desde el COVID, hacemos reuniones semanales regulares en el calendario, es la llamada Ā«Veeam Vanguard SocialĀ» šŸ¤“

La experencia del SWAG šŸŽ es fantĆ”stica y cada aƱo se superan. Se preocupan mucho por mantenernos contentos

Este aƱo se lanzó la ya exitosa y nueva comunidad de Veeam Legends šŸŽøšŸ† (https://community.veeam.com)

Aquí mantenemos conversaciones y nos brindan a los usuarios un lugar único donde podemos compartir las mejores prÔcticas, participar en Veeam User Groups, crecer como profesionales de Veeam, completando capacitaciónes gratuitas bajo demanda a través de Veeam University y divertirse, hay reconocimientos y recompensas. Los invito a todos a unirse, donde cada granito que aportan les suma puntos para convertirse en un nuevo Veeam Legends !!

En ambas comunidades nos tienen muy encuenta y podemos influir en el desarrollo de productos y soluciones de Veeam: ”tenemos un impacto real dentro de la comunidad!

En cada proyecto de nuevas versiones nos hacen parte y para el lanzamiento de la gran V11 de Veeam Backup & Replication tuvimos acceso a todos los betas, dando nuestro feedback de cada feature nuevo. Esto nos motiva aĆŗn mas para dar a conocer y promover a todos los clientes de Veeam cada mejora que obtendran.

Para finalizar agrego otros beneficios que tenemos por ser parte de los programas:

  • Una invitación al grupo privado Veeam Legends / Vanguard
  • Permiso para usar el logotipo de Veeam Legends/Vanguard en tarjetas, sitio web, etc. durante un aƱo
  • Seminarios web privados con socios de Veeam
  • Acceso a NFR, betas privadas y sesiones informativas previas al lanzamiento
  • Acceso a los equipos de productos de Veeam

Cuando hago un review de todo lo que transitƩ estos aƱos con Veeam no puedo dejar afuera a cada uno que aporto un poquito para impulsarme a llegar hasta aquƭ. Gracias a toda la oficina de Veeam Argentina, en espacial a Ailin Puy y a Sara Wilson, me hacen sentir siempre uno mas. Mi mejor experiencia es seguir conociendo personas espectaculares.

VBR v11 šŸ”„ Como trabaja CDP con Retention Policies

CDP – Retention Policies

Una política de retención define durante cuÔnto tiempo Veeam Backup & Replication debe almacenar los puntos de restauración para las réplicas de VM. Veeam Backup & Replication ofrece dos esquemas de políticas de retención:

:bulbo:Retención a largo plazo

Veeam Backup & Replication conserva los puntos de restauración a largo plazo durante el número de días especificado en la configuración de la política de CDP . Cuando se excede el período de retención, Veeam Backup & Replication transforma la cadena de replicación de la siguiente manera. El ejemplo muestra cómo funciona la retención a largo plazo para una réplica de VM con un disco virtual.

  1. Veeam Backup & Replication comprueba si la cadena de replicación contiene puntos de restauración a largo plazo obsoletos.
  2. Si existe un punto de restauración desactualizado, Veeam Backup & Replication reconstruye el archivo que contiene datos para el disco base ( <disk_name> – flat.vmdk) para incluir datos del archivo que contiene datos para el disco delta ( <disk_name> <index > .vmdk). Para hacer eso, Veeam Backup & Replication se compromete en los datos del archivo del disco base desde el archivo delta disk mĆ”s antiguo. De esta manera, el archivo del disco base ‘avanza’ en la cadena de replicación

3. Veeam Backup & Replication elimina el archivo de disco delta mƔs antiguo de la cadena como redundante; estos datos ya se han incluido en el archivo de disco base.

Políticas de retención

: triangular_flag_on_post:Retención a corto plazo

Veeam Backup & Replication conserva los puntos de restauración a corto plazo durante el número de horas especificado en la configuración de la política de CDP . Cuando se excede el período de retención, Veeam Backup & Replication transforma la cadena de replicación de la siguiente manera. El ejemplo muestra cómo funciona la retención a corto plazo para una réplica de VM con un disco virtual.

  1. Veeam Backup & Replication comprueba si la cadena de replicación contiene puntos de restauración a corto plazo obsoletos.
  2. Si existe un punto de restauración desactualizado, Veeam Backup & Replication envĆ­a los datos del punto de restauración desde el archivo de registro de transacciones (.tlog) al archivo de disco base o delta mĆ”s cercano ( <nombre_disco> – flat.vmdk o <nombre_disco> <Ć­ndice> .vmdk).
  3. Si el archivo de registro de transacciones no contiene datos para otros puntos de restauración, Veeam Backup & Replication elimina el archivo de registro de transacciones como redundante; sus datos ya se han comprometido en el archivo de disco base o delta.
NOTA
Veeam Backup & Replication puede almacenar puntos de restauración a corto plazo durante un período mÔs largo que el especificado en la política de retención a corto plazo.
Abiertas las nominaciones a Veeam Vanguard 2018! | Tecnologias Aplicadas

Overview Veeam Legends šŸ¦

Hoy tengo la felicidad que me han elegido para el programa de Veeam Legends, una gran forma de compartir ideas, dudas, y conocimiento tecnico de Veeam. Un honor seguir contribuyendo desde las dos comunidades Veeam Legends y Veeam Vanguard !!

Les doy una descripción general del programa.

QuiƩnes son Veeam Legends?

Veeam Legends son usuarios de Veeam y expertos en la industria de protección de datos que sienten pasión por la tecnología, la innovación y estÔn ansiosos por desarrollar aún mÔs su carrera, mientras comparten sus experiencias con la comunidad. Como usuarios Ôvidos de Veeam, participan en varios proyectos comunitarios, impulsan los locales de grupos de usuarios Veeam y también pueden influir en el desarrollo de productos y soluciones de Veeam: ”tienen un impacto real dentro de la comunidad! Aparte de eso, Veeam Legends siempre estÔ ansioso por ayudar a sus compañeros y conectarse con otros miembros de la comunidad.

¿Cómo me convierto en Veeam Legend?

Únase al Centro de recursos de la comunidad de Veeam y participe en los proyectos de la comunidad de Veeam: ya sea que tenga muchas ideas de productos o si es un creador de contenido fructífero , ”nuestro sistema de recompensas lo cuenta todo! RecibirÔ puntos e insignias por diferentes actividades dentro del Veeam Community Resource Hub, así que observe su perfil. Veeam Legends se anunciarÔ al final de cada año. ¿Sigues aquí? ”Anímate y comienza tu viaje ahora!

¿Qué se necesita para ser Veeam Legend?

Apreciamos a todos los colaboradores de la comunidad y realmente creemos en el poder de la comunidad. Esperamos que Veeam Legend contribuya constantemente a la comunidad técnica y siga expresando su pasión por nuestros productos con ellos para conservar su título de Veeam Legend. Los puntos se restablecen anualmente para todos los niveles, pero las insignias y rangos permanecen.

Beneficios del programa Veeam Legends:

  • Una invitación al grupo privado Veeam Legends
  • Permiso para usar el logotipo de Veeam Legends en tarjetas, sitio web, etc. durante un aƱo
  • Seminarios web privados con socios de Veeam
  • Acceso a NFR, betas privadas y sesiones informativas previas al lanzamiento
  • Acceso a los equipos de productos de Veeam
  • Destacado en un directorio en lĆ­nea pĆŗblico de Veeam Legends
  • BotĆ­n de Veeam Legends

¿Cómo puedo realizar un seguimiento de mi estado y logros?

Para realizar un seguimiento de sus logros, esté atento a su perfil: verÔ la cantidad de puntos e insignias obtenidos. La tabla de clasificación le mostrarÔ los miembros de la comunidad mÔs proactivos de todos los tiempos y semanalmente.

Descripción general del sistema de recompensas

Estos son los principios clave del sistema de recompensas de Veeam Legends:

  • El sistema de recompensas consta de puntos, insignias, rangos y clasificación.
  • Veeam Legend es una designación dentro del programa
  • Veeam Legends deberĆ­a ofrecer cierto nivel de contribución por mes para mantener el tĆ­tulo
  • Los puntos se restablecen anualmente para los niveles; Quedan insignias y rangos

Código de conducta de Veeam Legends

La comunidad es lo primero: siempre hemos puesto a la comunidad de Veeam en primer lugar en todo lo que hacemos. Nos gustaría que Veeam Legends fuera una continuación de los valores y creencias de Veeam al comportarse con respeto al interactuar con cualquier persona dentro y fuera de la comunidad.

AquĆ­ hay algunas reglas de la casa que esperamos seguir para asegurarnos de que este espacio siga siendo amigable:

  • No usar lenguaje profano, ofensivo, odioso, acosador, amenazante, violento u obsceno.
  • No se permiten comentarios discriminatorios que incluyan raza, etnia, religión, gĆ©nero, discapacidad, orientación sexual o creencias polĆ­ticas.
  • Sin spam ni ningĆŗn tipo de publicidad comercial

vSphere with Tanzu: Kubernetes de Alta Disponibilidad šŸ•¹ļø

vSphere con alta disponibilidad de Tanzu šŸ¤“

Comencemos analizando genĆ©ricamente las soluciones de nube pĆŗblica, ya que ofrecen una plantilla para proporcionar infraestructura y aislamiento de servicios crĆ­ticos. Los recursos de la nube pĆŗblica se alojan en regiones geogrĆ”ficas segmentadas en zonas de disponibilidad (AZ) que proporcionan un conjunto de servicios e infraestructura fĆ­sica aislados. Los recursos pueden ser regionales o basados ​​en AZ, sin embargo, la mayorĆ­a estĆ”n contenidos en una Ćŗnica zona de disponibilidad. Por ejemplo, los nodos de mĆ”quina virtual que componen un clĆŗster de Kubernetes podrĆ­an ser especĆ­ficos de AZ y solo podrĆ­an adjuntar un volumen persistente que estuviera en la misma zona. Las direcciones IP estĆ”ticas o las imĆ”genes de VM pueden ser regionales y estar disponibles en todas las zonas. Las AZ proporcionan una capa de abstracción sobre la infraestructura fĆ­sica que las respalda. Esa infraestructura estĆ” diseƱada para garantizar el aislamiento de la mayorĆ­a de las fallas de infraestructura fĆ­sica y de software. La mayorĆ­a de las AZ estĆ”n diseƱadas con sus propios planos de energĆ­a, refrigeración, redes y control aislados de otras zonas.

Los recursos de vSphere se alojan en una infraestructura física que se puede aislar en vSphere Clusters y administrar mediante vCenter. A efectos de comparación con la nube pública, podemos pensar en un clúster de vSphere como una zona de disponibilidad (AZ). Los hosts ESXi se agrupan en racks de centros de datos físicos, conectados entre sí, y a otros racks, a través de una serie de conmutadores de red. Las organizaciones toman decisiones sobre si alinear los racks con los clústeres de vSphere o distribuir los hosts de un clúster entre los racks. El mapeo uno a uno entre clústeres y racks proporciona aislamiento y comunicación de baja latencia entre las aplicaciones que se ejecutan en el clúster, a expensas de la disponibilidad en el caso de una conmutación fallida.

vSphere with Tanzu actualmente admite la implementación de clústeres de Supervisor y Tanzu Kubernetes Grid (TKG) en un solo clúster de vSphere. Piense en esto como una implementación de una sola zona de disponibilidad. Una implementación de una sola zona de disponibilidad no significa que no haya alta disponibilidad. Como se describe a continuación, vSphere proporciona un conjunto de capacidades para promover la disponibilidad de los clústeres de Tanzu Kubernetes Grid (TKG) que se ejecutan en una sola AZ.

Veamos la capacidad en la plataforma que admite alta disponibilidad, luego definamos un conjunto de escenarios de falla dentro de una implementación de vSphere con Tanzu y analicemos los enfoques para aumentar la disponibilidad.

Plano de control de mĆŗltiples nodos de clĆŗster con host Anti-Affinity y HA

Supervisor Cluster proporciona la API de Kubernetes para implementar los clĆŗsteres de vSphere Pods y TKG. Es un servicio del sistema que debe estar disponible para la operación de clĆŗsteres y servicios de TKG implementados como operadores de Kubernetes. Para garantizar la disponibilidad, hemos implementado una configuración de varios controladores. Tanto el supervisor como los controladores de clĆŗster de TKG estĆ”n configurados en una implementación apilada con el servidor Kube-API y etcd disponibles en cada mĆ”quina virtual. Cada plano de control tiene un balanceador de carga que enruta el trĆ”fico a las API de Kube en cada nodo del controlador. La programación de los nodos del plano de control se realiza a travĆ©s de vSphere 7.0 VMware vSphereĀ® Distributed Resource Scheduler ā„¢ (DRS). vSphere 7.0 DRS es mĆ”s rĆ”pido y liviano, lo que garantiza una ubicación rĆ”pida entre los hosts, utilizando una polĆ­tica de computación suave de antiafinidad para separar los controladores en hosts separados cuando sea posible. La antiafinidad garantiza que una sola falla del controlador no afecte la disponibilidad del clĆŗster.

AdemÔs, vSphere HA proporciona alta disponibilidad para los controladores fallidos al monitorear los eventos de falla y volver a encender las mÔquinas virtuales. En caso de falla del host, las VM, tanto los nodos Supervisor como TKG, se reinician en otro host disponible, lo que reduce drÔsticamente el tiempo que el clúster aún disponible se ejecuta con capacidad disminuida. Los Supervisor Controllers son administrados por el ciclo de vida de vSphere Agent Manager (EAM) y los administradores no pueden apagarlos fÔcilmente; sin embargo, si se apagan, se reiniciarÔn inmediatamente en el mismo host.

Pods y Daemons del sistema de clĆŗsteres

Systemd es el sistema de inicio para la distribución de PhotonOS linux que alimenta los nodos Supervisor y TKG Cluster. Systemd proporciona supervisión de procesos y reiniciarÔ automÔticamente cualquier daemons fallido crítico, como el kubelet de Kubernetes.

Los pods del sistema de Kubernetes, los pods de recursos personalizados de VMware y los controladores se implementan como conjuntos de rĆ©plicas (o DaemonSets en el contexto de los clĆŗsteres de TKG) supervisados ​​por otros controladores de Kubernetes y los contenedores los volverĆ”n a crear en caso de falla. Los procesos y pods que componen los clĆŗsteres Supervisor y TKG se implementan con mayor frecuencia con mĆŗltiples rĆ©plicas, por lo que continĆŗan estando disponibles incluso durante la reconciliación de un Pod fallido. La implementación en tĆ©rminos del uso de DaemonSets vs ReplicaSets es diferente entre los clĆŗsteres de Supervisor y TKG, pero la disponibilidad de los pods del sistema individuales es similar

Supervisor y equilibrador de carga del controlador de clĆŗster TKG

Como se mencionó anteriormente, los clĆŗsteres de supervisor y TKG se implementan como un conjunto de tres controladores. En el caso de los clĆŗsteres de TKG, los desarrolladores pueden elegir una implementación de un solo controlador si los recursos estĆ”n limitados. El acceso a kube-api se dirige a una IP virtual de Load Balancer y se distribuye entre los puntos finales de API disponibles. La pĆ©rdida de un nodo del plano de control no afecta la disponibilidad del clĆŗster. Los balanceadores de carga basados ​​en NSX se ejecutan en nodos perimetrales que se pueden implementar en una configuración activa / activa, lo que garantiza la disponibilidad de la IP virtual que los desarrolladores usarĆ”n para acceder a los clĆŗsteres.

Disponibilidad de almacenamiento en clĆŗster 

Los clientes tienen la opción de habilitar VMware vSAN para proporcionar almacenamiento compartido de alta disponibilidad para los clústeres de Supervisor y TKG. vSAN combina el almacenamiento que es local para los hosts en una matriz de almacenamiento virtual que se puede configurar con las necesidades de redundancia del entorno. Los niveles de RAID se implementan en todos los hosts y brindan disponibilidad en los casos en que fallan los hosts individuales. vSAN es nativo del hipervisor ESXi y, por lo tanto, no se ejecuta como un conjunto de dispositivos de almacenamiento que podrían competir con las VM del clúster de Kubernetes por los recursos.

Disponibilidad de vSphere Pods

Los clientes que necesitan el aislamiento de una mÔquina virtual desde una perspectiva de seguridad y rendimiento, mientras desean orquestar la carga de trabajo a través de Kubernetes, pueden elegir vSphere Pods. Los operadores del sistema y de terceros también se pueden implementar como pods de vSphere. Se ejecutan en una mÔquina virtual en tiempo de ejecución de contenedor directamente en hosts ESXi y se comportan como cualquier otro pod. La disponibilidad se administra a través de objetos estÔndar de Kubernetes y sigue el patrón de Kubernetes para manejar fallas de pod. Cree una implementación con varias réplicas definidas y el controlador observarÔ los pods fallidos y los volverÔ a crear. Las fallas de host harían que los vSphere Pods se volvieran a crear en nuevos hosts. Este patrón no usa vSphere HA, sino que aprovecha los controladores de Kubernetes para manejar fallas.

Escenarios de falla de infraestructura y software

Analizamos la capacidad central dentro de la plataforma y ahora definiremos un conjunto de escenarios de falla dentro de una implementación de vSphere con Tanzu, luego analizaremos los enfoques para aumentar la disponibilidad en cada escenario.

Fallo del componente del clĆŗster de Kubernetes

  • Fallo del proceso del nodo de Kubernetes
  • Fallo del pod del sistema de Kubernetes
  • MĆ”quina virtual apagada

Cuando un controlador o un nodo trabajador deja de estar disponible, los pods del sistema se volverÔn a crear en uno de los otros nodos disponibles. Los procesos fallidos de Linux son monitoreados y reiniciados por el sistema de inicio systemd. Esto es cierto tanto para el plano de control de TKG como para los nodos de trabajo, así como para el plano de control del supervisor. Los nodos Supervisor Worker son hosts ESXi reales, no ejecutan systemd y manejan las fallas del proceso de manera diferente. Las mÔquinas virtuales que se apagan se reinician automÔticamente. El plano de control se implementa como un conjunto de 3 controladores, con una IP virtual de Load Balancer como el punto final de Kube-API para garantizar que durante el tiempo necesario para remediar la interrupción, el clúster todavía esté disponible. La corrección de los nodos de trabajo de TKG se maneja mediante el uso integrado de la capacidad MachineHeatlhCheck en ClusterAPI V1Alpha3.

Interrupción del host

  • Error de host
  • Reinicio del host

La falta de disponibilidad de un host ESXi puede deberse a un breve reinicio o podría estar relacionada con una falla real del hardware. Al reiniciar, todas las VM del controlador y del nodo se reinician automÔticamente en el host. Si el reinicio tarda mÔs que el umbral de tiempo de espera de latido de HA, las VM se programan para su ubicación en otros hosts disponibles y se encienden. Las reglas de antiafinidad se mantendrÔn si los recursos lo permiten. En cualquier caso, los clústeres todavía estÔn disponibles porque tienen varios nodos de controlador ubicados en hosts ESXi separados y se accede a ellos a través de un equilibrador de carga y pueden sobrevivir a la pérdida de un controlador.

Interrupción del estante

  • Fallo del interruptor de la parte superior del bastidor

Los hosts estÔn organizados en racks físicos en el centro de datos. Los hosts en un rack se conectan a través de un conmutador Top of Rack y ademÔs se conectan a conmutadores de agregación adicionales. La pérdida de un conmutador, matriz de almacenamiento o alimentación podría hacer que un rack completo no esté disponible. La disponibilidad de un supervisor o clúster TKG depende de cómo se alinean los hosts con los racks. Algunos clientes colocarÔn todos los hosts en un clúster de vSphere en el mismo rack, lo que esencialmente harÔ que ese rack físico sea una zona de disponibilidad (AZ). La falla del bastidor haría que el Supervisor Cluster y todos los clústeres TKG no estuvieran disponibles. Otra opción es crear clústeres de vSphere a partir de hosts que residen en varios racks. Esta configuración garantiza que una sola falla de bastidor no haga que todos los hosts de vSphere Cluster no estén disponibles y aumenta la probabilidad de que el plano de control permanezca disponible.

Actualmente, el Programador de recursos distribuidos (DRS) no reconoce el bastidor. Esto significa que las reglas de antiafinidad para las mÔquinas virtuales del plano de control garantizarían la separación de hosts, pero no necesariamente garantizarían que los hosts estuvieran en racks separados. Se estÔ trabajando para proporcionar una programación basada en rack que mejoraría esta disponibilidad.

Fallo de la matriz de almacenamiento

Los clústeres de supervisor y TKG requieren almacenamiento compartido para permitir que los volúmenes persistentes sean accesibles a los pods que se pueden colocar en cualquier nodo, que podría residir en cualquier host. Tanto vSAN como los arreglos de almacenamiento tradicionales admiten varias configuraciones RAID que garantizan la disponibilidad de datos en caso de corrupción de discos individuales. vSAN agrega almacenamiento local adjunto a hosts físicos y también puede permanecer disponible si se produce una falla de host o incluso potencialmente de un rack.

Los clústeres extensibles de vSAN también brindarÔn la capacidad de dividir un único clúster de vSphere en dominios de fallas específicos de almacenamiento separados. Esto permitiría la disponibilidad de datos incluso con la pérdida de todo el dominio. Con hosts físicos distribuidos en varios racks, los volúmenes persistentes permanecerían disponibles durante las fallas tanto del host como del rack.

Falla de red

  • Fallo de NSX Edge

La redundancia física estÔ integrada en la mayoría de los entornos de red de producción que brindan disponibilidad a través de fallas de hardware físico. Cuando se implementan con NSX-T, los clústeres Supervisor y TKG se ejecutan en redes superpuestas que son compatibles con la red física subyacente. Las VM de NSX Edge contienen los Vips de Load Balancer y enrutan el trÔfico a los nodos del plano de control del clúster. NSX Edges se puede implementar en una configuración activa / activa que mantendría la red disponible en el caso de una falla del host o de la mÔquina virtual que afectó a un solo NSX Edge.

Interrupción de vCenter

La disponibilidad de vCenter Server es fundamental para el funcionamiento completamente funcional de los clústeres de Supervisor y TKG. En el caso de una falla de vCenter, todas las mÔquinas virtuales, tanto el controlador como los nodos, continuarÔn ejecutÔndose y serÔn accesibles aunque con funcionalidad degradada. Los módulos de aplicaciones seguirían ejecutÔndose, pero la implementación y la gestión del sistema serían limitadas. La autenticación requiere que el servicio de inicio de sesión único devuelva un token de autenticación al archivo de configuración de kubectl. Solo los usuarios que tengan un token no vencido podrÔn acceder al sistema. Objetos como Load Balancers y PersistentVolumeClaims requieren interacción con vCenter y no se pueden administrar durante el ciclo de vida.

vCenter se puede proteger con vCenter High Availability. vCenter High Availability (vCenter HA) protege no solo contra fallas de hardware y host, sino tambiĆ©n contra  vCenter Server  fallas de aplicaciones de . Al utilizar la conmutación por error automatizada de activo a pasivo, vCenter HA admite alta disponibilidad con un tiempo de inactividad mĆ­nimo. Esto aumentarĆ­a drĆ”sticamente la disponibilidad de los grupos Supervisor y TKG.

Hay un trabajo extenso en proceso para desacoplar los servicios principales de vCenter Server y llevarlos al nivel del clúster. El objetivo es proporcionar siempre una infraestructura que continúe funcionando incluso cuando vCenter tiene una interrupción

ĀæOpenShift se volvió loco? šŸ’£ Presentamos la arquitectura del plano de control de 4 y 5 nodos de OpenShift

Aumentando la resiliencia en clĆŗsteres activos-activos bare-metal: arquitectura del plano de control de 4 y 5 nodos (  versión 4.17 ⬆ ) Las organizaciones que ejecutan implementaciones activo-activo en dos ubicaciones , especialmente aquellas que alojan cargas de trabajo con estado, como las mĆ”quinas virtuales de OpenShift Virtualization que ejecutan una sola instancia , dependen en gran medida de la infraestructura subyacente para…

🧠 Mapeo de Redes de VMware — De vSphere a OpenShift Virtualization

Todo lo mostrado aquĆ­ estĆ” incluido en todas las suscripciones de OpenShift. Al migrar desde VMware, una de las primeras dudas es cómo se trasladan los conceptos de red. Este post lo explica visualmente. Figure 1: Virtual Machine Networking in OpenShift Las VMs pueden conectarse a: Interfaces soportadas: Esto permite emular redes como las de VMware…

Tape šŸ“¼ Improvements – VBR v11 šŸ”„

Cuando pensĆ© que la cinta se habĆ­a olvidado :gritar:… Veeam nos trae estas mejoras que creo que son excelentes! : nerd:

Tape šŸ“¼ Mejoras

:circulo rojo:Ā Tape Cloning !!!

  • Nos permite migrar de LTO antiguo a generaciones de cintas mĆ”s nuevas
  • Copia adicional por razones de seguridad
  • Puede copiar de un drive a otra a travĆ©s del Tape Server
  • Puede modificar la base de datos y vincular Backups antiguos con Tapes nuevos
  • Puede conservar el enlace para Tapes antiguos
  • Las partes del archivo se detectan y solicitan Tape adicional

: mano_alzada:Ā Nota:

Veeam puede clonar todas las cintas de Veeam (B2T, F2T, NDMP), Veeam no puede hacerlo para cintas de terceros.

: diamantes: Lo que necesitas saber : escribiendo_mano:

  • Requiere al menos dos Drives
  • Si existen varias copias, Restore selecciona automĆ”ticamente la cintas necesarias
  • Sin Scheduler (use PowerShell)
  • Un Media Pool solo permite una generación LTO

Veeam Backup & Replication v11 šŸ¤“ New Linux🐧 Backup Proxy Modes

Linux Backup Proxy Mejorados

Los clientes buscan utilizar mƔs Linux !

Antes solo podĆ­amos utilizar el modo de transporte HotAdd

Las mejoras son en modos de transporte son:

  • Network Mode (NBD)
  • Direct SAN (NFS,iSCSI and FC)
  • Backup from storage snapshot (iSCSI, FC)

šŸ“Œ Nos quedarĆ­a el siguiente escenario

🐧 Las Mejoras de HotAdd

  • Soporte de lectura Asincrónica
  • Los mismo que se hacemos para Windows con la Ā«Busqueda de datos avanzadaĀ»

āœ‹ Limitaciones

  • No soporta snapshot storage para NFS
  • No soporta Veeam Agent para WINDOWS backup from Storage snapshots

Espero que este Post los tenga contando los dĆ­as para la nueva v11 de Veeam !!

ĀæCómo medir CPU Ready en OpenShift Virtualization? šŸš€šŸ¤“

Todos los que administramos VMware sabemos de lo que hablamos cuando nombramos CPU Ready (%RDY) como MĆ©trica de Rendimiento, entonces explicare que es, y como se mide en Openshift Virtualization.   ĀæQuĆ© es CPU Ready? El tĆ©rmino ā€œCPU Readyā€ puede dar lugar a malentendidos. Se podrĆ­a pensar que representa la cantidad de CPU lista para ser…

Performance Best Practices for VMware vSphere 8.0 Update 2 šŸš€

Buenas a todos, les dejo por aqui elĀ šŸŽ de este super Book que nos trae todas las buenas practicas de Performance enĀ vSphere 8.0 U2. Download AquĆ­Ā Book Este libro consta de los siguientes capĆ­tulos: Audiencia Prevista: Este libro estĆ” dirigido a administradores de sistemas que estĆ©n planificando una implementación de VMware vSphere 8.0 Actualización 2 y…

vSphere Software Asset Management Tool šŸ› ļøšŸŖ›

Hola !! les traigo una herramienta super util para todos, vSAM recopila y resume la información de implementación de productos vSphere. Requiere las API de vSphere para los datos de implementación y produce un informe en PDF que el cliente puede consultar como parte de su proceso de revisión y planificación de la infraestructura Podes…

Veeam Networking Port Tool para VBR v10

Continuamos explorando este poderoso  :borrar:sitio  : point_right:  «Veeam Architects Site»

En este tema, le mostrarĆ© cómo usar esta herramienta  :llave inglesa: Veeam Networking Port Tool para VBR v10

:altoparlante:Descargo de responsabilidad
Esta herramienta utiliza los datos mÔs recientes de la Guía del usuario de Veeam. Recomendamos a los usuarios que verifiquen los resultados con la guía del usuario, consulten a un ingeniero de sistemas o arquitecto de soluciones de Veeam. Los números de puertos cambian, no podemos responsabilizarnos por ningún cambio dentro del software de Veeam que se haya realizado después de la fecha que se muestra a continuación. 
Esta designación de puerto es correcta a partir de agosto de 2020

Esta herramienta fue desarrollada para simplificar la identificación de puertos requeridos por el software Veeam. Estos deben estar operativos en su firewall entre cada componente de la infraestructura de Veeam Backup and Replication cuando elija usarlos

:avance rÔpido:Cómo utilizar esta herramienta

PrepÔrate . Sepa qué servidores planea usar en el diseño y qué desea hacer con ellos, por ejemplo, tenga una lista de nombres de servidor, direcciones IP y qué roles de Veeam que le gustaría usar en cada servidor. Desde el punto de vista de la seguridad, en realidad no necesitamos conocer los nombres reales, puede crear una lista de nombres de servidor que podría ser del 1 al 100 siempre que sepa lo que representan en su diseño, lo mismo para las direcciones IP, no hay datos almacenados con esta herramienta. Todo estÔ en la caché de su navegador únicamente.

:avance rƔpido: Pasos y pƔginas

Paso 1.  Operaciones

Seleccione las operaciones que desea realizar dentro de la infraestructura de Veeam. 

Seleccione cada operación y cree una lista de cada opción en esta pÔgina, siga cada paso a medida que se desarrolla y una vez que aparezca «Agregar a la lista», estarÔ completo. Puede haber muchas opciones para cada operación, así que lea cada opción con atención. Si desea agregar varias opciones similares, agregue cada una por separado, en cualquier momento puede volver a esta pÔgina y agregar operaciones adicionales, la herramienta es dinÔmica.

No olvide presionar  Ā«EnviarĀ» .

Paso 2.  Infraestructura

La pÔgina de Infraestructura ofrece los roles de componentes de infraestructura de Veeam que desea agregar, como Proxy, Repositorios, Hipervisor u opciones de almacenamiento. Agregue cada componente según sea necesario para crear las opciones necesarias para el diseño. Continúe agregando cada opción hasta que tenga una lista completa de las opciones que necesitarÔ. En este ejemplo, elijo Hypervisor 

y agreguƩ un vCenter como Infra del Hypervisor

y elegimos un proxy para estas operaciones.

:avance rƔpido: Servers

Hay dos pasos en esta pƔgina.

   Parte superior de la pĆ”gina Ā«Asignación de funcionesĀ» enumera los servidores que ha agregado y las funciones asignadas que se les asignaron.

   Paso 3.  Agregar servidores 
   Paso 4.  Asignar roles a servidores

Cuando seleccionamos las operaciones, la infraestructura con sus opciones, necesitamos poder asignarlas a los servidores para que podamos comprender cómo encajan.

Paso 3 . Agregar servidores

Esta es la entrada de nuestros nombres de servidor y direcciones IP reales que planeamos usar, lo que es importante con las direcciones IP son solo los conceptos bĆ”sicos de las mismas subredes. 
Con esta lista, asignaremos los roles de Veeam a cada servidor, por lo que debe ser completo. Mire hacia abajo a la sección de roles del mapa y podrĆ” ver quĆ© roles estĆ”n disponibles. 
También serÔ necesario acceder a un servidor de autenticación, por lo que también serÔ necesario agregarlo para la función asignada.

Paso 4.  Asignación de roles

En este punto tenemos roles y hemos agregado servidores, ahora necesitamos agregar cada rol a un servidor designado. usando el cuadro desplegable al lado de un rol en particular, puede elegir un servidor de la lista, una vez seleccionado el  Ā«MAPAĀ» El botón se resaltarĆ” y puede presionarlo para asignar ese rol a ese servidor en la pĆ”gina, la asignación de roles en la parte superior de la pĆ”gina cambiarĆ” para reflejar que el servidor ahora tiene asignado el rol. Los servidores pueden tener mĆŗltiples roles y usted puede asignar el mismo servidor a otros roles para reflejar su diseƱo con precisión. Si ve un rol que no usarĆ” pero que se agregó automĆ”ticamente como Ā«EM ServerĀ» (Administrador corporativo), puede presionar ignorar y el rol se eliminarĆ” por completo (esto es irreversible actualmente). Una vez que haya verificado que todos los roles estĆ”n asignados correctamente a los servidores, puede enviar las opciones a la configuración.

:avance rƔpido: Resultado

Tienes todos los puertos que usarƔs en estas operaciones y puedes exportar a XLS

Primeros Pasos Con vSphere+ šŸ’Æ

Ventajas y CaracterĆ­sticas Entonces que va a pasar si tengo la oferta de vSphere+ ???? Voy a poder tener en el OnPrem (DC & Sitios Remotos) todos los vCenters que necesite sin tener que licenciarlos. vSphere+ aƱade valor a la infraestructura virtual existente, local y de varias maneras: Paso 1 – Crear una cuenta y…

Workspace ONE UEM for Linux 🐧Endpoints šŸ‘‰ Parte 1

Requisitos del dispositivo šŸ“± šŸ§šŸ’» Linux Puede inscribir dispositivos que ejecuten cualquier distribución de Linux que se ejecute en arquitecturas x86_64, ARM5 o ARM7 en Workspace ONE UEM. Los instaladores se crean para distribuciones y arquitecturas especĆ­ficas. AsegĆŗrese de que estĆ” utilizando el instalador correcto para su caso de uso. El dispositivo debe estar ejecutando…

VMware šŸ¤“ Blockchain en VMworld 2021šŸŒ

šŸ“¢ Atención #BlockChain#Fans šŸ‘€šŸ‘‡Hemos estado trabajando šŸ‘Øā€šŸ­ duro desde #VMworld del aƱo pasado donde Lanzamos šŸš€ #VMware #Blockchain #VMBCAhora en el #VMworld2021 šŸŒAprende šŸ¤“ cómo #blockchain estĆ” transformando las #industrias šŸ­ y ponete al dĆ­a sobre las finanzas šŸ’° descentralizadas #DeFi, los #NFT y los intercambios descentralizados #DEX šŸ’³ con estas sesiones: šŸ“Œ Sesión VI1553: ObtĆ©n una comprensión mĆ”s profunda de #DeFi šŸ’° y cómo funciona un #DEX šŸ’³ . Nos sumergiremos en los detalles tĆ©cnicos…

Veeam Backup Repository Design šŸ”„

En este tema veremos sobre el diseƱo del repositorio.

Necesitamos considerar 

  • La recomendación clave es seguir laĀ Ā reglaĀ 3Ā -2-1Ā .
  • Calcule 1 nĆŗcleo y 4 GB de RAM por repository task slot.Ā El mĆ­nimo recomendado para un repositorio es de 2 nĆŗcleos y 8 GB de RAM.

Dimensionamiento  : nerd:

  • La cantidad recomendada de CPU para un repositorio es de 1 nĆŗcleo por ranura de tarea configurada concurrente en un servidor de repositorio. Configure como mĆ­nimo un servidor de repositorio de 2 nĆŗcleos y 8 GB de RAM para permitir que el sistema operativo responda mejor.
  • Al dimensionar los espacios de tareas en un repositorio, debe comprender cuĆ”ndo y cuĆ”ntos espacios de tareas se consumen. Cualquier proceso de escritura consumirĆ” un espacio de tarea. Por lo tanto, hacer una copia de seguridad de 10 mĆ”quinas virtuales en un trabajo utilizando cadenas de copia de seguridad por trabajo solo escribirĆ” un archivo (VBK / VIB) al final, por lo que consume una ranura de tarea.
  • Ejecutar el mismo trabajo de respaldo con archivos de respaldo por VM crearĆ” un archivo por VM y, por lo tanto, puede aprovechar hasta 10 ranuras de tareas (cuando estĆ©n disponibles).
  • Los trabajos de copia de respaldo, los respaldos de agentes y los trabajos de complementos tambiĆ©n consumen espacios de tareas y deben tenerse en cuenta.
:chincheta:

Una tarea en el nivel de repositorio se consume de manera diferente que las tareas en el nivel de proxy. Si los Ā«archivos de respaldo por VMĀ» estĆ”n  habilitados  en el repositorio, cada VM procesada simultĆ”neamente consumirĆ” una tarea de repositorio, mientras que cada disco virtual de esta VM consumirĆ” una tarea de proxy (la proporción tĆ­pica es de 3 discos por VM)

:chincheta:

Si los Ā«archivos de copia de seguridad por mĆ”quina virtualĀ» estĆ”n  deshabilitados , una sola tarea de copia de seguridad consumirĆ” solo una tarea de repositorio, independientemente de la cantidad de mĆ”quinas virtuales que estĆ© procesando la tarea. Pero la cantidad de tareas de proxy consumidas seguirĆ” siendo la misma (una tarea por cada disco virtual).

Ejemplo :guiño:

Si el requisito principal para el proxy es 16 nĆŗcleos para el incremental, los nĆŗcleos para el repositorio serĆ”n 5 segĆŗn una proporción de disco a mĆ”quina virtual de 3: 1(redondeado). Para calcular la RAM, esto se multiplica por el requisito de RAM de 4 GB por nĆŗcleo, lo que da como resultado 20 GB.

Cuando el resultado de su cĆ”lculo sea un servidor (virtual) muy pequeƱo, considere recursos adicionales para la sobrecarga del sistema operativo (1 Core / 4GB RAM adicional deberĆ­a ser suficiente). Normalmente, los tamaƱos tienden a ser de un mĆ­nimo de 4 nĆŗcleos / 16 GB para servidores virtuales o servidores fĆ­sicos con> 10 nĆŗcleos y 64 GB de RAM donde de todos modos hay suficientes recursos disponibles para el sistema operativo.

¿Qué pasa con ReFS? :pensando:

Al usar el sistema de archivos Windows ReFS, la recomendación es agregar 0.5 GB de RAM por TB de almacenamiento ReFS. Sin embargo, no tiene que escalar esto indefinidamente. 128 GB de RAM suelen ser suficientes para los requisitos de tareas, SO y ReFS si el tamaƱo total del volumen de ReFS del servidor es inferior a ~ 200 TB. SegĆŗn el tamaƱo de ReFS o los requisitos de la tarea, es posible que desee agregar mĆ”s memoria, pero no deberĆ­a ser necesario superar los 256 GB.

: point_right:Ā Espero te sea de utilidadĀ 

Hacer diseƱos de Veeam online šŸ“

Muchas veces he tenido que hacer diseƱos de Veeam y este sitio en lĆ­nea http://www.draw.io/  me ha ayudado mĆ”s de una vez.

Tiene shapes de Veeam – VMware y muchas otros shapes que le ayudarĆ”n a hacer lo que necesite.

: triangular_flag_on_post: Podemos importar desde estas opciones

: triangular_flag_on_post: Exportar en muchos formatos

: triangular_flag_on_post: O guĆ”rdalo

Espero que que esta tool online les sea de mucha ayuda !!

Limitaciones de Veeam Disaster Recovery Orchestrator con las ofertas de VMware Cloud

Visión general Las ofertas verificadas de VMware Cloud existen de varias formas. Este artĆ­culo https://www.veeam.com/kb4207 destaca consideraciones especĆ­ficas cuando se trabaja con Veeam Disaster Recovery Orchestrator, Veeam Backup & Replication y Veeam ONE con fines de orquestación de recuperación ante desastres. Dependiendo de la solución VMware especĆ­fica del proveedor que ofrece algunas caracterĆ­sticas y permisos,…

Overview Veeam Legends šŸ¦

Hoy tengo la felicidad que me han elegido para el programa de Veeam Legends, una gran forma de compartir ideas, dudas, y conocimiento tecnico de Veeam. Un honor seguir contribuyendo desde las dos comunidades Veeam Legends y Veeam Vanguard !! Les doy una descripción general del programa. QuiĆ©nes son Veeam Legends? Veeam Legends son usuarios…

vSphere with Tanzu: Kubernetes de Alta Disponibilidad šŸ•¹ļø

vSphere con alta disponibilidad de Tanzu šŸ¤“ Comencemos analizando genĆ©ricamente las soluciones de nube pĆŗblica, ya que ofrecen una plantilla para proporcionar infraestructura y aislamiento de servicios crĆ­ticos. Los recursos de la nube pĆŗblica se alojan en regiones geogrĆ”ficas segmentadas en zonas de disponibilidad (AZ) que proporcionan un conjunto de servicios e infraestructura fĆ­sica aislados.…

Tape šŸ“¼ Improvements – VBR v11 šŸ”„

Cuando pensĆ© que la cinta se habĆ­a olvidado … Veeam nos trae estas mejoras que creo que son excelentes!  Tape šŸ“¼ Mejoras Ā Tape Cloning !!! Nos permite migrar de LTO antiguo a generaciones de cintas mĆ”s nuevas Copia adicional por razones de seguridad Puede copiar de un drive a otra a travĆ©s del Tape Server Puede…

Veeam Backup & Replication v11 šŸ¤“ New Linux🐧 Backup Proxy Modes

Linux Backup Proxy Mejorados Los clientes buscan utilizar mĆ”s Linux ! Antes solo podĆ­amos utilizar el modo de transporte HotAdd Las mejoras son en modos de transporte son: Network Mode (NBD) Direct SAN (NFS,iSCSI and FC) Backup from storage snapshot (iSCSI, FC) šŸ“Œ Nos quedarĆ­a el siguiente escenario 🐧 Las Mejoras de HotAdd Soporte de…

Veeam Networking Port Tool para VBR v10

Continuamos explorando este poderosoĀ Ā sitioĀ Ā Ā Ā Ā«Veeam Architects SiteĀ» En este tema, le mostrarĆ© cómo usar esta herramienta   Veeam Networking Port Tool para VBR v10 Descargo de responsabilidadEsta herramienta utiliza los datos mĆ”s recientes de la GuĆ­a del usuario de Veeam.Ā Recomendamos a los usuarios que verifiquen los resultados con la guĆ­a del usuario, consulten a un ingeniero de sistemas…