lunes, 17 de marzo de 2025

Montando Holodeck para pruebas con VCF

Con Holodeck hay mucha tela que cortar, así que este artículo puede quedar un poquito más denso de lo habitual, de manera que si estás leyendo estas líneas, te pido paciencia, porque trataré que merezca la pena.


Lo primero de todo...¿qué es Holodeck? 

Holodeck es una herramienta relativamente nueva de VMware, no puedo darte la fecha exacta, pero la primera vez que escuché hablar de ello fue por 2023. Entonces iban por la versión 1.2, y no he encontrado versiones más antiguas, así que no debo ir desencaminado. Hoy día han avanzado muy rápido en su desarrollo, y van por la versión 5.2 con ESXi 8.03 en los despliegues.

Básicamente, Holodeck te despliega un VMware Cloud Foundation (VCF) anidado en un ESXi. Teniendo en cuenta que para un despliegue funcional de VCF requieres mínimo de 4 host sobre los que se instalará la infraestructura de la solución, lo que se conoce como "management domain", que para un laboratorio de pruebas "nested" sólo te consuma un ESXi, es una maravilla. Obviamente no rendirá como una solución de producción, pero para realizar pruebas y familiarizarte con este nuevo entorno de VMware, es perfecto.

Como indicaba anteriormente, Holodeck comenzó con la version 1.2, pero ahora mismo puedes descargarte 3 versiones distintas, la 2.0 con soporte para VCF 4.5 hasta 5.0, la 5.1.1 con soporte para VCF 5.1.1 y la 5.2, con soporte para VCF 5.2 y 5.2.1. En líneas generales, si tienes un ESXi 7.0x, yo me descargaría la última versión.

¿Cómo se despliega?

El despliegue de Holodeck realmente no es complicado. De hecho, las últimas instrucciones están muy bien explicadas, de manera que siguiendo al pie de la letra el manual, es fácil. 

Puedes encontrar el manual de instalación AQUI.

Resumiéndolo mucho, todo consiste en los siguientes pasos:

  1. Preparar una Custom ISO para el despliegue de la Holo Console
  2. Una pequeña configuración de redes en el ESXi sobre el que vas a desplegar la solución
  3. Instalación del Holo Router
  4. Montaje de la Holo Console con la ISO del paso 1.
  5. Una vez montada la Holo Console, lanzamos el despliegue del entorno, con VLCGui, o con linea de comandos.

Después, es sólo sentarse y mirar como la automatización del proceso hace su magia.

VMware lo resume en 4 pasos, como ves en la siguiente imagen,

Pero he preferido indicarlo en 5, porque es mejor tener desplegado el Holo Router antes de montar la Holo Console con la Custom ISO

Para simplificar más las cosas, si vuelves a desplegar Holodeck de nuevo, porque quieres realizar cambios, montarte un Workload Domain en el proceso que no hiciste la primera vez, lo que sea, el proceso de creación de la Custom ISO es algo que no tendrás que repetir.

Si me apuras, tampoco el despliegue del Holo Router, si ha eliminado un despliegue previo, pero eso es otra historia...

Me voy al último paso: una vez arrancada la Holo Console, lanzaremos el VLCGui, la interfaz gráfica para la creación del entorno. Solo hay que seguir las indicaciones del manual, pero veremos esto:

Básicamente le indicamos el json para montar el lab, le decimos donde está la OVA de cloudbuilder que nos descargamos para preparar la Custom Iso con la que se ha creado la Holo Console, le decimos si queremos hosts adicionales para workload domain, y por supuesto en el apartado de la derecha de la ventana, le pasamos los datos de conexión al host físico sobre el que va a desplegar el laboratorio.

Ahora, un poco más en profundidad...

Para desplegar holodeck vamos a necesitar descargar una serie de componentes y modificar el script de creación de la custom ISO en base a los componentes descargados. Como siempre, es fácil y viene todo detallado en el manual, pero es importante tener en cuenta un detalle tonto: todas las rutas están para un SO en inglés. Así que mi consejo, ya que tarde o temprano tendrás que mover todo al ESXI es... móntate una VM con el Windows Server 2019 EN-US que tienes que descargarte, y sobre ella, vas descargando todos los elementos necesarios para la creación de la custom ISO. 

La custom ISO es un paso muy importante de todo el proceso. Si se crea correctamente, lo que hace el script es preparar una ISO que te levanta una VM que contendrá todos los elementos descargados previamente, en algunos casos instalados, y las carpetas para el lanzamiento del cloudbuilder, lo que realmente montará el lab, listas para su ejecución. Pero no solo eso, también te levanta un AD y un DNS, necesarios para el dominio de nuestro Management Domain.

NOTA: para la Custom ISO, no es importante únicamente el archivo createiso.ps1, también debes revisar los archivos additionalfiles.txt y additionalcommands.bat. Estos archivos gestionarán la instalación de software adicional, como la versión de PowerShell descargada, y si no tocamos estos documentos, PS no se instalará, y no podremos ejecutar el Cloudbuilder desde la Holo Console, de manera que es mejor poner cuidado ahora a tener que solventar esto instalándolo posteriormente a mano.

Sobre el Holo Router, no hay mucho misterio. Va a funcionar de enlace entre nuestra infraestructura virtual, y nuestro ESXi, posibilitándonos accesibilidad a, por ejemplo, la Holo Console, e incluso acceso a internet Si es que hace lo que dice su nombre, simplemente enruta ese switch virtual sin uplinks con el que funcionará nuestra infra, a nuestro ESXi.

Sobre el proceso de montaje del entorno: una vez se lanza el proceso con scripts o con la interfaz gráfica, sólo hay que tenr paciencia. Verás desde la ventana de Powershell en segundo plano, o desde las tareas de tu esxi, como se van ejecutando los procesos de creacion de maquinas, verás com ovan creandose los 4 ESXi de tu management domain, el Manamement NSX, el NSX Edge, etc...


Finalmente, terminará con el mensaje que ves en la imagen superior, indicando la ruta al SDDC Manager. No es necesario que la anotes, en el proceso de despliegue del Holo Console, si abres Chrome, verás que tienes en la barra de favoritos diversos elementos, como el acceso al SDDC Manager, al NSX Manager, e incluso una página conteniendo los usuarios y passwords de acceso a todos los elementos de nuestro Holodeck.

Si quieres saber un poco más del tema en el idioma de Cervantes, adjunto un enlace al video del evento de la comunidad de VMUG de España donde se explica qué es Holodeck, se explica el despliegue, y donde podréis ver el Holodeck ya funcionando, y el acceso al SDDC Manager:

https://www.youtube.com/watch?v=kVZnpCkN9ZQ&t=6s


Si te ha gustado el articulo, puedes invitarme a un café ;)

lunes, 17 de febrero de 2025

Unificar varios Collector en un mismo Sizer

 Un caso que nos podemos encontrar es el de una empresa con distintos vCenters, ya puede ser en la misma, o distintas ubicaciones. Las razones pueden ser varias, desde separaciones fisicas por temas de licenciamiento, a necesidades de versión por compatibilidad legacy, o bien por gestion en grandes entornos, donde un solo vCenter no puede soportar todas las VMs, y han decidido dividir la infraestructura en varios entornos, según funciones.

Pero todo evoluciona, y puede ser necesario unificar entornos por distintas razones, desde reducción de huella de carbono, a costes, o simplemente, aprovechar la potencia de nuevas generaciones para pasarse a un entorno hiperconvergente y de gestión más simple. El problema es que cuando ejecutas unas RVtools o, mejor, unas Collector de Nutanix, nos encontramos que apuntan a un vCenter. Uno solo. Dentro, puedes tener uno 10 o 100 clústeres, pero sólo te da los datos de ese único vCenter. 

¿Y si queremos unificar los vCenters? ¿Me veré obligado a introducir a mano todos los datos del entorno en el Sizer? ¡Pues no! Se pueden subir varias fuentes al mismo Sizer, y luego ahí ya te gestionas las VMs como pertenecientes a un clúster único, o te las divides en clústeres a tu gusto, tal y como te indiqué en este otro post.

Partimos de la importación de datos del Collector de un vCenter:

Aquí, cada uno tiene sus preferencias, a mi me gusta hacerlo con las siguientes opciones:


En Powered VMs, lo optimo sería Powered ON only, pero si no conoces las causas del apagado de las VMs, y para no pillarnos los dedos con la capacidad, prefiero seleccionar Powered ON and OFF. Más abajo, en Workloads, si mascas VMs podrás ver las cargas con las que trabaja el Sizer por VMs, hasta un máximo de 1000 VMs. Si no, se unificaran por carga en perfiles de VM (Small, Medium, Large, etc...). Si marcamos "retain to cluster mapping", en caso de haber varios clusters, las delimitará de esa manera. Si no, las meterá todas en un mismo cluster. 

NOTA: Cluster mapping falla mas que una escopeta de feria, si ves que el Sizer da fallos, desmarca esta opción. Te tocará crear los clusters manualmente.

Vale, ya tenemos nuestro Collector cargado, con 74 VMs, como podemos comprobar en la pestaña "Workloads". El trabajo que sigue para cargar otro vCenter es tan sencillo como, en la misma pestaña, a la derecha, y casi a la misma altura que "workloads", tenemos el botón "import". 

Lo pulsamos, y nos llevará a una pantalla familiar. Solo nos queda cargar el nuevo collector que queremos sumar.

Como se puede ver, este nuevo vCenter era mas pequeño, apenas tiene 12 VMs mas. 

Podemos ir a las pestaña "Solution" para ver cómo cambia la solucion configurada, pero me interesa que echéis un vistazo al texto en azul, "View Workload Source & Import history". Pinchamos sobre el enlace, y nos abrirá una ventana flotante que nos indica los archivos con los que está trabajando:

Podemos ver el nombre y fecha de los dos archivos que hemos subido: el archivo con el que creamos el Sizer, y el archivo subido posteriormente. Veréis también un botón de "Upload Source File" que a fecha de hoy, podría estar como podría no estar, ya que no funciona. Si lo pulsas hace el proceso de subir un Collector, pero no lo aplica, de manera que hay que subirlo de la misma manera que he explicado anteriormente.

Si te ha gustado el articulo, puedes invitarme a un café ;)

domingo, 16 de febrero de 2025

Configurar el Sizer para un Stretched cluster

 Un problema que nos podemos encontrar a la hora de tratar con el Nutanix Sizer, ya sea partiendo de unas RVtools o bien de un Collector, viene cuando se te presenta el dimensionamiento de un Stretched Cluster con vSAN. Ninguna de las dos herramientas de recolección de datos te va a separar las zonas, y tampoco vienen identificadas como dos clústeres distintos: precisamente de eso va la solución, ¿no? De esta manera, seremos nosotros los que tendremos que trabajar un poquito sobre el Sizer. ¡Vamos alla!

Partimos de unas RVtools (o Collector), que nos van a mostras algo similar a esto:

Vale, esto es raro, porque no debería ser necesario un Witness para el numero de hosts que tiene en cada extremo del clúster, así que supongo que habrán ampliado 1 nodo en algún momento. Pero ese no es el problema. El problema realmente es el modo en el que la herramienta dimensionará los requisitos de la solución. Lo hará como un único clúster en una única ubicación. ¡Esto cambia mucho la foto de los requerimientos! Tomamos como ejemplo la imagen superior. Partimos de un total de 6 host mas el witness, y lo que sizer nos da como solución es lo siguiente:

En N+1, una preciosa solución basada en 4 host. Sin entrar en cargas de trabajo, a priori, es una reducción importante de hardware. Pero falsa. De hecho, si quisiéramos mantener la solución de 2 zonas unidas por ejemplo con Nutanix Metro Cluster o Sync Replication, no tendríamos los nodos mínimos para conformar un clúster decente en Nutanix (recordemos, 3 mínimo. Que si, se puede con 2 e incluso 1, pero solo como ROBO, no valdría para lo que se plantea). Así que vamos a "forzar" el segundo cluster en el sizer. 

Para ello, pinchamos sobre "workloads":

Justo donde pone "Cluster1", todo a la derecha, veremos el símbolo de un engranaje con el texto "Modify", Si pinchamos ahí, nos saldrá una pantalla con los ajustes del clúster. Si vamos abajo del todo, veremos que todas las VMs se han configurado para funcionar en un solo clúster. Tendremos que configurarlo para que funcione en 2 clusters realmente. Para ello cerramos esta pantalla de configuración, y volvemos a nuestra pantalla de Workloads. A continuación, seleccionaremos las VMs que van al segundo cluster (si, a mano), marcando la casilla de selección de la izquierda. Una vez hayamos seleccionado tantas como consideremos oportuno, pinchamos sobre "add":

Veremos que ahora, si nos desplazamos hacia abajo, en la sección de clúster, tenemos la opción de crear uno nuevo:

Una vez creado el nuevo clúster, tenemos la opción de mover posteriormente más VMs, de manera más fácil, desde el botón "Bulk / Change" y seleccionando "Move Workloads". Cada vez que hagas esto, verás que la parte Solution tarda un poco, pues estará redimensionando la carga de los servidores, y evaluando los modelos que se ajustan a las necesidades. Es por ello que es importante dedicarle un poco de tiempo a seleccionar VMs, ya que si tienes, pongamos 10 VMs, no es lo mismo meter 10 que 50 al nuevo cluster, ni meter VMs ligeras que VMs con cargas pesadas...


Cambia tanto como las imágenes 3 y la siguiente, de este post. En la 3, sobre la que hemos trabajado el ejercicio, podemos ver que la solución pedía 4 host. En cambio, en la foto que veremos a continuación, vemos una solución más simple con 3 nodos en cada una de las ubicaciones:

Es por esto que es importante no solo realizar un export al Sizer, sino también analizar los datos con los que trabajamos, ya que la foto final puede variar muchísimo si no tenemos en cuenta la configuración real del entorno.

Si te ha gustado el articulo, puedes invitarme a un café ;)

lunes, 3 de febrero de 2025

VMUG Madrid retoma su actividad

 ¡Buenas noticias para la comunidad de usuarios de VMware de Madrid! El VMUG Madrid está de regreso y listo para retomar su papel como epicentro de intercambio de conocimientos, experiencias y networking para todos los entusiastas de VMware.

🌟 ¡Estamos de vuelta y más fuertes que nunca! 🌟

Tras un año lleno de cambios emocionantes en el ecosistema de VMware, ha llegado el momento de volver a conectar. VMUG Madrid regresa con energía renovada, nuevos objetivos y muchas ganas de crear un espacio donde podamos:

  • 📊 Aprender de expertos y de las experiencias de otros usuarios.

  • 🙌 Compartir conocimientos, ideas y buenas prácticas.

  • 🚀 Crecer como profesionales y como comunidad.

🍻 vBeers para Celebrar el Relanzamiento 🍻

Y como toda buena reunión empieza con un buen brindis, te invitamos a unas vBeers informales para celebrar esta nueva etapa.

🗓️ Fecha: Jueves 20 de febrero, a partir de las 18:00
📍 Lugar: The Clover Irish Tavern, C/ Valle de Pinares Llanos 8, 28100 Madrid

Será la oportunidad perfecta para:

  • 👥 Reencontrarnos con antiguos miembros.

  • 🌐 Conocer a nuevas caras en la comunidad.

  • 🔊 Ponernos al día sobre las últimas novedades de VMware.

🌟 ¡Queremos Escucharte! 🌟

Este relanzamiento no solo es para ti, sino contigo. Queremos conocer:

  • 🚀 Tus intereses y temas favoritos.

  • 💡 Tus ideas para futuros eventos.

  • 📊 Tus necesidades para seguir creciendo en el mundo VMware.

Tu opinión es fundamental para que VMUG Madrid siga siendo una comunidad única y relevante.

¡No te pierdas esta oportunidad de ser parte activa del futuro de VMUG Madrid!

Vuelve a conectar, aprende algo nuevo, comparte tus experiencias y, sobre todo, ¡disfruta de unas cervezas bien frías con la mejor comunidad tech de Madrid! 

¡Tendremos precio promocional para todas las consumiciones, por cortesía de The Clover!

...y por supuesto, ¡¡¡síguenos en @VMUGMadrid !!!


Enlace de registro, -->AQUI <--

lunes, 25 de noviembre de 2024

Un Vistazo a Windows Server 2025: Evolucion y ciclo de vida

En el dinámico mundo de la tecnología, Microsoft ha lanzado oficialmente Windows Server 2025, una versión que promete revolucionar la gestión de servidores con mejoras significativas en seguridad, rendimiento y flexibilidad en la nube. Este lanzamiento marca un hito importante en la evolución de Windows Server, que ha visto transformaciones notables desde la versión 2016 hasta la actualidad. 

Bueno, eso dice Microsoft. Realmente, esta version se centra en la estabilidad, mientras sigue hibridando con la nube.


¿Que hay de nuevo?

Windows Server 2025, disponible desde el 1 de noviembre de 2024, introduce una serie de características avanzadas diseñadas para enfrentar los desafíos modernos de la ciberseguridad y la gestión de datos. Entre las novedades más destacadas se encuentran:

  • Seguridad Multicapa: Con mejoras en Active Directory, servicios de archivos y cuentas de servicio gestionadas delegadas, Windows Server 2025 refuerza la protección contra amenazas cibernéticas Más info en ESTE LINK.
  • Agilidad en la Nube: La integración con Azure Arc permite una mayor flexibilidad operativa, facilitando la gestión de entornos híbridos y multicloud. Mas info en ESTE LINK.
  • Rendimiento y Escalabilidad: Con soporte para cargas de trabajo de inteligencia artificial y aprendizaje automático, y mejoras en el rendimiento de almacenamiento NVMe, esta versión está preparada para manejar las demandas más exigentes. Mas info, en el link de arriba, tambien. 


Ciclo de Vida de Windows Server 2025

Siguiendo la política de ciclo de vida fijo de Microsoft, Windows Server 2025 tendrá soporte principal hasta el 9 de octubre de 2029 y soporte extendido hasta el 10 de octubre de 2034 (https://learn.microsoft.com/en-us/lifecycle/products/windows-server-2025). Este ciclo de vida asegura que las organizaciones puedan planificar sus actualizaciones y mantenimientos con anticipación, garantizando estabilidad y soporte a largo plazo.


¿Qué pasa con las versiones anteriores? Windows Server 2016 a 2022

Para entender la evolución de Windows Server, es crucial revisar las versiones anteriores y sus ciclos de vida:

  • Windows Server 2016: Lanzado el 15 de octubre de 2016, con soporte principal hasta el 11 de enero de 2022 y soporte extendido hasta el 12 de enero de 2027
  • Windows Server 2019: Introducido el 2 de octubre de 2018, con soporte principal hasta el 9 de enero de 2024 y soporte extendido hasta el 9 de enero de 2029
  • Windows Server 2022: Disponible desde el 18 de agosto de 2021, con soporte principal hasta el 13 de octubre de 2026 y soporte extendido hasta el 14 de octubre de 2031

Conclusión

Windows Server 2025 apuesta por seguir hibridando sus productos clásicos, con el fin de facilitar a transicion a la nube, mientras redondea un producto que ya es un referente y piedra angular en la mayoria de entornos.


Links adicionales de consulta, sobre todo del ciclo de vida:

Windows Server 2016 - Microsoft Lifecycle | Microsoft Learn.

Windows Server 2025 pricing and licensing options - 4sysops.

Windows Server 2025 - Wikipedia.

Microsoft Windows Server 2025: Everything you need to know - Q-Advise.

How long will windows server 2016 be supported?

Windows Server Lifecycle Dates | ServersPlus.

Windows and Office configuration support matrix - microsoft.com. (en PDF).

jueves, 7 de noviembre de 2024

VMware Explore Barcelona walkthrough

¡Bienvenidos al VMware Explore Barcelona 2024, el gran evento anual de VMware en Europa!

Puede parecer un evento meramente comercial y aburrido, pero nada mas lejos de la realidad. Así que para amenizar un poco la lectura ¿qué hay mejor que darle un toque gamer al evento? ¡Vamos a ver qué nos ofrecen las distintas fases de este triple A!

Para pasar con éxito este evento lo primero de todo es distinguir las distintas fases por las que vamos a pasar:

Zonas a recorrer:

  1. HOLS: si nunca has tocado un Hands on Lab de VMware, Ya estás tardando… significa que o bien estás empezando en el mundillo de la virtualización con VMware, o tienes un fantástico laboratorio de pruebas, porque los HAL son una pieza fundamental para adquirir práctica con las miles de tecnologías disponibles de VMware. Aquí tienes un área entera habilitada con equipos listos para elegir el lab que quieras y empezar a practicar con ellos.
  2. Workshops: los podemos definir como Hands on labs pero con alguien que te va explicando los pasos, y a quien puedes realizar consultas o bien pedir que te deriven a alguien experto en el tema. Como un laboratorio con copilot viviente, vaya.
  3. Conferencias: VMware tiene unas cuantas novedades bajo el brazo de manera que junto con las típicas conferencias sobre los productos más conocidos como pueden ser VCF, Foundation, o las específicas de distintos componentes como NSX, ahora podemos agregar al portfolio la nueva IA in a Box (quien dijo GPT-in-a-Box?!)
  4. La Expo: IBM, NetApp, Lenovo, Quest, Microsoft, AMD, Intel… ¿Sabes cuando vas a los típicos stands de eventos, preguntas cualquier duda y el figurín que tienen a cargo del stand solo te puede remitir a su web? Pues no es lo que te vas a encontrar aquí. Prácticamente en cualquier stand tienen información detallada, novedades, y por supuesto, la agenda en la mano para organizarte una reunión con fines de partnership, colaboración o venta. Además de ser una fuente inagotable de swag (últimamente se están popularizando los calcetines, diría… entre los calcetines rojo Red Hat, verde Cohesity, y azul Intel, emparejarlos a la salida de la lavadora se va complicando).
  5. Cert zone: ¡aprovecha para certificarte al 50%! A modo de crítica constructiva, les indicaría a los señores de Broadcom que puedan leer esto que, con el precio de la entrada, bien podrían permitir presentarse a tantos exámenes de certificación como tu cerebro aguante sin coste alguno. Después de todo, entre partners y fabricantes que ya tienen de uno u otro modo vouchers gratuitos, no les va a salir cara la broma…y vuestra competencia lo hace así…
  6. ¡La tienda!: Hablando de bromas caras… has dejado tu yate aparcado en el puerto de Barcelona? ¿Después de llenar el deposito de tu McLaren te sobra calderilla? Acércate a la tienda, por unos módicos 30€ puedes adquirir la botella de agua de Broadcom en distintos modelos, y de regalo, a partir de 30€ de gasto en tienda, te regalan una sudadera de McLaren. Ya en serio, los precios son los habituales en estos eventos, pero la calidad de los ítems es buena.
  7. La Keynote: Siempre consiste en señores importantes dentro de la compañía que organiza el evento, leyendo un PowerPoint, hasta llegar al One more thing… VeloRAIN es la novedad presentada en esta Expo. Básicamente es una arquitectura de red potenciada por IA, que permite fundamentalmente mejorar la eficiencia de red optimizando el tráfico y acelerando las comunicaciones, por un lado, y por otro lado analiza también el tráfico, incluyendo el cifrado, identificándolo, optimizándolo y priorizándolo, con el fin de mejorar el QoS.

Consejos para moverse ágilmente por la feria:

  • Instálate la App VMware Explore, tan pronto dispongas de entrada al evento. El objetivo es organizarte la agenda de eventos lo antes posible. Los eventos interesantes se quedan sin plazas libres rápidamente. Si esto sucede con alguno de especial importancia para ti, tienes la opción de ponerte en la “waiting list”. En España lo llamamos “hacer cola” a la puerta de la sala, con el fin de ocupar las plazas que puedan quedar disponibles tras las ausencias”
  • Hay comida por todas partes, de todo tipo, y sin coste. Puedes desayunar en el hotel, pero también en la Fira. Posiblemente el café sea mejor que el de los hoteles. Pero cuidado con la comida. Es un evento internacional, y lo que aquí llamamos comida, en muchos otros países se llama merienda, así que si quieres poder elegir lo que comes del bufete, y comer caliente, lo mejor es hacerlo a partir de las 12, y preferiblemente antes de las 13:30 como muy tarde. Mas tarde de esa hora, los platos principales y los postres buenos habrán desaparecido.
  • Revisa el mapa de la Fira antes de entrar. Parece una tontería, pero si no te la conoces, puedes estar 1 hora buscando una sala, y estar en otro pabellón.
  • La Swag Zone: ¡No podían definirlo mejor! En la entrada principal, todo a la izquierda antes de entrar al salón principal, prácticamente al lado de la zona de registro, tienes la consigna para la ropa, y donde te dan la mochila del Explore 2024. Yo que tú, nada mas obtener el badge de entrada, me dirigiría a este punto a dejar todo aquello que pese (abrigo, paraguas, mochila, maleta…) y cogería únicamente la mochila de VMware. Tras pasar un día en la Fira, acaba llena como por arte de magia de otras bolsitas de rafia ideales para ir al super, de las distintas empresas que sitúan allí sus stands, así como de bolígrafos y agendas como para equipar a un escolar hasta sacarse una carrera, y algunos otros elementos marketinianos de utilidad (Symantec, me has tocado la patata con ese bolígrafo destornillador de cabezas intercambiables).
  • Community Zone: el VMUG y la comunidad de vExperts No paran de generar artículos de todo tipo, así que posiblemente puedan aconsejarte con respuestas más reales y prácticas que en los propios stands de VMware. Aprovecha la ocasión y haz un poco de networking, hay gente increíble para conocer.
Corey Romero, qué haria la comunidad de VMware sin él...

Bonus: la fiesta

¡No puedes faltar a la fiesta de cierre del evento! No es realmente un cierre, ya que al día siguiente quedan charlas, HOLs y la zona de certificación hasta las 12:00 aproximadamente, pero el jueves está todo mucho más calmado.

jueves, 26 de septiembre de 2024

Adaptación de entornos Brownfield a VCF

El 2024 ha sido un año complicado para VMware por su adquisición por parte de Broadcom, y los rápidos cambios que se están realizando, que me atrevería a decir están afectando a todos sus clientes. 

Uno de los principales cambios ha sido la modificación del portfolio de productos y la simplificación del mismo en 3 grandes bloques: licencias vSphere, VVF y VCF. Esto conlleva que cuando antes podías adquirir los productos prácticamente a la carta (podías comprar un vSphere con vSAN pero sin Aria, por ejemplo), ahora estás limitado a estas opciones. 

En la mayoría de los casos, no debe suponer impacto al cliente mas alla del cambio de precios de las licencias, y el licenciamiento por suscripción. Pero hay casos donde, por el paquete de productos ya adquiridos, y debido al nuevo portfolio, pueden verse obligados a cambiar de vSphere a VCF. Esto conlleva adicionalmente un cambio de producto y por ende, una adaptación de tu infraestructura existente, Brownfield, a la nueva necesidad del producto, VCF.


Antes de entrar en lo que esto implica, adjunto algunos casos de ejemplo:

Para casos donde impera la necesidad de vSAN

 

Este es un caso muy común: Solo tienes vSphgere con vSAN. En este caso el cambio será a VVF. En cambio, si agregamos cualquier otro producto, como por ejemplo un Aria, antiguamente vRealize (basicamente un pack como VxRail), ya nos vamos a VCF.

Cualquier combinación con NSX te lleva a VCF

En este otro caso, podemos ver que cualquier combinación que implique el uso de NSX te lleva al cambio de licencia a VCF.

Si solo usabas Aria Standard, te puedes librar.

Este caso es más curioso: sólo si utilizas una versión avanzada de Aria, porque por ejemplo, utilices funcionalidades avanzadas de Tanzu, te puedes ver obligado al cambio a VCF. Si no, puedes mantenerte en VVF

Ahora ya sabemos si debemos cambiar de producto, además de licencia, para mantener nuestra infraestructura. Suponiendo que debamos adaptar nuestro entorno brownfield a VCF, ¿qué implica este cambio?

Donde mejor se explica es en la ilustración que encabeza el post. Básicamente, nuestra infraestructura debe pasar por un proceso de importación al entorno VCF, que generará una estructura organizativa que antes no existía, el "Management Workload". Esto se podría definir como un cluster de hosts que engloban los servicios necesarios para mantener nuestra infraestructura VMware. O sea, que en estos host ESXi se encontrará el vCenter Server, los servidores NSX necesarios, el appliance de Aria...en definitiva, todos los componentes de la infra VMware. Y si, aquí también puedes tener VMs de trabajo, pero para ello, lo recomendable es montar otro cluster con el nombre de Workload Domain, o dominios de cargas de trabajo, que soportaran el resto de servidores de la empresa: tus front-ends, back-ends, tus BBDD, DCs, etc...

Puedes ver todo el proceso en la documentación de VMware, pero muy resumidamente, consiste en instalar en tu infraestructura el SDDC Manager, que es como un portal adicional por encima de vSphere, e importar tu entorno actual por medio de una herramienta y un poquito de scripting, al nuevo entorno que he explicado anteriormente.