Installation et configuration d’un vSAN Cluster avec 2 noeuds

La configuration vSAN Cluster avec 2 nœuds a été introduite depuis la version vSAN 6.1 pour les clients qui cherchent à déployer leurs Workloads à travers le Remote Office/Branch Office.

Pour la mise en place, il suffit simplement de déployer 2 nœuds sur le même site et d’un witness (VM téléchargeable depuis le portail Vmware) déployé sur un deuxième site ou notamment hébergé sur un cloud public.

Il n’y a pratiquement aucune différence entre le déploiement du vSAN cluster avec 2 nœuds et vSAN Stretched cluster hormis que les 2 nœuds sont situés sur la même localisation géographique alors que pour le stretched cluster, les nœuds sont dispersées sur 2 sites différents. Par contre, elles ne fonctionnent pas de la même façon.
Il est a noté que cette configuration permet le vSAN DirectConnect (l’interconnexion réseau directe des 2 nœuds) et ainsi nous éviter de passer par un switch réseau.

Installation et configuration

Pour ce lab, j’ai commencé par déployer:

  • 2x nested ESXi avec la configuration suivante:
    1. 2 vCPU
    2. Mémoire: 10Gb
    3. Réseau: 3 Adaptateurs pour les trafics: Management, Witness, vSAN
    4. Disque: 3 HDD (ESXi, disque cache et disque de capacité)
  • 1x vSAN Witness disponible en format OVA depuis ce lien

Une fois connecté au vCenter, nous procédons à l’ajout des 3 hôtes:

Avant d’activer vSAN, il est important de procéder à configurer correctement la partie réseaux. Ci-dessous une vue des adaptateurs VMkernel des nested ESXi:

  • vmk0: Management
  • vmk1: Witness
  • vmk2: vSAN

Pour activer le trafic Witness sur vmk1, il faudrait se connecter en SSH sur chacune des ESXi (sauf le Witness) et exécuter la commande ci-dessous:

esxcli vsan network ip add -i vmk1 -T=witness

Et ci-dessous une vue des adaptateur VMkernel du Witness. Pour mon cas, j’ai laisser la configuration par défaut:

Une fois les adaptateur configurer, nous pouvons commencer par activer vSAN:


On choisi la configuration 2 hôtes:

J’ai gardé les services tels que Deduplication/Compression et Encryption désactivés:

L’étape suivante consiste à assigner les disques cache et de capacité de mes 2 hôtes nested ESXi:

Le Wizard continue et nous mène à la phase de l’ajout du Witness au Cluster vSAN:

Tout comme les 2 nested ESXi, nous assignons les disques cache et de capacité du Witness:

Une fois la configuration terminée, un récapitulatif s’affiche afin de valider la configuration:

vSAN s’active au bout d’un petit moment. Afin de vérifier l’état du cluster nous procédons à la vérification du vSAN sur Health:

Les fault domains sont configurés automatiquement afin de déterminer l’hôte préféré et l’hôte secondaire du cluster:

Une fois le cluster vSAN déployé et activé, nous avons procédé à la création d’une machine Ubuntu. Il est a noté que la protection des VMs sur un cluster vSAN avec 2 hôtes se fait seulement avec le RAID 1, avec le SPBM par défaut. Une fois créer, la répartitions des VMs se fait comme suit:

Sur la vidéo qui suit, vous allez voir comment vSAN fait face aux pannes de l’hôte préféré:

J’espère que ces informations vous seront utiles. Surtout n’hésitez pas à poster des commentaires en cas de besoins ou de partager vos idées pour améliorer l’article.

A propos de l’auteur Karim Sabbagh

Karim Sabbagh lives in Paris. After his study in Information Technologies in Tunisia, he started in the IT business in an American multinational enterprise information technology company. After more than 2 years, he moved to Qatar to join a Kuwaiti company as System Engineer to work in different fields and areas with different technologies, most of them DellEMC, VMware and Citrix Since then he gained more than 5 years of IT experience. Karim is with Metanext, a French company since 2019 where he now works as a Cloud and Virtualization Consultant. He is a specialist on infrastructures, and has much knowledge of business processes, systems management processes and integration issues. Karim follows trends and developments in his field closely. He is ITIL, DellEMC Cloud Architect Expert, DellEMC Midrange Storage Specialist, VMware VCP-DCV, HPE SDN, Nutanix Platform Professional and VxRail Specialist Certified.

(5 commentaires)

  1. Merci Karim pour cet article,
    J’ai deux questions si vous me permettez :
    1. dans le cluster ROBO ce ne sont pas des nested ESXi ce sont des hosts physiques ?
    2. Pourquoi séparer le trafic witness de management ?
    Merci

    J'aime

    1. Merci pour le feedback.
      1- Ce sont des nested ESXi et non des hôtes physique.
      2- Il aurait pu êre aussi configuré avec le management. Le Witness trafic doit impérativement être séparé uniquement du vSAN trafic.

      J'aime

  2. Bonjour Karim
    Cette configuration est donc indépendante du matériel utilisé ? est-ce que vous l’avez déjà utilisé avec du HPe simplivity (avec stretched cluster) ? comment se passe la demande de bande passante est-ce qu’il y a beaucoup de trafic réseau généré pour la communication des 2 noeuds ?

    J'aime

    1. Bonjour Herizo
      Cette configuration est basé sur du vSAN Ready node. HPE Simplivity utilise une autre technologie basé sur Omnistack, donc incompatible vSAN. Le trafic réseau est considérable seulement pendant la première mise en place du mirroring des VM.

      J'aime

Répondre à Aleksei Annuler la réponse.

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l'aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.