Laboratoires d’essai en ligne VMware - HOL-1808-01-HCI


Présentation du laboratoire - HOL-1808-01-HCI - vSAN v6.6.1 - Démarrage

Instructions concernant le déroulement du laboratoire


Remarque : il vous faudra plus de 90 minutes pour suivre ce laboratoire. Durant cette session, vous pourrez terminer un maximum de 2 ou 3 modules.  Les modules sont indépendants. Vous pouvez donc commencer au début du module de votre choix, puis enchaîner les modules dans l’ordre qui vous convient. Utilisez le sommaire pour accéder au module qui vous intéresse.

Le sommaire est disponible dans l’angle supérieur droit du manuel du laboratoire.

Liste des modules du laboratoire :

 Responsables du laboratoire :

  • John Browne, spécialiste de la formation du personnel au support technique, Irlande
  • Ken Osborn, ingénieur système en chef, États-Unis

Nous remercions pour leurs conseils et assistance :

  • Cormac Hogan, directeur et responsable de la technologie, marketing des produits de stockage
  • Jase McCarty, architecte marketing technique pour le personnel
  • Jeff Hunter, architecte marketing technique pour le personnel 

Vous pouvez télécharger ce manuel de laboratoire sur le site des documents des laboratoires d’essai en ligne, accessible ici :

http://docs.hol.vmware.com

Ce laboratoire peut être disponible dans d’autres langues.  Le document suivant vous aidera à définir vos préférences linguistiques et à déployer un manuel localisé pour votre laboratoire :

http://docs.hol.vmware.com/announcements/nee-default-language.pdf


 

Emplacement de la console principale

 

  1. La zone délimitée par un cadre ROUGE correspond à la console principale.  Le manuel de laboratoire apparaît dans le volet affiché sur la droite de la console principale.
  2. Certains laboratoires peuvent faire intervenir des consoles supplémentaires, qui font alors l’objet d’onglets distincts dans le coin supérieur gauche. Le cas échéant, vous serez invité à ouvrir une console supplémentaire déterminée.
  3. Au début de votre laboratoire, le minuteur est réglé sur 90 minutes.  Vous ne pouvez pas sauvegarder le laboratoire.  Toutes les tâches doivent être effectuées durant la session de laboratoire.  Vous avez toutefois la possibilité de cliquer sur EXTEND pour obtenir un délai supplémentaire.  Si vous effectuez ce laboratoire dans le cadre d’un événement VMware, vous avez droit à deux prolongations, pour un délai supplémentaire total de 30 minutes.  Chaque clic vous donne droit à 15 minutes supplémentaires.  En dehors des événements VMware, vous pouvez prolonger la durée du laboratoire jusqu’à 9 heures et 30 minutes. Chaque clic vous donne droit à une heure supplémentaire.

 

 

Méthodes alternatives à la saisie de données au clavier

Au cours de ce module, vous serez invité à saisir du texte dans la console principale. Outre la saisie directe au clavier, vous disposez de deux méthodes alternatives facilitant l’entrée de données complexes.

 

 

Vous pouvez cliquer sur un élément de texte dans le manuel de laboratoire pour le faire glisser dans la fenêtre de console active.

 
 

Vous pouvez également cliquer sur du texte et des commandes CLI (Command Line Interface) directement à partir du manuel du laboratoire, pour les faire glisser dans la fenêtre active de la console principale.  

 

 

Accès au clavier international en ligne

 

Vous pouvez également utiliser le clavier international en ligne proposé dans la console principale.

  1. Cliquez sur l’icône représentant un clavier dans la barre d’outils Lancement rapide de Windows.

 

 

Invite ou filigrane d’activation

 

Au moment de démarrer le laboratoire, vous remarquerez peut-être sur le bureau un filigrane indiquant que Windows n’est pas activé.  

L’un des principaux avantages de la virtualisation réside dans la possibilité de transférer et d’exécuter une machine virtuelle sur n’importe quelle plate-forme.  Les laboratoires d’essai en ligne tirent parti de cette capacité, qui nous permet de les exécuter depuis différents Data Centers.  Cependant, ces Data Centers ne sont pas tous dotés des mêmes processeurs, ce qui a pour effet de déclencher un contrôle d’activation Microsoft via Internet.

Soyez tranquille, VMware et ses laboratoires d’essai en ligne sont en pleine conformité avec les conditions de licence de Microsoft.  Le laboratoire que vous suivez est un pod autonome ne disposant pas du plein accès à Internet dont Windows a besoin pour vérifier l’activation.  L’absence d’un accès complet à Internet provoque l’échec de ce processus automatisé, d’où l’apparition du filigrane.

Ce problème superficiel est sans incidence sur votre laboratoire.  

 

 

Observation de la partie inférieure droite de l’écran

 

Vérifiez que l’exécution de toutes les routines de démarrage est terminée et que le laboratoire est prêt à démarrer. Si un état autre que « Ready » est affiché, patientez pendant quelques minutes.  Si le laboratoire n’est toujours pas à l’état « Ready » au bout de 5 minutes, demandez de l’aide.

 

Module 1 : configuration et activation de vSAN 6.6.1 (15 minutes, débutant)

Introduction


Qu’est-ce que VMware vSAN ?

VMware vSAN est une solution de stockage de VMware, publiée en tant que version bêta en 2013, puis mise à la disposition du grand public en mars 2014. Sa dernière version (version 6.6.1) date de juillet 2017. VMware vSAN est totalement intégré à vSphere. Cette solution est à la fois un système de stockage basé sur les objets et une plate-forme adaptée aux stratégies de stockage pour machine virtuelle. Elle est conçue pour simplifier les choix des administrateurs vSphere lors des placements de stockage. Elle est pleinement intégrée et compatible avec les fonctionnalités clés de vSphere, telles que vSphere High Availability (HA), vSphere Distributed Resource Scheduler et vMotion.

Ce module comprend les leçons suivantes :

 

 


Présentation de VMware vSAN


Avant de passer au laboratoire, prenons un moment pour examiner vSAN plus en détail.


 

Qu’est-ce que VMware vSAN ?

En tant que composant de vSphere, vSAN étend les fonctionnalités de l’hyperviseur pour regrouper et abstraire des ressources de stockage basées sur un serveur, tout comme vSphere regroupe et abstrait des ressources de calcul. De par sa conception, cette solution est bien plus simple et économique que les baies de stockage externes classiques. Les utilisateurs de vSphere peuvent rapidement prendre en main vSAN et devenir productifs.

vSAN est totalement intégré à vSphere, dont il prend en charge presque toutes les fonctionnalités phares : DRS, HA, vMotion, etc. VMware vSAN est également intégré à vRealize Suite.

Les administrateurs définissent les stratégies de stockage et les affectent aux VM. Une stratégie de stockage sert à définir les besoins en matière de disponibilité, de performances et de provisionnement (par exemple, provisionnement fin). Lorsqu’une VM est provisionnée, vSAN interprète la stratégie de stockage, puis configure automatiquement les appareils de stockage sous-jacents de manière à respecter cette stratégie (par exemple, RAID 1). Lorsqu’une stratégie de stockage est modifiée, vSAN reconfigure automatiquement les ressources pour la respecter.

Points clés :

• Software-defined storage, totalement intégré à vSphere

• Utilise des composants serveur internes pour créer un pool de stockage partagé sur un cluster unique

• Utilise des stratégies de stockage pour fournir des services de stockage VM par VM

Caractéristiques techniques :

• Cluster à évolutivité horizontale, hautement résilient, offrant des capacités d’extension et de reconfiguration dynamiques

• Très efficace en termes de ressources : performances et consolidation accrues

• Configurations hybrides utilisant des appareils Flash en tant que cache et des disques magnétiques pour la capacité

• Configurations 100 % Flash utilisant des appareils Flash pour le cache et la capacité

• Évolue jusqu’à 62 To de disques de machine virtuelle (VMDK), 64 nœuds, 35 appareils de capacité par nœud, 200 VM par nœud

• Jusqu’à 7 millions d’IOPS 4 ko en lecture seule dans 1 cluster de 64 nœuds (c’est énorme !)

 

 

Avantages pour le client

 

Simplicité

VMware vSAN est bien plus simple à installer et à utiliser au quotidien que les solutions de stockage classiques. Le stockage se présente comme un prolongement naturel de l’expérience de gestion vSphere. Storage Policy-Based Management simplifie considérablement le provisionnement des services de stockage pour les VM.

Hautes performances

L’intégration étroite de vSAN au noyau vSphere et l’utilisation de la technologie Flash améliorent considérablement les performances des applications par rapport aux solutions de stockage classiques. Les applications qui requièrent des niveaux supérieurs de performances prévisibles peuvent utiliser des configurations 100 % Flash.

Coût total de possession (TCO) moindre

vSAN peut réduire le coût total de possession (TCO) jusqu’à 50 % en utilisant un modèle de gestion rationalisé et des composants de stockage sur serveur économiques. Pour étendre les fonctionnalités ou les performances, il suffit d’ajouter des ressources supplémentaires au cluster : des disques Flash, des disques durs ou des serveurs.

 

 

Principaux cas d’usage

 

 

 

Adoption de vSAN

 

 

Conditions requises pour VMware vSAN 6.6.1


Examinons les conditions requises pour déployer VMware vSAN.


 

vCenter Server

VMware vSAN 6.6.1 requiert VMware ESXi version 6.5 U1 ou ultérieure et vCenter Server version 6.5 U1 ou ultérieure. Vous pouvez gérer vSAN par l’intermédiaire de la version Windows de vCenter Server ainsi que via l’appliance vCenter Server Appliance (VCSA).

VMware vSAN est configuré et surveillé via vSphere Web Client et requiert la version 6.5 U1 ou ultérieure.

 

 

vSphere ESXi

Un déploiement vSAN standard requiert au moins 3 hôtes vSphere (chaque hôte disposant d’un stockage local) pour former un cluster vSAN pris en charge. Ceci permet au cluster de respecter les conditions requises en termes de disponibilité pour tolérer au moins une défaillance d’hôte. Les hôtes vSphere doivent exécuter vSphere version 6.5 U1 ou ultérieure. Un cluster vSAN réduit à 2 hôtes présente un risque pour la disponibilité des machines virtuelles en cas de défaillance de l’un des hôtes, excepté lorsqu’un déploiement spécial à 2 nœuds est mis en place (cette architecture à 2 nœuds est traitée dans le module 7 de ce laboratoire). VMware vSAN peut prendre en charge jusqu’à 64 hôtes.

Chaque hôte vSphere du cluster contribuant au stockage local sur vSAN doit comporter au moins un disque dur et un disque dur électronique.

 

 

Disque et réseau

IMPORTANT : tous les composants (matériel, pilotes, microprogrammes) doivent figurer dans le Guide de compatibilité vSphere pour vSAN. Aucune autre configuration n’est prise en charge.

• Un adaptateur de bus hôte (HBA, host bus adapter) SAS ou SATA ou un contrôleur RAID en mode transmission directe (passthrough) ou RAID 0.

• Configuration avec groupe de disques hybrides : au moins un appareil de cache Flash et un ou plusieurs disques magnétiques SAS, NL-SAS ou SATA.

• Configuration avec groupe de disques 100 % Flash : un disque dur électronique SAS ou SATA ou un appareil Flash PCIe utilisé pour la mise en cache et un ou plusieurs appareils Flash utilisés pour la capacité.

• Dans un cluster hybride vSAN 6.5, le disque SSD fournit à la fois un tampon d’écriture (30 %) et un cache de lecture (70 %). Plus la capacité de disque SSD de l’hôte est importante, plus les performances sont élevées, dans la mesure où il est possible de mettre en cache un plus grand nombre d’E/S.

• Dans un cluster 100 % Flash vSAN, la totalité du cache est allouée aux écritures. Les performances de lecture de l’appareil Flash de capacité sont amplement suffisantes.

• Il est inutile que chaque nœud d’un cluster vSAN dispose d’un stockage local, même si une configuration équilibrée est recommandée. Les hôtes dépourvus de stockage local peuvent néanmoins exploiter la banque de données vSAN distribuée.

• Chaque hôte doit disposer d’une bande passante minimale dédiée à vSAN. 1 GbE pour la capacité hybride, 10 GbE pour la capacité 100 % Flash.

• Un commutateur distribué peut éventuellement être configuré entre tous les hôtes du cluster vSAN, même si les commutateurs standard VMware (VSS, VMware Standard Switches) fonctionneront également.

• Un port VMkernel vSAN doit être configuré pour chaque hôte. Avec un commutateur distribué, le contrôle des E/S réseau peut également être activé pour allouer la bande passante au réseau vSAN.

Pour que vSAN 6.6 puisse exploiter le mode de mise en réseau unicast (monodiffusion), tous les hôtes VMware ESXi doivent être mis à niveau vers vSAN 6.6 et le format sur disque doit être mis à niveau vers la version 5.

• La version 6.2 et les versions ultérieures de vSAN prennent en charge les configurations IPv4 seul et IPv6 seul, ainsi que les configurations où IPv4 et IPv6 sont tous deux activés. Ceci permet de respecter les conditions requises pour les clients passant à IPv6. De plus, la prise en charge du mode mixte pour les migrations est assurée.

Le port VMkernel est nommé vSAN. Ce port est utilisé pour la communication entre les nœuds du cluster, ainsi que pour les lectures et écritures lorsque l’un des hôtes vSphere du cluster possède une machine virtuelle spécifique dont les blocs de données réels qui composent ses fichiers sont situés sur un autre hôte vSphere du même cluster. Dans ce cas, les E/S doivent traverser le réseau configuré entre les hôtes du cluster.

 

Préparation du cluster VMware vSAN


Pour utiliser vSAN, vous devez créer un cluster hôte, puis activer vSAN sur ce cluster.  Un cluster vSAN peut inclure des hôtes avec capacité et des hôtes sans capacité.

  • Un cluster vSAN standard doit inclure au moins trois hôtes VMware ESXi. Pour qu’un cluster vSAN puisse tolérer les pannes d’un hôte ou d’un appareil, au moins trois des hôtes inclus dans ce cluster doivent contribuer à sa capacité. Pour des résultats optimaux, vous pouvez envisager d’ajouter un minimum de 4 hôtes contribuant à la capacité du cluster.  
  • Tous les hôtes du cluster vSAN doivent avoir le même format sur disque.
  • Avant de transférer un hôte d’un cluster vSAN à un autre cluster, vérifiez que le cluster de destination est compatible avec vSAN.
  • Pour pouvoir accéder à la banque de données vSAN, un hôte VMware ESXi doit être membre du cluster vSAN.

 

Ouvrez le navigateur Chrome à partir de la barre d’outils Lancement rapide de Windows.

 

  1. Cliquez sur l’icône Chrome dans la barre d’outils Lancement rapide de Windows.

 

 

Connectez-vous à vSphere Web Client.

 

  1. Sur l’écran de connexion de vSphere Web Client, sélectionnez « Use Windows sessions authentication ».
  2. Cliquez sur Login

 

 

vSphere Web Client

 

Vous accédez à la page d’accueil de vSphere Web Client.

Pour réduire ou agrandir les volets Recent Tasks, Alarms ou Work In Progress, cliquez sur l’icône d’épingle correspondante.

Si la page d’accueil ne s’affiche pas en premier, sélectionnez Home dans le menu supérieur de vSphere Web Client.

  1. Sélectionnez Hosts and Clusters

 

 

Activation de vSAN

 

Pour l’instant, vSAN est désactivé dans votre environnement de laboratoire. Cette leçon explique comment activer facilement vSAN.

À propos de l’environnement du laboratoire : le cluster RegionA01-COMP01 contient 3 hôtes VMware ESXi qui contribuent au stockage sous forme de cache et de capacité pour constituer la banque de données vSAN.

  1. Sélectionnez RegionA01-COMP01
  2. Sélectionnez Configure
  3. Sélectionnez vSAN > General
  4. Sélectionnez Configure

 

 

Configuration de vSAN

 

 

  1. Cochez l’option Deduplication and Compression.
  2. Sélectionnez Allow Reduced Redundancy.

Lorsque vous sélectionnez l’option « Allow Reduced Redundancy », vSAN peut réduire au besoin le niveau de protection de vos VM durant les opérations de déduplication et de compression. Vous ne pouvez utiliser cette option que si votre configuration est à la limite du niveau de protection, configuré par la stratégie de stockage d’une VM spécifique.

  1. Dans la section Fault Domains and Stretched Cluster, vérifiez que l’option Do not configure est sélectionnée.

Cliquez sur Next.

 

 

Validation de réseau

 

Le système de contrôle vérifie que des adaptateurs VMKernel sont configurés et que le service de réseau vSAN est activé (statut « vSAN Enabled » défini sur Yes).

Cliquez sur Next.

 

 

Réclamation de disques

 

Sélectionnez les disques mobilisés pour le Cache et la capacité (Capacity) dans le cluster vSAN.

Les disques sont groupés par modèle et taille (Disk model/size) ou par hôte (Host). La section recommandée est définie selon les appareils disponibles dans votre environnement.

Vous pouvez développer les listes de disques afin de sélectionner les disques individuellement.

Le nombre de disques de capacité doit être supérieur ou égal à celui des disques de cache mobilisés pour chaque hôte.

Cliquez sur Next.

 

 

Page « Ready to Complete »

 

Vérifiez vos choix.

  1. Ici, nous pouvons déterminer que nous allons créer une banque de données vSAN d’une capacité de 60 Go.

Seuls les disques de capacité sont utilisés pour la capacité de la banque de données vSAN. Les disques de mise en cache ne sont pas pris en compte.

  1. Il s’agit d’un cluster vSAN 100 % Flash, où les disques de cache et de capacité sont des disques SSD/Flash.

Cliquez sur Finish.

 

 

Actualisation de l’affichage

 

VMware vSAN est activé.

Cliquez sur l’icône Refresh pour voir vos modifications. (Si le message Misconfiguration detected s’affiche, vous pouvez être amené à cliquer sur Refresh plusieurs fois.)

Après l’actualisation, les 3 hôtes doivent s’afficher dans le cluster vSAN.

 

 

Tâches récentes

 

Vous pouvez examiner les tâches menées à bien en ouvrant l’écran Recent Tasks dans vSphere Web Client.

Ces tâches consistent à créer un cluster vSAN, puis à créer des groupes de disques et y ajouter des disques.

 

 

VMware vSAN - Gestion des disques

 

  1. Sélectionnez RegionA01-COMP01
  2. Sélectionnez Configure
  3. Sélectionnez vSAN ->Disk Management

Les groupes de disques vSAN de chaque hôte VMware ESXi sont répertoriés.

Vous devrez peut-être faire défiler l’écran vers le bas pour visualiser tous les groupes de disques.

La partie inférieure de l’écran contient les colonnes Drive Type et Disk Tier, qui indiquent respectivement les types et les niveaux des disques de ces groupes.

En résumé :

  • Nous avons créé un groupe de disques pour chaque hôte VMware ESXi.
  • Chaque groupe de disques se compose de 1 disque de cache de 5 Go et de 2 disques de capacité de 10 Go.

 

 

Propriétés de la banque de données vSAN

 

Lorsque vous avez créé le cluster vSAN, la banque de données vsanDatastore a également été créée.

  1. Pour afficher sa capacité, accédez à Datastores View.
  2. Sélectionnez vsanDatastore.
  3. Sélectionnez Configure.
  4. Sélectionnez General.

La capacité indiquée est la capacité cumulée des appareils de capacité de chaque hôte VMware ESXi du cluster (dont est déduite une certaine charge de vSAN : dans vSAN 6.6, cette charge correspond à 1 % de la capacité du disque physique ainsi qu’aux métadonnées de déduplication, qui peuvent grandement varier selon les jeux de données stockés dans la banque de données vSAN).

Les appareils Flash utilisés en tant que cache ne sont pas pris en compte dans le calcul de la capacité.

 

 

Vérification du statut du fournisseur de stockage

 

Un fournisseur de stockage est créé afin que chaque hôte VMware ESXi tienne compte des capacités de vSAN et afin d’assurer la communication entre vCenter et la couche de stockage. Chaque hôte VMware ESXi obtient un fournisseur de stockage lors de la création du cluster vSAN.

Les fournisseurs de stockage sont automatiquement enregistrés par le service de gestion de stockage de vCenter. Cependant, il vaut mieux vérifier que les fournisseurs de stockage de l’un des hôtes VMware ESXi sont correctement enregistrés et activés, et que ceux des autres hôtes VMware ESXi du cluster sont enregistrés et sont en mode veille.

  1. Accédez à vcsa-01a.corp.local.
  2. Sélectionnez Configure.
  3. Sélectionnez More > Storage Providers pour vérifier le statut des fournisseurs de stockage.
  4. Utilisez le filtre pour afficher les fournisseurs vSAN.
  5. Dans ce cluster à 3 nœuds, l’un des fournisseurs vSAN est en ligne (statut Online) et actif (statut Active), tandis que les autres sont en veille (statut Standby). Chaque hôte VMware ESXi participant au cluster vSAN a un fournisseur, mais un seul d’entre eux doit être actif pour fournir les informations de capacité de la banque de données vSAN.

En cas de défaillance du fournisseur, l’un des fournisseurs de stockage en veille prend le relais.

La leçon 3 est maintenant terminée.

 

Conclusion


Dans ce module, nous avons vu comment activer vSAN en quelques clics. Dans le cadre de l’activation de vSAN, nous avons vérifié la configuration du réseau vSAN, appris à sélectionner les disques des groupes de disques vSAN, et activé la déduplication et la compression de la banque de données vSAN.


 

Vous avez terminé le module 1.

Félicitations ! Vous avez terminé le module 1.

Poursuivez avec l’un des modules ci-dessous selon le thème qui vous intéresse.

• 

Le module 2 explique comment utiliser Configuration Assist pour assurer l’évolutivité horizontale de votre environnement vSAN.

• 

Le module 3 explique les fonctionnalités de baie 100 % Flash, ainsi que l’intégration de Storage Policy-Based Management (SPBM) avec vSAN.

• 

Le module 4 présente la fonctionnalité iSCSI (Internet Small Computer Systems Interface) introduite par la version 6.6.1 et décrit ses cas d’usage. Cette fonctionnalité permet le stockage par blocs pour les charges de travail physiques et virtuelles à l’aide du protocole iSCSI.

• 

Le module 5 explique comment ajouter un serveur de gestion des clés et activer le chiffrement vSAN.

• 

Le module 6 présente les améliorations de la version 1 de PowerCLI 6.5 et d’esxcli pour faciliter l’automatisation, la gestion et la surveillance des environnements VMware vSAN.

• 

Apprenez à créer un cluster vSAN étendu Direct Connect à 2 nœuds avec une séparation du trafic témoin.

 

 

Comment terminer le laboratoire

 

Pour terminer votre laboratoire, cliquez sur le bouton END.

 

Module 2 : évolutivité horizontale de vSAN avec Configuration Assist (30 minutes, débutant)

Introduction


L’assistant de configuration vSAN gère certaines tâches liées à la configuration d’un cluster vSAN. Il configure les paramètres de déduplication et de compression (ainsi que les paramètres de chiffrement dans vSAN 6.6), qu’il s’agisse ou non d’un cluster à 2 nœuds/étendu. Il gère aussi la réclamation des disques. Mais qu’en est-il de certaines recommandations habituelles concernant vSAN ?

La configuration des recommandations/contrôles suivants n’est pas prise en charge par l’assistant de cluster vSAN :

  • vSphere Availability
  • vSphere Distributed Resource Scheduler (DRS)
  • vSphere Distributed Switch pour le trafic vSAN
  • Configuration de vMotion
  • Vérification de la mobilisation de tous les disques disponibles
  • Vérification de la présence des outils de contrôleur d’hôte adéquats
  • Vérification de la présence du microprogramme de contrôleur d’hôte adéquat

La configuration de ces éléments s’effectue normalement dans différentes parties de vSphere Web Client. Avec Configuration Assist, toutes ces tâches sont centralisées dans un seul emplacement de l’interface utilisateur.

La configuration des interfaces vSAN VMKernel pour le trafic vSAN ou vMotion nécessitait auparavant de créer ces interfaces individuellement sur chaque hôte ou via l’assistant vSphere Distributed Switch. Ces tâches sont à présent intégrées à Configuration Assist.

Ce module comprend les leçons suivantes :


 

Préparation du laboratoire

Si vous avez terminé le module 1 en effectuant toutes les étapes indiquées, vous pouvez ignorer les étapes ci-après de préparation de votre environnement pour cette nouvelle leçon.

Cliquez pour accéder à la leçon.

Si vous êtes arrivé directement dans ce module, utilisez l’application PowerCLI de sélection de module pour préparer l’environnement.

 

 

Sélecteur de module

 

Double-cliquez sur le raccourci de bureau permettant d’accéder au sélecteur de module HOL-1808-HCI

 

 

Démarrage du module 2

 

  1. Cliquez sur le bouton Start du module 2.

 

 

Progression du démarrage du module 2

 

Surveillez la progression jusqu’à la fin.

• Appuyez sur Entrée pour continuer (et fermer la fenêtre PowerCLI).

 

 

Préparation du laboratoire terminée

 

La préparation de votre laboratoire pour le module 2 est terminée.

  1. Cliquez sur la croix en haut à droite pour arrêter le sélecteur de module en toute sécurité.

Remarque : vous ne pouvez pas faire « marche arrière » et participer aux modules précédents, sauf si vous recommencez le laboratoire après l’avoir terminé.

Par exemple, si vous commencez le module 4, vous ne pouvez pas utiliser le sélecteur de module pour commencer les laboratoires 1, 2 ou 3.

 

Évolutivité horizontale du cluster vSAN avec vSAN Configuration Assist


Configuration Assist permet de vérifier la configuration de votre cluster vSAN, mais aussi de résoudre n’importe quel problème.

Vous pouvez utiliser vSAN Configuration Assist pour vérifier la configuration des composants de votre cluster et résoudre les problèmes. La procédure de configuration vérifie la compatibilité matérielle, le réseau, et les options de configuration vSAN.


 

Vérification de la capacité vSAN actuelle

 

Il est assez simple d’ajouter des hôtes au cluster vSAN. Bien sûr, vous devez vérifier que l’hôte répond aux conditions requises ou aux recommandations concernant vSAN, telles que l’utilisation d’un port de carte réseau dédié de 1 Go (10 GbE recommandés) et d’au moins un appareil de cache, ainsi qu’au moins un appareil de capacité si l’hôte doit fournir une capacité de stockage supplémentaire. Pensez également à préparer la configuration, notamment en configurant un port VMkernel pour la communication vSAN. Vous pouvez également le faire après avoir ajouté l’hôte au cluster.

Revenez à la vue Hosts & Clusters dans le volet de navigation de vSphere Web Client.

  1. Sélectionnez le cluster RegionA01-COMP01.
  2. Cliquez sur Summary
  3. Développez vSAN Capacity.

Pour l’instant, la capacité de notre banque de données vSAN est d’environ 60 Go.

 

 

Vérification des appareils de stockage

 

Si VMware ESXi ne reconnaît pas automatiquement ses appareils en tant que disques Flash/SSD, vous pouvez les indiquer manuellement. VMware ESXi ne reconnaît pas certains appareils en tant que disques Flash si leurs fournisseurs ne prennent pas en charge la détection automatique de disque Flash. Pour ces appareils, la colonne « Drive Type » indique le type « HDD ».

Remarque : si vous indiquez que des disques HDD sont des disques Flash, cela risque de nuire aux performances des banques de données et des services qui les utilisent. Définissez des disques en tant que disques Flash uniquement si vous êtes certain qu’il s’agit bien de disques Flash.

  1. Sélectionnez esx-04a.corp.local.
  2. Sélectionnez Configure.
  3. Sélectionnez Storage -> Storage Devices.

La liste « Storage Devices » présente les disques qui contribuent au stockage dans la banque de données vSAN.

Même s’il s’agit d’un cluster vSAN 100 % Flash, nous avons toujours besoin d’1 disque SSD pour le cache et d’au moins 1 disque SSD pour la capacité.

 

REMARQUE : Ne tenez pas compte des disques à l’état « Detached », qui nous serviront lors d’un autre laboratoire.

 

 

Ajout de nœuds au cluster

 

Nous allons à présent ajouter esx-04a.corp.local au cluster vSAN.

Faites glisser esx-04a.corp.local jusqu’au cluster RegionA01-COMP01.

Si le glisser-déposer ne fonctionne pas, cliquez avec le bouton droit sur l’hôte VMware ESXi esx-04a.corp.local, puis sélectionnez Move to... Sélectionnez le cluster RegionA01-COMP01.

 

 

Déplacement de l’hôte dans le cluster

 

Si des machines virtuelles sont exécutées dans l’hôte VMware ESXi, le message suivant peut s’afficher. Si cet écran ne s’affiche pas, passez à l’étape suivante.

  1. Sélectionnez l’option par défaut Put all of this host’s virtual machines in the cluster’s root resource pool. Resource pools currently present on the hosts will be deleted.

Cliquez sur OK.

Des messages d’avertissement indiquant que les hôtes VMware ESXi se trouvent déjà dans le cluster vous sont éventuellement présentés : ils disparaîtront d’eux-mêmes après quelques instants.

 

 

Arrêt du mode maintenance pour l’hôte

 

L’hôte VMware ESXi est toujours en mode maintenance.

  1. Cliquez avec le bouton droit sur l’hôte VMware ESXi esx-04a.corp.local.
  2. Sélectionnez Maintenance Mode.
  3. Sélectionnez Exit Maintenance Mode.

Si l’option Exit Maintenance Mode n’est pas disponible, vous devez peut-être attendre un instant, ou cliquer sur Refresh afin d’actualiser vSphere Web Client.

 

 

Assistant de configuration vSAN

L’assistant de configuration vSAN gère certaines tâches liées à la configuration d’un cluster vSAN. Il configure les paramètres de déduplication et de compression (ainsi que les paramètres de chiffrement dans vSAN 6.6), qu’il s’agisse ou non d’un cluster à 2 nœuds/étendu. Il gère aussi la réclamation des disques. Mais qu’en est-il de certaines recommandations habituelles concernant vSAN ?

La configuration des recommandations/contrôles suivants n’est pas prise en charge par l’assistant de cluster vSAN :

  • vSphere Availability
  • vSphere Distributed Resource Scheduler (DRS)
  • vSphere Distributed Switch pour le trafic vSAN
  • Configuration de vMotion
  • Vérification de la mobilisation de tous les disques disponibles
  • Vérification de la présence des outils de contrôleur d’hôte adéquats
  • Vérification de la présence du microprogramme de contrôleur d’hôte adéquat

La configuration de ces éléments s’effectue normalement dans différentes parties de vSphere Web Client. Avec Configuration Assist, toutes ces tâches sont centralisées dans un seul emplacement de l’interface utilisateur.

La configuration des interfaces vSAN VMKernel pour le trafic vSAN ou vMotion nécessitait auparavant de créer ces interfaces individuellement sur chaque hôte ou via l’assistant vSphere Distributed Switch. Ces tâches sont à présent intégrées à Configuration Assist.

 

 

Assistant de configuration vSAN

 

Pour accéder à l’assistant de configuration vSAN, procédez comme suit :

  1. Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN -> Configuration Assist.
  4. Cliquez sur le bouton Retest, afin d’exécuter l’assistant de configuration et récupérer le dernier statut du cluster vSAN.

 

 

Configuration du réseau (1)

 

Nous constatons que la configuration réseau a échoué en ce qui concerne l’hôte VMware ESXi esx-04a.corp.local.

Il s’agit de l’hôte VMware ESXi que nous venons d’ajouter au cluster vSAN.

  1.  Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN -> Configuration Assist.
  4. Développez Network Configuration, puis sélectionnez All hosts have a vSAN vmknic configured.

L’hôte concerné s’affiche en bas de l’écran (esx-04a.corp.local). Nous allons maintenant configurer l’adaptateur vmknic vSAN depuis l’assistant de configuration vSAN.

  1. Cliquez sur Create VMkernel Network Adapter.

 

 

Configuration du réseau (2)

 

Voici la liste des hôtes VMware ESXi membres de notre cluster vSAN.

  1. Annulez la sélection des hôtes VMware ESXi esx-01a.corp.lcoal, esx-02a.corp.local et esx-03a.corp.local. Des ports VMkernel vSAN valides sont déjà configurés.
  2. L’hôte VMware ESXi esx-04a.corp.local est dépourvu de port VMkernel pour le réseau vSAN.

Cliquez sur Next.

Si le bouton Next n’est pas disponible en bas de l’écran, double-cliquez sur la barre grise de la boîte de dialogue. Le bouton devrait s’afficher.

 

 

Configuration du réseau (3)

 

  1. Laissez le commutateur distribué par défaut sélectionné (RegionA01-vDS-Comp).
  2. Laissez la case en regard de vSAN traffic cochée.

Cliquez sur Next.

 

 

Configuration du réseau (4)

 

  1. Redéfinissez l’option « IP settings » sur Static IPv4 settings.
  2. Utilisez les informations suivantes pour remplir les champs « IPv4 Address » et « Subnet Mask ».
IPv4 Address : 192.168.130.54
Subnet Mask : 255.255.255.0

Cliquez sur Next.

 

 

 

Configuration du réseau (5)

 

Vérifiez les paramètres.

Cliquez sur Finish.

 

 

Configuration du réseau (6)

 

Une fois le réseau vSAN configuré sur l’hôte VMware ESXi esxi-04a.corp.local, l’alerte de configuration devient verte au bout de quelques instants.

Vous pouvez aussi effectuer le test manuellement en cliquant sur le bouton Retest.

 

 

Configuration du stockage (1)

 

Une fois le réseau configuré, il faut s’occuper du stockage.

La mobilisation des disques a été effectuée via l’assistant de cluster vSAN, mais uniquement lors de la configuration initiale. L’ajout de disques requiert une intervention manuelle.

Configuration Assist affiche tous les disques encore disponibles, même après l’ajout d’hôtes à un cluster existant.

  1.  Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN -> Configuration Assist.
  4. Développez vSAN Configuration.
  5. Sélectionnez All disks claimed.
  6. La liste des disques disponibles pour vSAN s’affiche.
  7. Sélectionnez Claim Disks for vSAN.

 

 

Configuration du stockage (2)

 

 

  1. Pour Group by, sélectionnez Host.
  2. esx-01a.corp.local, esx-02a.corp.local et esx-03.corp.local contribuent déjà à la capacité de stockage de la banque de données vSAN. Pour ces 3 hôtes VMware ESXi, conservez l’option Do not claim.
  3. Vérifiez que l’hôte VMware ESXi esx-04a.corp.local contribuera à la capacité de stockage du cluster vSAN.

Cliquez sur OK.

 

 

Configuration du stockage (3)

 

Vous pouvez surveiller la tâche de création du groupe de disques dans le volet Recent Tasks.

 

 

 

Configuration du stockage (4)

 

  1. Le test All disks claimed de Configuration Assist doit maintenant passer au vert.
  2. Tous les disques de tous les hôtes VMware ESXi du cluster vSAN doivent maintenant être réclamés.

 

 

 

Configuration du stockage (5)

 

  1. Sélectionnez RegionA01-COMP01.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN ->Disk Management.

Les groupes de disques vSAN de chaque hôte VMware ESXi sont répertoriés.

  1. Vérifiez que le groupe de disques a été créé sur l’hôte VMware ESXi esx-04a.corp.local.

 

 

Configuration Assist

 

La configuration de paramètres tels que vSphere HA/DRS s’effectue également depuis l’interface utilisateur de Configuration Assist.

Ce dernier permet même de mettre à jour les outils et le microprogramme des contrôleurs de stockage émanant de certains fournisseurs OEM.

Avant l’introduction de Configuration Assist, les clients devaient souvent mettre à jour les microprogrammes hors bande, généralement via des consoles distantes ou des processus personnalisés.

 

Conclusion


Configuration Assist est une nouveauté très intéressante de vSAN 6.6 qui centralise les tâches de configuration initiale et ultérieure du cluster vSAN.

La possibilité de modifier les paramètres de configuration aussi bien que le microprogramme du contrôleur renforce la cohérence de l’expérience de gestion.

Félicitations ! Vous avez terminé le module 2

Poursuivez avec l’un des modules ci-dessous selon le thème qui vous intéresse.

• 

Le module 3 explique les fonctionnalités de baie 100 % Flash, ainsi que l’intégration de Storage Policy-Based Management (SPBM) avec vSAN.

• 

Le module 4 présente la fonctionnalité iSCSI (Internet Small Computer Systems Interface) introduite par la version 6.6.1 et décrit ses cas d’usage. Cette fonctionnalité permet le stockage par blocs pour les charges de travail physiques et virtuelles à l’aide du protocole iSCSI.

• 

Le module 5 explique comment ajouter un serveur de gestion des clés et activer le chiffrement vSAN.

• 

Le module 6 présente les améliorations de la version 1 de PowerCLI 6.5 et d’esxcli pour faciliter l’automatisation, la gestion et la surveillance des environnements VMware vSAN.

• 

Apprenez à créer un cluster vSAN étendu Direct Connect à 2 nœuds avec une séparation du trafic témoin.


 

Comment terminer le laboratoire

 

Pour terminer votre laboratoire, cliquez sur le bouton END.

 

Module 3 : fonctionnalités vSAN 100 % Flash (30 minutes, débutant)

Introduction


Dans ce module, nous allons nous pencher sur certaines des fonctionnalités 100 % Flash de VMware vSAN activées via Storage Policy-Based Management (SPBM). Nous nous concentrerons sur les méthodes de tolérance aux pannes qui spécifient si la méthode de réplication de données est optimisée pour les performances ou pour la capacité. Le nombre de pannes tolérées joue un rôle important lors de la planification et de l’estimation de la capacité de stockage pour vSAN.

Les codes d’effacement RAID 5 ou RAID 6 permettent à vSAN de tolérer la panne d’un maximum de 2 appareils de capacité au sein de la banque de données. Vous pouvez configurer RAID 5 sur les clusters 100 % Flash présentant au moins 4 domaines de pannes. Vous pouvez configurer RAID 5 (requiert 4 hôtes VMware ESXi) ou RAID 6 (requiert 6 hôtes VMware ESXi) sur les clusters 100 % Flash. Les codes d’effacement RAID 5 ou RAID 6 requièrent moins de capacité supplémentaire pour protéger vos données que la mise en miroir RAID 1. Par exemple, une VM protégée par une valeur de nombre de pannes tolérées de 1 avec RAID 1 requiert un disque virtuel 2 fois plus volumineux, tandis que RAID 5 requiert un disque virtuel 1,33 fois plus volumineux.

Ce module présente également les objets d’échange de VM.  SwapThickProvisionDisabled a été créé dans le but d’autoriser le provisionnement fin pour les objets d’échange de VM. Si ce paramètre avancé est défini sur True, les objets d’échange de VM bénéficient d’un provisionnement fin.

Ce module comprend les leçons suivantes :


 

Préparation du laboratoire

Si vous avez terminé les modules précédents en effectuant toutes les étapes indiquées, vous pouvez ignorer les étapes ci-après de préparation de votre environnement pour cette nouvelle leçon.

Cliquez pour accéder à la leçon.

Si vous êtes arrivé directement dans ce module, utilisez l’application PowerCLI de sélection de module pour préparer l’environnement.

 

 

Sélecteur de module

 

Double-cliquez sur le raccourci de bureau permettant d’accéder au sélecteur de module.

 

 

Démarrage du module 3

 

  1. Cliquez sur le bouton Start du module 3.

Cette routine de démarrage peut prendre quelques minutes. Merci de patienter.

 

 

Surveillance de la progression

 

Surveillez la progression jusqu’à la fin.

• Appuyez sur Entrée pour continuer (et fermer la fenêtre PowerCLI).

 

 

Préparation du laboratoire terminée

 

La préparation de votre laboratoire pour le module 3 est terminée.

  1. Cliquez sur la croix en haut à droite pour arrêter le sélecteur de module en toute sécurité.

Remarque : vous ne pouvez pas faire « marche arrière » et participer aux modules précédents, sauf si vous recommencez le laboratoire après l’avoir terminé. Par exemple, si vous commencez le module 4, vous ne pouvez pas utiliser le sélecteur de module pour commencer les laboratoires 1, 2 ou 3.

 

Storage Policy-Based Management (SPBM) - Raid 5/6


La méthode de tolérance aux pannes (FTM) est une fonctionnalité introduite dans vSAN 6.2 qui permet aux administrateurs de choisir entre une configuration RAID-1 ou RAID-5/6 pour les objets de leur machine virtuelle.

La méthode de tolérance aux pannes s’utilise en conjonction avec le nombre de pannes à tolérer. Cette configuration permet aux administrateurs de faire un choix entre performances et capacité. S’ils optent pour les performances, ils doivent utiliser la méthode de tolérance RAID-1 (qui reste définie par défaut).

S’ils choisissent la capacité, alors ils doivent utiliser la méthode de tolérance RAID-5/6.

Afin de mieux comprendre le fonctionnement de ces méthodes, penchons-nous sur les différents paramètres de stratégie et sur la configuration des objets qui en résulte.


 

Storage Policy-Based Management (SPBM)

 

Chacune des stratégies de stockage est présentée brièvement ci-dessous.

Number of disk stripes per object : il s’agit du nombre d’appareils de capacité sur lesquels chaque réplica d’un objet de machine virtuelle est segmenté. Une valeur supérieure à 1 peut améliorer les performances, mais également consommer davantage de ressources système.

Flash read cache reservation : capacité Flash réservée en tant que cache de lecture de l’objet de machine virtuelle. Cette valeur est définie comme pourcentage de la taille logique d’objet de disque de machine virtuelle (vmdk). Les autres objets ne peuvent pas utiliser la capacité de mémoire Flash réservée. La mémoire Flash non réservée est partagée de manière équitable entre tous les objets. Cette option doit uniquement être utilisée pour résoudre des problèmes de performances spécifiques.

Primary level failures to tolerate : pour les clusters non étendus, définit le nombre de pannes de domaine, d’hôte ou de disque qu’un objet de stockage peut tolérer. Pour n pannes tolérées, n+1 copies des objets de machine virtuelle sont créées et 2*n+1 hôtes contribuant au stockage sont requis.

Force provisioning : si cette option est définie sur Yes, l’objet sera provisionné même si la banque de données ne peut pas satisfaire la règle spécifiée dans la stratégie de stockage. Utilisez ce paramètre dans des scénarios d’amorçage et en cas de panne, lorsqu’un provisionnement standard n’est plus possible.

Object space reservation : pourcentage de la taille logique d’objet de disque de machine virtuelle (vmdk) à réserver ou à provisionner définitivement lors du déploiement de machines virtuelles.

Disable object checksum : si cette option est définie sur No, l’objet calcule les informations de total de contrôle pour garantir l’intégrité de ses données. Si cette option est définie sur Yes, l’objet ne calcule pas les informations de total de contrôle. Les totaux de contrôle garantissent l’intégrité des données en vérifiant que chaque copie d’un fichier est exactement identique au fichier source. En cas de non-correspondance des totaux de contrôle, vSAN corrige automatiquement l’erreur en remplaçant les données erronées par les données correctes.

Failure tolerance method : spécifie si la méthode de réplication de données est optimisée pour les performances ou pour la capacité. Si vous privilégiez les performances, vSAN utilise davantage d’espace disque pour placer les composants des objets, mais fournit de meilleures performances lors de l’accès aux objets. Si vous privilégiez la capacité, vSAN utilise moins d’espace disque, mais ses performances sont réduites.

IOPS limit for object : définit la limite IOPS d’un disque. L’IOPS est calculé en tant que nombre d’opérations d’E/S, à l’aide d’une taille pondérée. Si le système utilise la taille de base par défaut de 32 ko, alors une E/S de 64 ko représente deux opérations d’E/S. Lors du calcul des IOPS, les opérations de lecture et d’écriture sont équivalentes, tandis que le rapport cache/résultat et l’organisation séquentielle ne sont pas pris en compte. Si les IOPS d’un disque dépassent la limite, les opérations d’E/S seront limitées. Si la limite d’IOPS de l’objet est définie sur 0, aucune limite d’IOPS n’est appliquée.

 

 

Storage Policy-Based Management (SPBM) - Raid 5/6 (code d’effacement)

 

Remarque : l’implémentation des configurations RAID-5 ou RAID-6 sur vSAN requiert un certain nombre d’hôtes.

Pour RAID-5, il faut au moins 4 hôtes ; pour RAID-6, il faut au moins 6 hôtes.

Les objets sont ensuite déployés à travers le stockage sur chacun des hôtes, avec un calcul de parité. La configuration utilise la parité distribuée, de sorte qu’il n’ y a pas de disque de parité dédié. Lorsqu’une panne se produit dans le cluster et affecte les objets qui ont été déployés à l’aide de RAID-5 ou de RAID-6, les données sont toujours disponibles et peuvent être calculées à l’aide des données et de la parité restantes si nécessaire.

Nous avons introduit un nouveau paramètre de stratégie pour prendre en compte les nouvelles configurations RAID-5/RAID-6.

Ce nouveau paramètre de stratégie est nommé Failure Tolerance Method. Il peut être défini sur deux valeurs : Performance et Capacity. Lorsqu’il est défini sur « Performance » (sa valeur par défaut), les objets continuent d’être déployés avec une configuration RAID-1 ou une configuration en miroir, afin d’optimiser les performances. Lorsqu’il est défini sur « Capacity », les objets sont déployés avec une configuration RAID-5 ou RAID-6.

Le choix entre les configurations RAID-5 et RAID-6 est déterminé par le paramètre Number of failures to tolerate. Si ce dernier est défini sur 1, la configuration est RAID-5. Si ce dernier est défini sur 2, la configuration est RAID-6.

 

 

Storage Policy-Based Management (SPBM) - Raid 5/6 (code d’effacement)

 

Nous devons commencer par créer une stratégie de stockage pour VM qui définira la méthode de tolérance aux pannes de Raid 5/6.

  1. Ouvrez le menu Home de vSphere Web Client.
  2. Sélectionnez Policies and Profiles.

 

 

Storage Policy-Based Management (SPBM) - Raid 5/6 (code d’effacement)

 

  1. Sélectionnez VM Storage Policies.
  2. Sélectionnez Create a New VM Storage policy.

 

 

Storage Policy-Based Management (SPBM) - Raid 5/6 (code d’effacement)

 

Créez une stratégie de stockage pour VM portant le nom suivant :

PFTT=1-Raid5

 

Cliquez sur Next.

Cliquez sur Next sur la page d’informations Policy structure.

Cliquez sur Next sur la page 2a Common Rules.

 

 

Storage Policy-Based Management (SPBM) - Raid 5/6 (code d’effacement)

 

Créez un jeu de règles en utilisant les informations suivantes :

Sélectionnez VSAN pour le champ Storage Type, puis ajoutez des règles pour Primary level of failures to tolerate et Failure tolerance method.

Storage Type : VSAN
Règle 1 : Primary level of failures to tolerate = 1
Règle 2 : Failure tolerance method = Raid-5/6 (Erasure Coding)- Capacity

Avant de cliquer sur Next, vérifiez les éléments suivants :

Modifiez la valeur de Failure tolerance method = RAID-1 (Mirroring) - Performance.

Examinez la valeur de Storage Consumption Model à droite de l’écran. Notez que la valeur de Storage space doit être de 200 Go pour un disque virtuel de 100 Go.

Modifiez la valeur de Failure tolerance method = Raid-5/6 (Erasure Coding)-Capacity. Vous constatez que la valeur de Storage space passe à 133 Go.

Cliquez sur Next.

 

 

Storage Policy-Based Management (SPBM)

 

La compatibilité du stockage est déterminée par la stratégie de stockage pour VM.

Vous pouvez constater que vsanDatastore est compatible avec la stratégie de stockage pour VM que nous allons créer.

La capacité totale de la banque de données de vSAN peut varier selon le nombre de groupes de disques vSAN que vous avez créés sur chaque hôte VMware ESXi de votre cluster vSAN.

Cliquez sur Next.

 

 

Storage Policy-Based Management (SPBM) - Raid 5/6 (code d’effacement)

 

Vérifiez les paramètres de stratégie de stockage de la VM.

Cliquez sur Finish.

 

 

Storage Policy-Based Management (SPBM) - Raid 5/6 (code d’effacement)

 

  1. Sélectionnez FTT=1-Raid5.
  2. Sélectionnez Manage.
  3. Sélectionnez Rule-Set-1:VSAN.

Voici les règles constituant notre stratégie de stockage pour VM.

 

 

Capacité vSAN - Raid 5/6 (code d’effacement)

 

  1. Sélectionnez Home -> Hosts and Clusters.
  2. Sélectionnez RegionA01-COMP01.
  3. Sélectionnez Monitor.
  4. Sélectionnez vSAN.
  5. Sélectionnez Capacity.

Notez la capacité indiquée ici. (La majorité de notre vsanDatastore est vide)

La capacité totale de la banque de données de vSAN peut varier selon le nombre de groupes de disques vSAN que vous avez créés sur chaque hôte VMware ESXi de votre cluster vSAN.

 

 

Clonage de la VM dans la banque de données vSAN - Raid 5/6 (code d’effacement)

 

Nous allons cloner la VM nommée core-A (qui réside actuellement dans une banque de données VMFS locale) sur la banque de données vSAN, puis nous appliquerons la stratégie de stockage pour VM (PFTT=1-Raid5) que nous venons de créer.

  1. Développez l’hôte VMware ESXi esxi-07a.corp.local, puis cliquez avec le bouton droit sur la VM nommée core-A.
  2. Sélectionnez Clone.
  3. Sélectionnez Clone to Virtual Machine.

 

 

Clonage de la VM dans la banque de données vSAN - Raid 5/6 (code d’effacement)

 

Nommez la machine virtuelle :

PFTT=1-Raid5

Cliquez sur Next.

 

 

Clonage de la VM dans la banque de données vSAN - Raid 5/6 (code d’effacement)

 

Développez la ressource de calcul nommée RegionA01-COMP01.

Sélectionnez l’hôte VMware ESXi esx-01a.corp.local.

Cliquez sur Next.

 

 

Clonage de la VM dans la banque de données vSAN - Raid 5/6 (code d’effacement)

 

  1. Pour VM Storage Policy, sélectionnez PFTT=1-Raid5.

La liste des banques de données compatibles s’affiche : en l’occurrence, il s’agit de vsanDatastore.

Dans la section inférieure de l’écran, nous pouvons voir que le stockage vSAN consommé serait de 133,33 Mo d’espace disque et de 0,00 octet d’espace Flash réservé.

Comme notre VM a 100 Mo d’espace disque et une stratégie de stockage pour VM Raid 5, la consommation d’espace disque de vSAN sera de 133,33 Mo.

Cliquez sur Next.

Cliquez sur Next sur la page Select clone options.

 

 

Clonage de la VM dans la banque de données vSAN - Raid 5/6 (code d’effacement)

 

Cliquez sur Finish.

Attendez que l’opération de clonage se termine.

Dans Recent Tasks, vérifiez la mise à jour de statut de la tâche Clone virtual machine.

 

 

Clonage de la VM dans la banque de données vSAN - Raid 5/6 (code d’effacement)

 

Une fois l’opération de clonage terminée :

  1. Sélectionnez la VM nommée PFTT=1-Raid5.
  2. Sélectionnez Summary.
  3. Sélectionnez Related Objects.

La VM réside à présent dans vsanDatastore.

  1. Sélectionnez VM Storage Policies.
  • Vous pouvez constater que la stratégie de stockage de cette VM est définie sur PFTT=1-Raid5 et présente le statut compliant.

 

 

 

Règles de disque : FTT=1 Raid 5

 

  1. Sélectionnez la VM PFTT=1-Raid5.
  2. Sélectionnez Monitor.
  3. Sélectionnez Policies.
  4. Sélectionnez Hard Disk 1.
  5. Sélectionnez Physical Disk Placement.

Notez que cette stratégie de stockage pour VM entraîne un placement de disque Raid 5, constitué de 4 composants.

Un composant réside sur chaque hôte du cluster.

 

 

Capacité vSAN - Raid 5/6 (code d’effacement)

 

Un affichage de la capacité permet aux administrateurs de savoir où le stockage est consommé.

  1. Sélectionnez RegionA01-COMP01.
  2. Sélectionnez Monitor.
  3. Sélectionnez vSAN.
  4. Sélectionnez Capacity.

Commençons par observer le tableau de bord Capacity Overview. La première information à retenir est la taille complète de la banque de données vSAN. Elle est d’environ 80 Go. Nous pouvons aussi voir la charge de déduplication et compression.

La quantité d’espace de banque de données vSAN indiquée par Used – Total correspond à la quantité d’espace ayant reçu des écritures physiques (contrairement à la taille logique). Il s’agit d’une combinaison de disques virtuels, d’objets de base de la VM, d’objets d’échange, d’objets de gestion des performances et d’autres éléments pouvant résider dans la banque de données. Les autres éléments peuvent être des images ISO, des VM non enregistrées ou des modèles.

La vue d’ensemble Deduplication and Compression située en haut à droite permet aux administrateurs d’estimer les économies d’espace et le ratio de déduplication obtenus, ainsi que la quantité d’espace pouvant être requise si un administrateur décide de désactiver les fonctionnalités d’optimisation d’espace sur vSAN et de regonfler les objets dédupliqués et compressés.

Le ratio d’économies d’espace augmente conjointement au nombre de VM « similaires » déployées.

Ceci nous indique que, sans déduplication et compression, il aurait fallu environ 11 Go de capacité pour déployer les charges de travail actuelles. La déduplication et la compression ont permis de réduire cet espace à environ 3,6 Go. (Les valeurs de capacité affichées dans votre environnement de laboratoire peuvent être différentes.)

 

 

Capacité vSAN - Raid 5/6 (code d’effacement)

 

La partie inférieure de l’écran Capacity présente une répartition des objets.

  1. Sélectionnez RegionA01-COMP01.
  2. Sélectionnez Monitor.
  3. Sélectionnez vSAN.
  4. Sélectionnez Capacity.

Paramètre Group by : Object Types

Performance management objects : capacité consommée par les objets créés pour stocker les mesures de performance lorsque le service Performance est activé.

File system overhead : toute capacité supplémentaire prélevée par le système de fichiers sur disque (VirstoFS) sur les disques de capacité indépendamment de la capacité supplémentaire mobilisée pour la déduplication, la compression ou le total de contrôle. Lorsque la déduplication et la compression sont activées, les demandes de capacité supplémentaire du système de fichiers sont multipliées par 10 pour refléter l’augmentation de la taille logique de la banque de données vSAN.

Deduplication and compression overhead : demande de capacité supplémentaire encourue pour bénéficier des avantages de la déduplication et de la compression. Ceci inclut la table de mappage associée, les tables de hachage et d’autres mécanismes requis pour la déduplication et la compression.

Checksum overhead : demande de capacité supplémentaire pour stocker tous les totaux de contrôle. Lorsque la déduplication et la compression sont activées, la demande de capacité supplémentaire pour le total de contrôle est multipliée par 10 pour refléter l’augmentation de la taille logique de la banque de données vSAN. Lorsqu’une VM et un modèle sont déployés sur la banque de données vSAN, d’autres objets s’affichent :

Virtual disks : capacité consommée par les objets de disques de machine virtuelle (VMDK) qui résident dans la banque de données vSAN.

VM home objects : capacité consommée par les objets de dossier de base de machine virtuelle (qui contiennent les fichiers de la machine virtuelle) résidant dans la banque de données vSAN.

Swap objects : capacité consommée par l’espace d’échange de VM résidant dans la banque de données vSAN lors de la mise sous tension d’une machine virtuelle.

Vmem : capacité consommée par les objets de mémoire, créés lors de la prise d’un snapshot de VM incluant la mémoire de la VM, ou à partir des machines virtuelles suspendues. Notez que ceci ne sera visible que sur les machines virtuelles qui utilisent au moins Virtual Hardware V10.

Other : capacité consommée notamment par les modèles de VM, les VM non enregistrées, les VMDK autonomes non associés à une VM, les objets vSAN créés manuellement et les répertoires créés manuellement stockant des images ISO.

 

 

Implémentation des règles de disque Raid 6

 

Pour l’instant, votre environnement de laboratoire exploite un cluster vSAN à 4 nœuds. Pour implémenter Raid 6, vous devez utiliser au moins 6 hôtes dans le cluster vSAN.

La stratégie de stockage pour VM a une méthode de tolérance aux pannes définie sur Raid 5/6 - ( Erasure Coding ) - Capacity et le niveau de pannes à tolérer principal est défini sur 2.

Pour une configuration Raid-6 vous devez consommer 1,5 fois le stockage affecté à la VM.

 

 

Implémentation des règles de disque Raid 6

 

Voici un exemple de VM avec une configuration de stratégie de stockage pour VM Raid 6.

Dans la configuration Raid 6, il y a 6 composants, qui sont répartis sur les 6 hôtes VMware ESXi du cluster.

Il s’agit seulement d’un exemple.

 

Nouvel objet d’échange à optimisation de VM


L’objet d’échange de VM possède également ses propres paramètres de stratégie. La stratégie d’un objet d’échange de VM présente toujours un nombre de pannes à tolérer défini sur 1. Cela se justifie par le fait qu’un échange n’a pas besoin d’être persistant lors du redémarrage d’une machine virtuelle. Par conséquent, si vSphere High Availability redémarre la machine virtuelle sur un autre hôte du cluster, un nouvel objet d’échange est créé. Il n’y a donc pas besoin d’ajouter de protection supérieure à la tolérance d’une seule panne.

Par défaut, les objets d’échange sont provisionnés à 100 % en amont, sans qu’il soit nécessaire de fixer la réservation d’espace de l’objet à 100 % dans la stratégie. Cela signifie, en termes de contrôle d’admission, que vSAN ne déploiera la VM que s’il y a assez d’espace disque pour prendre en charge l’intégralité de son objet d’échange. Dans vSAN 6.2, l’option d’hôte avancé SwapThickProvisionDisabled avait été créée dans le but d’autoriser le provisionnement fin pour les objets d’échange de VM. Si ce paramètre avancé est défini sur True, les objets d’échange de VM feront l’objet d’un provisionnement fin.


 

Nouvel objet d’échange à optimisation de VM

 

Pour afficher cet exemple, la seule VM que nous devons activer dans notre environnement est celle nommée PFTT=1-Raid5, que nous avons créée précédemment. Si cette VM est désactivée, activez-la.

Si d’autres VM sont en cours d’exécution dans le cluster RegionA01-COMP01, désactivez-les dès maintenant.

Dans la VM nommée PFTT=1-Raid5, nous pouvons constater qu’une mémoire de 256 Mo est affectée.

Notez l’hôte VMware ESXi sur lequel est exécutée la VM : il est possible qu’il soit différent de celui affiché ici.

 

 

Nouvel objet d’échange à optimisation de VM

 

À présent, basculez vers la vue Capacity.

  1. Sélectionnez RegionA01-COMP01.
  2. Sélectionnez Monitor.
  3. Sélectionnez vSAN.
  4. Sélectionnez Capacity.

Faites défiler la vue Capacity vers le bas pour afficher la section Used Capacity Breakdown.

Ici, nous pouvons constater que les objets d’échange (ligne Swap Objects) occupent environ 548 Mo.

 

 

Désactivation de la VM

 

  1. Cliquez avec le bouton droit sur la VM nommée PFTT=1-Raid5.
  2. Sélectionnez Power.
  3. Sélectionnez Power Off.

 

 

Nouvel objet d’échange à optimisation de VM

 

À présent, revenez à la vue Capacity.

  1. Sélectionnez RegionA01-COMP01.
  2. Sélectionnez Monitor.
  3. Sélectionnez vSAN.
  4. Sélectionnez Capacity.

Faites défiler l’écran vers le bas jusqu’à Used Capacity Breakdown.

Comme prévu, aucun objet d’échange de VM n’occupe de l’espace dans la banque de données vSAN, car la machine virtuelle est désactivée.

 

 

Nouvel objet d’échange à optimisation de VM

 

  1. Sélectionnez la machine virtuelle nommée PFTT=1-Raid5.
  2. Sélectionnez Summary.
  3. Notez l’hôte VMware ESXi sur lequel la VM est enregistrée.

 

 

Nouvel objet d’échange à optimisation de VM

 

Ouvrez une session puTTY sur l’hôte VMware ESXi sur lequel la VM PFTT=1-Raid5 est enregistrée.

La première chose à noter est que ce paramètre avancé doit être défini sur chaque hôte VMware ESXi du cluster vSAN.

Dans notre environnement, nous le définirons uniquement sur l’hôte VMware ESXi qui va exécuter la VM.

Remarque : vous pouvez faire glisser, puis déposer la commande depuis le manuel ou utiliser l’option « send text » dans le menu supérieur.

Le paramètre est nommé SwapThickProvisionDisabled. Il est désactivé par défaut :

esxcfg-advcfg -g /VSAN/SwapThickProvisionDisabled

Pour l’activer :

esxcfg-advcfg -s 1 /VSAN/SwapThickProvisionDisabled

 

 

Activation de la VM

 

  1. Cliquez avec le bouton droit sur la VM nommée PFTT=1-Raid5.
  2. Sélectionnez Power.
  3. Sélectionnez Power On.

 

 

Nouvel objet d’échange à optimisation de VM

 

Revenez à la vue Capacity.

  1. Sélectionnez RegionA01-COMP01.
  2. Sélectionnez Monitor.
  3. Sélectionnez vSAN.
  4. Sélectionnez Capacity.

À présent, nous pouvons constater que les objets d’échange (ligne Swap objects) consomment seulement 36 Mod’espace disque, au lieu de 548 Mo.

Cette fonctionnalité permet d’économiser beaucoup d’espace de capacité.

Son efficacité dépend du nombre de VM déployées et de la taille de l’espace d’échange de VM (et surtout de la taille de la mémoire non réservée affectée à la VM).

 

 

 

Désactivation du paramètre d’objet d’échange à optimisation de VM

 

Comme nous n’avons activé ce paramètre avancé de vSAN que sur un seul hôte VMware ESXi, le bilan d’intégrité vSAN signalera une configuration vSAN désynchronisée.

Nous allons désactiver de nouveau cette option de configuration avancée de vSAN.

Revenez à la session PuTTY et exécutez la commande suivante pour désactiver le paramètre :

esxcfg-advcfg -s 0 /VSAN/SwapThickProvisionDisabled

 

Conclusion


Dans ce module, nous avons vu quelques-unes des fonctionnalités de stratégie de stockage pour VM disponibles dans VMware vSAN 6.6.

Nous avons commencé par la méthode de tolérance aux pannes, qui nous a permis de choisir d’optimiser la méthode de réplication des données pour les performances ou pour la capacité. Si vous privilégiez les performances, vSAN utilise davantage d’espace disque pour placer les composants des objets, mais fournit de meilleures performances lors de l’accès à ces objets. Si vous privilégiez la capacité, vSAN utilise moins d’espace disque, mais ses performances sont réduites.

Puis nous sommes passés à l’objet d’échange à optimisation de VM. Cette nouvelle fonctionnalité permet d’économiser beaucoup d’espace de capacité dans la mesure où les objets d’échange de VM bénéficient d’un provisionnement fin.


 

Vous avez terminé le module 3.

Félicitations ! Vous avez terminé le module 3.

Poursuivez avec l’un des modules ci-dessous selon le thème qui vous intéresse.

• 

Le module 4 présente la fonctionnalité iSCSI (Internet Small Computer Systems Interface) introduite par la version 6.6.1 et décrit ses cas d’usage. Cette fonctionnalité permet le stockage par blocs pour les charges de travail physiques et virtuelles à l’aide du protocole iSCSI.

• 

Le module 5 explique comment ajouter un serveur de gestion des clés et activer le chiffrement vSAN.

• 

Le module 6 présente les améliorations de la version 1 de PowerCLI 6.5 et d’esxcli pour faciliter l’automatisation, la gestion et la surveillance des environnements VMware vSAN.

• 

Apprenez à créer un cluster vSAN étendu Direct Connect à 2 nœuds avec une séparation du trafic témoin.

 

 

 

Comment terminer le laboratoire

 

Pour terminer votre laboratoire, cliquez sur le bouton END.

 

Module 4 : cible iSCSI vSAN (30 minutes, débutant)

Introduction


Les réseaux de stockage iSCSI utilisent des connexions Ethernet entre les systèmes informatiques, ou serveurs hôtes, et les sous-systèmes de stockage hautes performances. Les composants de réseau de stockage comprennent les adaptateurs de bus hôte iSCSI (HBA) ou les cartes réseau des serveurs hôtes, les commutateurs et les routeurs qui transfèrent le trafic de stockage, les câbles, les processeurs de stockage (SP) et les systèmes de disques de stockage.

Un SAN iSCSI repose sur une architecture client-serveur. Le client, appelé initiateur iSCSI, opère sur votre hôte. Il établit des sessions iSCSI en émettant des commandes SCSI, qu’il transmet à un serveur après les avoir encapsulées dans le protocole iSCSI. Ce serveur constitue alors une cible iSCSI. La cible iSCSI représente un système de stockage physique sur le réseau. Elle peut aussi être fournie par un réseau de stockage iSCSI virtuel, comme un émulateur cible iSCSI exécuté dans une machine virtuelle. La cible iSCSI répond aux commandes de l’initiateur en transmettant les données iSCSI requises.

Pour être plus précis, les « cibles iSCSI sur vSAN » sont gérées de la même manière que les autres objets via Storage Policy-Based Management (SPBM), ce qui signifie qu’il est possible d’utiliser des fonctionnalités telles que la déduplication, la compression, la mise en miroir et les codes d’effacement.

Ce module comprend les leçons suivantes :

 

Types de système de stockage iSCSI

Système de stockage actif-actif

Permet d’accéder aux LUN simultanément à travers tous les ports de stockage disponibles, sans dégradation significative des performances. Tous les chemins d’accès sont actifs à tout moment, sauf en cas de panne d’un chemin.

Système de stockage actif-passif

Système dans lequel un processeur de stockage donne activement accès à un LUN donné. Les autres processeurs servent de sauvegarde pour le LUN et peuvent fournir un accès actif à d’autres E/S de LUN.

L’envoi des E/S peut uniquement réussir vers le port actif d’un LUN précis. Si l’accès via le port de stockage actif échoue, l’un des processeurs de stockage passif peut être activé par les serveurs qui y accèdent.

Système de stockage asymétrique

Prend en charge l’accès asymétrique aux unités logiques (ALUA). Les systèmes de stockage ALUA offrent différents niveaux d’accès par port. ALUA permet aux hôtes de déterminer l’état des ports cibles et de prioriser les chemins. L’hôte utilise certains des chemins actifs comme chemins primaires et d’autres comme chemins secondaires.

Système de stockage de port virtuel

Permet d’accéder à tous les LUN disponibles via un seul port virtuel. Ce sont des appareils de stockage actifs-actifs, mais ils cachent leurs connexions multiples via un seul port. Le multipathing VMware ESXi n’effectue pas de connexions multiples depuis un port spécifique vers le stockage par défaut. Certains fournisseurs de stockage fournissent des gestionnaires de session pour établir et gérer plusieurs connexions à leur stockage. Ces systèmes de stockage gèrent le basculement des ports et l’équilibrage des connexions en toute transparence. Dans ce cas, on parle généralement de « basculement transparent ».

 


 

Cas d’usage de cible iSCSI

 

VMware vSAN garantit une évolutivité et des performances de classe d’entreprise, ainsi que de nouvelles fonctionnalités qui étendent son champ d’application à un large éventail de cas d’usage. VMware vSAN est adapté au stockage de toutes vos machines virtuelles. À présent, grâce aux cibles iSCSI vSAN, ses capacités s’étendent aux charges de travail physiques.

Les cas d’usages les plus courants communiqués par nos clients incluent :

  • Les applications stratégiques
  • L’informatique pour l’utilisateur (VDI)
  • La reprise d’activité
  • Les bureaux distants/succursales (ROBO)

 

 

Préparation du laboratoire

 

Si vous avez terminé les modules précédents en effectuant toutes les étapes indiquées, vous pouvez ignorer les étapes ci-après de préparation de votre environnement pour cette nouvelle leçon.

Cliquez pour accéder à la leçon.

Si vous êtes arrivé directement dans ce module, utilisez l’application PowerCLI de sélection de module pour préparer l’environnement. Nous allons utiliser notre application PowerCLI de sélection de module pour préparer l’environnement.

 

 

Sélecteur de module

 

Si vous n’avez pas terminé les leçons précédentes, sachez que le sélecteur de module nous permet de préparer l’environnement du laboratoire pour que vous puissiez suivre les étapes de cette leçon.

  1. Démarrez le sélecteur de module nommé HOL-1808-HCI sur le bureau Windows

 

 

Démarrage du module 4

 

Cliquez sur le bouton Start du module 4

Cette routine de démarrage peut prendre quelques minutes. Merci de patienter.

 

 

Surveillance de la progression

 

Surveillez la progression jusqu’à la fin.

• Appuyez sur Entrée pour continuer (et fermer la fenêtre PowerCLI).

 

 

Préparation du laboratoire terminée

 

La préparation de votre laboratoire pour le module 4 est terminée.

  1. Cliquez sur la croix en haut à droite pour arrêter le sélecteur de module en toute sécurité.

Remarque : vous ne pouvez pas faire « marche arrière » et participer aux modules précédents, sauf si vous recommencez le laboratoire après l’avoir terminé.

Par exemple, si vous commencez le module 4, vous ne pouvez pas utiliser le sélecteur de module pour commencer les laboratoires 1, 2 ou 3.

 

Configuration des cibles iSCSI


Le service de cible iSCSI de vSAN s’active en quelques clics. Les authentifications CHAP et CHAP mutuelle sont prises en charge. Les objets vSAN qui servent de cibles iSCSI sont gérés à l’aide de stratégies de stockage, tout comme les objets de machine virtuelle.


 

Activation du service de cible iSCSI sur le cluster vSAN

 

Pour activer le service de cible iSCSI sur un cluster vSAN :

  1. Ouvrez le menu Home de vSphere Web Client.
  2. Sélectionnez Hosts and Clusters.

 

 

Activation du service de cible iSCSI sur le cluster vSAN

 

Activation du service de cible iSCSI de vSAN

  1. Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez l’onglet Configure.
  3. Sélectionnez vSAN > General.
  4. Cliquez sur Edit en regard de la section « vSAN iSCSI Target Service ».

 

 

Activation du service de cible iSCSI sur le cluster vSAN

 

  1. Cochez la case en regard de Enable vSAN iSCSI Target Service.
  2. Le paramètre Default iSCSI network est défini sur vmk3 dans notre environnement. Nous pouvons conserver cette valeur par défaut.
  3. Nous allons définir le paramètre Storage policy for the home object sur vSAN Default Storage Policy.

Cliquez sur OK.

Remarque : avant de passer à l’étape suivante, veuillez vous assurer que TOUTES les tâches sont terminées. Vérifiez que le statut des tâches vSphere WebClient est correct.

 

 

Activation du service de cible iSCSI sur le cluster vSAN

 

Vérifiez que le service de cible iSCSI vSAN est activé.

 

 

Création de cibles iSCSI

 

Pour créer une cible iSCSI :

  1. Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez l’onglet Configure.
  3. Sélectionnez vSAN -> iSCSI Targets.
  4. Cliquez sur Add (+).

 

 

Détails de la cible iSCSI

 

  1. Définissez un Alias pour la cible TGT-01.
  2. Cochez la case en regard de Add your first LUN to the iSCSI Target.
  3. Entrez la valeur 10 pour le paramètre LUN ID.
  4. Entrez un Alias pour le LUN, tel que Lun-10.
  5. Définissez la taille de LUN (2 Go).

Cliquez sur OK.

Remarque : l’IQN cible (nom iSCSI qualifié unique) peut changer en fonction du laboratoire.

 

 

Détails de la cible iSCSI

 

 

La cible iSCSI vSAN et le LUN sont créés.

 

 

Création d’une liste d’accès des appareils iSCSI

 

La dernière étape consiste à ajouter des noms d’initiateurs à un groupe d’initiateurs qui contrôle l’accès à la cible, comme illustré ici.

  1. Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez l’onglet Configure.
  3. Sélectionnez vSAN -> iSCSI Initiator Groups.
  4. Cliquez sur Add (+).

 

 

Nouveau groupe d’initiateurs iSCSI vSAN

 

  1. Définissez le nom du groupe d’initiateurs (Initiator-Group-01).
  2. Cliquez sur OK.

 

 

Nouveau groupe d’initiateurs iSCSI vSAN

 

Vérifiez que le groupe d’initiateurs iSCSI vSAN a été créé.

 

 

Configuration d’un initiateur iSCSI sur la console principale d’une VM Windows

 

Cette leçon émule un serveur physique se connectant à un cluster iSCSI vSAN.

Remarque : ceci est présenté uniquement pour l’exemple, puisque l’association d’un volume iSCSI vSAN est uniquement prise en charge pour les hôtes physiques.

  1. Ouvrez l’application iSCSI initiator située sur votre bureau.
  2. Sélectionnez l’onglet Configuration.
  3. Copiez (CTRL+C) la chaîne Initiator Name dans le Presse-papiers.

Exemple :

iqn.1991-05.com.microsoft:controlcenter.corp.local

 

 

Configuration de l’initiateur iSCSI pour une cible iSCSI vSAN

 

  1. Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez l’onglet Configure.
  3. Sélectionnez vSAN -> iSCSI Initiator Groups.
  4. Sélectionnez le groupe d’initiateurs nommé Initiator-Group-01.
  5. Sélectionnez l’onglet Initiator.
  6. Cliquez sur Add (+).

 

 

Configuration de l’initiateur iSCSI pour une cible iSCSI vSAN

 

 

  1. Collez (CTRL+V) la chaîne Initiator Name dans le tableau Member initiator name, puis cliquez sur Add.

Cliquez sur OK.

 

 

Configuration de l’initiateur iSCSI pour une cible iSCSI vSAN

 

Vérifiez que l’initiateur a été ajouté à vSAN iSCSI Initiator Group.

 

 

Ajout de cibles accessibles

 

  1. Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez l’onglet Configure.
  3. Sélectionnez vSAN -> iSCSI Initiator Groups.
  4. Sélectionnez le groupe d’initiateurs nommé Initiator-Group-01.
  5. Sélectionnez l’onglet Accessible Targets.
  6. Cliquez sur Add (+).

 

 

Ajout de cibles accessibles

 

  1. Sélectionnez l’onglet Target IQN.
  2. Cliquez sur OK.

 

 

Connexion de l’hôte à la cible iSCSI

 

  1. Localisez l’un des hôtes VMware ESXi dans le cluster vSAN. Dans cet exemple, nous utilisons esx-01a.corp.local.
  2. Sélectionnez Configure.
  3. Sélectionnez Networking -> VMkernel Adapters.
  4. Notez l’adresse IP du groupe de ports VMkernel vSAN  (192.168.130.51).

 

 

Connexion de l’hôte à la cible iSCSI

 

Ouvrez l’application iSCSI initiator située sur le bureau.

  1. Sélectionnez l’onglet Discovery.
  2. Sélectionnez Discover Portal.

 

 

Connexion de l’hôte à la cible iSCSI

 

  1. Entrez l’adresse IP associée à la machine virtuelle vmk3 de l’hôte esx-01a.corp.local (192.168.130.51).

Cliquez sur OK.

 

 

Connexion de l’hôte à la cible iSCSI

 

1. Cliquez sur l’onglet Targets.

Notez que la cible est à l’état Inactive.

2. Cliquez sur Connect.

 

 

 

Connexion de l’hôte à la cible iSCSI

 

  1. Cliquez sur Enable multi-path.
  2. Cliquez sur OK.

Vérifiez que la cible détectée est à l’état Connected.

 

 

Initialiser le disque iSCSI

 

Ouvrez l’outil Computer Management en double-cliquant sur le raccourci de bureau Computer Management.

  1. Cliquez sur Storage > Disk Management.
  2. Windows vous invite à initialiser le disque 1 (vérifiez la présence d’une fenêtre contextuelle dans la barre des tâches).
  3. Validez les informations/options, puis cliquez sur OK.

 

 

Nouveau volume simple

 

Créez un volume simple pour commencer à utiliser le nouveau disque :

  1. Cliquez avec le bouton droit sur Disk 1, le disque non alloué de 2 Go, puis sélectionnez New Simple Volume.
  2. Acceptez les paramètres par défaut de l’assistant et nommez le volume (vSAN iSCSI Volume).
  3. Cliquez sur « Next », puis Finish pour terminer l’assistant.

 

 

Formatage du nouveau volume (E:)

 

Remarque : il se peut que Windows vous invite à formater le disque (voir la barre des tâches) : contentez-vous en ce cas de cliquer sur Cancel, dans la mesure où vous avez déjà effectué ce formatage.

 

 

 

Test du volume basé sur iSCSI dans Windows

 

Ouvrez l’Explorateur Windows (raccourci sur la barre des tâches) et accédez au dossier C:\

Cliquez avec le bouton droit et copiez le dossier Software.

 

 

Copie des données vers un lecteur basé sur iSCSI

 

Accédez au nouveau volume (E:).

Cliquez avec le bouton droit sur la racine du volume et sélectionnez Paste.

 

 

Examen de l’utilisation de la cible iSCSI dans le client Web

 

  1. Ouvrez vSphere Web Client.
  2. Sélectionnez Storage.
  3. Cliquez sur vsanDatastore.
  4. Sélectionnez Files.
  5. Développez le dossier .iSCSI-CONFIG. Développez le dossier targets. Sélectionnez le dossier contenu dans le dossier targets.
  6. Vérifiez que l’objet VMDK vSAN existe.

 

Conclusion


Dans ce module, nous avons présenté la nouvelle fonctionnalité iSCSI qui fait partie de la dernière version de VMware vSAN. Nous avons commencé par vous montrer comment activer les services cibles iSCSI et comment configurer l’initiateur iSCSI. Une fois la configuration effectuée, nous avons vu comment joindre un hôte au volume iSCSI, ce qui permet de disposer de solutions de stockage alternatives simples et économiques pour les hôtes physiques.


 

Vous avez terminé le module 4.

Félicitations ! Vous avez terminé le module 4.

Poursuivez avec l’un des modules ci-dessous selon le thème qui vous intéresse.

• 

Le module 5 explique comment ajouter un serveur de gestion des clés et activer le chiffrement vSAN.

• 

Le module 6 présente les améliorations de la version 1 de PowerCLI 6.5 et d’esxcli pour faciliter l’automatisation, la gestion et la surveillance des environnements VMware vSAN.

• 

Apprenez à créer un cluster vSAN étendu Direct Connect à 2 nœuds avec une séparation du trafic témoin.

 

 

Comment terminer le laboratoire

 

Pour terminer votre laboratoire, cliquez sur le bouton END.

 

Module 5 : chiffrement vSAN (30 minutes, débutant)

Introduction


Le chiffrement des données inactives permet de protéger les données de votre cluster vSAN.

VMware vSAN peut assurer le chiffrement des données inactives. Les données sont chiffrées lorsque tous les autres traitements, comme la déduplication, ont été effectués. Le chiffrement des données inactives protège les données situées dans les appareils de stockage dans l’éventualité où un appareil serait retiré du cluster.

L’utilisation du chiffrement sur votre cluster vSAN requiert quelques préparatifs. Une fois votre environnement configuré, vous pouvez activer le chiffrement sur votre cluster vSAN.

Le chiffrement vSAN nécessite un serveur de gestion des clés (KMS) externe, le système vCenter Server et vos hôtes VMware ESXi. vCenter Server demande des clés de chiffrement à un système KMS externe. Le système KMS génère et stocke les clés, et vCenter Server obtient les ID de clé du système KMS et les distribue aux hôtes VMware ESXi.

vCenter Server ne stocke pas les clés KMS, mais conserve une liste d’ID de clé.

Ce module comprend les leçons suivantes :


 

Préparation du laboratoire

Si vous avez terminé les modules précédents en effectuant toutes les étapes indiquées, vous pouvez ignorer les étapes ci-après de préparation de votre environnement pour cette nouvelle leçon.

Cliquez pour accéder à la leçon.

Si vous êtes arrivé directement dans ce module, utilisez l’application PowerCLI de sélection de module pour préparer l’environnement.

 

 

Sélecteur de module

 

Double-cliquez sur le raccourci de bureau permettant d’accéder au sélecteur de module HOL-1808-HCI.

 

 

Démarrage du module 5

 

  1. Cliquez sur le bouton Start du module 5.

 

 

Progression du démarrage du module 5

 

Surveillez la progression jusqu’à la fin.

• Appuyez sur Entrée pour continuer (et fermer la fenêtre PowerCLI).

 

 

Préparation du laboratoire terminée

 

La préparation de votre laboratoire pour le module 5 est terminée.

  1. Cliquez sur la croix en haut à droite pour arrêter le sélecteur de module en toute sécurité.

Remarque : vous ne pouvez pas faire « marche arrière » et participer aux modules précédents, sauf si vous recommencez le laboratoire après l’avoir terminé.

Par exemple, si vous commencez le module 4, vous ne pouvez pas utiliser le sélecteur de module pour commencer les laboratoires 1, 2 ou 3.

 

Configuration du serveur de gestion des clés


Un cluster de serveurs de gestion des clés (KMS) fournit des clés permettant de chiffrer la banque de données vSAN.

Avant de pouvoir chiffrer la banque de données vSAN, vous devez configurer un cluster KMS pour prendre en charge le chiffrement. Cette tâche inclut l’ajout du KMS à vCenter Server et l’établissement d’une approbation avec le KMS.

Le serveur vCenter Server provisionne les clés de chiffrement à partir du cluster KMS.

Le KMS doit prendre en charge la norme Key Management Interoperability Protocol (KMIP) 1.1.


 

Aperçu du chiffrement vSAN

 

Le chiffrement vSAN chiffre les données inactives, ce qui signifie que les données sont chiffrées lorsqu’elles se trouvent à l’état inactif sur les appareils de cache et de capacité. Le chiffrement peut être activé en un clic, et il est conçu pour fonctionner de manière transparente avec toutes les autres fonctionnalités vSAN et vSphere (par exemple, vMotion, HA et DRS). Il s’agit de la première offre d’infrastructure hyperconvergée à figurer dans un DISA STIG (guide d’implémentation technique de sécurité de l’agence américaine des systèmes d’information militaires).

Techniquement, le chiffrement vSAN est conçu pour fonctionner avec un serveur KMS communiquant via KMIP 1.1 (ou ultérieur). Cependant, nous certifions expressément les serveurs KMS de nos partenaires afin d’offrir une expérience utilisateur cohérente.

 

 

Fonctionnement du chiffrement vSAN

Lorsque vous activez le chiffrement, vSAN chiffre tout le contenu de la banque de données vSAN. Tous les fichiers sont chiffrés, de sorte que toutes les machines virtuelles et des données associées sont protégées. Seuls les administrateurs disposant de privilèges de chiffrement peuvent effectuer des tâches de chiffrement et de déchiffrement.

VMware vSAN utilise les clés de chiffrement comme suit :

  • vCenter Server demande une clé de chiffrement de clé (KEK) AES-256 au système KMS. vCenter Server stocke uniquement l’ID de la KEK, mais pas la clé elle-même.
  • L’hôte VMware ESXi chiffre les données du disque en utilisant le mode AES-256 XTS standard du secteur. Chaque disque dispose d’une clé de chiffrement de données (DEK) générée aléatoirement.
  • Chaque hôte VMware ESXi utilise la KEK pour chiffrer ses DEK et stocke les DEK chiffrées sur un disque. L’hôte ne stocke pas la KEK sur un disque. Si un hôte redémarre, il demande la KEK avec l’ID correspondant au KMS. L’hôte peut alors déchiffrer ses DEK si nécessaire.
  • Une clé d’hôte est utilisée pour chiffrer les vidages mémoire, mais pas les données. Tous les hôtes d’un même cluster utilisent la même clé d’hôte. Lors de la collecte des lots de journaux pour le support, une clé aléatoire est générée pour chiffrer de nouveau les vidages mémoire. Utilisez un mot de passe lorsque vous chiffrez la clé aléatoire.

Lorsqu’un hôte redémarre, il ne monte pas ses groupes de disques avant d’avoir reçu la KEK. Ce processus peut prendre plusieurs minutes ou plus. Vous pouvez suivre le statut des groupes de disques dans le service d’intégrité de vSAN, sous Physical disks > Software state health.

 

 

Remarques sur la conception du chiffrement vSAN

  • Suivez ces consignes lorsque vous travaillez avec le chiffrement vSAN.
  • Ne déployez pas votre serveur KMS sur la banque de données vSAN que vous voulez chiffrer.
  • Le chiffrement consomme beaucoup de ressources CPU. AES-NI améliore considérablement les performances du chiffrement. Activez AES-NI dans votre BIOS.
  • L’hôte témoin d’un cluster étendu ne participe pas au chiffrement vSAN. Seules les métadonnées sont stockées sur l’hôte témoin.
  • Établissez une stratégie concernant les vidages mémoire. Les vidages mémoire sont chiffrés, car ils peuvent contenir des informations sensibles telles que des clés. Si vous déchiffrez un vidage mémoire, traitez avec soin ses informations sensibles. Les vidages mémoire VMware ESXi peuvent contenir des clés pour l’hôte VMware ESXi et pour les données qui s’y trouvent.
    • Utilisez toujours un mot de passe lorsque vous collectez des lots de journaux destinés au support pour les VM. Vous pouvez spécifier un mot de passe lorsque vous générez les lots de journaux destinés au support à partir de vSphere Web Client ou à l’aide de la commande vm-support.

Le mot de passe chiffre de nouveau les vidages mémoire qui utilisent des clés internes pour utiliser des clés basées sur le mot de passe. Vous pouvez ensuite utiliser ce mot de passe pour déchiffrer les vidages mémoire chiffrés inclus dans les lots de journaux destinés au support. Les vidages mémoire ou les journaux non chiffrés ne sont pas affectés.

  • Le mot de passe que vous spécifiez lors de la création des lots de journaux destinés au support pour les VM n’est pas persistant dans les composants vSphere. Vous êtes responsable du suivi des mots de passe pour les lots de journaux destinés au support.

 

 

Configuration d’un domaine d’approbation

 

Le chiffrement vSAN implique trois parties : (1) un serveur de gestion des clés ou KMS (il s’agit de l’entité qui génère les clés) - (2) vCenter et (3) l’hôte vSAN ou ESXi.

Avant d’essayer de chiffrer des données sur vSAN, la première étape consiste à mettre en place un domaine d’approbation entre ces 3 parties (KMS, vCenter et hôte vSAN).

La mise en place d’un domaine d’approbation respecte la norme d’infrastructure à clés publiques (PKI) pour la gestion des certificats numériques. Les étapes exactes dépendent du fournisseur de KMS.

Une fois le domaine d’approbation configuré, le serveur KMS, vCenter et l’hôte vSAN peuvent commencer à communiquer entre eux. L’échange de clés a lieu entre l’hôte vSAN et le serveur KMS.

L’hôte vSAN fournit une référence ou un identifiant de clé au serveur KMS, puis le serveur KMS répond en fournissant la clé associée à cette référence ou cet identifiant.

 

 

Examen des paramètres du serveur de gestion des clés

Vous ajoutez un serveur de gestion des clés (KMS) à votre système vCenter Server à partir de vSphere Web Client.

vCenter Server crée un cluster KMS lorsque vous ajoutez la première instance KMS. Si vous configurez le cluster KMS sur deux serveurs vCenter Server ou plus, vérifiez que vous utilisez le même nom de cluster KMS.

  • Lorsque vous ajoutez le KMS, vous êtes invité à définir ce cluster par défaut. Vous pouvez ensuite modifier le cluster par défaut de manière explicite.
  • Lorsque vCenter Server a créé le premier cluster, vous pouvez ajouter des instances KMS du même fournisseur au cluster.
  • Vous pouvez configurer le cluster avec une seule instance KMS.
  • Si votre environnement prend en charge les solutions KMS de différents fournisseurs, vous pouvez ajouter plusieurs clusters KMS.

Remarque : ne déployez pas vos serveurs KMS sur le cluster vSAN que vous envisagez de chiffrer. En cas de panne, les hôtes du cluster vSAN doivent communiquer avec le KMS.

 

 

Ajout des paramètres du serveur de gestion des clés

 

Un cluster de serveurs de gestion des clés (KMS) fournit des clés permettant de chiffrer la banque de données vSAN.

Avant de pouvoir chiffrer la banque de données vSAN, vous devez configurer un cluster KMS pour prendre en charge le chiffrement.

Cette tâche inclut l’ajout du KMS à vCenter Server et l’établissement d’une approbation avec le KMS. Le serveur vCenter Server provisionne les clés de chiffrement à partir du cluster KMS.

  1. Ouvrez le menu Home de vSphere Web Client.
  2. Sélectionnez Hosts and Clusters.

 

 

 

Examen des paramètres du serveur de gestion des clés

 

Pour ajouter un serveur de gestion des clés à vCenter Server :

  1. Sélectionnez le serveur vCenter Server vcsa-01a.corp.local.
  2. Sélectionnez l’onglet Configure.
  3. Sélectionnez Key Management Servers.
  4. Cliquez sur Add KMS...

Pour utiliser le chiffrement vSAN, un serveur de gestion des clés (KMS) est nécessaire. Presque toutes les solutions de serveur de gestion des clés KMIP 1.1 sont compatibles, selon des tests spécifiques effectués pour des fournisseurs tels que HyTrust®, Gemalto®, Thales e-Security®, CloudLink® et Vormetric®.  Ces solutions sont couramment déployées dans des clusters d’appliances matérielles ou d’appliances virtuelles pour bénéficier d’une redondance et d’un haut niveau de disponibilité.

 

 

Ajout d’un serveur de gestion des clés

 

Entrez les informations suivantes pour créer le cluster KMS :

KMS Cluster : <Create new cluster>
Cluster name : KMS-Cluster
Server alias : KMS01
Server Address : kms-01a.corp.local
Server port : 5696

Ne spécifiez pas les autres paramètres.

Cliquez sur OK.

 

 

Ajout d’un serveur de gestion des clés

 

Pour définir le serveur KMS comme serveur par défaut, cliquez sur Yes.

 

 

Ajout d’un serveur de gestion des clés

 

Dans la boîte de dialogue Trust Certificate :

Cliquez sur Trust.

 

 

Ajout d’un serveur de gestion des clés

 

Le serveur de gestion des clés KMS01 est ajouté.

Vérifiez que la valeur de la colonne Connection Status est Normal et que la colonne Certificate Status présente un certificat valide qui expirera après un certain temps.

 

 

Établissement d’une approbation avec le serveur de gestion des clés

 

Après avoir ajouté le KMS au système vCenter Server, vous devez établir une connexion approuvée. Le processus exact dépend des certificats acceptés par KMS et des règles de l’entreprise.

  1. Sélectionnez l’instance KMS avec laquelle vous souhaitez établir une connexion approuvée (KMS01).
  2. Cliquez sur Establish trust with KMS...

 

 

Établissement d’une approbation avec le serveur de gestion des clés

 

Sélectionnez l’option appropriée pour votre serveur et suivez les étapes.

  1. Sélectionnez Root CA Certificate.

Les différents fournisseurs de KMS utilisent des méthodes variables pour l’approbation des certificats numériques de vCenter et des hôtes VMware ESXi. Vous devez contacter votre fournisseur de serveur de gestion des clés pour savoir quelle option de certificat sélectionner.

Cliquez sur OK sur la page Establish Trust With KMS.

Cliquez sur OK sur la page Download Root CA Certificate.

 

 

 

Examen des paramètres du serveur de gestion des clés

 

  1. Après avoir établi une approbation avec le serveur de gestion des clés, cliquez sur l’icône Refresh pour mettre à jour le statut du client Web.

Vérifiez que la valeur de la colonne Connection Status est Normal et que la colonne Certificate Status présente un certificat valide qui expirera après un certain temps pour le cluster KMS et le serveur KMS.

 

 

Activation du chiffrement vSAN


Nous avons introduit dans vSAN 6.6 le chiffrement vSAN, une option supplémentaire permettant de chiffrer les données inactives en mode natif.

Intégré directement dans le logiciel vSAN, le chiffrement vSAN est la première solution de chiffrement native pour infrastructure hyperconvergée (HCI) du marché. En quelques clics, vous pouvez l’activer ou le désactiver pour tous les éléments de la banque de données vSAN, sans étape supplémentaire.

Comme il s’exécute au niveau de l’hyperviseur et non dans le contexte de la machine virtuelle, il est indépendant des machines virtuelles, tout comme le chiffrement des VM.

Par ailleurs, comme le chiffrement vSAN est compatible avec tous les matériels, il est inutile de recourir à des lecteurs SED spécialisés et plus coûteux, à l’inverse des autres solutions HCI qui permettent le chiffrement.


 

Activation du chiffrement vSAN

 

Vous pouvez activer le chiffrement en modifiant les paramètres de configuration d’un cluster vSAN existant.

  1. Ouvrez le menu Home de vSphere Web Client.
  2. Sélectionnez Hosts and Clusters.

Pour activer le chiffrement, il suffit de cocher une case.  Le chiffrement peut être activé lors de l’activation de vSAN, ou après son activation, et avec ou sans machines virtuelles (VM) hébergées dans la banque de données.

Remarque : un reformatage en continu des disques est nécessaire lorsque le chiffrement est activé.

Cette opération peut être très longue, notamment si d’importants volumes de données doivent être migrés.

 

 

Activation du chiffrement vSAN

 

Examinons l’état actuel de notre cluster vSAN.

  1. Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN -> General.
  4. Cet écran permet de vérifier les points suivants :
    • Le statut de vSAN est Enabled.
    • Le statut de la fonctionnalité « Deduplication and compression » est Enabled.
    • Le statut de la fonctionnalité « Encryption » est Disabled.
    • La version du format de notre disque est 5.0.
  5. Nous allons maintenant activer le chiffrement vSAN. Cliquez sur Edit.

 

 

Activation du chiffrement vSAN

 

L’activation du chiffrement vSAN s’effectue en un clic.

  1. Cliquez pour activer la fonctionnalité Encryption.
  2. Vérifiez que KMS-Cluster est sélectionné. Si votre environnement contient plusieurs clusters KMS, vous pouvez faire votre choix ici.
  3. Sélectionnez l’option Allow Reduced Redundancy.

L’écran d’activation du chiffrement vSAN propose une option intitulée Erase disk before use.  N’activez pas cette option.

Cliquez sur le bouton d’information (i) pour obtenir des informations supplémentaires sur ces options.

Cliquez sur OK.

L’option « Erase disks before use » réduit considérablement la possibilité de fuite de données et complique les tâches des pirates souhaitant accéder à des données sensibles. Cette option augmente également le coût associé au temps de consommation des disques.

 

 

Activation du chiffrement vSAN

 

La fenêtre Recent Tasks permet de surveiller le processus de chiffrement vSAN.

Si vous obtenez une erreur et que le chiffrement vSAN échoue, désactivez celui-ci, puis réactivez-le. Dans cet environnement de laboratoire, nous utilisons un serveur KMIP Open Source pour présenter cette fonctionnalité. Dans un environnement de production client, vous ne devriez pas voir ceci en utilisant un serveur de gestion des clés pris en charge.

L’activation du chiffrement vSAN se déroule comme suit :

  • Les données sont migrées depuis chaque groupe de disques vSAN.
  • Le groupe de disques vSAN est supprimé.
  • Le groupe de disques vSAN est recréé avec le chiffrement activé.

Ce processus est répété pour chacun des groupes de disques présents dans le cluster vSAN.

 

 

 

Activation du chiffrement vSAN

 

Vous pouvez également surveiller le processus de chiffrement vSAN en accédant à Configure -> vSAN -> General.

L’activation du chiffrement vSAN prend un peu de temps. Chaque groupe de disques du cluster vSAN doit être supprimé et recréé.

 

 

Activation du chiffrement vSAN

 

Lorsque la tâche de reformatage en continu de tous les groupes de disques est terminée, le chiffrement des données inactives est activé sur le cluster vSAN.

VMware vSAN chiffre toutes les données ajoutées à la banque de données vSAN.

Si une clé expire ou est divulguée, vous pouvez utiliser l’option Generate new encryption keys pour générer de nouvelles clés de chiffrement.

 

 

Vérification de l’activation du chiffrement vSAN

 

Pour vérifier que le chiffrement vSAN est activé sur les disques, vous pouvez utiliser la commande suivante :

esxcli vsan storage list

Le résultat de cette commande permet de vérifier que le chiffrement est activé et que la clé du disque est chargée :

  • Encryption: true
  • DiskKeyLoaded: true

 

Bilan d’intégrité du chiffrement vSAN



 

Bilan d’intégrité du chiffrement vSAN

 

Les bilans d’intégrité vSAN permettent de vérifier que votre chiffrement vSAN est activé et intègre.

  1. Sélectionnez le cluster RegionA01-COMP01.
  2. Sélectionnez Monitor.
  3. Sélectionnez vSAN.
  4. Sélectionnez Health.
  5. Le bouton Retest permet d’exécuter de nouveau le bilan d’intégrité vSAN

 

 

Bilan d’intégrité du chiffrement vSAN

 

Faites défiler vers le bas la liste des bilans d’intégrité vSAN.

  1. Sélectionnez Encryption, puis développez les tests individuels.
  2. Sélectionnez CPU AES-NI is enabled on hosts.

Ce bilan vérifie si la fonctionnalité CPU AES-NI est activée sur les hôtes VMware ESXi du cluster vSAN.

Le jeu d’instructions standard de chiffrement avancé (ou la fonctionnalité d’Intel AES-NI, pour Advanced Encryption Standard New Instructions) est une extension de l’architecture de jeu d’instructions x86 pour les microprocesseurs d’Intel et d’AMD. L’objectif de ce jeu d’instructions est d’améliorer la vitesse des applications effectuant le chiffrement et le déchiffrement à l’aide du standard de chiffrement avancé (AES).

 

 

Bilan d’intégrité du chiffrement vSAN

 

  1. Sélectionnez vCenter, ainsi que tous les hôtes connectés aux serveurs de gestion des clés.
  2. Sélectionnez vCenter KMS status.

Ce bilan d’intégrité vSAN vérifie que vCenter Server peut se connecter aux serveurs de gestion des clés.

 

 

Bilan d’intégrité du chiffrement vSAN

 

  1. Sélectionnez Hosts KMS status.

Ce bilan d’intégrité vSAN vérifie que les hôtes VMware ESXi peuvent se connecter aux serveurs de gestion des clés.

 

 

Conclusion


Avec l’ajout du chiffrement vSAN dans vSAN 6.6 et l’introduction du chiffrement des VM dans vSphere 6.5, le chiffrement des données inactives peut être facilement exécuté en mode natif sur une infrastructure hyperconvergée (HCI) basée sur la solution de stockage vSAN ou toute autre solution de stockage vSphere.

Le chiffrement vSAN et le chiffrement des VM répondent aux mêmes besoins, mais ces deux solutions utilisent chacune une approche distincte plus particulièrement adaptée à certains cas d’usage.

Plus important encore, elles offrent aux clients le choix de la méthode de chiffrement des données inactives pour leurs charges de travail vSphere.

Félicitations ! Vous avez terminé le module 5.

Poursuivez avec l’un des modules ci-dessous selon le thème qui vous intéresse.

• 

Le module 6 présente les améliorations apportées à la version 1 de PowerCLI 6.5 pour faciliter l’automatisation, la gestion et la surveillance des environnements VMware vSAN.

• 

Apprenez à créer un cluster vSAN étendu Direct Connect à 2 nœuds avec une séparation du trafic témoin.


 

Comment terminer le laboratoire

 

Pour terminer votre laboratoire, cliquez sur le bouton END.

 

Module 6 : vSAN PowerCLI et ESXCLI (30 minutes, débutant)

Introduction


Dans ce module, vous allez découvrir la dernière version de VMware PowerCLI (6.5 version 1) ainsi que les améliorations dont elle a fait l’objet en vue de faciliter l’automatisation, la gestion et la surveillance des environnements VMware vSAN.

Nous vous promettons que vous n’aurez pas à écrire un programme affichant « Bonjour tout le monde ! » dans le cadre de ce module. :)

Ce module comprend les leçons suivantes :


 

Préparation du laboratoire

Utilisez l’application PowerCLI de sélection de module pour préparer l’environnement.

 

 

Sélecteur de module

 

Double-cliquez sur le raccourci de bureau permettant d’accéder au sélecteur de module HOL-1808-HCI.

 

 

Démarrage du module 6

 

  1. Cliquez sur le bouton Start du module 6.

 

 

Progression du démarrage du module 6

 

Surveillez la progression jusqu’à la fin.

• Appuyez sur Entrée pour continuer (et fermer la fenêtre PowerCLI).

 

 

Préparation du laboratoire terminée

 

La préparation de votre laboratoire pour le module 6 est terminée.

  1. Cliquez sur la croix en haut à droite pour arrêter le sélecteur de module en toute sécurité.

Remarque : vous ne pouvez pas faire « marche arrière » et participer aux modules précédents, sauf si vous recommencez le laboratoire après l’avoir terminé.

Par exemple, si vous commencez le module 4, vous ne pouvez pas utiliser le sélecteur de module pour commencer les laboratoires 1, 2 ou 3.

 

Présentation de PowerCLI


VMware PowerCLI est un outil de ligne de commande et de création de scripts basé sur Windows PowerShell. Il fournit plus de 500 cmdlets pour la gestion et l’automatisation des environnements vSphere, vSAN, Site Recovery Manager, vRealize Operations Manager, vSphere Automation SDK, vCloud Director, vCloud Air, vSphere Update Manager et VMware Horizon.

Dans cette leçon, nous allons examiner notre environnement de laboratoire PowerCLI et effectuer quelques tâches administratives vSphere.


 

Démarrer PowerCLI

 

PowerCLI est préinstallé dans le laboratoire.

1. Double-cliquez sur l’icône de bureau VMware PowerCLI.

 

 

Confirmation de version

 

  1. Tapez le nom de cmdlet suivant pour récupérer les informations relatives à la version de PowerCLI :
Get-PowerCLIVersion

Remarque : comme la commande get-powercliversion est en passe de devenir obsolète, nous allons exécuter la cmdlet get-module à la place.

Get-Module

Notez que nous utilisons la dernière version de PowerCLI, et que vous pouvez également consulter la liste des composants VMware installés. Ces composants contiennent les différentes cmdlets permettant de gérer leurs zones respectives. Par exemple, les cmdlets vSAN que vous utiliserez dans ce laboratoire sont contenues dans le composant « VMware Storage PowerCLI ».

Remarque : les commandes PowerCLI ne sont pas sensibles à la casse ; cependant, vous pouvez à tout moment appuyer sur la touche de tabulation pour tenter de les compléter automatiquement. Cela peut vous faire gagner du temps : n’hésitez pas à en profiter !

 

 

Connexion à vCenter

 

  1. Entrez les informations suivantes pour vous connecter à notre laboratoire vCenter :
Connect-VIServer vcsa-01a.corp.local

La cmdlet Connect-VIServer permet de se connecter à plusieurs instances de vCenter et de les interroger.

 

 

Fournisseurs PowerShell

 

  1. Tapez la commande suivante pour répertorier les fournisseurs PowerShell disponibles :
Get-PSProvider

Examinons plus en détail les fournisseurs d’inventaire et de banque de données.

 

 

Fournisseur d’inventaire

 

Le fournisseur d’inventaire est conçu pour afficher une vue non filtrée de l’inventaire des éléments d’inventaire à partir d’un serveur. Il permet de parcourir et de gérer l’inventaire VMware vSphere

sous la forme d’un explorateur de fichiers. En créant un lecteur PowerShell basé sur un objet géré (tel qu’un Data Center), vous pouvez obtenir une vue de son contenu, ainsi que les relations entre ses éléments. Vous pouvez aussi déplacer, renommer ou supprimer des objets en exécutant des commandes depuis la console PowerCLI.

Lorsque vous vous connectez à un serveur à l’aide de la cmdlet Connect-VIServer, celle-ci développe deux disques d’inventaire par défaut : vi et vis. Le disque d’inventaire vi affiche l’inventaire du dernier serveur connecté. Le disque vis contient l’inventaire de tous les serveurs vSphere connectés dans la session PowerCLI en cours. Vous pouvez utiliser les disques d’inventaire par défaut ou créer des disques personnalisés basés sur ceux par défaut.

Examinons le disque d’inventaire.

  1. Remplacez le répertoire (cd) par le disque d’inventaire :
cd vi:
  1. Répertoriez son contenu :
ls
  1. Remplacez le répertoire (cd) par le Data Center :
cd RegionA01
  1. Répertoriez son contenu :
ls
  1. Remplacez le répertoire (cd) par une machine virtuelle :
cd vm
  1. Répertoriez son contenu :
ls

 

 

Fournisseur de banque de données

 

Le fournisseur de banque de données est conçu pour permettre l’accès au contenu d’une ou plusieurs banques de données. Les éléments d’une banque de données sont des fichiers qui contiennent la configuration, le disque virtuel et les autres données associées à une machine virtuelle. Lorsque vous vous connectez à un serveur avec Connect-VIServer, la cmdlet crée deux lecteurs de banques de données par défaut : vmstore et vmstores. Le lecteur vmstore fournit la liste des banques de données disponibles sur le dernier serveur vSphere auquel vous vous êtes connecté.

Si vous établissez plusieurs connexions au même serveur vSphere, le lecteur vmstore n’est pas mis à jour. Le lecteur vmstores contient toutes les banques de données disponibles sur tous les serveurs vSphere auxquels vous vous êtes connecté dans la session PowerCLI en cours. Vous pouvez utiliser les disques de banque de données par défaut ou créer des disques personnalisés basés sur ceux par défaut.

Examinons le fournisseur de banque de données.

  1. Remplacez le répertoire (cd) par le fournisseur de banque de données :
cd vmstore:
  1. Répertoriez son contenu :
ls
  1. Remplacez le répertoire (cd) par le Data Center :
cd RegionA01
  1. Répertoriez son contenu (notez que nous avons deux banques de données : une banque de données iSCSI partagée et notre vsanDatastore) :
ls
  1. Remplacez le répertoire (cd) par le volume C:\ :
cd c:

 

 

Cmdlets PowerCLI

 

Nous avons utilisé la cmdlet Connect-VIServer. Les cmdlets sont de petits programmes qui sont précompilés pour faciliter vos activités.

Utilisons quelques cmdlets pour examiner notre environnement vCenter en entrant ces commandes (n’oubliez pas que vous pouvez utiliser la touche de tabulation pour les compléter automatiquement, le cas échéant).

  1. Récupérez le ou les Data Centers vCenter disponibles :
Get-Datacenter
  1. Récupérez le ou les clusters vCenter disponibles :
Get-Cluster
  1. Récupérez les machines virtuelles :
Get-VM
  1. Récupérez les banques de données vCenter disponibles :
Get-Datastore

 

 

Cmdlets (suite)

 

Vous pouvez raccorder des commandes ensemble pour créer un pipeline.

Un pipeline est une série de commandes séparées par l’opérateur de raccordement « | ». Chaque commande du pipeline reçoit un objet de la commande précédente, lui applique une opération, puis le transmet à la commande suivante du pipeline. Les objets sortent du pipeline dès qu’ils sont disponibles.

  1. Entrez la commande suivante pour transmettre la sortie de Get-VM à la cmdlet Format-Table et renvoyer uniquement les colonnes Name et PowerState :
Get-VM | Format-Table Name, PowerState
  1. 2. Nous pouvons aussi transmettre le résultat de Get-VM à la cmdlet Where-Object pour filtrer des informations spécifiques (comme l’état de fonctionnement) :
Get-VM | Where-Object {$_.PowerState -eq ’PoweredOn’}

 

 

Get-Help

 

La cmdlet Get-Help permet d’afficher la description, les informations syntaxiques et des exemples d’utilisation de chaque cmdlet qui vous intéresse.

Conseil : vous devez faire défiler la page vers le haut pour arriver au début du texte d’aide.

Exemple 1 (ne figure pas sur la capture d’écran)

Get-Help Get-VM

Exemple 2 (ne figure pas sur la capture d’écran)

Get-Help Get-VM -examples

 

 

Clonage de machine virtuelle

 

Pour finir cette leçon, nous allons cloner une VM en utilisant la cmdlet New-VM. Cette VM sera utilisée dans une leçon ultérieure sur l’automatisation avec Storage Policy-Based Management (SPBM).

  1. Entrez la commande suivante et surveillez l’avancement du clonage (si vous préférez, vous pouvez aussi simplement sélectionner la commande entière dans votre manuel, puis la faire glisser dans votre fenêtre PowerCLI) :
New-VM -Name PowerCLI-VM -VM core-A -Datastore vsanDatastore -ResourcePool esx-01a.corp.local

 

Commandes vSAN PowerCLI


La version précédente de PowerCLI permettait d’utiliser 6 cmdlets vSAN spécifiques :

• Get-VsanDisk

• Get-VsanDiskGroup

• New-VsanDisk

• New-VsanDiskGroup

• Remove-VsanDisk

• Remove-VsanDiskGroup

Penchons-nous ensuite sur les ajouts de PowerCLI 6.5 R1.


 

Nouveautés

 

  1. Utilisez Get-Command pour afficher les cmdlets dont le nom contient « vsan » :
Get-Command *vsan*
  1. Storage Policy-Based Management (SPBM, non représentée sur la capture d’écran) est également une fonctionnalité importante pour vSAN :
Get-Command *spbm*
  1. Le cas échéant, vous pouvez également visualiser toutes les cmdlets relatives au stockage vSphere contenues dans le module VMware.VimAutomation.Storage (non représenté sur la capture d’écran) :
Get-Command -module VMware.VimAutomation.Storage

Examinons à présent certaines des nouvelles cmdlets vSAN.

 

 

Informations de configuration vSAN

 

  1. Pour simplifier les choses, nous allons créer une variable nommée $cluster et correspondant au résultat de la cmdlet Get-Cluster  :
$cluster = Get-Cluster
  1. Générons une sortie du contenu de la variable :
$cluster
  1. Transférons la variable $cluster à la nouvelle cmdlet Get-VsanClusterConfiguration :
Get-VsanClusterConfiguration $cluster

Remarque : nous pouvons afficher quelques propriétés générales de notre cluster vSAN (vSAN est activé, le cluster étendu ne l’est pas, etc.).

 

 

Get-VsanClusterConfiguration

 

Voyons quelles sont les informations supplémentaires que fournit cette cmdlet.

  1. Définissez une variable nommée $vsanconfig et correspondant aux résultats de Get-VsanClusterConfiguration (vous pouvez insérer le nom de la variable en cliquant une fois sur la flèche vers le haut puis une fois sur la flèche vers la gauche) :
$vsanConfig = Get-VsanClusterConfiguration $cluster
  1. Transférez $vsanConfig dans la cmdlet Get-Member pour afficher toutes les méthodes et propriétés disponibles :
$vsanConfig | Get-Member

 

 

Get-VsanClusterConfiguration (suite)

 

  1. Vous pouvez consulter directement les propriétés individuelles en ajoutant leur nom à votre variable $vsanConfig. Par exemple, essayez une ou plusieurs de ces options :
$vsanConfig.HealthCheckEnabled
$vsanConfig.PerformanceServiceEnabled
$vsanConfig.VsanDiskClaimMode
  1. Pour afficher toutes les propriétés et leurs résultats, il vous suffit de transférer la variable $vsanConfig vers la cmdlet Format-List :
$vsanConfig | Format-List

 

 

Tests d’intégrité de vSAN

 

La fonctionnalité de test de l’intégrité et des performances de vSAN était auparavant disponible dans vSphere Web Client. Désormais, elle est également accessible via PowerCLI 6.5.

Ces tests d’intégrité vérifient tous les aspects d’une configuration vSAN, y compris la compatibilité matérielle, la configuration et les opérations réseau, les options de configuration vSAN avancées, l’état de l’appareil de stockage ainsi que l’intégrité des objets de la machine virtuelle.

Le bilan d’intégrité offre deux avantages clés aux administrateurs d’environnements vSAN :

  • Il permet aux administrateurs de s’assurer que leur déploiement vSAN est intégralement pris en charge, fonctionnel et opérationnel.
  • Il fournit des indications immédiates sur la cause profonde en cas de panne, ce qui permet d’accélérer la résolution.

Introduisons une condition de panne dans notre cluster vSAN en exécutant un script PowerCLI existant. Nous utiliserons ensuite l’une de nos nouvelles cmdlets « Test- » pour résoudre le problème.

1. Accédez au répertoire c:\hol :

cd c:\hol

2. Entrez le texte suivant (il s’agit d’un nom de script), puis appuyez sur Entrée :

.\module4break.ps1

 

 

Test-VsanClusterHealth

 

  1. Définissons une variable nommée $vsanHealth donnant le même résultat que l’exécution de la cmdlet « Test-VsanClusterHealth » dans notre cluster vSAN :
$vsanHealth = Test-VsanClusterHealth -Cluster $cluster

Remarque : dans notre environnement de laboratoire partagé, il est possible que l’exécution de cette cmdlet prenne quelques minutes (merci de patienter).

  1. Générez une sortie du résultat de ce test en saisissant la variable $vsanHealth, puis en appuyant sur la touche Entrée :
$vsanHealth

Notez que le statut OverallHealthStatus est défini sur Failed.

 

 

Test-VsanClusterHealth (suite)

 

Nous savons que le test a échoué, mais nous ne comprenons pas encore pourquoi.

  1. Allons plus loin avec la cmdlet Get-Member pour examiner les propriétés détectées par Test-VsanClusterHealth :
$vsanHealth | Get-Member
  1. 2. Examinez OverallHealthDescription en ajoutant cette propriété à votre variable $vsanHealth (n’oubliez pas que vous pouvez utiliser la touche de tabulation pour la compléter automatiquement) :
$vsanHealth.OverallHealthDescription

Voilà qui devient intéressant ! Notez que nous avons une « erreur de configuration du réseau » quelque part...

 

 

Test-VsanClusterHealth (suite)

 

  1. Examinez la propriété NetworkHealth pour en savoir plus, en entrant :
$vsanHealth.NetworkHealth

Notez que le résultat obtenu pour VsanVmknicPresent est False (chaque hôte vSphere participant à un cluster vSAN doit avoir un adaptateur vmknic activé pour le trafic vSAN).

 

 

Test-VsanClusterHealth (suite)

 

  1. Pour identifier l’hôte fautif, examinez les résultats de NetworkHealth.HostResult (vous aurez peut-être besoin de faire défiler la fenêtre PowerCLI vers le haut) :
$vsanHealth.NetworkHealth.HostResult

Et voilà ! Notez que l’hôte esx-03a.corp.local n’a pas de vmknic vSAN configuré (vous pouvez le comparer à l’un des autres hôtes renvoyés).

 

 

Corriger l’hôte

 

Exécutons un script pour réactiver le trafic vSAN sur notre hôte vSphere affecté.

  1. Accédez au répertoire c:\hol :
cd c:\hol
  1. Entrez le texte suivant (il s’agit d’un nom de script), puis appuyez sur Entrée :
.\module4fix.ps1

Remarque : la sortie de la commande servant à activer le trafic vSAN sur l’hôte affecté est dirigée vers la console (et figure également dans la capture d’écran du manuel du laboratoire ci-dessus).

Bonus (facultatif) : réexécutez les étapes précédentes en commençant par la cmdlet Test-VsanClusterHealth pour confirmer que le cluster vSAN est maintenant intègre et que le vmknic a été correctement activé pour l’hôte affecté. Vous pouvez recevoir un résultat du type « warning » via Test-VsanClusterHealth (cela est prévisible dans la mesure où nous exécutons vSAN dans un environnement VMware ESXi imbriqué sur du matériel virtuel).

 

 

Test-VsanVMCreation

 

Ce test crée une machine virtuelle très simple et minuscule sur chaque hôte VMware ESXi du cluster vSAN. Si cette création réussit, la machine virtuelle est supprimée et nous pouvons conclure que de nombreuses fonctionnalités de vSAN sont pleinement opérationnelles (la pile de gestion est opérationnelle sur tous les hôtes, le réseau vSAN est sondé et fonctionne, les opérations de création, de suppression et d’E/S des objets fonctionnent, etc.).

En effectuant ce test, un administrateur peut déceler des problèmes indétectables par les bilans d’intégrité passifs. En procédant de la sorte, il est également très facile d’isoler tout hôte défaillant et de prendre des mesures pour remédier au problème sous-jacent.

  1. Créez une variable $testVM et affectez-la au résultat de notre cmdlet Test-VsanVMCreation :
$testVM = Test-VsanVMCreation $cluster
  1. Générez une sortie du résultat de ce test en saisissant la variable $testVM, puis en appuyant sur la touche Entrée :
$testVM

Notez que les résultats du test indiquent Passed.

 

 

Test-VsanVMCreation (suite)

 

  1. Utilisez la cmdlet Get-Member pour examiner les propriétés détectées par Test-VsanVMCreation :
$testVM | Get-Member
  1. Examinez la propriété HostResult en ajoutant ceci à votre variable $testVM :
$testVM.HostResult

Notez que la création d’une machine virtuelle de test sur chaque hôte vSphere a abouti.

 

 

Test-VsanNetworkPerformance

 

Attention : ce test ne doit pas être exécuté lorsque le cluster vSAN (ou même le commutateur physique connecté au cluster vSAN) est exécuté en production. Nous vous conseillons de l’exécuter pendant une maintenance ou avant la mise en production du cluster vSAN. Pour quelle raison ? Parce que ce test inondera le réseau de paquets en multidiffusion pour rechercher la cause du problème. Si d’autres utilisateurs ont besoin de bande passante, il se peut qu’ils n’en obtiennent pas assez pendant l’exécution du test.

Ce test est conçu pour évaluer la connectivité et la vitesse de multidiffusion entre les hôtes du cluster vSAN. Il vérifie que la configuration du réseau de multidiffusion peut répondre aux exigences de vSAN.

  1. Créez une variable $testNetwork et affectez-la au résultat de notre cmdlet Test-VsanNetworkPerformance :
$testNetwork = Test-VsanNetworkPerformance $cluster

 

  1. Générez une sortie du résultat de ce test en saisissant la variable $testNetwork, puis en appuyant sur la touche Entrée :
$testNetwork

Remarque : ce test de réseau peut renvoyer un statut « Failed » si l’environnement de Cloud où s’exécute notre laboratoire est surchargé. La commande peut être exécutée plusieurs fois si nécessaire.

 

 

Test-VsanStoragePerformance

 

La dernière cmdlet de test que nous allons passer en revue est Test-VsanStoragePerformance.

Il existe deux principaux cas d’usage pour ce test :

  • Rodage de matériel pour détecter tout matériel défectueux. Comme le test applique une forte contrainte à tous les composants de la pile vSAN, y compris le réseau, les appareils Flash, les appareils de stockage et les contrôleurs de stockage, il devrait pouvoir détecter le matériel défaillant.
  • Cet outil est simple à utiliser pour évaluer les caractéristiques des performances d’un cluster vSAN. Le test peut exécuter un certain nombre de charges de travail diverses, conjuguant de petites et grandes opérations d’E/S aléatoires ou séquentielles avec différentes combinaisons d’opérations d’E/S, de lecture et d’écriture.
  1. Créez une variable $testStorage et affectez-la au résultat de notre cmdlet Test-VsanStoragePerformance (bien qu’il y ait plus de 10 tests de charge de travail différents, nous allons utiliser une charge de travail « LowStressTest » afin de ne pas trop affecter notre environnement de laboratoire).

Si vous préférez, vous pouvez sélectionner cette commande, puis la faire glisser dans la fenêtre PowerCLI :

$testStorage = Test-VsanStoragePerformance $cluster -Workload LowStressTest -TestDurationSeconds 10 -Policy "vSAN Default Storage Policy"
  1. Générez une sortie du résultat de ce test. Pour cela, saisissez la variable $testStorage, puis appuyez sur la touche Entrée :
$testStorage

Notez que les résultats du test indiquent Passed.

 

 

Test-VsanStoragePerformance (suite)

 

  1. Utilisez la cmdlet Get-Member pour examiner les propriétés détectées par Test-VsanStoragePerformance :
$testStorage | Get-Member
  1. Examinez la propriété HostResult en ajoutant ceci à votre variable $testStorage (vous aurez peut-être besoin de faire défiler la fenêtre PowerCLI vers le haut) :
$testStorage.HostResult

Notez que nous obtenons toutes sortes d’informations intéressantes : IssueFound?, Latency, IOPS, etc.

 

Automatisation via vSAN PowerCLI


VMware vSAN est le candidat idéal pour une automatisation robuste via PowerCLI. Cela inclut l’automatisation de l’intégralité d’un développement de bout en bout d’un environnement vSAN (tâche « Jour 0 ») ou l’exécution des tâches quotidiennes de l’administrateur virtuel (activités « Jour 1 » ou « Jour 2 »).

Les cmdlets PowerCLI permettent également d’accéder aux API vSAN. Les administrateurs informatiques peuvent automatiser des tâches courantes telles que l’affectation des stratégies de stockage et la vérification de leur conformité. Prenons le cas d’une tâche reproductible, comme le déploiement ou la mise à niveau de clusters vSAN à deux nœuds dans une centaine de points de vente au détail. Effectuer chaque déploiement manuellement prendrait beaucoup de temps. Il y a également un risque d’erreur plus élevé qui peut conduire à des configurations non standard et, éventuellement, à des interruptions de service. Dans ce cas, vSphere PowerCLI peut être utilisé pour vérifier que tous les clusters vSAN sont déployés avec la même configuration. L’automatisation des tâches facilite aussi la gestion du cycle de vie, comme l’application de correctifs et de mises à niveau.

Dans cette leçon, nous passerons en revue quelques exemples d’automatisation et mettrons également en évidence des liens de référencement pour plus d’informations sur l’automatisation vSAN de bout en bout.


 

Tâches de gestion quotidiennes

 

Dans la leçon 2, « Commandes PowerCLI vSAN », nous avons commencé à explorer les nouvelles cmdlets de PowerCLI 6.5 avec Get-VsanClusterConfiguration et Test-VsanClusterHealth. Vous pouvez utiliser ces cmdlets pour surveiller les modifications apportées à l’environnement (dérives de configuration) ou les problèmes d’intégrité et émettre des alertes le cas échéant.

Voici d’autres exemples d’opérations de gestion tirant parti de ces cmdlets :

• Update-VsanHclDatabase (NOUVELLE cmdlet de PowerCLI 6.5, permet de mettre à jour et de contrôler la compatibilité matérielle vSAN)

• Get-VsanSpaceUsage (NOUVELLE cmdlet de PowerCLI 6.5, permet de surveiller la capacité de disque vSAN)

• Export/Import-SpbmStoragePolicy (permet de sauvegarder et restaurer les stratégies de stockage vSAN, mais peut également être utilisée lors de la migration vers une nouvelle instance vCenter)

 

 

Update-VsanHclDatabase

 

Comme son nom l’indique, la cmdlet Update-VsanHclDatabase peut être utilisée pour récupérer le dernier fichier de la base de données HCL vSAN, soit en ligne (nécessite un accès Internet), soit en l’important à partir d’un fichier .json intermédiaire local.

Une fois la mise à jour effectuée, vous pouvez utiliser la cmdlet Test-VsanClusterHealth que nous avons vue précédemment pour valider la compatibilité.

Comme notre laboratoire n’a pas d’accès externe à Internet, nous avons mis en place un fichier HCL .json local.

  1. Mise à jour de votre HCL vSAN :
Update-VsanHclDatabase -filepath "c:\hol\all.json"
  1. Test de l’intégrité du cluster vSAN en utilisant la HCL mise à jour :
$testVSAN = Test-VsanClusterHealth -Cluster RegionA01-COMP01
  1. Examinez la propriété HclInfo renvoyée via la cmdlet Test-VsanClusterHealth (les résultats d’horodatage peuvent varier par rapport à ceux indiqués sur la capture d’écran) :
$testVSAN.HclInfo
  1. Examinez le résultat du test si vous le souhaitez (notez que nous recevons un « Avertissement » dans notre laboratoire, puisque nous exécutons vSAN dans un environnement virtualisé imbriqué) :
$testVSAN

 

 

Get-VsanSpaceUsage

 

Examinons plus en détail la cmdlet Get-VsanSpaceUsage.

  1. Définissez une variable nommée $vsanUsage et correspondant au résultat de la cmdlet Get-VsanSpaceUsage :
$vsanUsage = Get-VsanSpaceUsage
  1. Générez une sortie du résultat en saisissant le nom de la variable :
$vsanUsage

Remarque : la taille CapacityGB peut être différente dans votre environnement de laboratoire, selon le nombre de disques consommés sur chaque hôte VMware ESXi pour créer la banque de données vSAN.

 

 

Get-VsanSpaceUsage (suite)

 

  1. Examinez les propriétés disponibles via la cmdlet Get-VsanSpaceUsage :
$vsanUsage | Get-Member

 

 

Get-VsanSpaceUsage (suite)

 

  1. Entrez ce script simple conçu pour vérifier la capacité de disque libre, puis répondre en conséquence.
if ($vsanUsage.FreeSpaceGB -gt 50)
{ write-host -foregroundColor Yellow "Vous avez bien assez d’espace disque disponible !" }
elseif ($vsanUsage.FreeSpaceGB -lt 50)
{ write-host -foregroundColor Yellow "Il est temps de commander d’autres disques !"}

Remarque : si vous préférez, vous pouvez sélectionner le contenu du script ci-dessus, puis le faire glisser dans la fenêtre PowerCLI.

 

 

Storage Policy-Based Management (SPBM)

 

Storage Policy-Based Management (SPBM) permet de contrôler précisément les services de stockage. VMware vSAN fournit des services tels que la gestion du niveau de disponibilité, la segmentation pour les performances et la possibilité de limiter les IOPS. Vous pouvez utiliser vSphere Web Client et/ou PowerCLI pour créer des stratégies contenant une ou plusieurs règles.

Ces stratégies sont affectées aux machines virtuelles et aux objets, tels qu’un disque virtuel. Vous pouvez facilement modifier et/ou réaffecter les stratégies de stockage pour répondre aux besoins des applications. Ces modifications s’effectuent sans interruption de service et ne nécessitent aucune migration (Storage vMotion) des machines virtuelles d’un emplacement vers un autre.

 

 

Préparation de machines virtuelles

 

L’application de nouvelles stratégies de stockage peut être contraignante si vous devez les appliquer manuellement et individuellement à chacune des machines virtuelles concernées. Dans cette section, nous allons créer une stratégie de stockage et découvrir à quel point il est facile de l’appliquer à plusieurs machines virtuelles.

Cette nouvelle stratégie de stockage fixe une limite d’IOPS de 500 par VM. Cela peut être utile si vous voulez donner la priorité à certaines VM par rapport à d’autres.

Commencez par effectuer la procédure de préparation de nos machines virtuelles :

  1. Créez une autre VM dans votre environnement :
New-VM -Name PowerCLI-VM-01 -VM core-A -Datastore vsanDatastore -ResourcePool esx-02a.corp.local
  1. Définissez une variable nommée $vms et correspondant à l’ensemble des machines virtuelles dont le nom commence par « photon », puis vérifiez le contenu de cette variable :
$vms = Get-VM -name PowerCLI*
$vms
  1. Activez chacune de ces VM :
Start-VM $vms

 

 

New-SpbmStoragePolicy

 

  1. Créez une nouvelle stratégie de stockage fixant une limite d’IOPS de 500 :
New-SpbmStoragePolicy -Name vSAN-IOPSlimit -RuleSet (New-SpbmRuleSet -Name "vSAN-IOPSlimit" -AllOfRules @((New-SpbmRule -Capability VSAN.iopslimit 500)))
  1. Affichez les stratégies de stockage :
Get-SpbmStoragePolicy -requirement -namespace "VSAN" | Select Name, Description

 

 

Set-SpbmStoragePolicy

 

1. Appliquez la stratégie de stockage nouvellement créée à nos machines virtuelles :

foreach ( $vm in $vms ) { $vm, (Get-HardDisk -VM $vm) | Set-SpbmEntityConfiguration -StoragePolicy "vSAN-IOPSlimit" }

 

Remarque : l’exécution de cette commande peut prendre un certain temps dans notre environnement de laboratoire. En attendant, vous pouvez passer à la dernière section de cette leçon.

 

Améliorations d’ESXCLI


VMware vSAN possède plusieurs commandes ESXCLI documentées qui permettent d’explorer et de configurer des hôtes VMware ESXi individuels.

Dans cette leçon, nous allons découvrir quelques commandes utiles pour travailler avec vSAN. N’hésitez pas à les consulter. Notez que, si vous exécutez des commandes en dehors du cadre de cette leçon, cela peut nuire au déroulement du laboratoire et vous empêcher de suivre les modules restants ou le reste de ce module. Nous utiliserons également certaines de ces commandes ultérieurement dans ce module.

vSAN 6.6 est doté de 2 nouveaux espaces de nommage esxcli :

  • Affichez l’intégrité du cluster vSAN : esxcli vsan health
  • Affichez les informations de débogage de vSAN : esxcli vsan debug

 

Lancement de PuTTY

 

Lancez l’application PuTTY à partir de la barre des tâches Windows.

 

 

Sélection de l’hôte esx-01a.corp.local

 

  1. Sélectionnez l’hôte VMware ESXi esx-01a.corp.local.
  2. Sélectionnez Load.
  3. Sélectionnez Open.

 

 

Commandes esxcli vsan

 

Entrez cette commande :

esxcli vsan

Vous obtenez ainsi la liste de toutes les commandes esxcli relatives à vSAN, ainsi qu’une brève description de chacune d’elles.

 

 

Commande esxcli vsan cluster

 

  1. Pour afficher des détails sur le cluster vSAN, notamment pour connaître son état d’intégrité ou savoir s’il s’agit d’un nœud maître ou d’un nœud de sauvegarde, vous pouvez entrer la commande qui suit :
esxcli vsan cluster get

Veuillez noter que l’UUID habituellement utilisé pour désigner le cluster vSAN est répertorié en tant que Sub-Cluster UUID.

Pour émettre la commande « esxcli vsan cluster join » correspondante, vous devez fournir cette valeur pour l’UUID.

 

 

Commande esxcli vsan network

 

  1. Pour afficher les détails du réseau, vous pouvez exécuter cette commande :
esxcli vsan network list

Nous constatons ici que le paramètre Network VmkNic a la valeur vmk3 et que le paramètre Traffic Type de ce port VMKernel a la valeur vsan.

À ce propos, si vous exécutez la commande « esxcli vsan network list », les informations de multidiffusion seront affichées même si elles ne sont pas utilisées.

 

 

Commande esxcli vsan storage

 

Pour afficher les détails des appareils de stockage physiques de cet hôte qui appartiennent au cluster vSAN, vous pouvez utiliser cette commande :

esxcli vsan storage list

Veuillez noter que cette commande ne répertorie PAS les appareils de stockage disponibles sur l’hôte VMware ESXi. Elle signale uniquement les appareils de stockage déjà affectés à vSAN dans le cadre du groupe de disques vSAN.  Si aucun disque n’est configuré pour vSAN sur l’hôte VMware ESXi, la sortie de cette commande sera vide.

Cette commande nous apporte de nombreuses informations.

  1. Le disque est-il un disque SSD ou un disque rotatif ?
  2. La déduplication et la compression vSAN sont-elles activées ?
  3. Le disque est-il utilisé pour le cache ou pour la capacité ?
  4. Quel est le format sur disque ?
  5. Le chiffrement vSAN est-il activé ?

 

 

 

Commande esxcli vsan policy

 

  1. Pour afficher les stratégies de stockage en vigueur, telles que le nombre d’échecs tolérés par vSAN, vous pouvez exécuter cette commande :
esxcli vsan policy getdefault

Notez qu’une même stratégie peut contenir des fonctionnalités différentes pour différents types d’objets vSAN. Cela se traduit ici par la spécification de la fonctionnalité supplémentaire « forceProvisioning » exclusivement pour l’objet vmswap. Cela est logique pour le type d’objet vmswap, car il ne constitue pas un attribut permanent de la VM et sera recréé si la VM doit migrer vers un autre hôte du cluster (vMotion, DRS, etc.).

 

 

Commande esxcli vsan health

 

Les deux commandes ESXCLI suivantes ont été ajoutées pour prendre en charge les bilans d’intégrité vSAN sur un hôte VMware ESXi individuel :

  • vsan.health.cluster get
  • vsan.health.cluster list
  1. Pour obtenir une vue d’ensemble de tous les bilans d’intégrité vSAN, vous pouvez exécuter la commande suivante :
esxcli vsan health cluster list

 

 

Commande esxcli vsan health (suite)

 

 

 

  1. Pour vérifier l’installation du service Host vSAN Health
esxcli vsan health cluster get -t "ESXi vSAN Health service installation"
  1. Pour contrôler les hôtes sans configuration vSAN vmknic
esxcli vsan health cluster get -t "All hosts have a vSAN vmknic configured"

 

 

Commande esxcli vsan debug

 

Une nouvelle commande esxcli visant à faciliter le dépannage a également été ajoutée à la dernière version de vSphere.

esxcli vsan debug

 

 

 

Commande esxcli vsan debug (suite)

 

Utilisez la commande « vsan debug vmdk » pour contrôler les statuts de tous les VMDK.

esxcli vsan debug vmdk list

La sortie affichée provient de la configuration d’une cible iSCSI vSAN ou d’une LUN.

 

 

Commande esxcli vsan debug (suite)

 

Selon le nombre d’objets présents dans votre environnement de laboratoire, la génération de cette sortie peut prendre du temps.

La commande « vsan debug object » vous permet de récupérer l’état l’intégrité des composants vSAN, la configuration des composants et les informations relatives à l’hôte propriétaire, ainsi que d’autres informations telles que la stratégie de stockage, l’état et le type des composants de la VM.

esxcli vsan debug object list

 

 

Commande esxcli vsan cluster unicastagent

 

La nouvelle commande esxcli ci-après répertorie les hôtes qui utilisent l’unicast (excepté toutefois l’hôte depuis lequel elle est exécutée) :

esxcli vsan cluster unicastagent list

 

Conclusion


Ce module vous a permis de vous familiariser avec PowerCLI 6.5 et d’apprendre comment l’utiliser pour surveiller, gérer et automatiser VMware vSAN.

Nous espérons que ces informations vous ont donné des idées sur la façon dont vous pouvez utiliser PowerCLI dans vos propres environnements.

Comme vous pouvez vous y attendre, de nombreuses informations supplémentaires sont disponibles pour vous aider dans votre apprentissage de PowerCLI avec vSAN.

Cliquez ici pour en obtenir la liste complète.


 

Vous avez terminé le module 6.

Félicitations ! Vous avez terminé le module 6.

Poursuivez avec l’un des modules ci-dessous selon le thème qui vous intéresse.

• 

Apprenez à créer un cluster vSAN étendu Direct Connect à 2 nœuds avec une séparation du trafic témoin.

Autres sites utiles :

• Blog de Cormac Hogan

• Blog de Jase McCarty

• Blog de Jeff Hunter

 

 

Comment terminer le laboratoire

 

Pour terminer votre laboratoire, cliquez sur le bouton END.

 

Module 7 : cluster vSAN étendu (30 minutes, débutant)

Introduction


Dans ce module, vous apprendrez comment configurer un cluster vSAN étendu à 2 nœuds avec une séparation du trafic témoin.

Ce module comprend les leçons suivantes :


Présentation du cluster vSAN 6.6.1 étendu


Avant d’étudier l’installation d’un cluster vSAN étendu, il convient de souligner un certain nombre de caractéristiques importantes propres aux environnements de cluster étendu.


 

Cluster vSAN Direct Connect à 2 nœuds

 

vSAN 6.5 prend en charge l’utilisation des câbles null modem de réseau pour les configurations à 2 nœuds. Cela est particulièrement utile dans des cas d’usage tels que les déploiements de bureaux distants et de succursales (ROBO), où l’acquisition, le déploiement et la gestion des équipements réseau 10 GbE sur chaque site peuvent s’avérer extrêmement coûteux. Cette configuration permet également de réduire la complexité et d’améliorer la fiabilité. La plate-forme des laboratoires d’essai en ligne VMware ne nous permet pas de simuler complètement cette configuration. Cependant, les étapes de ce module de laboratoire expliquent comment préparer un cluster étendu à deux nœuds et séparer le trafic de VM témoin comme dans un cluster à connexion directe.

 

 

Qu’est-ce qu’un domaine/site préféré ?

La notion de domaine/site préféré est une simple indication destinée à vSAN. Le site « préféré » est celui que vSAN cherche à maintenir en fonctionnement en cas de panne et d’interruption de la communication entre les sites. Le « site préféré » est celui qui est censé offrir le plus haut niveau de fiabilité.

Étant donné que les machines virtuelles peuvent s’exécuter sur l’un ou l’autre des deux sites, si la connectivité réseau entre le site 1 et le site 2 est perdue bien que chaque site conserve une connectivité avec le témoin, le site préféré est celui qui survit et ses composants restent alors actifs. En revanche, le stockage du site non préféré est désigné comme défaillant et ses composants sont considérés comme absents.

 

 

Qu’est-ce que la localité de lecture ?

Comme les machines virtuelles déployées sur un cluster vSAN étendu ont leurs ressources de calcul sur un site et une copie des données sur deux sites, vSAN doit utiliser un algorithme de localité de lecture pour lire 100 % de la copie des données sur le site local, c’est-à-dire celui qui héberge les ressources de calcul. Il ne s’agit pas de l’algorithme habituel de vSAN, qui lit à la volée toutes les copies de répliques des données.

Ce nouvel algorithme pour les clusters vSAN étendus réduit la latence des opérations de lecture.

Si la latence est inférieure à 5 ms et qu’il y a suffisamment de bande passante entre les sites, la localité de lecture peut être désactivée. Cependant, veuillez noter que la désactivation de la localité de lecture signifie que l’algorithme de lecture revient au mécanisme de permutation circulaire. Par conséquent, pour les clusters vSAN étendus, 50 % des requêtes de lecture sont envoyées au site distant. Il s’agit d’une considération importante pour le dimensionnement de la bande passante réseau. Pour en savoir plus, consultez le dimensionnement de la bande passante réseau entre les deux sites principaux.

Le paramètre avancé VSAN.DOMOwnerForceWarmCache peut être activé ou désactivé pour modifier le comportement de la localité de lecture. Ce paramètre avancé est masqué dans l’arborescence Advanced System Settings de vSphere Web Client. Il est uniquement disponible dans l’interface de ligne de commande (CLI).

La localité de lecture est activée par défaut lors de la configuration du cluster vSAN étendu. Elle ne doit être désactivée que sous la supervision des services de support mondiaux VMware, et uniquement si une latence extrêmement faible est disponible sur tous les sites.

 

 

Lancement de vSphere Web Client

 

Si vSphere Web Client n’est pas déjà ouvert depuis le module de laboratoire précédent, lancez-le en utilisant l’icône de Google Chrome dans la barre des tâches Windows.

  1. Cochez la case en regard de « Use Windows session authentication » pour vous connecter à « CORP\Administrator ».
  2. Cliquez sur Login

 

 

L’hôte témoin ne doit pas faire partie du cluster vSAN.

 

Lors de la configuration de votre cluster vSAN étendu, seuls les hôtes des données doivent se trouver dans l’objet cluster de vCenter.

  1. L’hôte témoin vSAN doit rester à l’extérieur du cluster. Vous ne devez jamais l’ajouter au cluster. Dans votre environnement de laboratoire, vous avez déjà déployé l’hôte témoin vSAN.

Ainsi, pour une configuration 1 (hôte) + 1 (hôte) + 1 (témoin), il y a un hôte VMware ESXi sur chaque site et un hôte témoin VMware ESXi.

 

 

Réseau

 

L’appliance vSAN Witness contient deux adaptateurs réseau connectés à des commutateurs vSphere Standard Switches (VSS) distincts.

Le VMkernel de gestion d’appliance témoin vSAN est joint à l’un des commutateurs VSS et le groupe de ports witnessPG, à l’autre commutateur VSS. Le VMkernel de gestion (vmk0) est utilisé pour communiquer avec vCenter Server pour la gestion de l’appliance. L’interface VMkernel WitnessPG (vmk1) est utilisée pour communiquer avec le réseau vSAN. Il s’agit de la configuration recommandée. Ces cartes réseau peuvent être connectées à des réseaux différents ou au même réseau, à condition d’avoir une connectivité vers leurs services appropriés.

L’interface VMkernel de gestion peut être balisée pour inclure le trafic réseau vSAN ainsi que le trafic de gestion. Dans ce cas, vmk0 requiert une connectivité à vCenter Server et au réseau vSAN. Dans de nombreux environnements VMware ESXi imbriqués (tels que la plate-forme utilisée par VMware pour ce laboratoire d’essai en ligne), il est recommandé d’activer le mode de proximité pour pouvoir transférer toutes les trames Ethernet vers toutes les VM jointes au groupe de ports, même si elles ne sont pas destinées à l’une de ces VM en particulier. La raison pour laquelle le mode de proximité est activé dans de nombreux environnements imbriqués est que ce mode évite que le commutateur virtuel ignore les paquets destinés aux vmnics (imbriqués) qu’il ne connaît pas sur les hôtes VMware ESXi imbriqués.

Le témoin a un groupe de ports prédéfini nommé witnessPg. Ici, le port VMkernel à utiliser pour le trafic vSAN est visible. S’il n’y a pas de serveur DHCP sur le réseau vSAN (ce qui est probable), l’adaptateur VMkernel n’aura pas d’adresse IP valide.

  1. Sélectionnez l’hôte VMware ESXi esx-08a.corp.local.
  2. Sélectionnez Configure.
  3. Sélectionnez Networking -> VMkernel adapters.
  4. Sélectionnez vmk1 pour afficher les propriétés de witnessPg.
  5. Vérifiez que « vSAN » est un service activé, comme le montre cette capture d’écran.

 

 

 

Passerelles et routes statiques par défaut

La dernière étape avant la configuration d’un cluster vSAN étendu consiste à vérifier qu’il existe une connectivité entre les hôtes de chaque site et l’hôte témoin. Il est important de vérifier la connectivité avant d’essayer de configurer les clusters vSAN étendus.

Si vous utilisez vSAN 6.1, 6.2 ou 6.5 (sans spécifier de passerelle), les administrateurs doivent implémenter des routes statiques. Les routes statiques, comme nous l’avons vu précédemment, indiquent à la pile TCP/IP d’utiliser un chemin différent pour atteindre un réseau particulier. À présent, nous pouvons indiquer à la pile TCP/IP située sur les hôtes de données d’utiliser un chemin réseau différent (au lieu de la passerelle par défaut) pour atteindre le réseau vSAN sur l’hôte témoin. De même, nous pouvons indiquer à l’hôte témoin d’utiliser un autre chemin pour atteindre le réseau vSAN sur les hôtes de données plutôt que via la passerelle par défaut.

Notez une fois de plus que le réseau vSAN est un domaine de diffusion L2 étendu entre les sites de données selon les recommandations de VMware, mais que L3 est nécessaire pour atteindre le réseau vSAN de l’appliance Witness. Par conséquent, vous devez employer des routes statiques entre les hôtes de données et l’hôte témoin pour le réseau vSAN. Mais ces routes statiques ne sont pas indispensables pour permettre aux hôtes de données des différents sites de communiquer entre eux via le réseau vSAN.

Dans vSphere 6.5, une passerelle par défaut peut être spécifiée pour chaque interface VMkernel et ne nécessite pas de routes statiques lorsque vous spécifiez une route par défaut pour les interfaces VMkernel balisées pour vSAN.

Les commandes esxcli utilisées pour ajouter une route statique sont :

esxcli network ip route ipv4 add –n <réseau distant> -g <passerelle à utiliser>

Voici deux autres commandes utiles : esxcfg-route –n, qui affiche les voisins de réseau sur diverses interfaces, et esxcli network ip route ipv4 list, qui affiche les passerelles des différents réseaux. Répétez cette étape pour tous les hôtes.

 

Création d’un cluster étendu à deux nœuds vSAN 6.6.1


Il est relativement simple de créer un cluster vSAN étendu à partir d’un groupe d’hôtes pour lesquels vSAN n’est pas encore configuré. Un nouvel assistant de cluster vSAN simplifie le processus.

Dans cette leçon, nous vous guiderons à travers chacune des étapes suivantes.

  • Création d’un cluster vSphere
  • Ajout d’hôtes VMware ESXi au cluster vSphere
  • Préparation des hôtes VMware ESXi pour la séparation du trafic témoin (WTS)
  • Formation du cluster vSAN à 2 nœuds

 


 

Création d’un cluster vSphere

 

La première étape consiste à créer un cluster vSphere pour les 2 hôtes VMware ESXi que nous utiliserons pour former le cluster vSAN étendu à 2 nœuds.

  1. Faites un clic droit sur le Data Center nommé RegionA01.
  2. Sélectionnez New Cluster...

 

 

Création d’un cluster vSphere

 

1. Nommez le cluster vSphere :

2-Node-Stretched-Cluster

Cliquez sur OK.

 

 

 

Déplacement des hôtes dans le cluster

 

Une fois le cluster vSphere créé, transférez-y les 2 hôtes VMware ESXi nommés esx-05a.corp.local et esx-06a.corp.local.

Cela peut se faire de 2 façons :

  1. Faites glisser l’hôte VMware ESXi et déposez-le dans le cluster vSphere 2-Node-Stretched-Cluster.

ou

  1. Cliquez avec le bouton droit sur l’hôte VMware ESXi et sélectionnez Move To..., sélectionnez le cluster vSphere nommé 2-Node-Stretched-Cluster, puis cliquez sur OK

 

 

Retrait des hôtes du mode maintenance

 

Retirez les hôtes VMware ESXi esx-05a.corp.local et esx-06a.corp.local du mode maintenance.

  1. Cliquez avec le bouton droit sur l’hôte VMware ESXi esx-05a.corp.local.
  2. Sélectionnez Maintenance Mode.
  3. Sélectionnez Exit Maintenance Mode.

Répétez ces étapes pour l’autre hôte VMware ESXi du cluster vSphere nommé 2-Node-Stretched-Cluster.

 

 

Vérification de l’environnement vSphere

 

Avant de continuer, vérifiez que votre cluster étendu à 2 nœuds ressemble à celui de la capture d’écran.

Vérifiez que vous avez un cluster vSphere contenant 2 hôtes VMware ESXi et qu’ils ne sont pas en mode maintenance.

 

 

Vérification du réseau

 

Vérifiez que chaque hôte VMware ESXi a un port VMkernel pour vSAN et que le service de trafic vSAN est activé.

  1. Sélectionnez l’hôte VMware ESXi esx-05a.corp.local.
  2. Sélectionnez Configure.
  3. Sélectionnez Networking -> VMkernel Adapters.
  4. Sélectionnez vmk3 (groupe de ports activé pour vSAN)
  5. Vérifiez que le service vSAN est activé dans le groupe de ports.

 

 

Vérification du stockage

 

Vérifiez que chacun des hôtes VMware ESXi dispose d’un appareil de stockage disponible pour créer les groupes de disques vSAN et activer la création d’une banque de données vSAN.

Comme le montre la capture d’écran, nous utiliserons 2 disques de 5 Go pour la couche de cache et 4 disques de 10 Go pour la couche de capacité lors de la création des groupes de disques vSAN.

  1. Sélectionnez l’hôte VMware ESXi esx-05a.corp.local.
  2. Sélectionnez Configure.
  3. Sélectionnez Storage -> Storage Devices.

 

 

Séparation du trafic témoin

 

VMware vSAN version 6.5 ou ultérieure prend en charge la possibilité de connecter directement 2 nœuds de données vSAN à l’aide d’un ou plusieurs câbles null modem.

Ceci est réalisé en balisant un autre port VMkernel avec le type de trafic « Witness ». Les canaux de communication des données et des métadonnées peuvent maintenant être séparés.

Le trafic des métadonnées destinées à l’interface VMkernel témoin vSAN peut être acheminé via un autre port VMkernel. Cette fonctionnalité est appelée « séparation du trafic témoin ».

Grâce à la possibilité de connecter directement le réseau de données vSAN à travers les hôtes et d’envoyer le trafic témoin sur un autre itinéraire, il n’est pas nécessaire de disposer d’un commutateur haute vitesse pour le réseau de données dans cette conception.

Cela réduit le coût total de l’infrastructure requise pour déployer un cluster vSAN à 2 nœuds. L’économie réalisée peut-être significative dans le cadre d’un déploiement à l’échelle de clusters vSAN à 2 nœuds.

 

 

Préparation des hôtes VMware ESXi pour la séparation du trafic témoin

 

Pour préparer les hôtes VMware ESXi pour le cluster vSAN étendu à 2 nœuds, ouvrez une session PuTTY sur les hôtes suivants.

L’application PuTTY est disponible sur la barre des tâches de votre console principale.

esx-05a.corp.local
esx-06a.corp.local

 

 

Préparation des hôtes VMware ESXi pour la séparation du trafic témoin

 

Voyons d’abord quels types de trafic sont configurés.

  1. Exécutez la commande suivante sur les hôtes esx-05a.corp.local et esx-06a.corp.local :
esxcli vsan network list
  1. Vous constatez que Traffic Type: vsan est configuré sur chaque hôte.

 

 

Préparation des hôtes VMware ESXi pour la séparation du trafic témoin

 

L’utilisation de ports pour vSAN suppose actuellement que les ports VMkernel soient balisés pour le trafic vsan. Cela se fait facilement dans vSphere Web Client.

Le balisage d’une interface VMkernel pour le trafic « witness » s’effectue actuellement à partir de la ligne de commande.

La commande permettant d’ajouter une interface ayant le type de trafic witness est la suivante :

esxcli vsan network ipv4 add -i vmk0 -T=witness
  1. Exécutez cette commande sur esx-05a.corp.local et sur esx-06a.corp.local.

Remarque : n’oubliez pas que c’est le réseau de gestion que nous allons utiliser pour le trafic Witness, ce qui, dans notre environnement, correspond à vmk0.

 

 

Préparation des hôtes VMware ESXi pour la séparation du trafic témoin

 

À présent, regardons quels sont les types de trafics configurés.

  1. Exécutez la commande suivante sur les hôtes esx-05a.corp.local et esx-06a.corp.local :
esxcli vsan network list

Vous constatez ici que Traffic Type: vsan et Traffic Type: witness sont configurés sur chaque hôte.

Maintenant que nous avons configuré le réseau, nous devons créer notre cluster vSAN étendu à 2 nœuds.

 

 

Création d’un cluster vSAN à 2 nœuds

 

Vous devez suivre ces étapes pour installer un nouveau cluster vSAN étendu. Cet exemple correspond à un déploiement 1 + 1 + 1 : un hôte VMware ESXi sur le site de prédilection, un hôte VMware ESXi sur le site secondaire et un hôte témoin.

Pour configurer vSAN et le cluster étendu, accédez au

  1. cluster nommé 2-Node-Stretched-Cluster.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN -> General.
  4. Cliquez sur Configure pour démarrer l’assistant vSAN.

 

 

Configuration de vSAN en tant que cluster étendu

 

L’assistant initial permet de spécifier diverses options, telles que la méthode de réclamation de disque, l’activation de la déduplication et de la compression (architectures 100 % Flash uniquement, avec licence Advanced ou supérieure), ainsi que la configuration des domaines de pannes ou du cluster étendu.

  1. Sélectionnez Configure two host vSAN cluster.

Cliquez sur Next.

 

 

Validation du réseau

 

La validation du réseau confirmera que chaque hôte possède une interface VMkernel où vSAN traffic a la valeur enabled.

Sélectionnez Next.

 

 

Réclamation de disques

 

Les disques seront sélectionnés selon leur rôle (cache ou capacité) dans le cluster vSAN.

Comme le montre la capture d’écran, les disques de 5 Go de chaque hôte VMware ESXi ont été sélectionnés pour le niveau cache, et les disques de 10 Go, pour le niveau capacité.

Sélectionnez Next.

 

 

Create Fault Domains

 

In the Create fault domains screen, move the host esx-06a.corp.local to the Secondary fault domain.

  1. Select the host esx-06a.corp.local
  2. Click the >> button top move the ESXi host to the Secondary fault domain

Click Next

 

 

Sélection de l’hôte témoin

 

L’hôte témoin décrit plus haut doit être choisi pour agir en tant que témoin sur les 2 domaines de pannes.

  1. Développez le Data Center RegionA01, puis sélectionnez esx-08a.corp.local.

Cliquez sur Next.

 

 

Réclamation des disques pour l’hôte témoin

 

Tout comme les hôtes vSAN physiques, le témoin a besoin d’un niveau cache et d’un niveau capacité.

Remarque : le témoin n’a pas besoin de reposer sur un SSD et peut résider sur un disque dur mécanique classique.

  1. Sélectionnez le disque de niveau cache.
  2. Sélectionnez le disque de niveau capacité.

Cliquez sur Next.

 

 

Page « Ready to Complete »

 

Pour obtenir plus d’informations, examinez la configuration du cluster vSAN étendu.

Sélectionnez Finish.

 

 

Surveillance des tâches

 

Vous pouvez surveiller les tâches dans la fenêtre Recent Tasks.

Vous distinguez les tâches de reconfiguration du cluster vSAN, de création des groupes de disques, de conversion en cluster étendu et d’ajout des disques aux groupes de disques.

 

 

Cluster vSAN créé

 

Vérifions maintenant que le cluster vSAN étendu est correctement créé.

  1. Sélectionnez 2-Node-Stretched Cluster.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN > General.
  4. Nous constatons que vSAN est activé et que le format de disque est 5.0.

 

 

Gestion des disques

 

Observons maintenant les groupes de disques créés.

  1. Sélectionnez 2-Node-StretchedCluster.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN > Disk Management.
  4. Nous disposons d’un groupe de disques sur les hôtes VMware ESXi nommés esx-05a.corp.local et esx-06a.corp.local. Nous avons aussi un groupe de disques sur esx-08a.corp.local, qui est l’hôte témoin vSAN dans notre configuration de cluster étendu.

 

 

Domaines de pannes et cluster étendu

 

Observons la configuration Fault Domains and Stretched Cluster.

  1. Sélectionnez 2-Node-Stretched-Cluster.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN > Fault Domains and Stretched Cluster.
  4. Le paramètre vSAN Stretched Cluster a la valeur enabled pour l’hôte témoin esx-08a.corp.local.
  5. Nous apercevons également les 2 domaines de pannes qui ont été créés, ainsi que leurs hôtes VMware ESXi respectifs.

 

 

Conclusion

Voilà qui conclut cette leçon sur la création d’un cluster vSAN 6.6 étendu à 2 nœuds avec séparation du trafic témoin.

 

Surveillance d’un cluster vSAN 6.6.1 étendu


Une des façons de surveiller votre environnement vSAN est d’utiliser le bilan d’intégrité vSAN.

Cette fonctionnalité effectue un bilan d’intégrité complet de votre environnement vSAN afin de vérifier qu’il fonctionne correctement. Le cas échéant, elle vous signale les incohérences détectées et vous présente les options dont vous disposez pour les corriger.


 

Bilan d’intégrité vSAN

 

Voyons comment fonctionne le bilan d’intégrité et quels problèmes nous sommes en mesure de signaler.

  1. Sélectionnez 2-Node-Stretched-Cluster.
  2. Sélectionnez Monitor.
  3. Sélectionnez vSAN.
  4. Sélectionnez Health.

Vous voyez ici la liste principale des bilans d’intégrité vSAN qui peuvent être effectués.

5. Pour relancer le bilan d’intégrité vSAN à tout moment, il vous suffit de cliquer sur le bouton Retest.

 

 

Bilan d’intégrité vSAN

 

Entrons maintenant dans le détail des différents tests.

  1. Développez Stretched Cluster.
  2. Sélectionnez Site latency health.

En bas de l’écran, vous pouvez consulter les résultats de ces tests.

Prenez le temps de jeter un coup d’œil aux autres tests et aux données qu’ils génèrent.

 

 

Conclusion

Le bilan d’intégrité vSAN est une aide précieuse pour approfondir les performances de test et établir un bilan de l’intégrité des installations vSAN. Le bilan d’intégrité vSAN doit être la première source d’informations à consulter pour surveiller votre environnement vSAN.

Il est recommandé de refaire le bilan d’intégrité vSAN pour récupérer l’état actuel de l’environnement.

 

Affinité de site vSAN


Un Data Center héberge plusieurs charges de travail et offre des fonctionnalités de disponibilité ou de redondance intégrées au niveau de l’application.

La plupart des charges de travail requièrent cependant une protection multisite garantissant une meilleure redondance des données.

Comment gérons-nous les charges de travail qui n’exigent pas le stockage de copies sur différents sites ?

 


 

Présentation de l’affinité locale

L’affinité locale permet aux clients d’utiliser des règles pour conserver leurs données sur un seul site. Dans ce cas, le paramètre Primary Failures to Tolerate (PFTT) est défini sur 0.

Cela garantit que les objets ne sont pas répliqués sur le site secondaire, d’où une réduction de la bande passante requise entre les sites.

En outre, l’utilisation de règles d’affinité permet aux clients de définir des affectations de VM/VMDK pour des hôtes spécifiques.

 

Par exemple, vous pouvez tester les affinités locales à l’aide des définitions de paramètre suivantes : PFTT = 0, SFTT = 2, FTM = RAID 5. Le résultat de ce test est que toutes les opérations d’E/S doivent être effectuées localement et non sur le site secondaire. De cette façon, vous pouvez assurer facilement une protection d’hôte et/ou de disque pour les objets qui ne requièrent pas de protection de site.

Quelques règles d’entretien pour les affinités locales :

  1. L’affinité ne sera disponible que lorsque les clusters étendus seront activés.
  2. Les règles DRS/HA doivent être alignées sur la localité des données.
  3. Les configurations RAID 0 et RAID 1 sont prises en charge pour les disques hybrides, et les configurations RAID 0, RAID 1, RAID 5 et RAID 6 sont prises en charge sur les disques 100 % Flash.

 

 

Storage Policy-Based Management (SPBM) : affinité locale

 

Dans cette leçon, nous allons créer une stratégie de stockage pour VM configurée pour l’affinité locale.

  1. Ouvrez le menu Home de vSphere Web Client.
  2. Sélectionnez Policies and Profiles.

 

 

Storage Policy-Based Management (SPBM) : affinité locale

 

  1. Sélectionnez VM Storage Policies.
  2. Sélectionnez Create VM Storage Policy.

 

 

Storage Policy-Based Management (SPBM) : affinité locale

 

Entrez un nom pour la stratégie de stockage pour VM :

Single Site with Mirroring

Cliquez sur Next.

Cliquez sur Next sur la page Policy Structure.

Cliquez sur Next sur la page Common rules for data services provided by hosts.

 

 

Storage Policy-Based Management (SPBM) : affinité locale

 

  1. Pour le paramètre « Storage Type », sélectionnez VSAN.
  2. Ajoutez les 3 règles suivantes :
Primary level of failures to tolerate: 0
Failure tolerance method: Raid-1 (Mirroring) - Performance
Affinity: Preferred Fault Domain

Cliquez sur Next.

 

 

Storage Policy-Based Management (SPBM) : affinité locale

 

Sous « Compatible storage », sélectionnez vsanDatastore (1).

Cliquez sur Next.

 

 

 

Storage Policy-Based Management (SPBM) : affinité locale

 

Sur la page « Ready to complete », cliquez sur Finish.

 

 

Storage Policy-Based Management (SPBM) : affinité locale

 

Vérifiez que la stratégie de stockage pour VM est bien créée.

  1. Sélectionnez la stratégie de stockage pour VM nommée Single Site with Mirroring.
  2. Sélectionnez Manage.
  3. Sélectionnez Rule-set-1: VSAN.

 

 

Création d’une VM dotée d’une stratégie SPBM d’affinité locale

 

  1. Ouvrez le menu Homede vSphere Web Client.
  2. Sélectionnez Hosts and Clusters.

 

 

Création d’une VM dotée d’une stratégie SPBM d’affinité locale

 

  1. Développez l’hôte VMware ESXi esx-07a.corp.local.
  2. Cliquez avec le bouton droit sur la VM nommée core-A.
  3. Sélectionnez Clone.
  4. Sélectionnez Clone to Virtual Machine.

 

 

 

Création d’une VM dotée d’une stratégie SPBM d’affinité locale

 

  1. Nommez la VM, par exemple Local Affinity VM.
Local Affinity VM
  1. Sélectionnez le Data Center RegionA01.

Cliquez sur Next.

 

 

Création d’une VM dotée d’une stratégie SPBM d’affinité locale

 

  1. Sur la page « Select a compute resource », développez le cluster 2-Node-Stretched-Cluster.
  2. Sélectionnez l’hôte VMware ESXi esx-05a.corp.local.

Cliquez sur Next.

 

 

Création d’une VM dotée d’une stratégie SPBM d’affinité locale

 

  1. Pour le paramètre « VM Storage policy », sélectionnez Single Site with Mirroring.

La banque de données vsanDatastore (1) sera compatible avec cette stratégie de stockage.

Cliquez sur Next.

Cliquez sur Next sur la page « Clone options ».

Sur la page Ready to complete, cliquez sur Finish.

 

 

 

Création d’une VM dotée d’une stratégie SPBM d’affinité locale

 

  1. Vérifiez que la machine virtuelle nommée Local Affinity VM a été créée dans 2-Node-Stretched-Cluster.
  2. Sélectionnez l’onglet Summary.
  3. Vérifiez que la stratégie de stockage pour VM nommée Single Site with Mirroring a été appliquée à la VM et présente le statut Compliant.

 

 

Domaine de pannes vSAN

 

  1. Sélectionnez le cluster 2-Node-Stretched-Cluster.
  2. Sélectionnez Configure.
  3. Sélectionnez vSAN -> Fault Domains & Stretched Cluster.
  4. Notez le domaine de pannes préféré et l’hôte VMware ESXi qui se trouve dans ce domaine.

Dans l’exemple illustré ici, l’hôte VMware ESXi nommé esx-06a.corp.local est situé dans le domaine de pannes préféré.

 

 

 

 

Conformité à la stratégie

 

  1. Sélectionnez la VM nommée Local Affinity VM.
  2. Sélectionnez Monitor.
  3. Sélectionnez Policies.
  4. Sélectionnez Hard disk 1.
  5. Sélectionnez Physical Disk Placement.
  6. Notez que le composant Hard disk 1 a été placé dans le domaine de pannes préféré, qui correspond à l’hôte VMware ESXi esx-06a.corp.local.

 

 

Modification d’une stratégie de stockage pour VM

 

  1. Dans le menu Home de vSphere Web Client, sélectionnez Policies and Profiles.
  2. Sélectionnez VM Storage Policies.
  3. Sélectionnez Single Site with Mirroring.
  4. Cliquez sur Edit.

 

 

 

Modification d’une stratégie de stockage pour VM

 

  1. Sélectionnez Rule-Set 1.
  2. Redéfinissez le paramètre « Affinity » de Preferred Fault Domain à Secondary Fault Domain.

Cliquez sur OK.

 

 

Modification d’une stratégie de stockage pour VM

 

La stratégie de stockage pour VM est déjà utilisée par certaines machines virtuelles.

  1. Redéfinissez Reapply to VMs sur Now.

Cliquez sur Yes pour enregistrer vos modifications.

 

 

Vérification d’une stratégie de stockage pour VM

 

  1. Dans le menu Home de vSphere Web Client, sélectionnez Hosts and Clusters.
  2. Sélectionnez la VM nommée Local Affinity VM.
  3. Sélectionnez Monitor.
  4. Sélectionnez Policies.
  5. Sélectionnez Hard Disk 1.
  6. Sélectionnez Physical Disk Placement.
  7. Vérifiez que le composant est à présent défini sur la valeur Secondary Fault Domain, qui, dans notre cas, correspond à l’hôte VMware ESXi esx-05a.corp.local.

Dans votre environnement de laboratoire, l’hôte VMware ESXi situé dans le domaine de pannes secondaire se nommera éventuellement esxi-06a.corp.local.

 

Conclusion


Dans cette leçon, nous avons découvert comment configurer un cluster vSAN étendu à 2 nœuds. Nous vous avons fourni quelques informations générales et présenté les principales fonctionnalités à connaître avant de configurer votre environnement de cluster vSAN étendu.

L’une des fonctionnalités que nous tenions à vous montrer ici est la séparation des données témoin et des données vSAN. Nous vous avons expliqué comment configurer un port VMKernel de gestion pour le trafic témoin.

Nous avons ensuite mené à bien la configuration d’un cluster vSAN étendu à 2 nœuds. Enfin, nous vous avons montré comment surveiller l’intégrité vSAN et comment exécuter des bilans d’intégrité vSAN.


 

Vous avez terminé le module 7.

Des informations complémentaires sur les clusters vSAN et les clusters vSAN étendus sont disponibles ici :

• Blogs de VMware

VMware vSAN

vSAN sur YouTube

• vSAN sur Youtube

 

 

Comment terminer le laboratoire

 

Pour terminer votre laboratoire, cliquez sur le bouton END.

 

Conclusion

Merci d’avoir participé aux laboratoires d’essai en ligne VMware. Visitez le site http://hol.vmware.com/ pour poursuivre ce laboratoire en ligne.

SKU du laboratoire : HOL-1808-01-HCI

Version : 20180417-114231