Ce Lab a pour objectif d'illustrer la documentation permettant de se préparer au passage de la certification VMWare Certified Professional - Data Center Virtualization v8 (2V0-21.23).
Plus précisément le chapitre 8 - Gestion des machines virtuelles (VMs).
Cours Traité : Leçon 7 : Contrôles des ressources
Avant de commencer, je tiens à préciser qu'il est préférable d'avoir lu la documentation.
Pour réaliser l'ensemble des différents Labs j'ai dans un premier temps créé un environnement virtuel comprenant les éléments suivants :
Selon le lab, tous ces éléments ne sont pas forcément utilisés cependant ils le seront au fur et à mesure des différents labs.
De ce fait, pour reproduire les Lab , il est conseillé d'avoir à disposition un environnement équivalant.
Je vais partir du principe que vous possédez un Lab à disposition.
Observer le comportement des machines virtuelles (VMs) avec différentes valeurs de CPU shares :
Vous créez une contention CPU entre les machines virtuelles VM-LAB-2 et VM-LAB-5 afin de tester votre environnement de Lab.
Vous utilisez la fonctionnalité CPU scheduling affinity pour forcer les deux VMs à être planifiées sur le même processeur logique (logical CPU) et exécutez le script cpubusy.sh sur les deux VMs afin de générer de l’activité CPU.
En créant cette contention, vous forcez les VMs à se partager les ressources CPU logiques limitées de l’hôte ESXi.
Cette approche peut entraîner une dégradation des performances.
Le compte Administrator@vsphere.local est le compte utilisateur par défaut que l'on trouve sur vCenter après son installation.
Pour se connecter il faudra utiliser cette URL : https://<vCenter_FQDN_or_IP_Address>/ui.
Dans le cas de mon Lab ça sera donc soit "lab-vcenter-01.lab.local/ui" soit l'adresse IP de vCenter.




Dans le volet de navigation, sélectionnez lab-esxi-02.lab.local.
Dans le volet de droite, cliquez sur l’onglet VMs.
Vérifiez que VM-LAB-2 et VM-LAB-5 apparaissent dans la liste.




IMPORTANT : L’affinité de planification CPU (CPU scheduling affinity) est utilisée dans ce Lab uniquement à des fins de formation pour créer une contention CPU. VMware déconseille fortement l’utilisation de cette fonctionnalité dans un environnement de production.

Mettez sous tension VM-LAB-2 et VM-LAB-5.
Vérifiez que VM-LAB-2 et VM-LAB-5 ont chacune une valeur de CPU shares égale à Normal.





cpubusy.pl (disponible ici : cpubusy.pl) depuis la ligne de commande sur VM-LAB-2 et VM-LAB-5.Ouvrez un Terminal Linux sur VM-LAB-2.
Saisissez cd Desktop pour accéder au dossier Desktop.

./cpubusy.pl pour lancer le script cpubusy.
Ce script s’exécute en continu et se stabilise en 1 à 2 minutes. Il effectue des calculs en virgule flottante de manière répétée et affiche la durée d’un calcul (wall-clock time),
par exemple : I did three million sines in 1 seconds!

Vous pouvez utiliser le nombre de secondes affiché comme estimation de performance.
Le programme doit s’exécuter à une vitesse similaire sur chaque machine virtuelle.

Vous allez vérifier que les machines virtuelles (VMs) reçoivent la bonne allocation CPU en situation de contention.
L’allocation CPU est déterminée en fonction du nombre de parts (shares) attribué à chaque VM.
Revenez dans le vSphere Client.
Modifiez le nombre de parts CPU de VM-LAB-2 pour le définir sur High (élevé).



Lorsque le paramètre est défini sur High, la VM se voit attribuer 2000 shares.



Lorsque le paramètre est défini sur Low, la VM se voit attribuer 500 shares.




ATTENTION Le script doit être arrêté sur chaque machine virtuelle, sinon il risque d’affecter les performances des labs suivants.
Fermez les fenêtres de console de VM-LAB-2 et VM-LAB-5.
Arrêtez (shut down) les VMs VM-LAB-2 et VM-LAB-5.
Supprimez l’affinité CPU (CPU Scheduling Affinity) de VM-LAB-2 et VM-LAB-5.
Vous ne pouvez pas modifier l’affinité CPU tant que les VMs sont sous tension.
Assurez-vous que les VMs sont éteintes avant de continuer.



Cliquez sur OK.
Répétez ces étapes pour la VM VM-LAB-5.

Lab précédent : Lab 22 : Travailler avec les Snapshots
Lab suivant : Lab 24 : Mise en œuvre des clusters vSphere DRS