Capacité du système de surveillance

Il est important de suivre les mesures clés qui déterminent la capacité de Private Cloud Appliance à héberger vos instances de calcul et le stockage qu'elles utilisent. Les administrateurs ont un accès direct à la consommation actuelle d'UC, de mémoire et d'espace de stockage.

Les données détaillées relatives à la charge des noeuds de calcul et à l'utilisation du stockage sont disponibles dans les tableaux de bord Grafana. Cette rubrique explique comment accéder aux mesures les plus critiques directement à partir de l'enclave de service.

Affichage de l'utilisation de la CPU et de la mémoire par domaine de pannes

Ces procédures affichent le nombre de noeuds de calcul, la quantité totale de mémoire et de mémoire libre, ainsi que le nombre total et libre de CPU virtuelles pour chaque domaine de pannes.

La ligne UNASSIGNED fait référence aux noeuds de calcul qui ne sont pas actuellement affectés à un domaine de pannes. Etant donné que ces noeuds de calcul n'appartiennent pas à un domaine de pannes, leur utilisation de la mémoire et de l'UC dans un domaine de pannes est égale à zéro.

Pour afficher ces informations et plus pour un noeud de calcul individuel, sélectionnez PCA Config > Rack Units dans le menu de navigation, ou sélectionnez la mosaïque Rack Units dans le tableau de bord, puis cliquez sur le nom d'un noeud de calcul dans la liste.

Utiliser l'interface utilisateur Web de service
  1. Dans le menu de navigation, sélectionnez PCA Config > Fault Domains.

  2. Cliquez sur le nom d'un domaine de pannes pour afficher les informations relatives à ce domaine de pannes uniquement.

Utilisation de la CLI de service

Entrez la commande getFaultDomainInfo.

PCA-ADMIN> getFaultDomainInfo
Data:
  id           totalCNs   totalMemory   freeMemory   totalvCPUs   freevCPUs
  --           --------   -----------   ----------   ----------   ---------
  UNASSIGNED   1          0.0           0.0          0            0
  FD1          2          1072.0        976.0        176          164
  FD2          1          984.0         984.0        120          120
  FD3          1          984.0         984.0        120          120

La colonne Notes est omise de l'exemple précédent.

Affichage de l'utilisation de l'espace disque dans ZFS Storage Appliance

Le service Enclave exécute un outil de surveillance du stockage appelé gestionnaire de pool ZFS, qui interroge ZFS Storage Appliance toutes les 60 secondes. A l'aide de la CLI de service, vous pouvez afficher les informations actuelles sur l'utilisation de l'espace disque disponible dans chaque pool ZFS. Vous pouvez également définir le seuil d'utilisation qui déclenche une panne lorsque le seuil est dépassé.

Vérification de l'état du stockage des pools ZFS

Répertoriez les pools ZFS.

PCA-ADMIN> list ZfsPool
Data:
  id                                     name
  --                                     ----
  e898b147-7cf0-4bd0-8b54-e32ec83d04cb   PCA_POOL
  c2f67943-df81-47a5-9713-06768318b623   PCA_POOL_HIGH

Dans une configuration de stockage standard, vous ne disposez que d'un pool. Si votre système inclut des plateaux de disques hautes performances, vous pouvez afficher les informations d'utilisation de chaque pool séparément.

PCA-ADMIN> show ZfsPool id=e898b147-7cf0-4bd0-8b54-e32ec83d04cb
Data:
  Id = e898b147-7cf0-4bd0-8b54-e32ec83d04cb
  Type = ZfsPool
  Pool Status = Online
  Free Pool = 44879343128576
  Total Pool = 70506183131136
  Pool Usage Percent = 0.3634693989163486
  Name = PCA_POOL
  Work State = Normal
Configuration du seuil de panne du gestionnaire de pools ZFS

Par défaut, le seuil de panne est défini sur 80 % plein : usage percentage 0.8.

PCA-ADMIN> show ZfsPoolManager
Data:
  Id = a6ca861b-f83a-4032-91c5-bc506394d0de
  Type = ZfsPoolManager
  LastRunTime = 2022-10-09 12:17:52,964 UTC
  Poll Interval (sec) = 60
  The minimum Zfs pool usage percentage to trigger a major fault = 0.8
  Manager's run state = Running

L'exemple suivant définit le seuil de panne sur 75 % plein : usageMajorFaultPercent=0.75.

PCA-ADMIN> edit ZfsPoolManager usageMajorFaultPercent=0.75
JobId: 67cfe180-f2a2-4d59-a676-01b3d73cffae