Guide d'administration système de Sun Cluster pour SE Solaris

Chapitre 4 Administration de périphériques globaux, du contrôle de chemins de disques et de systèmes de fichiers de cluster

Ce chapitre décrit les procédures d'administration de périphériques globaux, du contrôle de chemin de disques et de systèmes de fichiers de cluster.

Les procédures décrites dans ce chapitre sont les suivantes :

Pour obtenir une description de haut niveau des procédures connexes décrites dans ce chapitre, reportez-vous au Tableau 4–2.

Pour obtenir des informations conceptuelles relatives aux périphériques globaux, aux espaces de noms globaux, aux groupes de périphériques globaux, au contrôle de chemins de disques et au système de fichiers de cluster, reportez-vous au Guide des notions fondamentales de Sun Cluster pour SE Solaris.

Administration de périphériques globaux et d'espaces de noms globaux : présentation

L'administration des groupes de périphériques de disques Sun Cluster dépend du gestionnaire de volumes installé sur le cluster. Solstice DiskSuite/Solaris Volume Manager reconnaît les clusters, il vous suffit donc d'ajouter, d'enregistrer et de supprimer des groupes de périphériques de disques à l'aide de la commande metaset(1M) de Solstice DiskSuite/Solaris Volume Manager. Si vous utilisez VERITAS Volume Manager (VxVM), vous créez des groupes de disques à l'aide des commandes VxVM. Vous pouvez ensuite enregistrer ces groupes en tant que groupes de périphériques de disques Sun Cluster à l'aide de l'utilitaire scsetup(1M). Pour supprimer des groupes de périphériques de disques VxVM, vous utiliserez les commandes scsetup et VxVM.

Le logiciel Sun Cluster crée automatiquement dans le cluster un groupe de périphériques de disques bruts pour chaque disque, ainsi qu'un lecteur de bande. Les groupes de périphériques de cluster restent à l'état hors ligne tant que vous ne les utilisez pas comme périphériques globaux. Lorsque vous administrez des groupes de périphériques de disques ou des groupes de disques du gestionnaire de volumes, vous devez vous trouver sur le nœud du cluster correspondant au nœud principal du groupe en question.

Normalement, vous n'avez pas besoin d'administrer l'espace de noms du périphérique global. L'espace de noms global est automatiquement configuré au cours de l'installation et mis à jour automatiquement pendant la réinitialisation du système d'exploitation Solaris. Cependant, si l'espace de noms global doit être mis à jour, vous pouvez exécuter la commande scgdevs (1M) à partir de n'importe quel nœud de cluster. Via cette commande, l'espace de noms global est alors mis à jour sur tous les autres nœuds du cluster, ainsi que sur les nœuds susceptibles de s'ajouter au cluster par la suite.

Autorisations sur les périphériques globaux pour Solstice DiskSuite/Solaris Volume Manager

Les modifications apportées aux autorisations sur les périphériques globaux ne sont pas automatiquement diffusées vers tous les nœuds du cluster pour Solstice DiskSuite/Solaris Volume Manager et pour les périphériques de disques. Si vous souhaitez modifier ces autorisations, vous devez le faire manuellement sur tous les nœuds du cluster. Si, par exemple, vous souhaitez modifier les autorisations sur le périphérique global /dev/global/dsk/d3s0 pour les définir sur 644, vous devez exécuter

# chmod 644 /dev/global/dsk/d3s0

sur tous les nœuds du cluster.

VxVM ne prend pas en charge la commande chmod. Pour modifier les autorisations sur les périphériques globaux dans VxVM, reportez-vous au manuel de l'administrateur VxVM.

Reconfiguration dynamique avec des périphériques globaux

Voici les points à prendre en considération dans le cadre d'une reconfiguration dynamique (DR) de périphériques de disques et de bande dans un cluster.


Attention – Attention –

tout échec sur le nœud principal, alors que vous effectuez une opération DR sur un nœud secondaire, a une incidence sur la disponibilité du cluster. Le nœud principal ne pourra pas effectuer de reprise sur panne tant qu'un nouveau nœud secondaire n'est pas disponible.


Procédez comme suit, en respectant l'ordre des étapes, pour effectuer des opérations DR sur des périphériques globaux.

Tableau 4–1 Plan des tâches : reconfiguration dynamique avec des périphériques de disques et de bande

Tâche 

Instructions 

1. Pour effectuer sur le nœud principal une opération DR risquant d'avoir une incidence sur un groupe de périphériques actif, désactivez au préalable le nœud principal et les nœuds secondaires. 

Changement de nœud principal pour un groupe de périphériques

2. Effectuez l'opération DR de suppression sur le périphérique que vous souhaitez supprimer. 

Sun Enterprise 10000 DR Configuration Guide et le Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual dans les collections Solaris 8 on Sun Hardware et Solaris 9 on Sun Hardware.

SPARC: remarques sur l'administration de VERITAS Volume Manager

Administration de systèmes de fichiers de cluster : présentation

Aucune commande spéciale de Sun Cluster n'est nécessaire à l'administration des systèmes de fichiers de cluster. Vous administrez un système de fichiers de grappe exactement de la même façon que n'importe quel autre système de fichiers Solaris, à l'aide des commandes standard Solaris, telles que mount, newfs, etc. Pour monter des systèmes de fichiers de cluster, indiquez l'option -g à la suite de la commande mount. Les systèmes de fichiers de cluster peuvent également être montés automatiquement au moment de l'initialisation.


Remarque –

un système de fichiers de cluster qui lit des fichiers ne procède pas à la mise à jour de l'horaire d'accès à ces fichiers.


Restrictions liées au système de fichiers de cluster

Les restrictions suivantes s'appliquent à l'administration du système de fichiers de cluster :

SPARC: directives applicables à la prise en charge de VxFS

Le système de fichiers de cluster Sun Cluster 3.1 ne prend pas en charge les fonctions VxFS suivantes : Elles sont cependant prises en charge sur les systèmes de fichiers locaux.

Les avis de cache peuvent être utilisés, mais ils ne s'appliquent qu'au noeud sélectionné.

Toutes les autres fonctions et options VxFS prises en charge dans un système de fichiers de cluster sont également prises en charge par le logiciel Sun Cluster 3.1. Veuillez vous reporter à la documentation VxFS pour obtenir des détails sur les options VxFS qui sont prises en charge dans une configuration de cluster.

Les directives suivantes, relatives à l'utilisation de VxFS pour la création de systèmes de fichiers de cluster à haut niveau de disponibilité, s'appliquent essentiellement à une configuration Sun Cluster 3.1 4/04.

Les directives suivantes, relatives à l'administration des systèmes de fichiers de cluster VxFS, ne sont pas spécifiques au logiciel Sun Cluster 3.1 4/04. Ces directives diffèrent toutefois des procédures d'administration des systèmes de fichiers de cluster UFS.

Administration des groupes de périphériques de disques

L'utilitaire scsetup( 1M) est une interface interactive pour la commande scconf(1M). scsetup génère les commandes scconf. Les commandes générées sont présentées dans les exemples proposés après certaines procédures.


Remarque –

le logiciel Sun Cluster crée automatiquement dans le cluster un groupe de périphériques de disques bruts pour chaque disque, ainsi qu'un lecteur de bande. Les groupes de périphériques de cluster restent à l'état hors ligne tant que vous ne les utilisez pas comme périphériques globaux.


Tableau 4–2 Plan des tâches : Administration des groupes de périphériques de disques

Tâche 

Pour les instructions, voir... 

Mise à jour de l'espace de noms de périphériques globaux sans réinitialisation de reconfiguration  

 - Utilisez scgdevs( 1M)

Mise à jour de l'espace de noms de périphériques globaux

Ajout et enregistrement de disques Solstice DiskSuite/Solaris Volume Manager en tant que groupes de périphériques de disques  

 - Utilisez metaset( 1M)

Ajout et enregistrement d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Suppression des groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager de la configuration  

- Utilisez metaset et metaclear( 1M)

Suppression et annulation de l'enregistrement d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Suppression d'un nœud de tous les groupes de périphériques de disques  

- Utilisez scconf, metaset et scsetup

Suppression d'un nœud de tous les groupes de périphériques de disques

Suppression d'un nœud d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager  

- Utilisez metaset

Suppression d'un nœud d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

SPARC : ajout des groupes de disques VERITAS Volume Manager comme groupes de périphériques de disques  

- Utilisez les commandes de VxVM et scsetup( 1M)

SPARC: Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager)

 

SPARC: Création d'un nouveau groupe de disques lors de l'encapsulage de disques (VERITAS Volume Manager)

 

SPARC: Ajout d'un nouveau volume à un groupe de périphériques de disques existant (VERITAS Volume Manager)

 

SPARC: transformation d'un groupe de disques existant en un groupe de périphériques de disques (VERITAS Volume Manager)

 

SPARC: Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager)

 

SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager)

 

SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager)

SPARC : suppression des groupes de périphériques de disques VERITAS Volume Manager de la configuration  

- Utilisez scsetup (pour générer scconf)

SPARC: Suppression d'un volume d'un groupe de périphériques de disques (VERITAS Volume Manager)

 

SPARC: suppression et annulation de l'enregistrement d'un groupe de périphériques de disques (VERITAS Volume Manager)

SPARC : ajout d'un nœud à un groupe de périphériques de disques VERITAS Volume Manager  

- Utilisez scsetup pour générer scconf

SPARC: ajout d'un nœud à un groupe de périphériques de disques (VERITAS Volume Manager)

SPARC : suppression d'un nœud d'un groupe de périphériques de disques VERITAS Volume Manager  

- Utilisez scsetup pour générer scconf

SPARC: suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager)

Suppression d'un nœud d'un groupe de périphériques de disques bruts  

- Utilisez scconf(1M)

SPARC: suppression d'un nœud d'un groupe de périphériques de disques bruts

Modification des propriétés de groupes de périphériques de disques  

- Utilisez scsetup pour générer scconf

Modification des propriétés des périphériques de disques

Affichage des groupes et des propriétés des périphériques de disques  

 - Utilisez scconf

Affichage de la configuration d'un groupe de périphériques de disques

Modification du nombre de nœuds secondaires souhaités pour un groupe de périphériques  

- Utilisez scsetup pour générer scconf

Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques

Changement de nœud principal d'un groupe de périphériques de disques  

- Utilisez scswitch(1M)

Changement de nœud principal pour un groupe de périphériques

Mise à l'état de maintenance d'un groupe de périphériques de disques  

- Utilisez metaset ou vxdg

Mise à l'état de maintenance d'un groupe de périphériques de disques

Mise à jour de l'espace de noms de périphériques globaux

Lors de l'ajout d'un nouveau périphérique global, mettez à jour manuellement l'espace de noms du périphérique global en exécutant scgdevs(1M).


Remarque –

la commande scgdevs n'a aucune incidence si le nœud qui l'exécute n'est pas actuellement membre du cluster. De même, la commande n'a aucun effet si le système de fichiers /global/.devices/node@ id_nœud n'est pas monté.


  1. Devenez superutilisateur sur un nœud du cluster.

  2. Utilisez la commande scgdevs pour reconfigurer l'espace de noms.


    # scgdevs
    

Exemple : mise à jour de l'espace de noms des périphériques globaux

L'exemple suivant illustre l'affichage type généré par l'exécution réussie de scgdevs.


# scgdevs 
Configuration du répertoire /dev/global (périphériques globaux)...
obtention de l'accès à tous les disques connectés
sortie correcte du programme de réservation

Ajout et enregistrement d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Utilisez la commande metaset(1M) pour créer un jeu de disques Solstice DiskSuite/Solaris Volume Manager et enregistrez-le en tant que groupe de périphériques de disques Sun Cluster. Lorsque vous enregistrez le jeu de disques, le nom que vous lui avez donné est automatiquement affecté au groupe de périphériques de disques.

  1. Devenez superutilisateur sur le nœud connecté aux disques sur lesquels vous souhaitez créer le jeu de disques.

  2. Calculez le nombre de noms de métapériphériques Solstice DiskSuite ou de volumes Solaris Volume Manager dont vous aurez besoin pour votre configuration, et modifiez le fichier /kernel/drv/md.conf sur chaque nœud.

    Voir “Définition du nombre de noms de métapériphériques ou de noms de volume et de jeux de disques” dans le Guide d'installation du logiciel Sun Cluster pour SE Solaris.

  3. Utilisez la commande metaset(1M) pour ajouter l'ensemble de disques Solstice DiskSuite/Solaris Volume Manager et l'enregistrer comme groupe de périphériques de disques dans Sun Cluster. Pour créer un groupe de disques multipropriétaire, utilisez l'option –M.


     # metaset -s ensemble_disques - a -h  liste_nœuds
    

    -s ensemble_disques

    Spécifie l'ensemble de disques à créer.

    -a -h liste_nœuds

    Ajoute la liste des nœuds capables de servir de maîtres à l'ensemble de disques.

    -M

    Désigne le groupe de disques comme multipropriétaire.


    Remarque –

    l'exécution de la commande metaset pour configurer un groupe de périphériques de Solstice DiskSuite/Solaris Volume Manager sur un cluster crée un secondaire par défaut, quel que soit le nombre de nœuds inclus dans ce groupe de périphériques. Vous pouvez modifier le nombre souhaité de nœuds secondaires à l'aide de l'utilitaire scsetup(1M) après que le groupe de périphériques a été créé. Pour de plus amples informations sur les basculements de disques, veuillez consulter Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques.


  4. Vérifiez que le groupe de périphériques de disques a bien été ajouté.

    Le nom du groupe de périphériques de disques correspond au nom de l'ensemble de disques spécifié avec la commande metaset.


    # scconf -p |  grep groupe_périphériques_disques
    

Exemple : ajout d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager

L'exemple ci-après illustre la création d'un jeu de disques et d'un groupe de périphériques de disques et la vérification que ce dernier a été créé correctement.


# metaset -s dg-schost-1 -a -h phys-schost-1  
# scconf -p | grep dg-schost-1 
Nom du groupe de périphériques : dg-schost-1

Suppression et annulation de l'enregistrement d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Les groupes de périphériques de disques sont des ensembles de disques Solstice DiskSuite/Solaris Volume Manager ayant été enregistrés avec Sun Cluster. Pour supprimer un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager , utilisez les commandes metaclear et metaset. Ces commandes suppriment le groupe de périphériques de disques portant le nom indiqué et annulent l'enregistrement du groupe de disques comme groupe de périphériques de disques Sun Cluster.

Reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager pour connaître la procédure à suivre pour supprimer un ensemble de disques.

Suppression d'un nœud de tous les groupes de périphériques de disques

Cette procédure permet de supprimer un nœud de cluster de tous les groupes de périphériques de disques répertoriant le nœud dans leurs listes de nœuds principaux potentiels.

  1. Devenez superutilisateur sur le nœud que vous souhaitez retirer comme nœud principal potentiel de tous les groupes de périphériques de disques.

  2. Déterminez le(s) groupe(s) de périphériques de disques dont le nœud à supprimer est membre.

    Recherchez le nom du nœud dans la liste Liste des nœuds du groupe de périphériques pour chaque groupe de périphériques de disques.


    # scconf -p | grep ¨Device group"
    

  3. Certains des groupes de périphériques de disques sont-ils identifiés à l'Étape 2 du type de groupe de périphériques SDS/SVM ?

  4. Certains des groupes de périphériques de disques sont-ils identifiés dans l'Étape 2 du type de groupe de périphériques VXVM ?

  5. Déterminez le(s) groupe(s) de périphériques de disques bruts dont fait partie le nœud à supprimer.

    Remarquez que la commande suivante contient deux “v”s dans -pvv. Le deuxième “v” est nécessaire à l'affichage des groupes de périphériques de disques bruts.


    # scconf -pvv | grep ¨Groupe de périphériques¨
    

  6. Certains des groupes de périphériques de disques apparaissent-ils à l' Étape 5 des types de groupe de périphériques Disk, Local_Disk, ou dans les deux ?

  7. Vérifiez que le nœud a bien été retiré de la liste de nœuds principaux potentiels de tous les groupes de périphériques de disques.

    La commande ne produit aucun retour si le nœud n'est plus inscrit comme primaire potentiel d'un groupe de périphériques de disques.


    # scconf -pvv | grep ¨Groupe de périphériques¨ | grep nom_nœud
    

Suppression d'un nœud d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Utilisez cette procédure pour supprimer un nœud de cluster d'une liste de nœuds principaux potentiels d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager. Répétez la commande metaset pour chaque groupe de périphériques de disques duquel vous voulez supprimer le nœud.

  1. Assurez-vous que le nœud fait encore partie du groupe et que le groupe est un groupe de périphériques SDS/SVM.

    Le type de groupe de périphériques SDS/SVM indique un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager.


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Type de groupe :             SDS/SVM
      (global-galileo) Rétablissement du groupe de périphérique activé : no
      (global-galileo) Liste des nœuds du groupe de périphériques :        phys-schost-1, phys-schost-2
      (global-galileo) Nom du jeu de disques :                  global-galileo
    phys-schost-1%

  2. Déterminez quel nœud est actuellement le nœud principal pour le groupe de périphériques.


    # scstat -D
    
  3. Devenez superutilisateur sur le nœud possédant actuellement le groupe de périphériques de disques à modifier.

  4. Dans le groupe de périphériques de disques, supprimez le nom d'hôte du nœud.


    #  metaset -s nom_ensemble  -d -h liste_nœuds
    

    -s nom_jeu

    Indique le nom du groupe de périphériques de disques.

    -d

    Supprime du groupe de périphériques de disques les nœuds identifiés par -h.

    -h liste_nœuds

    Supprime de la liste des nœuds le nœud susceptible d'agir en tant que maître du groupe de périphériques de disques


    Remarque –

    la mise à jour peut prendre quelques minutes.


    Si la commande échoue, ajoutez l'option -f (Force) à la commande.


    # metaset -s  nom_ensemble -d -f -h liste_nœuds 
    

  5. Répétez l'Étape 4 pour chaque groupe de périphériques de disques dont le nœud est supprimé en tant que nœud principal potentiel.

  6. Vérifiez que le nœud a bien été supprimé du groupe de périphériques de disques.

    Le nom du groupe de périphériques de disques correspond au nom de l'ensemble de disques spécifié avec la commande metaset.


    phys-schost-1% scconf -pv |grep   
    Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-2, phys-schost-1%

Exemple : suppression d'un nœud d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

L'exemple suivant illustre la suppression du nom d'hôte phys-schost-2 d'une configuration de groupe de périphériques de disques. Cette exemple élimine phys-schost-2 comme nœud principal potentiel pour le groupe de périphériques de disques désigné. Vérifiez la suppression du nœud en exécutant la commande scstat - D. Assurez-vous que le nœud supprimé n'est plus affiché sur le texte de l'écran.


[Déterminez le groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager (2) pour le nœud :]
# scconf -pv | grep Device
 Nom du groupe de périphériques :             dg-schost-1
    Type de groupe de périphériques :           SDS/SVM
    Rétablissement du groupe de périphériques activé :  no
    Liste des nœuds du groupe de périphérique :      phys-schost-1, phys-schost-2
    Liste ordonnée des nœuds du groupe de périphériques : yes
    Nom du jeu de disques du groupe de périphériques : 	         dg-schost-1
[Déterminez le ou les groupes de périphériques de disques du nœud :]
# scstat -D
  -- Serveurs de groupe de périphériques  --
	Groupe de 
	périphériques  Principal  Secondaire
	 -------------------  ------------  ----------------
Serveurs de 
groupe de 
périphériques : dg-schost-1  phys-schost-1  phys-schost-2
[Connectez-vous en tant que superutilisateur.]
[Supprimez le nom d'hôte du groupe de périphériques de disques :]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Assurez-vous que le nœud a été supprimé :]
phys-schost-1% scconf -pv |grep
-- Serveurs du groupe de périphériques --
	Groupe de 
	périphériques  Principal  Secondaire
	 -------------------  ------------  ----------------
Liste des nœuds 
du groupe de 
périphériques : dg-schost-1, phys-schost-2,  

Création de plus de trois ensembles de disques dans un cluster

Si vous prévoyez de créer plus de trois ensembles de disques dans le cluster, suivez d'abord les étapes indiquées ci-dessous. Ces étapes s'appliquent que vous installiez des jeux de disques pour la première fois ou que vous en ajoutiez dans un cluster déjà configuré.

  1. Assurez-vous que la valeur de la variable md_nsets est suffisamment élevée. Cette valeur doit être appropriée au nombre total de jeux de disques que vous souhaitez créer dans le cluster.

    1. À partir d'un nœud du cluster, vérifiez la valeur de la variable md_nsets dans le fichier /kernel/drv/md.conf.

    2. Si le nombre de jeux de disques du cluster est supérieur à la valeur indiquée pour md_nsets moins un, augmentez la valeur de md_nsets sur chaque nœud.

      Le nombre maximum autorisé d'ensembles de disques est la valeur de md_nsets moins un. La valeur maximale autorisée pour md_nsets est 32.

    3. Vérifiez que le fichier /kernel/drv/md.conf est identique sur tous les nœuds du cluster.


      Attention – Attention –

      le non-respect de cette règle peut entraîner des erreurs graves de Solstice DiskSuite/Solaris Volume Manager et un risque de pertes de données.


    4. Arrêtez le cluster depuis un nœud.


      # scshutdown -g0 -y
      

    5. Réinitialisez tous les nœuds du cluster.

      • SPARC :


        ok boot
        

      • x86 :


                              <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                          <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b
        

  2. Exécutez la commande devfsadm(1M) sur chaque nœud du cluster.

    Vous pouvez exécuter cette commande sur tous les nœuds du cluster en même temps.

  3. Exécutez la commande scgdevs(1M) à partir d'un nœud du cluster.

  4. Vérifiez, sur chaque nœud, que la commande scgdevs s'est déroulée avec succès avant de commencer à créer des jeux de disques.

    La commande scgdevs se déclenche à distance sur tous les nœuds, quand bien même elle est exécutée depuis un seul nœud. Pour savoir si la commande scgdevs s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.


    % ps -ef | grep scgdevs
    

SPARC: Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager)


Remarque –

cette procédure s'applique uniquement à l'initialisation de disques. Pour encapsuler des disques, utilisez la procédure SPARC: Création d'un nouveau groupe de disques lors de l'encapsulage de disques (VERITAS Volume Manager).


Après avoir ajouté le groupe de disques VxVM , vous devez enregistrer le groupe de périphériques de disques.

Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server or Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.

  1. Devenez superutilisateur sur un nœud du cluster connecté physiquement aux disques qui composent le groupe de disques à ajouter.

  2. Créez le groupe de disques et le volume VxVM.

    Pour cela, utilisez la méthode de votre choix.


    Remarque –

    si vous configurez un volume en miroir, vous pouvez utiliser le système DRL (Dirty Region Logging) pour réduire le délai de récupération du volume en cas de panne d'un nœud. Cependant, ce système risque de réduire le débit d'E/S.


    Reportez-vous à la documentation de VERITAS Volume Manager pour connaître les procédures à suivre.

  3. Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.

    Reportez-vous à la rubrique SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).

    N'enregistrez pas les groupes de disques partagés Oracle Parallel Server or Oracle Real Application Clusters dans la structure du cluster.

SPARC: Création d'un nouveau groupe de disques lors de l'encapsulage de disques (VERITAS Volume Manager)


Remarque –

cette procédure s'applique uniquement à l'encapsulage de disques. Pour initialiser des disques, suivez la procédure SPARC: Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager).


Vous pouvez transformer des disques non root en groupes de périphériques de disques Sun Cluster en les encapsulant en tant que groupes de disques VxVM, puis en les enregistrant comme groupes de périphériques de disques Sun Cluster.

L'encapsulage de disques n'est possible que lors de la création initiale d'un groupe de disques VxVM. Une fois un groupe de disques VxVM créé et enregistré comme groupe de périphériques de disques Sun Cluster, seuls les disques pouvant être initialisés doivent être ajoutés au groupe.

Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server or Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Si le disque que vous souhaitez encapsuler possède des entrées de système de fichiers dans le fichier /etc/vfstab, vérifiez que l'option mount at boot est bien configurée sur no.

    Reconfigurez sur yes une fois que le disque est encapsulé et enregistré comme groupe de périphériques de disques Sun Cluster.

  3. Encapsulez les disques.

    Pour cela, utilisez les menus vxdiskadm ou l'interface d'utilisation graphique. VxVM requiert deux partitions libres ainsi que des cylindres non attribués au début ou à la fin du disque. La tranche deux doit également être définie sur le disque entier. Pour de plus amples informations, reportez-vous à la page man vxdiskadm.

  4. Arrêtez le nœud et redémarrez-le.

    La commande scswitch(1M) permet de faire passer tous les groupes de ressources et de périphériques du nœud principal au nœud préféré suivant. Utilisez la commande shutdown pour arrêter et redémarrer le nœud.


    # scswitch -S -h node[,...]
    # shutdown -g0 -y -i6
    

  5. Si nécessaire, transférez de nouveau tous les groupes de ressources et de périphériques sur le nœud d'origine.

    Si les groupes de ressources et de périphériques étaient configurés à l'origine pour revenir au nœud initial en cas de panne, cette étape n'est pas nécessaire.


    # scswitch -z -D disk-device-group -h node[,...] 
    # scswitch -z -g resource-group -h node[,...] 
    

  6. Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.

    Reportez-vous à la rubrique SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).

    N'enregistrez pas les groupes de disques partagés Oracle Parallel Server or Oracle Real Application Clusters dans la structure du cluster.

SPARC: Ajout d'un nouveau volume à un groupe de périphériques de disques existant (VERITAS Volume Manager)

Lorsque vous ajoutez un nouveau volume à un groupe de périphériques de disques VxVM existant, exécutez la procédure à partir du nœud principal du groupe de périphériques de disques en ligne.


Remarque –

après avoir ajouté le volume, vous devez enregistrer la modification de configuration en suivant la procédure SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).


  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez le nœud principal du groupe de périphériques de disques auquel vous allez ajouter le nouveau volume.


    # scstat -D
    

  3. Si le groupe de périphériques de disques est hors ligne, mettez le groupe de périphériques en ligne.


    # scswitch -z -D disk-device-group -h node[,...]
    

    -z -D groupe_unités_disque

    Modifie le nœud principal du groupe de périphériques spécifié.

    -h nœud

    Indique le nom du nœud vers lequel le groupe de périphériques de disques doit passer. Ce nœud devient le nouveau nœud principal.

  4. À partir du nœud principal (le maître actuel du groupe de périphériques de disques), créez le volume VxVM dans le groupe de disques.

    Reportez-vous à la documentation de VERITAS Volume Manager pour connaître la procédure de création d'un volume VxVM .

  5. Enregistrez les modifications du groupe de disques VxVM pour mettre à jour l'espace de noms global.

    Reportez-vous à la rubrique SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).

SPARC: transformation d'un groupe de disques existant en un groupe de périphériques de disques (VERITAS Volume Manager)

Pour transformer un groupe de disques VxVM existant en groupe de disques Sun Cluster, vous devez d'abord importer le groupe de disques sur le nœud courant, puis l'enregistrer en tant que groupe de périphériques de disques Sun Cluster.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Importez le groupe de disques VxVM sur le nœud courant.


    # vxdg import groupedisques
    

  3. Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.

    Reportez-vous à la rubrique SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).

SPARC: Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager)

Si l'enregistrement d'un groupe de périphériques de disques échoue parce qu'un code mineur entre en conflit avec celui d'un autre groupe de disques, vous devez attribuer au nouveau groupe un nouveau code mineur inutilisé. Cela fait, vous devez ré-exécuter la procédure d'enregistrement du groupe de disques en tant que groupe de périphériques de disques Sun Cluster .

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez les codes mineurs utilisés.


    # ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
    

  3. Choisissez un autre multiple de 1000 non utilisé comme code mineur de base pour le nouveau groupe de disques.

  4. Attribuez ce nouveau code mineur au groupe de disques.


    # vxdg reminor groupe_disques code_mineur_base
    

  5. Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.

    Reportez-vous à la rubrique SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).

SPARC: exemple d'affectation d'un nouveau code mineur à un groupe de périphériques de disques

L'exemple suivant illustre l'utilisation des codes mineurs 16000-16002 et 4000-4001. La commande vxdg reminor permet d'attribuer un nouveau code mineur de base 5000 au nouveau groupe de périphériques de disques.


# ls -l /global/.devices/nœud@id_nœud/dev/vx/dsk/*
/global/.devices/nœud@id_nœud/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/nœud@id_nœud/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

SPARC: enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager)

Cette procédure utilise l'utilitaire scsetup(1M) pour enregistrer le groupe de disques associé VxVM en tant que groupe de périphériques de disques Sun Cluster.


Remarque –

une fois un groupe de périphériques de disques enregistré dans le cluster, n'importez ou ne déplacez jamais un groupe de disques VxVM à l'aide des commandes VxVM. Si vous modifiez le groupe de disques ou le volume VxVM, utilisez la procédure décrite à la section SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager) pour enregistrer les modifications de configuration du groupe de périphériques de disques. Cette procédure permet d'assurer que l'espace de noms global est à l'état approprié.


Pour enregistrer un groupe de périphériques de disques VxVM , les conditions suivantes doivent être remplies :

Lorsque vous définissez l'ordre de préférence, vous devez également indiquer si vous souhaitez que le groupe de périphériques de disques revienne au nœud préféré lorsque celui-ci rejoint le cluster après avoir été arrêté.

Consultez scconf(1M) pour de plus amples informations sur les préférences des nœuds et les options de rétablissement.

Les nœuds de cluster non principaux (de rechange) deviennent secondaires selon l'ordre de préférence du nœud. Le nombre par défaut de secondaires pour un groupe de périphériques est normalement défini sur un. Ce paramètre par défaut minimise la dégradation des performances causée par un contrôle principal de plusieurs nœuds secondaires au cours du fonctionnement normal. Par exemple, sur un cluster à quatre nœuds, le comportement par défaut configure un nœud principal, un nœud secondaire et deux nœuds de rechange. Consultez également SPARC: Configuration du nombre souhaité de nœuds secondaires (VERITAS Volume Manager).

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Lancez l'utilitaire scsetup.


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).

    Le menu Device Groups apparaît.

  4. Pour enregistrer un groupe de périphériques de disques VxVM , entrez 1 (Enregistrer un groupe de disques VxVM en tant que groupe de périphériques).

    Suivez les instructions et entrez le nom du groupe de disques VxVM à enregistrer comme groupe de périphériques de disques Sun Cluster.

    Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server/Real Application Clusters, vous n'enregistrez pas les groupes de disques partagés dans la structure du cluster. Utilisez la fonction VxVM du cluster, décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.

  5. Si vous rencontrez l'erreur suivante alors que vous tentez d'enregistrer le groupe de périphériques de disques, redonnez un code mineur au groupe de périphériques de disques.


    scconf: Echec de l'ajout du groupe de périphériques - en cours d'utilisation

    Pour affecter un nouveau code mineur au groupe de périphériques de disques, suivez la procédure SPARC: Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager). Cette procédure vous permet d'affecter un nouveau code mineur n'entrant pas en conflit avec un code mineur utilisé par un groupe de périphériques de disques existant.

  6. Vérifiez que le groupe de périphériques de disques est enregistré et en ligne.

    Si le groupe de périphériques de disques est correctement enregistré, les informations relatives au nouveau groupe de périphériques de disques s'affichent lorsque vous utilisez la commande suivante :


    # scstat -D
    


    Remarque –

    si vous modifiez des informations de configuration d'un groupe de disques ou d'un volume VxVM, vous devez synchroniser le groupe de périphériques de disques en utilisant scsetup( 1M). Ces modifications de configuration comprennent l'ajout ou la suppression de volumes, ainsi que la modification de groupe, de propriétaire ou d'autorisations de volumes existants. Le réenregistrement après des modifications de configuration assure que l'espace de noms global est à l'état correct. Reportez-vous à la rubrique Mise à jour de l'espace de noms de périphériques globaux.


SPARC: Exemple d'enregistrement d'un groupe de périphériques de disques VERITAS Volume Manager

L'exemple suivant montre la commande scconf générée par scsetup lors de l'enregistrement d'un groupe de périphériques de disques VxVM (dg1), ainsi que l'étape de vérification. Cet exemple suppose que le groupe de disques VxVM et le volume sont créés au préalable.


# scsetup

scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2

# scstat -D
-- Serveurs du groupe de périphériques --
	Groupe de 
	périphériques Élément principal Élément secondaire
                         ------------------  ------------------------ ---------------------------
Serveurs du groupe 
de périphériques :    dg1              phys-schost-1      phys-schost-2
 
-- Statut du groupe de périphériques --
                              Groupe de périphériques        	Statut              
                              -----------------------------------       	 ------              
  Statut du groupe 
  de périphériques :        dg1		Online

SPARC: étape suivante

Pour créer un système de fichiers de cluster sur le groupe de périphériques de disques VxVM, reportez-vous à la rubrique Ajout d'un système de fichiers de cluster.

Si des problèmes surviennent concernant le code mineur, reportez-vous à la rubrique SPARC: Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager).

SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager)

Lorsque vous modifiez une configuration pour un groupe de disque ou volume VxVM il est nécessaire d'enregistrer les modifications pour le groupe de périphériques de disques Sun Cluster. L'enregistrement permet d'assurer que l'espace de noms global est dans l'état qui convient.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Exécutez l'utilitaire scsetup(1M).


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).

    Le menu Device Groups apparaît.

  4. Pour enregistrer des modifications de configuration, entrez 2 (Synchroniser les données sur le volume d'un groupe de périphériques VxVM).

    Suivez les instructions et entrez le groupe de disques VxVM dont la configuration a été modifiée.

SPARC: exemple d'enregistrement des modifications de configuration d'un groupe de disques VERITAS Volume Manager

L'exemple suivant montre la commande scconf générée par scsetup lors de l'enregistrement d'un groupe de périphériques de disques VxVM modifié (dg1). Cet exemple suppose que le groupe de disques VxVM et le volume sont créés au préalable.


# scsetup
 
scconf -c -D name=dg1,sync

SPARC: Configuration du nombre souhaité de nœuds secondaires (VERITAS Volume Manager)

La propriété numsecondaries précise le nombre de nœuds d'un groupe de périphériques pouvant être maîtres du groupe en cas de défaillance du nœud principal. Le nombre par défaut de nœuds secondaires pour les services de périphériques est un. La valeur peut être définie sur n'importe quel nombre entier compris entre un et le nombre de nœuds fournisseurs non principaux opérationnels dans le groupe de périphériques.

Ce paramètre est un facteur important dans l'équilibrage des performances et de la disponibilité des clusters. Par exemple, l'augmentation du nombre souhaité de nœuds secondaires accroît les chances de survie du groupe de périphériques face à plusieurs pannes survenant simultanément au sein d'un cluster. L'augmentation du nombre de nœuds secondaires réduit également les performances régulièrement au cours du fonctionnement normal. Un plus petit nombre de nœuds secondaires entraîne généralement une meilleure performance, mais réduit la disponibilité. Cependant, un plus grand nombre de nœuds secondaires n'entraîne pas toujours une meilleure disponibilité du système de fichiers ou du groupe de périphériques en question. Pour de plus amples informations, reportez-vous à la rubrique “Notions-clés : administration et développement d'applications” du document Guide des notions fondamentales de Sun Cluster pour SE Solaris.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Exécutez l'utilitaire scsetup(1M).


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).

    Le menu Device Groups apparaît.

  4. Pour modifier les propriétés clé d'un groupe de périphériques, entrez 6 (Modifier les propriétés principales d'un groupe de périphériques).

    Le menu Change Key Properties apparaît.

  5. Pour modifier le nombre souhaité de nœuds secondaires, entrez 2 (Modifier la propriété nombre de nœuds secondaires).

    Suivez les instructions et entrez le nombre souhaité de nœuds secondaires à configurer pour le groupe de périphériques de disques. Une fois une valeur adéquate saisie, la commande scconf correspondante est exécutée. Par la suite, un journal est imprimé et l'utilisateur revient sur le menu précédent.

  6. Validez la configuration du groupe de périphériques à l'aide de la commande scconf -p.


    # scconf -p | grep Device
    Nom du groupe de périphériques : dg-schost-1
    Type de groupe de périphériques : VxVM
    Rétablissement du groupe de périphériques activé : yes
    Liste des nœuds du 
    groupe de périphériques : phys-schost-1,phys-schost-2, phys-schost-3
    Liste ordonnée des nœuds du groupe de périphériques : yes
    Nombre de nœuds secondaires 
    souhaités pour le groupe de périphériques : 1
    Nom du jeu de disques du groupe de périphériques : dg-schost-1


    Remarque –

    si vous modifiez des informations de configuration d'un groupe de disques ou d'un volume VxVM, vous devez réenregistrer le groupe de périphériques de disques via la commande scsetup. Ces modifications de configuration comprennent l'ajout ou la suppression de volumes, ainsi que la modification de groupe, de propriétaire ou d'autorisations de volumes existants. Le réenregistrement après des modifications de configuration assure que l'espace de noms global est à l'état correct. Reportez-vous à la rubrique Mise à jour de l'espace de noms de périphériques globaux.


  7. Vérifiez le nœud principal et le statut du groupe de périphériques de disques.


    # scstat -D
    

SPARC: Exemple : configuration du nombre souhaité de nœuds secondaires (VERITAS Volume Manager)

L'exemple suivant montre la commande scconf générée par scsetup lors de la configuration du nombre souhaité de nœuds secondaires pour un groupe de périphériques (diskgrp1). Pour de plus amples informations sur la modification du nombre souhaité de nœuds secondaires après la création d'un groupe de périphériques, reportez-vous à la rubrique Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques.


# scconf -a -D type=vxvm,name=diskgrp1, 
nodelist=host1:host2:host3,preferenced=true, \
failback=enabled,numsecondaries=2
 

SPARC: Suppression d'un volume d'un groupe de périphériques de disques (VERITAS Volume Manager)


Remarque –

après avoir supprimé le volume du groupe de périphériques de disques, vous devez enregistrer les modifications de configuration apportées au groupe de périphériques de disques en suivant la procédure SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).


  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez le nœud principal et le statut du groupe de périphériques de disques.


    # scstat -D
    

  3. Si le groupe de périphériques de disques est hors ligne, mettez-le en ligne.


    # scswitch -z -D disk-device-group -h node[,...]
    

    -z

    Effectue le transfert.

    -D groupe_périphériques_disques

    Définit le groupe de périphériques à transférer.

    -h nœud

    Indique le nom du nœud qui doit devenir le nouveau nœud principal. Ce nœud devient le nouveau nœud principal.

  4. À partir du nœud principal (celui qui est actuellement maître du groupe de périphériques de disques), supprimez le volume VxVM dans le groupe de disques.


    # vxedit -g diskgroup -rf rm volume
    

    -g groupe_disques

    Indique le groupe de disques VxVM qui contient le volume.

    -rf rm volume

    Supprime le volume indiqué.

  5. Enregistrez les modifications de configuration apportées au groupe de périphériques de disques afin de mettre à jour l'espace de noms global. Pour ce faire, utilisez scsetup(1M).

    Reportez-vous à la rubrique SPARC: enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).

SPARC: suppression et annulation de l'enregistrement d'un groupe de périphériques de disques (VERITAS Volume Manager)

Si vous supprimez un groupe de périphériques de disques Sun Cluster le groupe de disques VxVM correspondant sera déplacé et non supprimé. Toutefois, même si le groupe de disques VxVM existe toujours, il ne peut être utilisé dans le cluster que s'il est à nouveau enregistré.

Cette procédure fait appel à l'utilitaire scsetup( 1M) pour supprimer un groupe de disques VxVM et annuler son enregistrement comme groupe de périphériques de disques Sun Cluster.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Mettez le groupe de périphériques de disques hors ligne.


    # scswitch -F -D disk-device-group
    

    -F

    Met le groupe de périphériques de disques hors ligne.

    -D groupe_périphériques_disques

    Définit le groupe de périphériques à mettre hors ligne.

  3. Lancez l'utilitaire scsetup.

    Le menu principal apparaît.


    # scsetup
    

  4. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).

    Le menu Groupe de périphériques apparaît.

  5. Pour annuler l'enregistrement d'un groupe de disques VxVM, entrez 3 (Supprimer un groupe de périphériques VxVM).

    Suivez les instructions et indiquez le groupe de disques VxVM dont vous souhaitez annuler l'enregistrement.

SPARC: Exemple : suppression et annulation de l'enregistrement d'un groupe de périphériques de disques VERITAS Volume Manager

L'exemple suivant illustre la mise hors ligne du groupe de périphériques de disques VxVM dg1, ainsi que la commande scconf générée par scsetup lors de la suppression et de l'annulation de l'enregistrement du groupe de périphériques de disques.


# scswitch -F -D dg1
# scsetup

   scconf -r -D name=dg1

SPARC: ajout d'un nœud à un groupe de périphériques de disques (VERITAS Volume Manager)

Cette procédure permet d'ajouter un nœud à un groupe de périphériques de disques à l'aide de l'utilitaire scsetup(1M).

Les conditions d'ajout d'un nœud à un groupe de périphériques de disques VxVM sont les suivantes :

  1. Devenez superutilisateur sur un nœud du cluster.

  2. À l'invite, entrez la commande scsetup.


    # scsetup
    
    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).

    Le menu Device Groups apparaît.

  4. Pour ajouter un nœud à un groupe de périphériques de disques VxVM, entrez 4 (Ajouter un nœud à un groupe de périphériques VxVM).

    Suivez les instructions et entrez le nom du groupe de périphériques et du nœud.

  5. Vérifiez que le nœud a bien été ajouté.

    Consultez les informations de groupe de périphériques relatives au nouveau disque, affichées à l'aide de la commande suivante :


    # scconf -p 
    

SPARC: Exemple : ajout d'un nœud à un groupe de périphériques de disques VERITAS Volume Manager

L'exemple suivant illustre la commande scconf générée par scsetup lors de l'ajout d'un nœud (phys-schost-3) à un groupe de périphériques de disques VxVM (dg1), ainsi que la procédure de vérification.


# scsetup
 
scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3
  
# scconf -p
Nom du groupe de périphériques : dg1
   Type de groupe de périphériques : VXVM
   Rétablissement du groupe de périphérique activé : yes
   Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-3

SPARC: suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager)

Cette procédure permet de supprimer un nœud de cluster de la liste des nœuds principaux potentiels dans un groupe de périphériques de disques (groupe de disques) VERITAS Volume Manager (VxVM).

  1. Vérifiez si le nœud fait toujours partie du groupe et si le groupe est un groupe de périphériques VxVM.

    Le type de groupe de périphériques VxVM indique un groupe de périphériques de disques VxVM.


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Type de groupe de périphériques : VxVM
      (global-galileo) Rétablissement du groupe de périphériques activé :  no
      (global-galileo) Liste des nœuds 
      du groupe de périphériques : phys-schost-1, phys-schost-2
      (global-galileo) Nom du jeu de disques : global-galileo
    phys-schost-1%

  2. Devenez superutilisateur sur un nœud étant actuellement membre de cluster.

  3. Exécutez la commande scsetup(1M).


    # scsetup
    

    Le menu principal apparaît.

  4. Pour reconfigurer un groupe de périphériques de disques, entrez 4 (Volumes et groupes de périphériques).

  5. Pour supprimer le nœud du groupe de périphériques de disques VxVM, entrez 5 (Supprimer un nœud d'un groupe de périphériques VxVM).

    Suivez les indications à l'écran pour supprimer le nœud du cluster du groupe de périphériques de disques. Vous devrez fournir des informations sur les points suivants :

    • groupe de périphérique VxVM ;

    • Nom du nœud

  6. Vérifiez que le nœud a bien été supprimé du (des) groupe(s) de périphériques de disques VxVM.


     # scconf -p | grep Device
    

SPARC: exemple de suppression d'un nœud d'un groupe de périphériques de disques (VxVM)

Cet exemple montre la suppression du nœud qui a pour nom phys-schost-1 du groupe de périphériques de disques dg1 VxVM.


[Déterminez le groupe de périphériques de disques VxVM pour le nœud :]
# scconf -p | grep Device
  Nom du groupe de périphériques : dg1
    Type de groupes de périphériques : VxVM
    Rétablissement du groupe de périphériques activé : no
    Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-2
    Nom du jeu de disques du groupe de périphériques : 	dg1
[Connectez-vous en tant que superutilisateur et exécutez l'utilitaire scsetup :]
# scsetup
 Sélectionnez Groupes de périphériques et volumes>Supprimer un nœud d'un groupe de périphériques VxVM.
Répondez aux questions posées. 
Vous aurez besoin des informations suivantes.
  Vous aurez besoin de :            Exemple :
  VxVM device group name    dg1
  node names                phys-schost-1
[Assurez-vous que la commande scconf a été exécutée avec succès :]
 
scconf -r -D name=dg1,nodelist=phys-schost-1
 
    La commande a été exécutée avec succès.
Quittez le menu Groupes de périphériques  scsetup et le menu principal.
[Assurez-vous que le nœud a été supprimé :]
# scconf -p | grep Device
  nom du groupe de périphériques : dg1
    Type de groupe de périphériques :               VxVM
    Rétablissement du groupe de périphériques activé :   no
    Liste des nœuds du groupe de périphériques : phys-schost-2
    Nom du jeu de disques du groupe de périphériques : dg1

SPARC: suppression d'un nœud d'un groupe de périphériques de disques bruts

Cette procédure permet de supprimer un nœud de cluster dans la liste des nœuds principaux potentiels d'un groupe de périphériques de disques (groupe de disques) VERITAS Volume Manager (VxVM).

Utilisez cette procédure pour supprimer un nœud de cluster de la liste de nœuds principaux potentiels d'un groupe de périphériques de disques bruts.

  1. Devenez superutilisateur sur un nœud du cluster autre que le nœud à supprimer.

  2. Identifiez les groupes de périphériques de disques connectés au nœud en cours de suppression.

    Recherchez le nom du nœud dans l'entrée Liste des nœuds du groupe de périphériques .


    # scconf -pvv | grep nodename | grep "Liste des nœuds du groupe de périphériques "
    

  3. Déterminez quels groupes de périphériques de disques identifiés à l'étape 2 sont des groupes de périphériques de disques bruts.

    Les groupes d'unités de disques brutes appartiennent au type de groupe d'unités Disk ou Local_Disk.


    # scconf -pvv | grep group-type
    

  4. Désactivez les propriétés localonly de chaque groupe d'unités de disques brutes Local_Disk.


    # scconf -c -D name=rawdisk-device-group,localonly=false
    

    Pour plus d'informations sur la propriété localonly, reportez-vous à la page man scconf_dg_rawdisk(1M).

  5. Vérifiez que vous avez bien désactivé la propriété localonly de tous les groupes de périphériques de disques bruts connectés au nœud en cours de suppression.

    Le type de groupe d'unités Disk indique que la propriété localonly est désactivée pour le groupe d'unités de disques brutes.


    # scconf -pvv | grep group-type 
    

  6. Supprimez le nœud de tous les groupes de périphériques de disques bruts identifiés à l'Étape 3.

    Cette opération doit être effectuée pour chaque groupe de périphériques de disques bruts connecté au nœud à supprimer.


    # scconf -r -D name=rawdisk-device-group,nodelist=nodename
    

SPARC: exemple de suppression d'un nœud d'un groupe de périphériques de disques bruts

Cet exemple montre comment supprimer un nœud (phys-schost-2) d'un groupe de périphériques de disques bruts. Toutes les commandes sont exécutées à partir d'un autre nœud du cluster (phys-schost-1).


[Identifier les groupes de disques connectés au nœud à supprimer :]
phys-schost-1# scconf -pvv | grep phys-schost-2 | grep "Liste des noeuds du groupe de périphériques"
	(dsk/d4) Liste des noeuds du groupe de périphériques :  phys-schost-2
	(dsk/d2)Liste des noeuds du groupe de périphériques :  phys-schost-1, phys-schost-2
	(dsk/d1)Liste des noeuds du groupe de périphériques :  phys-schost-1, phys-schost-2
[Identifier les groupes de disques en mode caractère :]
phys-schost-1# scconf -pvv | grep Disk
	(dsk/d4) Type de groupe de périphériques :          Local_Disk
	(dsk/d8) Type de groupe de périphériques :          Local_Disk
[Désactiver la propriété uniquement locale pour chaque disque local du nœud :]
phys-schost-1# scconf -c -D name=dsk/d4,localonly=false
[Verifier que la propriété est désactivée :]
phys-schost-1# scconf -pvv | grep Disk 
    (dsk/d4) Type de groupe de périphériques :          Disk
    (dsk/d8) Type de groupe de périphériques :          Local_Disk
[Supprimer le nœud de tous les groupes de disques en mode caractère :]
phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2

Modification des propriétés des périphériques de disques

Le choix d'un propriétaire principal d'un groupe de périphériques de disques repose sur la définition d'un attribut de préférence de propriété appelé preferenced. Si cet attribut n'est pas défini, le propriétaire principal d'un groupe de périphériques de disques n'en ayant pas autrement est le premier nœud qui tente d'accéder à un disque de ce groupe. Toutefois, si cet attribut est défini, vous devez spécifier l'ordre dans lequel vous préférez que les nœuds tentent d'établir la propriété.

Si vous désactivez l'attribut preferenced, vous désactivez automatiquement l'attribut failback. Toutefois, si vous tentez d'activer ou de réactiver l'attribut preferenced , vous pouvez soit activer, soit désactiver l'attribut failback.

Si l'attribut preferenced est activé ou réactivé, vous êtes invité à rétablir l'ordre des nœuds dans la liste des préférences de propriétaire principal.

Cette procédure fait appel à scsetup( 1M) pour activer ou désactiver l'attribut preferenced et l'attribut failback pour les groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager ou VxVM.

Pour exécuter cette procédure, vous devez connaître le nom du groupe de périphériques de disques pour lequel vous changez les valeurs des attributs.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Exécutez la commande scsetup.

    Le menu principal apparaît.


    # scsetup
    

  3. Pour utiliser des groupes de périphériques de disques, entrez 4 (Volumes et groupes de périphériques).

    Le menu Device Groups apparaît.

  4. Pour modifier les propriétés clés d'un groupe de périphériques, entrez 6 (Modifier les propriétés principales d'un groupe de périphériques).

    Le menu Change Key Properties apparaît.

  5. Pour modifier la propriété d'un groupe de périphériques, entrez 1 (Modifier les propriétés de prédilection et/ou de rétablissement).

    Suivez les instructions pour définir les options preferenced et failback d'un groupe d'unités.

  6. Vérifiez que les attributs du groupe de périphériques de disques ont bien été changés.

    Consultez les informations de groupe de périphériques, affichées à l'aide de la commande suivante.


    # scconf -p 
    

Exemple : modifications des propriétés d'un groupe de périphériques de disques

L'exemple suivant montre la commande scconf générée par l'utilitaire scsetup lorsqu'il définit les attributs d'un groupe de périphériques de disques (dg-schost-1).


# scconf -c -D name=dg-schost-1,nodelist=phys-schost-1:phys-schost-2,\
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Nom du groupe de périphériques : dg-schost-1
  Type de groupe de périphériques : SDS
   Établissement du groupe de périphériques activé : yes
   Liste des nœuds du groupe de périphériques : phys-schost-1, phys-schost-2
   Liste ordonnée des nœuds du groupe de périphériques : yes
   Nombre de nœuds secondaires souhaités pour le groupe de périphériques : 1
   Nom du jeu de disques du groupe de périphériques : dg-schost-1

Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques

Le nombre par défaut de nœuds secondaires pour un groupe de périphériques est défini sur un. Ce paramètre spécifie le nombre de nœuds au sein d'un groupe de périphériques pouvant devenir le propriétaire principal du groupe si le nœud principal connaît une défaillance. Le nombre souhaité de valeurs secondaires peut être défini sur n'importe quel nombre entier compris entre un et le nombre de nœuds fournisseurs non principaux dans le groupe de périphériques.

Si la propriété numsecondaries est modifiée, des nœuds secondaires sont ajoutés au groupe de périphériques ou en sont supprimés, si la modification entraîne un défaut d'assortiment entre le nombre réel et le nombre souhaité.

Cette procédure utilise scsetup( 1M) pour activer ou désactiver la propriété numsecondaries des groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager ou VxVM. Pour plus d'informations sur les options des groupes de périphériques de disques lors de la configuration d'un groupe quelconque de périphérique, consultez scconf_dg_rawdisk(1M), scconf_dg_sds (1M), scconf_dg_svm(1M) et scconf_dg_vxvm(1M).

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Exécutez l'utilitaire scsetup.


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques, entrez 4 (Volumes et groupes de périphériques).

    Le menu Device Groups apparaît.

  4. Pour modifier les propriétés clé d'un groupe de périphériques, entrez 6 (Modifier les propriétés principales d'un groupe de périphériques).

    Le menu Change Key Properties apparaît.

  5. Pour modifier le nombre souhaité de nœuds secondaires, entrez 2 (Modifier la propriété nombre de nœuds secondaires).

    Suivez les instructions et entrez le nombre souhaité de nœuds secondaires à configurer pour le groupe de périphériques de disques. Après qu'une valeur adéquate a été saisie, la commande scconf correspondante est exécutée, un journal est imprimé et l'utilisateur revient sur le menu précédent.

  6. Vérifiez que l'attribut du groupe de périphériques de disques a bien été changé.

    Consultez les informations de groupe de périphériques s'affichant à l'aide de la commande suivante :


    # scconf -p 
    

Exemple : modification du nombre souhaité de nœuds secondaires

L'exemple suivant montre la commande scconf générée par scsetup lors de la configuration du nombre souhaité de nœuds secondaires pour un groupe de périphériques (dg-schost-1). Cet exemple suppose que le groupe de disques et le volume sont créés au préalable.


# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3\
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Nom du groupe de périphériques : dg-schost-1
   Type de groupe de périphériques : SDS/SVM
   Rétablissement du groupe de périphériques activé : yes
   Liste des nœuds du groupe de périphériques : phys-schost-1, phys-scost-2, phys-schost-3 
   Liste ordonnée des nœuds du groupe de périphériques :  yes
   Nombre de nœuds secondaires souhaités pour le groupe de périphériques : 1
   Nom du jeu de disques du groupe de périphériques : dg-schost-1

L'exemple suivant utilise une valeur de chaîne nulle pour configurer le nombre de nœuds secondaires par défaut. Le groupe de périphériques sera configuré pour utiliser la valeur par défaut, même si la valeur par défaut change.


# scconf -c -D 
name=diskgrp1, nodelist=host1:host2:host3,
preferenced=false,failback=enabled,numsecondaries=
 # scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS/SVM
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phost-2, phys-schost-3
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

Affichage de la configuration d'un groupe de périphériques de disques

Il n'est pas nécessaire d'être superutilisateur pour afficher la configuration.

Il existe trois façons d'afficher la configuration d'un groupe de périphériques de disques.

  1. En utilisant l'interface de SunPlex Manager.

    Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.

  1. En utilisant scstat(1M) pour afficher la configuration du groupe de périphériques de disques.


    % scstat -D
    

    En utilisant scconf(1M) pour afficher la configuration d'un groupe de périphériques de disques.


    % scconf -p
    

Exemple d'affichage de la configuration d'un groupe de périphériques de disques à l'aide de la commande scstat

L'utilisation de la commande scstat -D affiche les informations suivantes :


-- Serveurs du groupe de périphériques  --
                         Groupe de périphériques  Principal  Secondaire
                         ----------------------------------   ------------   ---------
Serveurs du groupe 
de périphériques :  phys-schost-2               -                   -
Serveurs du groupe 
de périphériques :  phys-schost-1    phys-schost-2	phys-schost-3
Serveurs du groupe 
de périphériques :  phys-schost-3                -                   -
-- Statut du groupe de périphériques --
                             Groupe de périphériques   Statut              
                              -----------------------------------  ------
Statut du groupe 
de périphériques :        phys-schost-2          En ligne
Statut du groupe 
de périphériques :        phys-schost-1          En ligne
Statut du groupe 
de périphériques :        phys-schost-3          En ligne

Exemple d'affichage de la configuration d'un groupe de périphériques de disques à l'aide de la commande scconf

Lorsque vous utilisez la commande scconf, prenez connaissance des informations répertoriées sous les groupes de périphériques.


# scconf -p
...
Nom du groupe de périphériques : dg-schost-1
	Type de groupe de périphériques : SDS/SVM
	Rétablissement du groupe de périphériques activé : yes
	Liste des nœuds du groupe 
	de périphériques : phys-schost-2, phys-schost-3
	Nom du jeu de disques du 
	groupe de périphériques : dg-schost-1

Changement de nœud principal pour un groupe de périphériques

Cette procédure permet également de faire démarrer (mettre en ligne) un groupe de périphériques inactif.

Vous pouvez également utiliser l'interface graphique utilisateur de SunPlex Manager pour mettre en ligne un groupe de périphériques inactif ou transférer le nœud principal d'un groupe de périphériques. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Utilisez scswitch(1M) pour changer le nœud principal d'un groupe de périphériques de disques.


    # scswitch -z -D disk-device-group -h node
    

    -z

    Effectue le transfert.

    -D groupe_périphériques_disques

    Définit le groupe de périphériques à transférer.

    -h nœud

    Indique le nom du nœud qui doit devenir le nouveau nœud principal. Ce nœud devient le nouveau nœud principal.

  3. Vérifiez que le groupe de périphériques de disques est bien passé au nouveau nœud principal.

    Si le groupe de périphériques de disques est correctement enregistré, les informations relatives au nouveau groupe de périphériques de disques s'affichent lorsque vous utilisez la commande suivante :


    # scstat -D
    

Exemple de changement de nœud principal d'un groupe de périphériques de disques

L'exemple suivant montre comment changer de nœud principal pour un groupe de périphériques de disques et vérifier que la modification a réussi.


# scswitch -z -D dg-schost-1 -h phys-schost-1
# scstat -D

-- Serveurs du groupe de périphériques --
                  Groupe de périphériques	Principal	Secondaire
                  -----------------------------------	------------	---------------
Serveurs du groupe 
de périphériques :    dg-schost-1       phys-schost-1      phys-schost-2
 
-- Statut du groupe de périphériques --
                  Groupe de périphériques              Statut              
	------------------------------                ------              
Statut du groupe 
de périphériques : dg-schost-1	En ligne

Mise à l'état de maintenance d'un groupe de périphériques de disques

La mise à l'état de maintenance d'un groupe de périphériques de disques empêche que ce groupe de périphériques ne soit automatiquement mis en ligne à chaque accès à un de ses périphériques. Placez un groupe de périphériques à l'état de maintenance lorsque vous terminez des procédures de réparation qui exigent l'acceptation de toute activité d'E/S jusqu'à la fin de la réparation. La mise à l'état de maintenance d'un groupe de périphériques contribue également à éviter la perte de données en empêchant un groupe de périphériques de disques d'être mis en ligne sur un nœud alors que l'ensemble de disques ou le groupe de disques est en cours de réparation sur un autre nœud.


Remarque –

pour pouvoir mettre à l'état de maintenance un groupe de périphériques, vous devez bloquer tout accès à ses périphériques et démonter tous les systèmes de fichiers qui en dépendent.


  1. Mettez le groupe de périphériques à l'état de maintenance.


    # scswitch -m -D  groupe_périphériques_disques
    

  2. Si la procédure de réparation exécutée exige la propriété d'un jeu ou d'un groupe de disques, importez celui-ci manuellement.

    Pour Solstice DiskSuite/Solaris Volume Manager :


    # metaset -C take -f -s diskset
    


    Attention – Attention –

    Pour définir la propriété d'un jeu de disques Solstice DiskSuite/Solaris Volume Manager, utilisez impérativement la commande metaset-C take lorsque le groupe de périphériques est à l'état de maintenance. L'utilisation de metaset -t met le groupe de périphériques en ligne et vous en accorde la propriété. Si vous importez un groupe de disques VxVM, utilisez l'indicateur -t lors de l'importation du groupe de disques. Cet indicateur évite l'importation automatique du groupe de disques en cas de réinitialisation de ce nœud.


    Pour VERITAS Volume Manager :


    # vxdg -t import disk-group-name
    

  3. Achevez la procédure de réparation requise.

  4. Libérez la propriété de l'ensemble de disques ou du groupe de disques.


    Attention – Attention –

    avant de sortir un groupe de périphériques de disques de l'état de maintenance, vous devez libérer la propriété du jeu de disques ou du groupe de disques. Si vous ne le faites pas, vous risquez de perdre des données.


    • Pour Solstice DiskSuite/Solaris Volume Manager :


      # metaset -C release -s diskset
      

    • Pour VERITAS Volume Manager :


      # vxdg deport disk-group-name
      

  5. Mettez le groupe de périphériques de disques en ligne.


    # scswitch -z -D disk-device-group -h node
    

Exemple : mise à l'état de maintenance d'un groupe de périphériques de disques

L'exemple suivant montre comment placer le groupe d'unités de disque dg-schost-1 à l'état de maintenance et l'en sortir.


[Placez le groupe de périphériques de disques à l'état de maintenance.]
# scswitch -m -D dg-schost-1
 
[Si nécessaire, importez manuellement le jeu de disques ou le groupe de disques.]
Pour Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C take -f -s dg-schost-1
Pour VERITAS Volume Manager:
  # vxdg -t import dg1
  
[Effectuez toutes les procédures de réparation nécessaires.]
  
[Propriétaire version.]
Pour Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C release -s dg-schost-1
Pour VERITAS Volume Manager:
  # vxdg deport dg1
  
[Mettez en ligne le groupe de périphériques de disques.]
# scswitch -z -D dg-schost-1 -h phys-schost-1

Administration des systèmes de fichiers d'un cluster

Le système de fichiers du cluster est un système de fichiers globalement disponible qui peut être lu et est accessible à partir de n'importe quel nœud du cluster.

Tableau 4–3 Plan des tâches : Administration des systèmes de fichiers d'un cluster

Tâche 

Pour les instructions, voir... 

Ajout de systèmes de fichiers de cluster après l'installation initiale de Sun Cluster  

- Utilisez newfs(1M) et mkdir

Ajout d'un système de fichiers de cluster

Suppression d'un système de fichiers de cluster  

- Utilisez fuser(1M) et umount(1M)

Suppression d'un système de fichiers de cluster

Vérification de la cohérence des points de montage globaux d'un cluster sur les différents nœuds  

- Utilisez sccheck(1M)

Vérification des montages globaux dans un cluster

Ajout d'un système de fichiers de cluster

Effectuez cette tâche pour chaque système de fichiers de cluster créé après l'installation initiale de Sun Cluster.


Attention – Attention –

Assurez-vous d'avoir indiqué le nom correct du périphérique de disques. La création d'un système de fichiers de cluster détruit toutes les données présentes sur les disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.


Pour ajouter un système de fichiers de cluster supplémentaire, les conditions suivantes doivent être remplies :

Si vous avez utilisé SunPlex Manager pour installer des services de données, un ou plusieurs systèmes de fichiers du cluster existent déjà si le nombre de disques partagés existants était suffisant pour y créer ces systèmes.

  1. Devenez superutilisateur sur un nœud du cluster.


    Astuce –

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  2. Créez un système de fichiers à l'aide de la commande newfs.


    Remarque –

    la commande newfs n'est valide que pour la création de systèmes de fichiers UFS. Pour créer un système de fichiers VxFS, suivez les procédures décrites dans la documentation de votre VxFS.



    # newfs périphériques_disques_bruts
    

    Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Tableau 4–4 Exemples de noms de périphériques de disques bruts

    Si votre gestionnaire de volume est … 

    Un périphérique de disques peut porter le nom … 

    Description 

    Solstice DiskSuite/Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    Périphériques de disques bruts d1 dans le jeu de disques oracle.

    SPARC : VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Périphériques de disques bruts vol01 dans le groupe de disques oradg.

    Aucune 

    /dev/global/rdsk/d1s3

    Unité de disque brute de tranche de bloc d1s3.

  3. Sur chaque nœud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Un point de montage est requis sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.


    Astuce –

    pour vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers de cluster, disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/groupe_périphériques/point_montage
    
    groupe_unité

    Nom du répertoire correspondant au nom du groupe de périphériques contenant le périphérique en question.

    point_montage

    Nom du répertoire sur lequel vous devez monter le système de fichiers du cluster.

  4. Sur chaque nœud de la grappe, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.

    1. Utilisez les options de montage obligatoires suivantes.


      Remarque –

      l'option logging est requise pour tous les systèmes de fichiers de cluster.


      • Solaris UFS logging – Utilisez les options de montage global,logging. Reportez-vous à la page man mount_ufs(1M) pour de plus amples informations sur les options de montage UFS.


        Remarque –

        l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster UFS. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme à POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. Le fait de ne pas spécifier syncdir peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, la situation d'espace insuffisant ne se présente qu'à la fermeture d'un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


      • Solstice DiskSuite/Solaris Volume Manager métapériphérique Trans ou volume de transaction – Utilisez l'option de montage global (n'utilisez pas l'option de montage logging). Pour de plus amples informations sur la configuration du métapériphérique Trans et des volumes de transaction, reportez-vous à votre documentation Solstice DiskSuite/Solaris Volume Manager.


        Remarque –

        Les volumes de transaction sont programmés pour être supprimés du système d'exploitation Solaris dans une prochaine version de Solaris. Solaris UFS logging, disponible depuis la version 8 de Solaris, fournit les mêmes capacités mais des performances supérieures, ainsi que des exigences moindres en termes de dépassement et d'administration de système.


      • VxFS logging – utilisez les options de montage global, et log. Reportez-vous à la page man mount_vxfs accompagnant le logiciel VxFS pour de plus amples informations.

    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs qu'une fois que phys-schost-1 a démarré et monté /global/oracle.

    Reportez-vous à la page man vfstab(4) pour de plus amples informations.

  5. A partir d'un nœud quelconque de la grappe, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds de la grappe.


     # sccheck
    

    Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  6. À partir de n'importe quel nœud du cluster, montez le système de fichiers du cluster.


    # mount /global/groupe_périphériques/point_montage
    

  7. Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df ou mount pour afficher la liste des systèmes de fichiers montés.

    Pour gérer un système de fichiers de cluster VxFS en environnement Sun Cluster, exécutez les commandes administratives à partir du nœud principal sur lequel est monté le système de fichiers du cluster VxFS.

Exemple : ajout d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers UFS sur le métapériphérique Solstice DiskSuite/Solaris Volume Manager ou le volume /dev/md/oracle/rdsk/d1.


# newfs /dev/md/oracle/rdsk/d1
...
 
[sur chaque nœud :]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs  2    yes global,logging
[enregistrez et quittez]
 
[sur un nœud :]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2001

Suppression d'un système de fichiers de cluster

Pour supprimer un système de fichiers de cluster, il suffit de le démonter. Si vous souhaitez également supprimer ou effacer les données, retirez du système le périphérique de disques sous-jacent (ou le métapériphérique ou volume).


Remarque –

Les systèmes de fichiers de cluster sont automatiquement démontés lors de l'arrêt du système qui survient lorsque vous exécutez scshutdown( 1M) pour arrêter l'ensemble du cluster. Un système de fichiers de cluster n'est pas démonté lorsque vous exécutez la commande shutdown qui se contente d'arrêter un nœud individuel. Si, toutefois, le nœud arrêté est le seul nœud connecté au disque, toute tentative d'accès au système de fichiers du cluster sur ce disque entraîne une erreur.


Pour démonter des systèmes de fichiers de cluster, les conditions suivantes doivent être remplies :

  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez quels sont les systèmes de fichiers de cluster montés.


    # mount -v
    

  3. Sur chaque nœud, répertoriez tous les processus utilisant le système de fichiers du cluster afin de déterminer quels seront ceux que vous allez arrêter.


    # fuser -c [ -u ] mountpoint
    

    -c

    Indique les fichiers qui sont des points de montage pour les systèmes de fichiers et répertorie tous les fichiers de ces systèmes de fichiers montés.

    -u

    (Facultatif) Affiche le nom d'utilisateur correspondant à chaque ID de processus.

    point_montage

    Indique le nom du système de fichiers du cluster dont vous souhaitez arrêter les processus.

  4. Sur chaque nœud, arrêtez tous les processus pour le système de fichiers du cluster.

    Utilisez la méthode de votre choix pour arrêter les processus. Si nécessaire, utilisez la commande suivante pour forcer l'arrêt des processus associés au système de fichiers du cluster :


    # fuser -c -k mountpoint
    

    Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers du cluster.

  5. Sur chaque nœud, vérifiez qu'aucun processus n'utilise le système de fichiers.


    # fuser -c mountpoint
    

  6. Démontez le système de fichiers à partir d'un seul nœud.


    # umount mountpoint
    

    point_montage

    Indique le nom du système de fichiers du cluster à démonter. Il peut s'agir du nom du répertoire dans lequel le système de fichiers du cluster est monté ou du chemin d'accès au nom du périphérique du système de fichiers.

  7. (Facultatif) Modifiez le fichier /etc/vfstab afin d'effacer l'entrée correspondant au système de fichiers du cluster en cours de suppression.

    Effectuez cette opération sur chaque nœud de cluster comportant une entrée pour ce système de fichiers dans le fichier /etc/vfstab.

  8. (Facultatif) Supprimez le périphérique de disque group/metadevice/volume/plex.

    Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.

Exemple : suppression d'un système de fichiers de cluster

L'exemple suivant supprime un système de fichiers de cluster UFS monté sur le périphérique Solstice DiskSuite/Solaris Volume Manager ou le volume/dev/md/oracle/rdsk/d1.


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(sur chaque nœud, supprimez l'entrée surlignée :)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
[Enregistrez et quittez.]

Remarque –

pour supprimer les données du système de fichiers du cluster, vous devez supprimer le périphérique sous-jacent. Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.


Vérification des montages globaux dans un cluster

L'utilitaire sccheck (1M) vérifie la syntaxe des entrées des systèmes de fichiers du cluster dans le fichier /etc/vfstab . Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.


Remarque –

exécutez la commande sccheck si vous avez apporté à la configuration du cluster des modifications ayant une incidence sur les périphériques ou les composants de gestion des volumes, par exemple la suppression d'un système de fichiers du cluster.


  1. Devenez superutilisateur sur un nœud du cluster.

  2. Vérifiez les montages globaux du cluster.


     # sccheck
    

Administration du contrôle de chemins de disque

Les commandes d'administration du contrôle de chemins de disques (CCD) vous permettent de recevoir les notifications d'échecs secondaires de chemins de disques. Les procédures de cette rubrique vous permettront d'exécuter les tâches administratives associées au contrôle de chemins de disques. Reportez-vous à la rubrique “Notions-clés : administration et développement d'applications” du document Guide des notions fondamentales de Sun Cluster pour SE Solaris pour obtenir des informations conceptuelles concernant le démon de contrôle de chemins de disques. Reportez-vous à la page man scdpm(1M) pour obtenir une description des options de commandes de scdpm et des commandes connexes. Reportez-vous à la page man syslogd(1M) pour les erreurs enregistrées rapportées par le démon.


Remarque –

les chemins de disques sont automatiquement ajoutés à la liste de contrôle lorsque des périphériques d'E/S sont ajoutés à un nœud à l'aide des commandes scgdevs ou scdidadm. Le contrôle de chemins de disques est également automatiquement désactivé lorsque des périphériques sont supprimés d'un nœud à l'aide des commandes Sun Cluster.


Tableau 4–5 Plan des tâches : administration du contrôle de chemins de disques

Tâche 

Instructions 

Contrôler un chemin de disque à l'aide de la commande scdpm

Contrôle d'un chemin de disque

Désactiver le contrôle d'un chemin de disque à l'aide de la commande scdpm

Désactivation du contrôle d'un chemin de disque

Imprimer le statut des chemins de disques erronés pour un nœud à l'aide de la commande scdpm

Impression de chemins de disques erronés

Activer ou désactiver le contrôle de chemins de disques à l'aide de scdpm -f

Contrôle de chemins de disques à partir d'un fichier

Les procédures de la rubrique suivante utilisent la commande scdpm avec l'argument du chemin de disque. Celui-ci est toujours constitué d'un nom de nœud et d'un nom de disque. Le nom de nœud n'est pas requis et est défini par défaut sur all s'il n'est pas spécifié. Le tableau suivant décrit les conventions utilisées pour les noms de chemins de disques.


Remarque –

l'utilisation du nom de chemin de disque global est fortement recommandé, car il est cohérent dans l'intégralité du cluster. Le nom de chemin de disque UNIX ne l'est pas, le chemin de disque UNIX d'un disque peut varier d'un nœud de cluster à l'autre. Il peut par exemple être c1t0d0 sur un nœud, et c2t0d0 sur un autre. Si vous utilisez des noms de chemins de disques UNIX, utilisez la commande scdidadm -L pour les mapper sur les noms de chemins de disques globaux avant d'utiliser des commandes de CCD. Consultez la page man scdidadm(1M).


Tableau 4–6 Exemples de noms de chemins de disques

Type de nom 

Exemple de nom de chemin de disque 

Description 

Chemin de disque global  

phys-schost-1:/dev/did/dsk/d1

Chemin de disque d1 sur le nœud phys-schost-1

all:d1

Chemin de disque d1 sur tous les nœuds du cluster

Chemin de disque UNIX  

phys-schost-1:/dev/rdsk/c0t0d0s0

Chemin de disque c0t0d0s0 sur le nœud phys-schost-1

phys-schost-1:all

Tous les chemins de disques sur le nœud phys-schost-1

Tous les chemins de disques 

all:all

Tous les chemins de disques sur tous les nœuds du cluster 

Contrôle d'un chemin de disque

Exécutez cette tâche pour effectuer le contrôle des chemins de disques dans votre cluster.


Attention – Attention –

le CCD n'est pas pris en charge par les nœuds exécutant des versions antérieures du Logiciel Sun Cluster 3.1 9/04 . N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.


  1. Devenez superutilisateur sur un nœud du cluster.

  2. Contrôlez un chemin de disque à l'aide de la commande scdpm.


    # scdpm -m nœud:chemin_disque
    

    Reportez-vous au Tableau 4–6 pour les conventions des noms des arguments de nœud:chemin_disque.

  3. Assurez-vous que le chemin de disque est contrôlé.


    # scdpm -p node:all	     
    

Exemple de contrôle d'un chemin de disque sur un seul nœud

L'exemple suivant illustre le contrôle du chemin de disque schost-1:/dev/did/rdsk/d1 à partir d'un seul nœud. Sur le nœud schost-1, seul le démon de CCD effectue le contrôle du chemin d'accès au disque /dev/did/dsk/d1.


# scdpm -m schost-1:d1
# scdpm -p schost-1:d1
	     schost-1:/dev/did/dsk/d1   Ok

Exemple de contrôle d'un chemin de disque sur tous les nœuds

L'exemple suivant illustre le contrôle du chemin de disque schost-1:/dev/did/dsk/d1 à partir de tous les nœuds. Le CCD démarre sur tous les nœuds pour lesquels /dev/did/dsk/d1 constitue un chemin valide.


# scdpm -m all:/dev/did/dsk/d1
# scdpm -p schost-1:d1
	     schost-1:/dev/did/dsk/d1   Ok	    

Exemple de relecture de la configuration du disque à partir du CCR

L'exemple suivant illustre la procédure forçant le démon à relire la configuration du disque à partir du CCR, et imprimant les chemins de disques contrôlés et leurs statuts.


# scdpm -m all:all 
# scdpm -p all:all
		 schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Échec
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d5   Non contrôlé
	     schost-2:/dev/did/dsk/d6   Ok

Désactivation du contrôle d'un chemin de disque

Cette procédure permet de désactiver le contrôle d'un chemin de disque.


Attention – Attention –

le CCD n'est pas pris en charge par les nœuds exécutant des versions antérieures du Logiciel Sun Cluster 3.1 9/04 . N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.


  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez l'état du chemin de disque dont le contrôle doit être désactivé.


    # scdpm -p [all:] disk path
    
    -p

    Imprime une liste détaillée des statuts en cours d'un chemin de disque donné

    [:all]

    Affiche tous les chemins de disques contrôlés et non contrôlés

  3. Sur chaque nœud, désactivez le contrôle des chemins de disques appropriés.


    # scdpm -u  nœud:chemin_disque
    

    Reportez-vous au Tableau 4–6 pour les conventions des noms des arguments de nœud:chemin_disque.

Exemple : désactivation du contrôle d'un chemin de disque

L'exemple suivant illustre la désactivation du contrôle du chemin de disque schost-2:/dev/did/rdsk/d1 et l'impression des chemins de disques et de leurs statuts pour l'ensemble du cluster.


# scdpm -u schost-2:/dev/did/rdsk/d1
# scdpm -p all:all 
	     schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Échec
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d1   Non contrôlé
	     schost-2:/dev/did/dsk/d6   Ok

Impression de chemins de disques erronés

La procédure suivante permet d'imprimer les chemins de disques erronés pour un cluster.


Attention – Attention –

le CCD n'est pas pris en charge par les nœuds exécutant des versions antérieures du Logiciel Sun Cluster 3.1 9/04 . N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.


  1. Devenez superutilisateur sur un nœud du cluster.

  2. Imprimez les chemins de disques erronés dans l'ensemble du cluster.


    # scdpm -p -F nœud:chemin_disque
    

    Reportez-vous au Tableau 4–6 pour les conventions des noms des arguments de nœud:chemin_disque.

Exemple : impression des chemins de disques erronés

La procédure suivante permet d'imprimer les chemins de disques erronés pour l'intégralité d'un cluster.


# scdpm -p -F [all:]all
		 schost-1:/dev/did/dsk/d4   Fail
	     schost-1:/dev/did/dsk/d3   Fail
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Fail
	     schost-2:/dev/did/dsk/d5   Fail
	     schost-2:/dev/did/dsk/d6   Fail

Contrôle de chemins de disques à partir d'un fichier

La procédure suivante permet d'effectuer ou de désactiver le contrôle de chemins de disques à partir d'un fichier. Le fichier doit répertorier les commandes de contrôle ou de désactivation du contrôle, les noms des nœuds et les noms des chemins de disques. Les champs du fichier doivent être séparés par une colonne. Formatez chaque liste en suivant l'exemple.


Syntaxe dans le fichier de commandes :
[u,m] [node|all]:<[/dev/did/rdsk/]d- | [/dev/rdsk/]c-t-d- | all>

Entrée du fichier de commandes
u schost-1:/dev/did/rdsk/d5
m schost-2:all


Attention – Attention –

le CCD n'est pas pris en charge par les nœuds exécutant des versions antérieures du Logiciel Sun Cluster 3.1 9/04 . N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.


  1. Devenez superutilisateur sur un nœud du cluster.

  2. Contrôlez les chemins de disques à partir d'un fichier.


    # scdpm -f nomfichier
    

  3. Vérifiez les chemins de disques avec statuts pour le cluster.


    # scdpm -p all:all
    	    
    

Exemple de contrôle ou désactivation du contrôle de chemins de disques à partir d'un fichier

L'exemple suivant illustre le contrôle ou la désactivation du contrôle de chemins de disques à partir d'un fichier.


# scdpm -f schost_config
# scdpm -p all:all 
	     schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Échec
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d5   Non contrôlé
	     schost-2:/dev/did/dsk/d6   Ok