Guide d'administration système de Sun Cluster pour SE Solaris

Chapitre 4 Admin. de périphériques globaux, du contrôle de chemins de disques et de systèmes de fichiers de cluster

Ce chapitre décrit les procédures d'administration de périphériques globaux, du contrôle de chemin de disques et de systèmes de fichiers de cluster.

Les procédures décrites dans ce chapitre sont les suivantes :

Pour obtenir une description plus détaillée des procédures correspondantes dans ce chapitre, voir le Tableau 4–2.

Pour accéder aux définitions des périphériques globaux, de l'espace de noms global, des groupes de périphériques de disques, du contrôle des chemins de disques et du système de fichiers de cluster, reportez-vous au document Guide des notions fondamentales de Sun Cluster pour SE Solaris.

Administration des périphériques globaux et présentation des espaces de noms globaux

L'administration des groupes de périphériques de disques Sun Cluster dépend du gestionnaire de volumes installé sur le cluster. Solstice DiskSuite/Solaris Volume Manager reconnaît les clusters. Il vous suffit donc d'ajouter, d'enregistrer et de supprimer des groupes de périphériques de disques à l'aide de la commande Solstice DiskSuite/Solaris Volume Manager metaset(1M). Si vous utilisez VERITAS Volume Manager (VxVM), vous créez des groupes de disques à l'aide des commandes VxVM. Vous pouvez ensuite enregistrer ces groupes en tant que groupes de périphériques de disques Sun Cluster à l'aide de l'utilitaire scsetup(1M). Pour supprimer des groupes de périphériques de disques VxVM, vous utiliserez les commandes scsetup et VxVM.

Le logiciel Sun Cluster crée automatiquement dans le cluster un groupe de périphériques de disques bruts pour chaque disque, ainsi qu'un lecteur de bande. Les groupes de périphériques de cluster restent à l'état hors ligne tant que vous ne les utilisez pas comme périphériques globaux. Lorsque vous administrez des groupes de périphériques de disques ou des groupes de disques du gestionnaire de volumes, vous devez vous trouver sur le nœud du cluster correspondant au nœud principal du groupe en question.

Normalement, vous n'avez pas besoin d'administrer l'espace de noms du périphérique global. L'espace de noms global est automatiquement configuré au cours de l'installation et mis à jour automatiquement pendant la réinitialisation du système d'exploitation Solaris. Cependant, si l'espace de noms global nécessite une mise à jour, vous pouvez exécuter la commande scgdevs(1M) à partir de n'importe quel nœud de cluster. Via cette commande, l'espace de noms global est alors mis à jour sur tous les autres nœuds du cluster, ainsi que sur les nœuds susceptibles de s'ajouter au cluster par la suite.

Autorisations sur les périphériques globaux pour Solstice DiskSuite/Solaris Volume Manager

Les modifications apportées aux autorisations sur les périphériques globaux ne sont pas automatiquement diffusées vers tous les nœuds du cluster pour Solstice DiskSuite/Solaris Volume Manager et pour les périphériques de disques. Si vous souhaitez modifier ces autorisations, vous devez le faire manuellement sur tous les nœuds du cluster. Si, par exemple, vous souhaitez modifier les autorisations sur le périphérique global /dev/global/dsk/d3s0 pour la définir sur 644, vous devez exécuter

# chmod 644 /dev/global/dsk/d3s0

sur tous les nœuds du cluster.

VxVM ne prend pas en charge la commande chmod. Pour modifier les autorisations sur les périphériques globaux dans VxVM, reportez-vous au manuel de l'administrateur VxVM.

Reconfiguration dynamique avec périphériques globaux

Voici les points à prendre en considération dans le cadre d'une reconfiguration dynamique (DR) de périphériques de disques et de bande dans un cluster.


Attention – Attention –

tout échec sur le nœud principal, alors que vous effectuez une opération DR sur un nœud secondaire, a une incidence sur la disponibilité du cluster. Le nœud principal ne pourra pas effectuer de reprise sur panne tant qu'un nouveau nœud secondaire n'est pas disponible.


Procédez comme suit, en respectant l'ordre des étapes, pour effectuer des opérations DR sur des périphériques globaux.

Tableau 4–1 Plan des tâches : reconfiguration dynamique avec des périphériques de disques et de bande

Tâche 

Instructions 

1. Pour effectuer sur le nœud principal une opération DR risquant d'avoir une incidence sur un groupe de périphériques actif, désactivez au préalable le nœud principal et les nœuds secondaires. 

Changement de nœud principal pour un groupe de périphériques

2. Effectuez l'opération DR de suppression sur le périphérique que vous souhaitez supprimer. 

Sun Enterprise 10000 DR Configuration Guide et le Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual dans les collections Solaris 8 on Sun Hardware et Solaris 9 on Sun Hardware.

SPARC : remarques sur l'administration de VERITAS Volume Manager

Administration de systèmes de fichiers de cluster : présentation

Aucune commande spéciale de Sun Cluster n'est nécessaire à l'administration des systèmes de fichiers de cluster. Vous administrez un système de fichiers de cluster exactement de la même façon que n'importe quel autre système de fichiers Solaris, à l'aide des commandes standard Solaris, telles que mount, newfs, etc. Pour monter des systèmes de fichiers de cluster, indiquez l'option -g à la suite de la commande mount. Les systèmes de fichiers de cluster peuvent également être montés automatiquement au moment de l'initialisation.


Remarque –

un système de fichiers de cluster qui lit des fichiers ne procède pas à la mise à jour de l'horaire d'accès à ces fichiers.


Restrictions liées au système de fichiers de cluster

Les restrictions suivantes s'appliquent à l'administration du système de fichiers de cluster :

SPARC : directives applicables à la prise en charge de VxFS

Les fonctions VxFS suivantes ne sont pas prises en charge dans un système de fichiers de cluster Sun Cluster 3.1. Ces dernières sont cependant prises en charge dans un système de fichiers local.

Les avis de cache peuvent être utilisés, mais ils ne s'appliquent qu'au noeud sélectionné.

Toutes les autres options et fonctions de VxFS prises en charge dans un système de fichiers de cluster, le sont par le logiciel Sun Cluster 3.1. Pour de plus amples informations sur les options de VxFS prises en charge dans une configuration de cluster, consultez la documentation de VxFS.

Les directives suivantes, relatives à l'utilisation de VxFS pour la création de systèmes de fichiers de cluster à haut niveau de disponibilité, s'appliquent essentiellement à une configuration Sun Cluster 3.1 4/04.

Les directives suivantes, relatives à l'administration des systèmes de fichiers de cluster VxFS, ne sont pas spécifiques au logiciel Sun Cluster 3.1 4/04. Ces directives diffèrent toutefois des procédures d'administration des systèmes de fichiers de cluster UFS.

Administration des groupes de périphériques de disques

L'utilitaire scsetup(1M) est une interface interactive pour la commande scconf(1M). scsetup génère les commandes scconf. Les commandes générées sont présentées dans les exemples proposés après certaines procédures.


Remarque –

le logiciel Sun Cluster crée automatiquement dans le cluster un groupe de périphériques de disques bruts pour chaque disque, ainsi qu'un lecteur de bande. Les groupes de périphériques de cluster restent à l'état hors ligne tant que vous ne les utilisez pas comme périphériques globaux.


Tableau 4–2 Liste des tâches : Administration des groupes de périphériques de disques

Tâche 

Pour les instructions, voir... 

Mise à jour de l'espace de noms de périphériques globaux sans réinitialisation de reconfiguration 

- Utilisez la commande scgdevs(1M)

Mise à jour de l'espace de noms de périphériques globaux

Ajout et enregistrement de disques Solstice DiskSuite/Solaris Volume Manager en tant que groupes de périphériques de disques 

- Utilisez la commande metaset(1M)

Ajout et enregistrement d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Suppression des groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager de la configuration 

- Utilisez les commandes metaset et metaclear(1M)

Suppression et annulation de l'enregistrement d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Suppression d'un nœud de tous les groupes de périphériques de disques 

- Utilisez scconf, metaset et scsetup

Suppression d'un nœud de tous les groupes de périphériques de disques

Suppression d'un nœud d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager 

- Utilisez metaset

Suppression d'un nœud d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

SPARC : ajout des groupes de disques VERITAS Volume Manager comme groupes de périphériques de disques 

- Utilisez les commandes de VxVM et scsetup(1M)

SPARC : Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager)

 

SPARC : Création d'un nouveau groupe de disques lors de l'encapsulage de disques (VERITAS Volume Manager)

 

SPARC : Ajout d'un nouveau volume à un groupe de périphériques de disques existant (VERITAS Volume Manager)

 

SPARC : transformation d'un groupe de disques existant en un groupe de périphériques de disques (VERITAS Volume Manager)

 

SPARC : Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager)

 

SPARC : enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager)

 

SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager)

SPARC : suppression des groupes de périphériques de disques VERITAS Volume Manager de la configuration 

- Utilisez scsetup (pour générer scconf)

SPARC : Suppression d'un volume d'un groupe de périphériques de disques (VERITAS Volume Manager)

 

SPARC : suppression et annulation de l'enregistrement d'un groupe de périphériques de disques (VERITAS Volume Manager)

SPARC : ajout d'un nœud à un groupe de périphériques de disques VERITAS Volume Manager 

- Utilisez scsetup pour générer scconf

SPARC : ajout d'un nœud à un groupe de périphériques de disques (VERITAS Volume Manager)

SPARC : suppression d'un nœud d'un groupe de périphériques de disques VERITAS Volume Manager 

- Utilisez scsetup pour générer scconf

SPARC : suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager)

Suppression d'un nœud d'un groupe de périphériques de disques bruts 

- Utilisez la commande scconf(1M)

SPARC : suppression d'un nœud d'un groupe de périphériques de disques bruts

Modification des propriétés de groupes de périphériques de disques 

- Utilisez scsetup pour générer scconf

Modification des propriétés des périphériques de disques

Affichage des groupes et des propriétés des périphériques de disques 

 - Utilisez scconf

Affichage de la configuration d'un groupe de périphériques de disques

Modification du nombre de nœuds secondaires souhaités pour un groupe de périphériques 

- Utilisez scsetup pour générer scconf

Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques

Changement du nœud principal d'un groupe de périphériques de disques 

- Utilisez la commande scswitch(1M)

Changement de nœud principal pour un groupe de périphériques

Mise à l'état de maintenance d'un groupe de périphériques de disques 

- Utilisez metaset ou vxdg

Mise à l'état de maintenance d'un groupe de périphériques de disques

ProcedureMise à jour de l'espace de noms de périphériques globaux

Lors de l'ajout d'un nouveau périphérique global, mettez à jour manuellement l'espace de noms du périphérique global en exécutant la commande scgdevs(1M).


Remarque –

la commande scgdevs n'a aucune incidence si le nœud qui l'exécute n'est pas actuellement membre du cluster. De même, la commande n'a aucun effet si le système de fichiers /global/.devices/node@ id_nœud n'est pas monté.


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Utilisez la commande scgdevs pour reconfigurer l'espace de noms.


    # scgdevs
    

Exemple 4–1 Mise à jour de l'espace de noms d'un périphérique global

L'exemple suivant illustre l'affichage type généré par l'exécution réussie de scgdevs.


# scgdevs 
Configuring the /dev/global directory (global devices)...
obtaining access to all attached disks
reservation program successfully exiting

ProcedureAjout et enregistrement d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Utilisez la commande metaset(1M) pour créer un jeu de disques Solstice DiskSuite/Solaris Volume Manager et enregistrez-le en tant que groupe de périphériques de disques Sun Cluster. Lorsque vous enregistrez le jeu de disques, le nom que vous lui avez donné est automatiquement affecté au groupe de périphériques de disques.

Étapes
  1. Devenez superutilisateur sur le nœud connecté aux disques sur lesquels vous souhaitez créer le jeu de disques.

  2. Calculez le nombre de noms de métapériphériques Solstice DiskSuite ou de volumes Solaris Volume Manager dont vous aurez besoin pour votre configuration, et modifiez le fichier /kernel/drv/md.conf sur chaque nœud.

    Reportez-vous à la section “How to Set the Number of Metadevice or Volume Names and Disk Sets ” du document Guide d’installation du logiciel Sun Cluster pour SE Solaris.

  3. Utilisez la commande metaset(1M) pour ajouter le jeu de disques Solstice DiskSuite/Solaris Volume Manager et l'enregistrer comme groupe de périphériques de disques dans Sun Cluster. Pour créer un groupe de disques multipropriétaire, utilisez l'option –M.


    # metaset -s diskset -a -M -h nodelist
    
    -s ensemble_disques

    Spécifie l'ensemble de disques à créer.

    -a -h liste_nœuds

    Ajoute la liste des nœuds capables de servir de maîtres à l'ensemble de disques.

    -M

    Désigne le groupe de disques comme multipropriétaire.


    Remarque –

    L'exécution de la commande metaset pour configurer un groupe de périphériques de Solstice DiskSuite/Solaris Volume Manager sur un cluster crée un secondaire par défaut, quel que soit le nombre de nœuds inclus dans ce groupe de périphériques. Une fois le groupe de périphériques créé, vous pouvez modifier le nombre souhaité de nœuds secondaires à l'aide de l'utilitaire scsetup(1M). Pour de plus amples informations sur le basculement du disque, reportez-vous à la section Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques.


  4. Vérifiez que le groupe de périphériques de disques a bien été ajouté.

    Le nom du groupe de périphériques de disques correspond au nom de l'ensemble de disques spécifié avec la commande metaset.


    # scconf -p | grep disk-device-group
    

Exemple 4–2 Ajout d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager

L'exemple ci-après illustre la création d'un jeu de disques et d'un groupe de périphériques de disques et la vérification que ce dernier a été créé correctement.


# metaset -s dg-schost-1 -a -h phys-schost-1

# scconf -p | grep dg-schost-1
Device group name: dg-schost-1

Suppression et annulation de l'enregistrement d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Les groupes de périphériques de disques sont des ensembles de disques Solstice DiskSuite/Solaris Volume Manager ayant été enregistrés avec Sun Cluster. Pour supprimer un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager , utilisez les commandes metaclear et metaset. Ces commandes suppriment le groupe de périphériques de disques portant le nom indiqué et annulent l'enregistrement du groupe de disques comme groupe de périphériques de disques Sun Cluster.

Reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager pour connaître la procédure à suivre pour supprimer un ensemble de disques.

ProcedureSuppression d'un nœud de tous les groupes de périphériques de disques

Cette procédure permet de supprimer un nœud de cluster de tous les groupes de périphériques de disques répertoriant le nœud dans leurs listes de nœuds principaux potentiels.

Étapes
  1. Devenez superutilisateur sur le nœud que vous souhaitez retirer comme nœud principal potentiel de tous les groupes de périphériques de disques.

  2. Déterminez le(s) groupe(s) de périphériques de disques dont le nœud à supprimer est membre.

    Recherchez le nom du nœud dans la liste Liste des nœuds du groupe de périphériques pour chaque groupe de périphériques de disques.


    # scconf -p | grep "Device group"
    
  3. Des groupes de périphériques de disques sont-ils identifiés à l'Étape 2 de la procédure applicable aux groupes de périphériques SDS/SVM ?

  4. Des groupes de périphériques de disques sont-ils identifiés à l'Étape 2 de la procédure applicable aux groupes de périphériques VxVM ?

  5. Déterminez le(s) groupe(s) de périphériques de disques bruts dont fait partie le nœud à supprimer.

    Remarquez que la commande suivante contient deux “v”s dans -pvv. Le deuxième “v” est nécessaire à l'affichage des groupes de périphériques de disques bruts.


    # scconf -pvv | grep "Device group"
    
  6. Des groupes de périphériques de disques sont-ils répertoriés à l'Étape 5 de la procédure applicable aux groupes de périphériques Disk, Local_Disk, ou les deux ?

  7. Vérifiez que le nœud a bien été retiré de la liste de nœuds principaux potentiels de tous les groupes de périphériques de disques.

    La commande ne produit aucun retour si le nœud n'est plus inscrit comme primaire potentiel d'un groupe de périphériques de disques.


    # scconf -pvv | grep "Device group" | grep nodename
    

ProcedureSuppression d'un nœud d'un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

Utilisez cette procédure pour supprimer un nœud de cluster d'une liste de nœuds principaux potentiels d'un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager. Répétez la commande metaset pour chaque groupe de périphériques de disques duquel vous voulez supprimer le nœud.

Étapes
  1. Vérifiez que le nœud est toujours membre du groupe de périphériques de disques, ce dernier devant être un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager.

    Le type de groupe de périphériques SDS/SVM indique un groupe de périphériques de disques Solstice DiskSuite/Solaris Volume Manager.


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Device group type:              SDS/SVM
      (global-galileo) Device group failback enabled:  no
      (global-galileo) Device group node list:         phys-schost-1, phys-schost-2
      (global-galileo) Diskset name:                   global-galileo
    phys-schost-1%
  2. Déterminez quel nœud est actuellement le nœud principal pour le groupe de périphériques.


    # scstat -D
    
  3. Devenez superutilisateur sur le nœud possédant actuellement le groupe de périphériques de disques à modifier.

  4. Dans le groupe de périphériques de disques, supprimez le nom d'hôte du nœud.


    # metaset -s setname -d -h nodelist
    
    -s nom_jeu

    Spécifie le nom du groupe de périphériques de disques.

    -d

    Supprime du groupe de périphériques de disques les nœuds identifiés par la commande -h.

    -h liste_nœuds

    Supprime le nœud de la liste des nœuds qui peuvent contrôler le groupe de périphériques de disques.


    Remarque –

    la mise à jour peut prendre quelques minutes.


    Si la commande échoue, ajoutez l'option -f (Force) à la commande.


    # metaset -s setname -d -f -h nodelist
    
  5. Répétez l'Étape 4 pour chaque groupe de périphériques de disques dont le nœud ne doit plus être un nœud principal potentiel.

  6. Vérifiez que le nœud a bien été supprimé du groupe de périphériques de disques.

    Le nom du groupe de périphériques de disques correspond au nom de l'ensemble de disques spécifié avec la commande metaset.


    phys-schost-1% scconf -pv | grep  devicegroup  
    Device group node list:  phys-schost-1, phys-schost-2

Exemple 4–3 Suppression d'un nœud depuis un groupe de périphériques de disques (Solstice DiskSuite/Solaris Volume Manager)

L'exemple suivant illustre la suppression du nom d'hôte phys-schost-2 d'une configuration de groupe de périphériques de disques. Cette exemple élimine phys-schost-2 comme nœud principal potentiel pour le groupe de périphériques de disques désigné. Assurez-vous que le nœud a bien été supprimé en exécutant la commande scstat -D. Assurez-vous que le nœud supprimé n'apparaît plus dans le texte de l'écran.


[Determine the Solstice DiskSuite/Solaris Volume Manager
 disk device group(2) for the node:]
# scconf -pv | grep Device
  Device group name:                 dg-schost-1
    Device group type:               SDS/SVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group ordered node list:  yes
    Device group diskset name:    	 dg-schost-1
[Determine which node is the current primary for the disk device group:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
  Device group servers: dg-schost-1  phys-schost-1  phys-schost-2
[Become superuser on the node that currently owns the disk device group.]
[Remove the hostname from the disk device group:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Verify removal of the node:]
phys-schost-1% scconf -pv | grep dg-schost-1
  -- Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
  Device group servers: dg-schost-1  phys-schost-1  

ProcedureCréation de plus de trois ensembles de disques dans un cluster

Si vous prévoyez de créer plus de trois ensembles de disques dans le cluster, suivez d'abord les étapes indiquées ci-dessous. Ces étapes s'appliquent que vous installiez des jeux de disques pour la première fois ou que vous en ajoutiez dans un cluster déjà configuré.

Étapes
  1. Assurez-vous que la valeur de la variable md_nsets est suffisamment élevée. Cette valeur doit être appropriée au nombre total de jeux de disques que vous souhaitez créer dans le cluster.

    1. À partir d'un nœud du cluster, vérifiez la valeur de la variable md_nsets dans le fichier /kernel/drv/md.conf.

    2. Si le nombre de jeux de disques du cluster est supérieur à la valeur indiquée pour md_nsets moins un, augmentez la valeur de md_nsets sur chaque nœud.

      Le nombre maximum autorisé d'ensembles de disques est la valeur de md_nsets moins un. La valeur maximale autorisée pour md_nsets est 32.

    3. Vérifiez que le fichier /kernel/drv/md.conf est identique sur tous les nœuds du cluster.


      Attention – Attention –

      le non-respect de cette règle peut entraîner des erreurs graves de Solstice DiskSuite/Solaris Volume Manager et un risque de pertes de données.


    4. Arrêtez le cluster depuis un nœud.


      # scshutdown -g0 -y
      
    5. Réinitialisez tous les nœuds du cluster.

      • SPARC :


        ok boot
        
      • x86 :


                              <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                          <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b
        
  2. Exécutez la commande devfsadm(1M) sur chaque nœud du cluster.

    Vous pouvez exécuter cette commande sur tous les nœuds du cluster en même temps.

  3. Exécutez la commande scgdevs(1M) à partir d'un nœud du cluster.

  4. Vérifiez, sur chaque nœud, que la commande scgdevs s'est déroulée avec succès avant de commencer à créer des jeux de disques.

    La commande scgdevs se déclenche à distance sur tous les nœuds, quand bien même elle est exécutée depuis un seul nœud. Pour savoir si la commande scgdevs s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.


    % ps -ef | grep scgdevs
    

ProcedureSPARC : Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager)


Remarque –

cette procédure s'applique uniquement à l'initialisation de disques. Pour encapsuler des disques, suivez la procédure SPARC : Création d'un nouveau groupe de disques lors de l'encapsulage de disques (VERITAS Volume Manager).


Après avoir ajouté le groupe de disques VxVM , vous devez enregistrer le groupe de périphériques de disques.

Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server ou Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster connecté physiquement aux disques qui composent le groupe de disques à ajouter.

  2. Créez le groupe de disques et le volume VxVM.

    Pour cela, utilisez la méthode de votre choix.


    Remarque –

    si vous configurez un volume en miroir, vous pouvez utiliser le système DRL (Dirty Region Logging) pour réduire le délai de récupération du volume en cas de panne d'un nœud. Cependant, ce système risque de réduire le débit d'E/S.


    Reportez-vous à la documentation de VERITAS Volume Manager pour connaître les procédures à suivre.

  3. Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.

    Reportez-vous à la section SPARC : enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).

    N'enregistrez pas les groupes de disques partagés Oracle Parallel Server ou Oracle Real Application Clusters dans la structure du cluster.

ProcedureSPARC : Création d'un nouveau groupe de disques lors de l'encapsulage de disques (VERITAS Volume Manager)


Remarque –

Cette procédure concerne uniquement l'encapsulation de disques. Pour initialiser des disques, suivez la procédure SPARC : Création d'un nouveau groupe de disques lors de l'initialisation des disques (VERITAS Volume Manager) .


Vous pouvez transformer des disques non root en groupes de périphériques de disques Sun Cluster en les encapsulant en tant que groupes de disques VxVM , puis en les enregistrant comme groupes de périphériques de disques Sun Cluster.

L'encapsulage de disques n'est possible que lors de la création initiale d'un groupe de disques VxVM. Une fois un groupe de disques VxVM créé et enregistré comme groupe de périphériques de disques Sun Cluster, seuls les disques pouvant être initialisés doivent être ajoutés au groupe.

Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server ou Oracle Real Application Clusters, utilisez la fonction VxVM du cluster décrite dans le document Manuel de référence de l'administrateur de VERITAS Volume Manager.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Si le disque que vous souhaitez encapsuler possède des entrées de système de fichiers dans le fichier /etc/vfstab, vérifiez que l'option mount at boot est bien configurée sur no.

    Reconfigurez sur yes une fois que le disque est encapsulé et enregistré comme groupe de périphériques de disques Sun Cluster.

  3. Encapsulez les disques.

    Pour cela, utilisez les menus vxdiskadm ou l'interface d'utilisation graphique. VxVM requiert deux partitions libres ainsi que des cylindres non attribués au début ou à la fin du disque. La tranche deux doit également être définie sur le disque entier. Pour de plus amples informations, reportez-vous à la page man vxdiskadm.

  4. Arrêtez le nœud et redémarrez-le.

    La commande scswitch(1M) permet de faire passer tous les groupes de ressources et de périphériques du nœud principal au nœud préféré suivant. Utilisez la commande shutdown pour arrêter et redémarrer le nœud.


    # scswitch -S -h node[,...]
    # shutdown -g0 -y -i6
    
  5. Si nécessaire, transférez de nouveau tous les groupes de ressources et de périphériques sur le nœud d'origine.

    Si les groupes de ressources et de périphériques étaient configurés à l'origine pour revenir au nœud initial en cas de panne, cette étape n'est pas nécessaire.


    # scswitch -z -D disk-device-group -h node[,...] 
    # scswitch -z -g resource-group -h node[,...] 
    
  6. Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.

    Voir SPARC : enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).

    N'enregistrez pas les groupes de disques partagés Oracle Parallel Server ou Oracle Real Application Clusters dans la structure du cluster.

  7. Si vous avez réglé l'option mount at boot sur no à l'Étape 2, redéfinissez-la sur yes.

ProcedureSPARC : Ajout d'un nouveau volume à un groupe de périphériques de disques existant (VERITAS Volume Manager)

Lorsque vous ajoutez un nouveau volume à un groupe de périphériques de disques VxVM existant, exécutez la procédure à partir du nœud principal du groupe de périphériques de disques en ligne.


Remarque –

Après avoir ajouté le volume, vous devez enregistrer le changement de configuration en suivant la procédure SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez le nœud principal du groupe de périphériques de disques auquel vous allez ajouter le nouveau volume.


    # scstat -D
    
  3. Si le groupe de périphériques de disques est hors ligne, mettez le groupe de périphériques en ligne.


    # scswitch -z -D disk-device-group -h node[,...]
    
    -z -D groupe_unités_disque

    Modifie le nœud principal du groupe de périphériques spécifié.

    -h nœud

    Indique le nom du nœud vers lequel le groupe de périphériques de disques doit passer. Ce nœud devient le nouveau nœud principal.

  4. À partir du nœud principal (le maître actuel du groupe de périphériques de disques), créez le volume VxVM dans le groupe de disques.

    Reportez-vous à la documentation de VERITAS Volume Manager pour connaître la procédure de création d'un volume VxVM .

  5. Enregistrez le groupe de disques de VxVM pour mettre à jour l'espace de noms global.

    DPM

    SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).

ProcedureSPARC : transformation d'un groupe de disques existant en un groupe de périphériques de disques (VERITAS Volume Manager)

Pour transformer un groupe de disques VxVM existant en groupe de disques Sun Cluster, vous devez d'abord importer le groupe de disques sur le nœud courant, puis l'enregistrer en tant que groupe de périphériques de disques Sun Cluster.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Importez le groupe de disques VxVM sur le nœud courant.


    # vxdg import diskgroup
    
  3. Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.

    Voir SPARC : enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).

ProcedureSPARC : Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager)

Si l'enregistrement d'un groupe de périphériques de disques échoue parce qu'un code mineur entre en conflit avec celui d'un autre groupe de disques, vous devez attribuer au nouveau groupe un nouveau code mineur inutilisé. Cela fait, vous devez ré-exécuter la procédure d'enregistrement du groupe de disques en tant que groupe de périphériques de disques Sun Cluster .

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez les codes mineurs utilisés.


    # ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
    
  3. Choisissez un autre multiple de 1000 non utilisé comme code mineur de base pour le nouveau groupe de disques.

  4. Attribuez ce nouveau code mineur au groupe de disques.


    # vxdg reminor diskgroup base-minor-number
    
  5. Enregistrez le groupe de disques VxVM comme groupe de périphériques de disques Sun Cluster.

    Voir SPARC : enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager).


Exemple 4–4 SPARC : Affectation d'un nouveau code mineur à un groupe de périphériques de disques

L'exemple suivant illustre l'utilisation des codes mineurs 16000-16002 et 4000-4001. La commande vxdg reminor permet d'attribuer un nouveau code mineur de base 5000 au nouveau groupe de périphériques de disques.


# ls -l /global/.devices/node@nodeid/dev/vx/dsk/*

/global/.devices/node@nodeid/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@nodeid/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

ProcedureSPARC : enregistrement d'un groupe de disques comme groupe de périphériques de disques (VERITAS Volume Manager)

Cette procédure utilise l'utilitaire scsetup(1M) pour enregistrer le groupe de disques associé VxVM en tant que groupe de périphériques de disques Sun Cluster.


Remarque –

une fois un groupe de périphériques de disques enregistré dans le cluster, n'importez ou ne déplacez jamais un groupe de disques VxVM à l'aide des commandes VxVM. Si vous modifiez le volume ou le groupe de disques VxVM, suivez la procédure SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager) pour enregistrer les modifications de la configuration du groupe de périphériques de disques. Cette procédure permet d'assurer que l'espace de noms global est à l'état approprié.


Pour enregistrer un groupe de périphériques de disques VxVM , les conditions suivantes doivent être remplies :

Lorsque vous définissez l'ordre de préférence, vous devez également indiquer si vous souhaitez que le groupe de périphériques de disques revienne au nœud préféré lorsque celui-ci rejoint le cluster après avoir été arrêté.

Pour de plus amples informations sur les préférences de nœuds et les options de rétablissement, reportez-vous au document scconf(1M).

Les nœuds de cluster non principaux (de rechange) deviennent secondaires selon l'ordre de préférence du nœud. Le nombre par défaut de secondaires pour un groupe de périphériques est normalement défini sur un. Ce paramètre par défaut minimise la dégradation des performances causée par un contrôle principal de plusieurs nœuds secondaires au cours du fonctionnement normal. Par exemple, sur un cluster à quatre nœuds, le comportement par défaut configure un nœud principal, un nœud secondaire et deux nœuds de rechange. Reportez-vous également à la section SPARC : Configuration du nombre souhaité de nœuds secondaires (VERITAS Volume Manager).

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Lancez l'utilitaire scsetup.


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Device groups and volumes).

    Le menu Device Groups apparaît.

  4. Pour enregistrer un groupe de périphériques de disques VxVM , entrez 1 (Register a VxVM disk group as a device group).

    Suivez les instructions et entrez le nom du groupe de disques VxVM à enregistrer comme groupe de périphériques de disques Sun Cluster.

    Si vous utilisez VxVM pour configurer des groupes de disques partagés pour Oracle Parallel Server/Real Application Clusters, vous n'enregistrez pas les groupes de disques partagés dans la structure du cluster. Utilisez la fonction VxVM du cluster, décrite dans le document VERITAS Volume Manager Administrator's Reference Guide.

  5. Si vous rencontrez l'erreur suivante alors que vous tentez d'enregistrer le groupe de périphériques de disques, redonnez un code mineur au groupe de périphériques de disques.


    scconf: Failed to add device group - in use

    Pour redonner un code mineur au groupe de périphériques de disques, suivez la procédure SPARC : Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager). Cette procédure vous permet d'affecter un nouveau code mineur n'entrant pas en conflit avec un code mineur utilisé par un groupe de périphériques de disques existant.

  6. Vérifiez que le groupe de périphériques de disques est enregistré et en ligne.

    Si le groupe de périphériques de disques est correctement enregistré, les informations relatives au nouveau groupe de périphériques de disques s'affichent lorsque vous utilisez la commande suivante :


    # scstat -D
    

    Remarque –

    Si vous modifiez les informations de configuration d'un groupe de disques ou d'un volume VxVM déjà enregistré dans le cluster, vous devez synchroniser le groupe de périphériques de disques à l'aide de la commande scsetup(1M). Ces modifications de configuration comprennent l'ajout ou la suppression de volumes, ainsi que la modification de groupe, de propriétaire ou d'autorisations de volumes existants. Le réenregistrement après des modifications de configuration assure que l'espace de noms global est à l'état correct. Reportez-vous à la section Mise à jour de l'espace de noms de périphériques globaux.



Exemple 4–5 SPARC : Enregistrement d'un groupe de périphériques de disques VERITAS Volume Manager

L'exemple suivant montre la commande scconf générée par scsetup lors de l'enregistrement d'un groupe de périphériques de disques VxVM (dg1), ainsi que l'étape de vérification. Cet exemple suppose que le groupe de disques VxVM et le volume sont créés au préalable.


# scsetup

scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2


# scstat -D
-- Device Group Servers --
                         Device Group      Primary           Secondary
                         ------------      -------           ---------
Device group servers:    dg1              phys-schost-1      phys-schost-2
 
-- Device Group Status --
                              Device Group        Status              
                              ------------        ------              
  Device group status:        dg1                 Online

Voir aussi

Pour créer un système de fichiers de cluster dans le groupe de périphériques de disques VxVM, consultez la section Ajout d'un système de fichiers de cluster .

En cas de problème avec le code mineur, consultez la section SPARC : Affectation d'un nouveau code mineur à un groupe de périphériques de disques (VERITAS Volume Manager).

ProcedureSPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager)

Lorsque vous modifiez une configuration pour un groupe de disque ou volume VxVM il est nécessaire d'enregistrer les modifications pour le groupe de périphériques de disques Sun Cluster. L'enregistrement permet d'assurer que l'espace de noms global est dans l'état qui convient.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Exécutez l'utilitaire scsetup(1M).


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Device groups and volumes).

    Le menu Device Groups apparaît.

  4. Pour enregistrer des modifications de configuration, entrez 2 (Synchroniser les données sur le volume d'un groupe de périphériques VxVM).

    Suivez les instructions et entrez le groupe de disques VxVM dont la configuration a été modifiée.


Exemple 4–6 SPARC : Enregistrement des modifications de la configuration d'un groupe de disques VERITAS Volume Manager

L'exemple suivant montre la commande scconf générée par scsetup lors de l'enregistrement d'un groupe de périphériques de disques VxVM modifié (dg1). Cet exemple suppose que le groupe de disques VxVM et le volume sont créés au préalable.


# scsetup
 
scconf -c -D name=dg1,sync

ProcedureSPARC : Configuration du nombre souhaité de nœuds secondaires (VERITAS Volume Manager)

La propriété numsecondaries définit le nombre de nœuds d'un groupe de périphériques qui peuvent contrôler le groupe en cas d'échec du nœud principal. Le nombre par défaut de nœuds secondaires pour les services de périphériques est un. La valeur peut être définie sur n'importe quel nombre entier compris entre un et le nombre de nœuds fournisseurs non principaux opérationnels dans le groupe de périphériques.

Ce paramètre est un facteur important dans l'équilibrage des performances et de la disponibilité des clusters. Par exemple, l'augmentation du nombre souhaité de nœuds secondaires accroît les chances de survie du groupe de périphériques face à plusieurs pannes survenant simultanément au sein d'un cluster. L'augmentation du nombre de nœuds secondaires réduit également les performances régulièrement au cours du fonctionnement normal. Un plus petit nombre de nœuds secondaires entraîne généralement une meilleure performance, mais réduit la disponibilité. Cependant, un plus grand nombre de nœuds secondaires n'entraîne pas toujours une meilleure disponibilité du système de fichiers ou du groupe de périphériques en question. Pour de plus amples informations, reportez-vous au Chapitre 3, Notions-clés destinées aux administrateurs système et aux développeurs d’applications du Guide des notions fondamentales de Sun Cluster pour SE Solaris.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Exécutez l'utilitaire scsetup(1M).


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Device groups and volumes).

    Le menu Device Groups apparaît.

  4. Pour modifier les propriétés clé d'un groupe de périphériques, entrez 6 (Change key properties of a device group).

    Le menu Change Key Properties apparaît.

  5. Pour modifier le nombre souhaité de nœuds secondaires, entrez 2 (Change the numsecondaries property).

    Suivez les instructions et entrez le nombre souhaité de nœuds secondaires à configurer pour le groupe de périphériques de disques. Une fois une valeur adéquate saisie, la commande scconf correspondante est exécutée. Par la suite, un journal est imprimé et l'utilisateur revient sur le menu précédent.

  6. Validez la configuration du groupe de périphériques à l'aide de la commande scconf -p.


    # scconf -p | grep Device
    Device group name:                          dg-schost-1
    Device group type:                          VxVM
    Device group failback enabled:              yes
    Device group node list:                     phys-schost-1,phys-schost-2, phys-schost-3
    Device group ordered node list:             yes
    Device group desired number of secondaries: 1
    Device group diskset name:                  dg-schost-1

    Remarque –

    si vous modifiez des informations de configuration d'un groupe de disques ou d'un volume VxVM, vous devez réenregistrer le groupe de périphériques de disques via la commande scsetup. Ces modifications de configuration comprennent l'ajout ou la suppression de volumes, ainsi que la modification de groupe, de propriétaire ou d'autorisations de volumes existants. Le réenregistrement après des modifications de configuration assure que l'espace de noms global est à l'état correct. Reportez-vous à la section Mise à jour de l'espace de noms de périphériques globaux.


  7. Vérifiez le nœud principal et le statut du groupe de périphériques de disques.


    # scstat -D
    

Exemple 4–7 SPARC : Définition du nombre souhaité de nœuds secondaires (VERITAS Volume Manager)

L'exemple suivant montre la commande scconf générée par scsetup lors de la configuration du nombre souhaité de nœuds secondaires pour un groupe de périphériques (diskgrp1). Pour en savoir plus sur la manière de modifier le nombre souhaité de nœuds secondaires après avoir créé un groupe de périphériques, consultez la section Modification du nombre désiré de nœuds secondaires pour un groupe de périphériques.


# scconf -a -D type=vxvm,name=diskgrp1,nodelist=host1:host2:host3\ 
,preferenced=true,failback=enabled,numsecondaries=2
 

ProcedureSPARC : Suppression d'un volume d'un groupe de périphériques de disques (VERITAS Volume Manager)


Remarque –

Après avoir supprimé le volume du groupe de périphériques de disques, vous devez enregistrer les modifications de la configuration du groupe de périphériques de disques par la procédure SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez le nœud principal et le statut du groupe de périphériques de disques.


    # scstat -D
    
  3. Si le groupe de périphériques de disques est hors ligne, mettez-le en ligne.


    # scswitch -z -D disk-device-group  -h node
    
    -z

    Effectue le transfert.

    -D groupe_périphériques_disques

    Définit le groupe de périphériques à transférer.

    -h nœud

    Indique le nom du nœud qui doit devenir le nouveau nœud principal. Ce nœud devient le nouveau nœud principal.

  4. À partir du nœud principal (celui qui est actuellement maître du groupe de périphériques de disques), supprimez le volume VxVM dans le groupe de disques.


    # vxedit -g diskgroup -rf rm volume
    
    -g groupe_disques

    Indique le groupe de disques VxVM qui contient le volume.

    -rf rm volume

    Supprime le volume indiqué. L'option -r rend l'opération récursive. L'option -f est requise pour supprimer un volume activé.

  5. Vous devez enregistrer les modifications de configuration apportées au groupe de périphériques de disques afin de mettre à jour l'espace de noms global. Pour ce faire, utilisez scsetup(1M).

    Reportez-vous à la section SPARC : enregistrement des modifications de configuration des groupes de disques (VERITAS Volume Manager).

ProcedureSPARC : suppression et annulation de l'enregistrement d'un groupe de périphériques de disques (VERITAS Volume Manager)

Si vous supprimez un groupe de périphériques de disques Sun Cluster le groupe de disques VxVM correspondant sera déplacé et non supprimé. Toutefois, même si le groupe de disques VxVM existe toujours, il ne peut être utilisé dans le cluster que s'il est à nouveau enregistré.

Cette procédure fait appel à l'utilitaire scsetup(1M) pour supprimer un groupe de disques VxVM et annuler son enregistrement comme groupe de périphériques de disques Sun Cluster.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Mettez le groupe de périphériques de disques hors ligne.


    # scswitch -F -D disk-device-group
    
    -F

    Met le groupe de périphériques de disques hors ligne.

    -D groupe_périphériques_disques

    Définit le groupe de périphériques à mettre hors ligne.

  3. Lancez l'utilitaire scsetup.

    Le menu principal apparaît.


    # scsetup
    
  4. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Volumes et groupes de périphériques).

    Le menu Device Groups apparaît.

  5. Pour annuler l'enregistrement d'un groupe de disques VxVM, entrez 3 (Unregister a VxVM device group).

    Suivez les instructions et indiquez le groupe de disques VxVM dont vous souhaitez annuler l'enregistrement.


Exemple 4–8 SPARC : Suppression et annulation de l'enregistrement d'un groupe de périphériques de disques VERITAS Volume Manager

L'exemple suivant illustre la mise hors ligne du groupe de périphériques de disques VxVM dg1, ainsi que la commande scconf générée par scsetup lors de la suppression et de l'annulation de l'enregistrement du groupe de périphériques de disques.


# scswitch -F -D dg1
# scsetup

   scconf -r -D name=dg1

ProcedureSPARC : ajout d'un nœud à un groupe de périphériques de disques (VERITAS Volume Manager)

Cette procédure permet d'ajouter un nœud à un groupe de périphériques de disques à l'aide de l'utilitaire scsetup(1M).

Les conditions d'ajout d'un nœud à un groupe de périphériques de disques VxVM sont les suivantes :

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. À l'invite, entrez la commande scsetup.


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques VxVM, entrez 4 (Device groups and volumes).

    Le menu Device Groups apparaît.

  4. Pour ajouter un nœud à un groupe de périphériques de disques VxVM, entrez 4 (Ajouter un nœud à un groupe de périphériques VxVM).

    Suivez les instructions et entrez le nom du groupe de périphériques et du nœud.

  5. Vérifiez que le nœud a bien été ajouté.

    Consultez les informations de groupe de périphériques relatives au nouveau disque, affichées à l'aide de la commande suivante :


    # scconf -p 
    

Exemple 4–9 SPARC : Ajout d'un nœud à un groupe de périphériques de disques VERITAS Volume Manager

L'exemple suivant illustre la commande scconf générée par scsetup lors de l'ajout d'un nœud (phys-schost-3) à un groupe de périphériques de disques VxVM (dg1), ainsi que la procédure de vérification.


# scsetup
 
scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3
  
# scconf -p
Device group name:                dg1
   Device group type:             VXVM
   Device group failback enabled: yes
   Device group node list:        phys-schost-1, phys-schost-3

ProcedureSPARC : suppression d'un nœud d'un groupe de périphériques de disques (VERITAS Volume Manager)

Cette procédure permet de supprimer un nœud de cluster de la liste des nœuds principaux potentiels dans un groupe de périphériques de disques (groupe de disques) VERITAS Volume Manager (VxVM).

Étapes
  1. Vérifiez si le nœud fait toujours partie du groupe et si le groupe est un groupe de périphériques VxVM.

    Le type de groupe de périphériques VxVM indique un groupe de périphériques de disques VxVM.


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Device group type:              VxVM
      (global-galileo) Device group failback enabled:  no
      (global-galileo) Device group node list:         phys-schost-1, phys-schost-2
      (global-galileo) Diskset name:                   global-galileo
    phys-schost-1%
  2. Devenez superutilisateur sur un nœud étant actuellement membre de cluster.

  3. Exécutez la commande scsetup(1M).


    # scsetup
    

    Le menu principal apparaît.

  4. Pour reconfigurer un groupe de périphériques de disques, entrez 4 (Device groups and volumes).

  5. Pour supprimer le nœud du groupe de périphériques de disques VxVM, entrez 5 (Supprimer un nœud d'un groupe de périphériques VxVM).

    Suivez les indications à l'écran pour supprimer le nœud du cluster du groupe de périphériques de disques. Vous devrez fournir des informations sur les points suivants :

    • groupe de périphérique VxVM ;

    • Nom du nœud

  6. Vérifiez que le nœud a bien été supprimé du (des) groupe(s) de périphériques de disques VxVM.


    # scconf -p | grep Device
    

Exemple 4–10 SPARC : Suppression d'un nœud d'un groupe de périphériques de disques (VxVM)

Cet exemple montre la suppression du nœud qui a pour nom phys-schost-1 du groupe de périphériques de disques dg1 VxVM.


[Determine the VxVM disk device group for the node:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group diskset name:    	dg1
[Become superuser and execute the scsetup utility:]
# scsetup
 Select Device groups and volumes>Remove a node from a VxVM device group.

Answer the questions when prompted. 
You will need the following information.
  You Will Need:            Example:
  VxVM device group name    dg1
  node names                phys-schost-1

[Verify that the scconf command executed properly:] 
scconf -r -D name=dg1,nodelist=phys-schost-1
 
    Command completed successfully.
Quit the scsetupDevice Groups Menu and Main Menu.
[Verify that the node was removed:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-2
    Device group diskset name:    	dg1

ProcedureSPARC : suppression d'un nœud d'un groupe de périphériques de disques bruts

Cette procédure permet de supprimer un nœud de cluster dans la liste des nœuds principaux potentiels d'un groupe de périphériques de disques (groupe de disques) VERITAS Volume Manager (VxVM).

Utilisez cette procédure pour supprimer un nœud de cluster de la liste de nœuds principaux potentiels d'un groupe de périphériques de disques bruts.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster autre que le nœud à supprimer.

  2. Identifiez les groupes de périphériques de disques connectés au nœud en cours de suppression.

    Recherchez le nom du nœud dans l'entrée Device group node list.


    # scconf -pvv | grep nodename | grep "Device group node list"
    
  3. Déterminez quels groupes de périphériques de disques identifiés à l'étape 2 sont des groupes de périphériques de disques bruts.

    Les groupes d'unités de disques brutes appartiennent au type de groupe d'unités Disk ou Local_Disk.


    # scconf -pvv | grep group-type
    
  4. Désactivez les propriétés localonly de chaque groupe d'unités de disques brutes Local_Disk.


    # scconf -c -D name=rawdisk-device-group,localonly=false
    

    Pour de plus amples informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

  5. Vérifiez que vous avez bien désactivé la propriété localonly de tous les groupes de périphériques de disques bruts connectés au nœud en cours de suppression.

    Le type de groupe d'unités Disk indique que la propriété localonly est désactivée pour le groupe d'unités de disques brutes.


    # scconf -pvv | grep group-type 
    
  6. Supprimez le nœud de tous les groupes de périphériques de disques bruts identifiés à l'Étape 3.

    Cette opération doit être effectuée pour chaque groupe de périphériques de disques bruts connecté au nœud à supprimer.


    # scconf -r -D name=rawdisk-device-group,nodelist=nodename
    

Exemple 4–11 SPARC : Suppression d'un nœud d'un groupe de périphériques de disques bruts

Cet exemple montre comment supprimer un nœud (phys-schost-2) d'un groupe de périphériques de disques bruts. Toutes les commandes sont exécutées à partir d'un autre nœud du cluster (phys-schost-1).


[Identify the disk device groups connected to the node being removed:]
phys-schost-1# scconf -pvv | grep phys-schost-2 | grep "Device group node list"
	(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2
[Identify the raw disk device groups:]
phys-schost-1# scconf -pvv | grep Disk
	(dsk/d4) Device group type:          Local_Disk
	(dsk/d8) Device group type:          Local_Disk
[Disable the localonly flag for each local disk on the node:]
phys-schost-1# scconf -c -D name=dsk/d4,localonly=false
[Verify that the localonly flag is disabled:]
phys-schost-1# scconf -pvv | grep Disk 
    (dsk/d4) Device group type:          Disk
    (dsk/d8) Device group type:          Local_Disk
[Remove the node from all raw disk device groups:]
phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2

phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2

phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2

ProcedureModification des propriétés des périphériques de disques

La méthode qui permet d'établir la propriété principale d'un groupe de périphériques de disques consiste à configurer un attribut de préférence de propriété appelé preferenced. Si cet attribut n'est pas défini, le propriétaire principal d'un groupe de périphériques de disques n'en ayant pas autrement est le premier nœud qui tente d'accéder à un disque de ce groupe. Toutefois, si cet attribut est défini, vous devez spécifier l'ordre dans lequel vous préférez que les nœuds tentent d'établir la propriété.

Si vous désactivez l'attribut preferenced, vous désactivez automatiquement l'attribut failback. Toutefois, si vous tentez d'activer ou de réactiver l'attribut preferenced , vous pouvez soit activer, soit désactiver l'attribut failback.

Si l'attribut preferenced est activé ou réactivé, vous êtes invité à rétablir l'ordre des nœuds dans la liste des préférences de propriétaire principal.

Cette procédure fait appel à scsetup(1M) pour activer ou désactiver l'attribut preferenced et l'attribut failback pour les groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager ou VxVM.

Pour exécuter cette procédure, vous devez connaître le nom du groupe de périphériques de disques pour lequel vous changez les valeurs des attributs.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Exécutez la commande scsetup.

    Le menu principal apparaît.


    # scsetup
    
  3. Pour utiliser des groupes de périphériques de disques, entrez 4 (Volumes et groupes de périphériques).

    Le menu Device Groups apparaît.

  4. Pour modifier les propriétés clés d'un groupe de périphériques, entrez 6 (Change key properties of a VxVM or Solstice DiskSuite/Solaris Volume Manager device group).

    Le menu Change Key Properties apparaît.

  5. Pour modifier la propriété d'un groupe de périphériques, entrez 1 (Modifier les propriétés de prédilection et/ou de rétablissement).

    Suivez les instructions pour définir les options preferenced et failback d'un groupe d'unités.

  6. Vérifiez que les attributs du groupe de périphériques de disques ont bien été changés.

    Consultez les informations de groupe de périphériques, affichées à l'aide de la commande suivante.


    # scconf -p 
    

Exemple 4–12 Changement des propriétés des groupes de périphériques de disques

L'exemple suivant montre la commande scconf générée par l'utilitaire scsetup lorsqu'il définit les attributs d'un groupe de périphériques de disques (dg-schost-1).


# scconf  -c -Dname=dg-schost-1,nodelist=phys-schost-1:phys-schost-2, \
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phys-schost-2
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

ProcedureModification du nombre désiré de nœuds secondaires pour un groupe de périphériques

Le nombre par défaut de nœuds secondaires pour un groupe de périphériques est défini sur un. Ce paramètre spécifie le nombre de nœuds au sein d'un groupe de périphériques pouvant devenir le propriétaire principal du groupe si le nœud principal connaît une défaillance. Le nombre souhaité de valeurs secondaires peut être défini sur n'importe quel nombre entier compris entre un et le nombre de nœuds fournisseurs non principaux dans le groupe de périphériques.

Si la propriété numsecondaries est modifiée, des nœuds secondaires sont ajoutés au groupe de périphériques ou en sont supprimés, si la modification entraîne un défaut d'assortiment entre le nombre réel et le nombre souhaité.

Cette procédure utilise scsetup(1M) pour activer ou désactiver la propriété numsecondaries des groupes de périphériques de disques Solstice DiskSuite/Solaris Volume Manager ou VxVM. Pour de plus amples informations sur les options du groupe de périphériques de disques disponibles lors de la configuration d'un périphérique, reportez-vous aux documents scconf_dg_rawdisk(1M), scconf_dg_sds(1M), scconf_dg_svm(1M) et scconf_dg_vxvm(1M).

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Exécutez l'utilitaire scsetup.


    # scsetup
    

    Le menu principal apparaît.

  3. Pour utiliser des groupes de périphériques de disques, entrez 5 (Device groups and volumes).

    Le menu Device Groups apparaît.

  4. Pour modifier les propriétés clé d'un groupe de périphériques, entrez 6 (Change key properties of a device group).

    Le menu Change Key Properties apparaît.

  5. Pour modifier le nombre souhaité de nœuds secondaires, entrez 2 (Change the numsecondaries property).

    Suivez les instructions et entrez le nombre souhaité de nœuds secondaires à configurer pour le groupe de périphériques de disques. Après qu'une valeur adéquate a été saisie, la commande scconf correspondante est exécutée, un journal est imprimé et l'utilisateur revient sur le menu précédent.

  6. Vérifiez que l'attribut du groupe de périphériques de disques a bien été changé.

    Consultez les informations de groupe de périphériques s'affichant à l'aide de la commande suivante :


    # scconf -p 
    

Exemple 4–13 Modification du nombre souhaité de nœuds secondaires

L'exemple suivant montre la commande scconf générée par scsetup lors de la configuration du nombre souhaité de nœuds secondaires pour un groupe de périphériques (dg-schost-1). Cet exemple suppose que le groupe de disques et le volume sont créés au préalable.


# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3 \
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS/SVM
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phys-scost-2, phys-schost-3 
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

L'exemple suivant utilise une valeur de chaîne nulle pour configurer le nombre de nœuds secondaires par défaut. Le groupe de périphériques sera configuré pour utiliser la valeur par défaut, même si la valeur par défaut change.


# scconf -c -D name=diskgrp1, nodelist=host1:host2:host3, \
preferenced=false,failback=enabled,numsecondaries= 
 # scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS/SVM
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phost-2, phys-schost-3
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

ProcedureAffichage de la configuration d'un groupe de périphériques de disques

Vous n'avez pas besoin d'être superutilisateur pour afficher la configuration.

Étape

    Utilisez l'une des méthodes de la liste suivante.

    • Utilisation de l'interface de SunPlex Manager.

      Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.

    • Utilisation de scstat(1M).


      % scstat -D
      
    • Utilisation de scconf(1M).


      % scconf -p
      

Exemple 4–14 Affichage de la configuration d'un groupe de périphériques de disques à l'aide de la commande scstat

L'utilisation de la commande scstat -D affiche les informations suivantes :


-- Device Group Servers --
                         Device Group           Primary             Secondary
                         ------------           -------             ---------
  Device group servers:  phys-schost-2          -                   -
  Device group servers:  phys-schost-1          phys-schost-2       phys-schost-3
  Device group servers:  phys-schost-3          -                   -
-- Device Group Status --
                              Device Group          Status              
                              ------------          ------              
  Device group status:        phys-schost-2          Offline
  Device group status:        phys-schost-1          Online
  Device group status:        phys-schost-3          Offline


Exemple 4–15 Affichage de la configuration d'un groupe de périphériques de disques à l'aide de la commande scconf

Lorsque vous utilisez la commande scconf, prenez connaissance des informations répertoriées sous les groupes de périphériques.


# scconf -p
...
Device group name: dg-schost-1
	Device group type:              SDS/SVM
	Device group failback enabled:  yes
	Device group node list:         phys-schost-2, phys-schost-3
	Device group diskset name:      dg-schost-1

ProcedureChangement de nœud principal pour un groupe de périphériques

Cette procédure permet également de faire démarrer (mettre en ligne) un groupe de périphériques inactif.

Vous pouvez également utiliser l'interface graphique utilisateur de SunPlex Manager pour mettre en ligne un groupe de périphériques inactif ou transférer le nœud principal d'un groupe de périphériques. Pour de plus amples informations, reportez-vous à l'aide en ligne de SunPlex Manager.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Utilisez scswitch(1M) pour changer le nœud principal d'un groupe de périphériques de disques.


    # scswitch -z -D disk-device-group -h node
    
    -z

    Effectue le transfert.

    -D groupe_périphériques_disques

    Définit le groupe de périphériques à transférer.

    -h nœud

    Indique le nom du nœud qui doit devenir le nouveau nœud principal. Ce nœud devient le nouveau nœud principal.

  3. Vérifiez que le groupe de périphériques de disques est bien passé au nouveau nœud principal.

    Si le groupe de périphériques de disques est correctement enregistré, les informations relatives au nouveau groupe de périphériques de disques s'affichent lorsque vous utilisez la commande suivante :


    # scstat -D
    

Exemple 4–16 Changement de l'élément principal d'un groupe de périphériques de disques

L'exemple suivant montre comment changer de nœud principal pour un groupe de périphériques de disques et vérifier que la modification a réussi.


# scswitch -z -D dg-schost-1 -h phys-schost-1

# scstat -D

-- Device Group Servers --
                          Device Group               Primary             Secondary
                         ------------                -------             ---------
Device group servers:    dg-schost-1                 phys-schost-1       phys-schost-2
 
-- Device Group Status --
                                Device Group              Status              
                              ------------                ------              
  Device group status:        dg-schost-1                 Online

ProcedureMise à l'état de maintenance d'un groupe de périphériques de disques

La mise à l'état de maintenance d'un groupe de périphériques de disques empêche que ce groupe de périphériques ne soit automatiquement mis en ligne à chaque accès à un de ses périphériques. Placez un groupe de périphériques à l'état de maintenance lorsque vous terminez des procédures de réparation qui exigent l'acceptation de toute activité d'E/S jusqu'à la fin de la réparation. La mise à l'état de maintenance d'un groupe de périphériques contribue également à éviter la perte de données en empêchant un groupe de périphériques de disques d'être mis en ligne sur un nœud alors que l'ensemble de disques ou le groupe de disques est en cours de réparation sur un autre nœud.


Remarque –

pour pouvoir mettre à l'état de maintenance un groupe de périphériques, vous devez bloquer tout accès à ses périphériques et démonter tous les systèmes de fichiers qui en dépendent.


Étapes
  1. Mettez le groupe de périphériques à l'état de maintenance.


    # scswitch -m -D disk-device-group
    
  2. Si la procédure de réparation exécutée exige la propriété d'un jeu ou d'un groupe de disques, importez celui-ci manuellement.

    Pour Solstice DiskSuite/Solaris Volume Manager :


    # metaset -C take -f -s diskset
    

    Attention – Attention –

    Pour définir la propriété d'un jeu de disques Solstice DiskSuite/Solaris Volume Manager, vous devez impérativement utiliser la commande metaset -C take lorsque le groupe de périphériques est au statut de maintenance. L'utilisation de metaset -t met le groupe de périphériques en ligne et vous en accorde la propriété. Si vous importez un groupe de disques VxVM, utilisez l'indicateur -t lors de l'importation du groupe de disques. Cet indicateur évite l'importation automatique du groupe de disques en cas de réinitialisation de ce nœud.


    Pour VERITAS Volume Manager :


    # vxdg -t import disk-group-name
    
  3. Achevez la procédure de réparation requise.

  4. Libérez la propriété de l'ensemble de disques ou du groupe de disques.


    Attention – Attention –

    avant de sortir un groupe de périphériques de disques de l'état de maintenance, vous devez libérer la propriété du jeu de disques ou du groupe de disques. Si vous ne le faites pas, vous risquez de perdre des données.


    • Pour Solstice DiskSuite/Solaris Volume Manager :


      # metaset -C release -s diskset
      
    • Pour VERITAS Volume Manager :


      # vxdg deport disk-group-name
      
  5. Mettez le groupe de périphériques de disques en ligne.


    # scswitch -z -D disk-device-group -h node
    

Exemple 4–17 Attribution du statut de maintenance à un groupe de périphériques de disques

L'exemple suivant montre comment placer le groupe d'unités de disque dg-schost-1 à l'état de maintenance et l'en sortir.


[Place the disk device group in maintenance state.]
# scswitch -m -D dg-schost-1
 
[If needed, manually import the disk set or disk group.]
For Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C take -f -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg -t import dg1
  
[Complete all necessary repair procedures.]
  
[Release ownership.]
For Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C release -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg deport dg1
  
[Bring the disk device group online.]
# scswitch -z -D dg-schost-1 -h phys-schost-1

Administration des systèmes de fichiers d'un cluster

Le système de fichiers du cluster est un système de fichiers globalement disponible qui peut être lu et est accessible à partir de n'importe quel nœud du cluster.

Tableau 4–3 Plan des tâches : Administration des systèmes de fichiers d'un cluster

Tâche 

Pour les instructions, voir... 

Ajout de systèmes de fichiers de cluster après l'installation initiale de Sun Cluster 

- Utilisez les commandes newfs(1M) et mkdir

Ajout d'un système de fichiers de cluster

Suppression d'un système de fichiers de cluster 

- Utilisez les commandes fuser(1M) et umount(1M)

Suppression d'un système de fichiers du cluster

Vérification de la cohérence des points de montage globaux d'un cluster sur les différents nœuds 

- Utilisez la commande sccheck(1M)

Vérification des montages globaux dans un cluster

ProcedureAjout d'un système de fichiers de cluster

Effectuez cette tâche pour chaque système de fichiers de cluster créé après l'installation initiale de Sun Cluster.


Attention – Attention –

Assurez-vous d'avoir indiqué le nom correct du périphérique de disques. La création d'un système de fichiers de cluster détruit toutes les données présentes sur les disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.


Pour ajouter un système de fichiers de cluster supplémentaire, les conditions suivantes doivent être remplies :

Si vous avez utilisé SunPlex Manager pour installer des services de données, un ou plusieurs systèmes de fichiers du cluster existent déjà si le nombre de disques partagés existants était suffisant pour y créer ces systèmes.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.


    Astuce –

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  2. Créez un système de fichiers à l'aide de la commande newfs.


    Remarque –

    la commande newfs n'est valide que pour la création de systèmes de fichiers UFS. Pour créer un système de fichiers VxFS, suivez les procédures décrites dans la documentation de votre VxFS.



    # newfs raw-disk-device
    

    Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Si votre gestionnaire de volume est … 

    Un périphérique de disques peut porter le nom … 

    Description 

    Solstice DiskSuite/Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    Périphériques de disques bruts d1 dans le jeu de disques oracle.

    SPARC : VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Périphériques de disques bruts vol01 dans le groupe de disques oradg.

    Aucun 

    /dev/global/rdsk/d1s3

    Unité de disque brute de tranche de bloc d1s3.

  3. Sur chaque nœud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Un point de montage est requis sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.


    Astuce –

    pour vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers de cluster, disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/device-group mountpoint
    
    groupe_unité

    Nom du répertoire correspondant au nom du groupe de périphériques contenant le périphérique en question.

    point_montage

    Nom du répertoire sur lequel vous devez monter le système de fichiers du cluster.

  4. Sur chaque nœud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.

    1. Utilisez les options de montage obligatoires suivantes.


      Remarque –

      l'option logging est requise pour tous les systèmes de fichiers de cluster.


      • Journalisation UFS Solaris – utilisez les options de montage global,logging. Pour de plus amples informations sur les options de montage UFS, reportez-vous à la page de manuel mount_ufs(1M).


        Remarque –

        l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster UFS. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme à POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. En effet, le fait de ne pas spécifier syncdir, peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, la situation d'espace insuffisant ne se présente qu'à la fermeture d'un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


      • Métapériphérique Trans ou volume de transaction Solstice DiskSuite/Solaris Volume Manager– utilisez l'option de montage global (n'utilisez pas l'option de montage logging). Pour de plus amples informations sur la configuration du métapériphérique Trans et des volumes de transaction, reportez-vous à votre documentation Solstice DiskSuite/Solaris Volume Manager.


        Remarque –

        Les volumes de transaction sont programmés pour être supprimés du système d'exploitation Solaris dans une prochaine version de Solaris. Solaris UFS logging, disponible depuis la version 8 de Solaris, fournit les mêmes capacités mais des performances supérieures, ainsi que des exigences moindres en termes de dépassement et d'administration de système.


      • Consignation VxFS – utilisez les options de montage global, et log. Reportez-vous à la page man mount_vxfs accompagnant le logiciel VxFS pour de plus amples informations.

    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs qu'une fois que phys-schost-1 a démarré et monté /global/oracle.

    Reportez-vous à la page de manuel vfstab(4) pour de plus amples informations.

  5. À partir d'un nœud quelconque du cluster, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds de la grappe.


    # sccheck
    

    Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  6. À partir de n'importe quel nœud du cluster, montez le système de fichiers du cluster.


    # mount /global/device-group mountpoint
    
  7. Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df ou mount pour afficher la liste des systèmes de fichiers montés.

    Pour gérer un système de fichiers de cluster VxFS en environnement Sun Cluster, exécutez les commandes administratives à partir du nœud principal sur lequel est monté le système de fichiers du cluster VxFS.


Exemple 4–18 Ajout d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers UFS sur le métapériphérique Solstice DiskSuite/Solaris Volume Manager ou le volume /dev/md/oracle/rdsk/d1.


# newfs /dev/md/oracle/rdsk/d1
...
 
[on each node:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[save and exit]
 
[on one node:]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
on Sun Oct 3 08:56:16 2001

ProcedureSuppression d'un système de fichiers du cluster

Pour supprimer un système de fichiers de cluster, il suffit de le démonter. Si vous souhaitez également supprimer ou effacer les données, retirez du système le périphérique de disques sous-jacent (ou le métapériphérique ou volume).


Remarque –

Les systèmes de fichiers de cluster sont automatiquement démontés lors de l'arrêt du système qui survient lorsque vous exécutez scshutdown(1M) pour arrêter l'ensemble du cluster. Lorsque vous exécutez la commande shutdown, qui arrête seulement un nœud individuel, le système de fichiers de cluster n'est pas démonté. Si, toutefois, le nœud arrêté est le seul nœud connecté au disque, toute tentative d'accès au système de fichiers du cluster sur ce disque entraîne une erreur.


Pour démonter des systèmes de fichiers de cluster, les conditions suivantes doivent être remplies :

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez quels sont les systèmes de fichiers de cluster montés.


    # mount -v
    
  3. Sur chaque nœud, répertoriez tous les processus utilisant le système de fichiers du cluster afin de déterminer quels seront ceux que vous allez arrêter.


    # fuser -c [ -u ] mountpoint
    
    -c

    Indique les fichiers qui sont des points de montage pour les systèmes de fichiers et répertorie tous les fichiers de ces systèmes de fichiers montés.

    -u

    (Facultatif) Affiche le nom d'utilisateur correspondant à chaque ID de processus.

    point_montage

    Indique le nom du système de fichiers du cluster dont vous souhaitez arrêter les processus.

  4. Sur chaque nœud, arrêtez tous les processus pour le système de fichiers du cluster.

    Utilisez la méthode de votre choix pour arrêter les processus. Si nécessaire, utilisez la commande suivante pour forcer l'arrêt des processus associés au système de fichiers du cluster :


    # fuser -c -k mountpoint
    

    Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers du cluster.

  5. Sur chaque nœud, vérifiez qu'aucun processus n'utilise le système de fichiers.


    # fuser -c mountpoint
    
  6. Démontez le système de fichiers à partir d'un seul nœud.


    # umount mountpoint
    
    point_montage

    Indique le nom du système de fichiers du cluster à démonter. Il peut s'agir du nom du répertoire dans lequel le système de fichiers du cluster est monté ou du chemin d'accès au nom du périphérique du système de fichiers.

  7. (Facultatif) Modifiez le fichier /etc/vfstab afin d'effacer l'entrée correspondant au système de fichiers du cluster en cours de suppression.

    Effectuez cette opération sur chaque nœud de cluster comportant une entrée pour ce système de fichiers dans le fichier /etc/vfstab.

  8. (Facultatif) Supprimez le périphérique de disque group/metadevice/volume/plex .

    Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.


Exemple 4–19 Suppression d'un système de fichiers de cluster

L'exemple suivant supprime un système de fichiers de cluster UFS monté sur le périphérique Solstice DiskSuite/Solaris Volume Manager ou le volume/dev/md/oracle/rdsk/d1.


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(on each node, remove the highlighted entry:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[Save and exit.]

pour supprimer les données du système de fichiers du cluster, vous devez supprimer le périphérique sous-jacent. Pour de plus amples informations, reportez-vous à la documentation de votre gestionnaire de volumes.


ProcedureVérification des montages globaux dans un cluster

L'utilitaire sccheck(1M) vérifie la syntaxe des entrées des systèmes de fichiers du cluster dans le fichier /etc/vfstab . Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.


Remarque –

exécutez la commande sccheck si vous avez apporté à la configuration du cluster des modifications ayant une incidence sur les périphériques ou les composants de gestion des volumes, par exemple la suppression d'un système de fichiers du cluster.


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Vérifiez les montages globaux du cluster.


    # sccheck
    

administration du contrôle de chemins de disques

Les commandes d'administration du contrôle de chemins de disques (CCD) vous permettent de recevoir les notifications d'échecs secondaires de chemins de disques. Les procédures de cette rubrique vous permettront d'exécuter les tâches administratives associées au contrôle de chemins de disques. Pour obtenir des informations générales sur le démon de contrôle des chemins de disques, reportez-vous au Chapitre 3, Notions-clés destinées aux administrateurs système et aux développeurs d’applications du Guide des notions fondamentales de Sun Cluster pour SE Solaris. Reportez-vous à la page de manuel scdpm(1M) pour obtenir une description des options de commandes de scdpm et des commandes connexes. Reportez-vous à la page de manuel syslogd(1M) pour les erreurs enregistrées rapportées par le démon.


Remarque –

les chemins de disques sont automatiquement ajoutés à la liste de contrôle lorsque des périphériques d'E/S sont ajoutés à un nœud à l'aide des commandes scgdevs ou scdidadm. Le contrôle de chemins de disques est également automatiquement désactivé lorsque des périphériques sont supprimés d'un nœud à l'aide des commandes Sun Cluster.


Tableau 4–4 Plan des tâches : administration du contrôle de chemins de disques

Tâche 

Instructions 

Contrôler un chemin de disque à l'aide de la commande scdpm

Contrôle d'un chemin de disque

Désactiver le contrôle d'un chemin de disque à l'aide de la commande scdpm

Annulation du contrôle d'un chemin de disque

Imprimer le statut des chemins de disques erronés pour un nœud à l'aide de la commande scdpm

Impression des chemins de disques erronés

Activer ou désactiver le contrôle de chemins de disques à l'aide de scdpm -f

Contrôle de chemins de disques à partir d'un fichier

Les procédures de la rubrique suivante utilisent la commande scdpm avec l'argument du chemin de disque. Celui-ci est toujours constitué d'un nom de nœud et d'un nom de disque. Le nom de nœud n'est pas requis et est défini par défaut sur all s'il n'est pas spécifié. Le tableau suivant décrit les conventions utilisées pour les noms de chemins de disques.


Remarque –

l'utilisation du nom de chemin de disque global est fortement recommandé, car il est cohérent dans l'intégralité du cluster. Le nom de chemin de disque UNIX ne l'est pas, le chemin de disque UNIX d'un disque peut varier d'un nœud de cluster à l'autre. Il peut par exemple être c1t0d0 sur un nœud, et c2t0d0 sur un autre. Si vous utilisez des noms de chemins de disques UNIX, utilisez la commande scdidadm -L pour les mapper sur les noms de chemins de disques globaux avant d'utiliser des commandes de CCD. Reportez-vous à la page de manuel scdidadm(1M).


Tableau 4–5 Exemples de noms de chemins de disques

Type de nom 

Exemple de nom de chemin de disque 

Description 

Chemin de disque global 

phys-schost-1:/dev/did/dsk/d1

Chemin de disque d1 sur le nœud phys-schost-1

all:d1

Chemin de disque d1 sur tous les nœuds du cluster

Chemin de disque UNIX  

phys-schost-1:/dev/rdsk/c0t0d0s0

Chemin de disque c0t0d0s0 sur le nœud phys-schost-1

phys-schost-1:all

Tous les chemins de disques sur tous les nœuds du cluster 

ProcedureContrôle d'un chemin de disque

Exécutez cette tâche pour effectuer le contrôle des chemins de disques dans votre cluster.


Attention – Attention –

DPM n'est pas pris en charge sur les nœuds qui exécutent des versions antérieures à Sun Cluster 3.1 10/03. N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Contrôlez un chemin de disque à l'aide de la commande scdpm.


    # scdpm -m node:disk path
    

    Reportez-vous aux conventions des noms des arguments de node:disk path.

  3. Assurez-vous que le chemin de disque est contrôlé.


    # scdpm -p node:all	     
    

Exemple 4–20 Contrôle d'un chemin de disque sur un nœud individuel

L'exemple suivant illustre le contrôle du chemin de disque schost-1:/dev/did/rdsk/d1 à partir d'un seul nœud. Sur le nœud schost-1, seul le démon de CCD effectue le contrôle du chemin d'accès au disque /dev/did/dsk/d1.


# scdpm -m schost-1:d1
# scdpm -p schost-1:d1
	     schost-1:/dev/did/dsk/d1   Ok


Exemple 4–21 Contrôle d'un chemin de disque sur tous les nœuds

L'exemple suivant illustre le contrôle du chemin de disque schost-1:/dev/did/dsk/d1 à partir de tous les nœuds. Le CCD démarre sur tous les nœuds pour lesquels /dev/did/dsk/d1 constitue un chemin valide.


# scdpm -m all:/dev/did/dsk/d1
# scdpm -p schost-1:d1
	     schost-1:/dev/did/dsk/d1   Ok	    


Exemple 4–22 Relecture de la configuration du disque à partir du CCR

L'exemple suivant illustre la procédure forçant le démon à relire la configuration du disque à partir du CCR, et imprimant les chemins de disques contrôlés et leurs statuts.


# scdpm -m all:all 
# scdpm -p all:all
		 schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d5   Unmonitored
	     schost-2:/dev/did/dsk/d6   Ok

ProcedureAnnulation du contrôle d'un chemin de disque

Cette procédure permet de désactiver le contrôle d'un chemin de disque.


Attention – Attention –

DPM n'est pas pris en charge sur les noeuds qui exécutent des versions antérieures à Sun Cluster 3.1 logiciel 10/03. N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Déterminez l'état du chemin de disque dont le contrôle doit être désactivé.


    # scdpm -p [all:] disk path
    
    -p

    Imprime une liste détaillée des statuts en cours d'un chemin de disque donné

    [:all]

    Affiche tous les chemins de disques contrôlés et non contrôlés

  3. Sur chaque nœud, désactivez le contrôle des chemins de disques appropriés.


    # scdpm -u  node:disk path
    

    Reportez-vous au Tableau 4–5 pour connaître les conventions d'appellation de l'argument node:disk path.


Exemple 4–23 Annulation du contrôle d'un chemin de disque

L'exemple suivant illustre la désactivation du contrôle du chemin de disque schost-2:/dev/did/rdsk/d1 et l'impression des chemins de disques et de leurs statuts pour l'ensemble du cluster.


# scdpm -u schost-2:/dev/did/rdsk/d1
# scdpm -p all:all 
	     schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d1   Unmonitored
	     schost-2:/dev/did/dsk/d6   Ok

ProcedureImpression des chemins de disques erronés

La procédure suivante permet d'imprimer les chemins de disques erronés pour un cluster.


Attention – Attention –

DPM n'est pas pris en charge sur les nœuds qui exécutent des versions antérieures à Sun Cluster 3.1 logiciel 10/03. N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Imprimez les chemins de disques erronés dans l'ensemble du cluster.


    # scdpm -p -F node:disk path
    

    Reportez-vous au Tableau 4–5 pour connaître les conventions d'appellation de l'argument node:disk path.


Exemple 4–24 Impression des chemins de disques erronés

La procédure suivante permet d'imprimer les chemins de disques erronés pour l'intégralité d'un cluster.


# scdpm -p -F [all:]all
		 schost-1:/dev/did/dsk/d4   Fail
	     schost-1:/dev/did/dsk/d3   Fail
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Fail
	     schost-2:/dev/did/dsk/d5   Fail
	     schost-2:/dev/did/dsk/d6   Fail

ProcedureContrôle de chemins de disques à partir d'un fichier

La procédure suivante permet d'effectuer ou de désactiver le contrôle de chemins de disques à partir d'un fichier. Le fichier doit répertorier les commandes de contrôle ou de désactivation du contrôle, les noms des nœuds et les noms des chemins de disques. Les champs du fichier doivent être séparés par une colonne. Formatez chaque liste en suivant l'exemple.


syntax in command file:
[u,m] [node|all]:<[/dev/did/rdsk/]d- | [/dev/rdsk/]c-t-d- | all>


command file entry
u schost-1:/dev/did/rdsk/d5
m schost-2:all

Attention – Attention –

DPM n'est pas pris en charge sur les nœuds qui exécutent des versions antérieures à Sun Cluster 3.1 logiciel 10/03. N'utilisez pas les commandes de CCD au cours d'une mise à niveau progressive. Lorsque tous les nœuds ont été mis à niveau, ils doivent être en ligne pour permettre l'utilisation des commandes de CCD.


Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Contrôlez les chemins de disques à partir d'un fichier.


    # scdpm -f filename
    
  3. Vérifiez les chemins de disques avec statuts pour le cluster.


    # scdpm -p all:all
    	    
    

Exemple 4–25 Contrôle ou désactivation du contrôle des chemins de disques à partir d'un fichier

L'exemple suivant illustre le contrôle ou la désactivation du contrôle de chemins de disques à partir d'un fichier.


# scdpm -f schost_config
# scdpm -p all:all 
	     schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d5   Unmonitored
	     schost-2:/dev/did/dsk/d6   Ok