Guide d'installation de Sun Cluster 3.0

Annexe A Configuration du logiciel Solstice DiskSuite

Configurez vos disques locaux et multihosts pour le logiciel Solstice DiskSuite en suivant les procédures décrites dans cette annexe et en utilisant les informations fournies dans le Chapitre 1. Reportez-vous à la documentation de Solstice DiskSuite pour plus de détails.

Les procédures décrites dans cette annexe sont les suivantes :

Configuration de Solstice DiskSuite pour les configurations Sun Cluster

Le tableau suivant répertorie les tâches à effectuer pour configurer le logiciel Solstice DiskSuite pour les configurations de Sun Cluster.

Tableau A-1 Plan des tâches : configuration de Solstice DiskSuite pour les configurations Sun Cluster

Tâche 

Pour les instructions, voir... 

Planification de la disposition de votre configuration Solstice DiskSuite. 

"Planification de la gestion des volumes"

"Exemple de configuration Solstice DiskSuite"

Calcul du nombre de noms de métapériphériques et d'ensembles de disques nécessaires à votre configuration et modification du fichier /kernel/drv/md.conf.

"Définition du nombre de noms de métapériphériques et d'ensembles de disques"

Création de répliques de la base de données d'état des métapériphériques sur les disques locaux. 

"Création de répliques de la base de données d'état des métapériphériques"

Facultatif. Mise en miroir des systèmes de fichiers sur le disque root.

"Mise en miroir du disque root"

Création d'ensembles de disques à l'aide de la commande metaset.

"Création d'un ensemble de disques"

Ajout de lecteurs de disques aux ensembles de disques. 

"Ajout de lecteurs à un ensemble de disques"

Repartitionnement des unités d'un ensemble de disques pour affecter de l'espaces aux tranches 1 à 6. 

"Repartitionnement de lecteurs dans un ensemble de disques"

Création d'une liste des correspondances des pseudo-pilotes d'ID de périphérique et définition des métapériphériques dans les fichiers /etc/lvm/md.tab.

"Création d'un fichier md.tab"

Initialisation des fichiers md.tab.

"Activation des métapériphériques"

Pour les configurations à double chaîne, configuration des hosts médiateurs, vérification de l'état des données du médiateur et, si nécessaire, correction des données de médiateur incorrectes. 

"Ajout d'hosts médiateurs" "Vérification de l'état des données du médiateur" "Correction des données du médiateur"

Création et montage de systèmes de fichiers de cluster. 

"Ajout de systèmes de fichiers de cluster"

Définition du nombre de noms de métapériphériques et d'ensembles de disques

Cette procédure décrit comment calculer la quantité de noms de métapériphériques nécessaires à votre configuration et comment modifier le fichier /kernel/drv/md.conf.


Astuce :

Par défaut, le nombre de noms de métapériphériques est de 128, mais de nombreuses configurations en ont besoin de davantage. Par conséquent, nous vous conseillons d'augmenter cette valeur dès à présent, avant d'appliquer une configuration.


  1. Calculez la quantité de noms de métapériphériques nécessaire en déterminant le plus grand nombre de métapériphériques à utiliser dans chaque ensemble de disques.

    Cette exigence est basée sur la valeur du nom du métapériphérique et non sur la quantité réelle. Par exemple, si vos noms de métapériphériques vont de d950 à d1000, le logiciel a besoin de 1000 noms, et non de 50.

    Le cluster peut avoir un maximum de 8192 noms de métapériphériques par ensemble de disques.

  2. Calculez le nombre total d'ensembles de disques prévus dans le cluster puis ajoutez-en un pour la gestion du disque privé.

    Le cluster peut avoir un maximum de 32 ensembles de disques.

  3. Editez le fichier /kernel/drv/md.conf.


    Attention : Attention :

    Tous les noeuds de cluster (ou paires de clusters dans la topologie de paires de clusters) doivent avoir les mêmes fichiers /kernel/drv/md.conf, quel que soit le nombre d'ensembles de disques desservis par chaque noeud. Le non-respect de cette règle peut entraîner des erreurs graves de Solstice DiskSuite et des pertes de données.


    1. Si la quantité calculée de noms de métapériphériques est supérieure à 128, réglez le champ nmd sur la valeur la plus importante des noms de métapériphériques utilisée dans un ensemble de disques.

    2. Réglez le champ md_nsets sur la quantité calculée à l'Étape 2.

    Les modifications apportées au fichier /kernel/drv/md.conf prennent effet après une réinitialisation de reconfiguration.

Etape suivante

Pour créer des répliques locales, reportez-vous à la section "Création de répliques de la base de données d'état des métapériphériques".

Création de répliques de la base de données d'état des métapériphériques

Suivez cette procédure sur chaque noeud du cluster.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Créez des répliques sur un ou plusieurs disques locaux pour chaque noeud de cluster à l'aide de la commande metadb(1M).

    Reportez-vous à la page de manuel metadb(1M) et à la documentation de Solstice DiskSuite pour plus de détails.


    Astuce :

    Pour protéger les données d'état des métapériphériques et exécuter le logiciel Solstice DiskSuite, créez au moins trois répliques pour chaque noeud. Vous pouvez également placer des répliques sur plusieurs disques pour protéger les données en cas de panne d'un des disques.


  3. Vérifiez les répliques.


    # metadb
    

Exemple : création de répliques de la base de données d'état des métapériphériques

L'exemple suivant présente trois répliques de la base de données d'état des métapériphériques, créées chacune sur un disque différent.


# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7

# metadb

flags            first blk      block count

    a       u       16            1034         /dev/dsk/c0t0d0s7

    a       u       1050          1034         /dev/dsk/c0t1d0s7

    a       u       2084          1034         /dev/dsk/c1t0d0s7

Etape suivante

Si vous souhaitez mettre en miroir des systèmes de fichiers sur le disque root, reportez-vous à la section "Mise en miroir du disque root". Dans le cas contraire, pour créer des ensembles de disques de Solstice DiskSuite, reportez-vous à la section "Création d'un ensemble de disques".

Mise en miroir du disque root

La mise en miroir du disque root permet d'éviter que le noeud du cluster lui-même ne s'arrête en cas de panne du disque système. Quatre types de systèmes de fichiers peuvent résider sur le disque root. Chaque type de système de fichiers est mis en miroir selon une méthode différente.

Suivez les procédures ci-dessous pour mettre en miroir chaque type de système de fichiers.


Remarque :

Certaines étapes de ces procédures de mise en miroir peuvent générer un message d'erreur similaire à celui-ci, que vous pouvez ignorer sans risque.



metainit: dg-schost-1: d1s0: not a metadevice

Attention : Attention :

Pour la mise en miroir d'un disque local, n'utilisez pas le chemin /dev/global lorsque vous indiquez le nom du disque. L'indication de ce chemin pour autre chose que les systèmes de fichiers du cluster empêche le système de s'initialiser.


Mise en miroir du système de fichiers root (/)

Suivez cette procédure pour mettre en miroir le système de fichiers root (/).

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Utilisez la commande metainit(1M) pour mettre la tranche root dans une concaténation à une seule tranche (simple).


    # metainit -f sous-miroir1 1 1 tranche_disque_root
    
  3. Créez une deuxième concaténation.


    # metainit -f sous-miroir2 1 1 tranche_disque_sous_miroir
    
  4. Créez un miroir à une voie avec un sous-miroir.


    Remarque :

    Le nom de métapériphérique du miroir doit être unique sur tout le cluster.



    # metainit miroir -m sous-miroir1
    
  5. Exécutez la commande metaroot(1M).

    Cette commande modifie les fichiers /etc/vfstab et /etc/system pour que le système puisse être initialisé avec le système de fichiers root (/) sur un métapériphérique.


    # metaroot miroir
    
  6. Exécutez la commande lockfs(1M).

    Cette commande supprime toutes les transactions du journal et les écrit dans le système de fichiers maître sur tous les systèmes de fichiers UFS montés.


    # lockfs -fa
    
  7. Evacuez tous les groupes de ressources ou groupes d'unités du noeud.


    # scswitch -S -h noeud 
    
    -S

    Evacue tous les groupes de ressources et groupes de périphériques

    -h noeud

    Indique le nom du noeud à partir duquel évacuer les groupes de ressources ou de périphériques

  8. Réinitialisez le noeud.


    # shutdown -g 0 -y -i 6
    
  9. Utilisez la commande metattach(1M) pour attacher le deuxième sous-miroir au miroir


    # metattach miroir sous-miroir2
    
  10. Si le disque utilisé pour mettre en miroir le disque root est connecté physiquement à plusieurs noeuds (multiport), activez la propriété localonly du groupe d'unités de disque brutes pour le disque contenant la copie miroir du disque root.

    Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un noeud de son périphérique d'initialisation si ce dernier est connecté à plusieurs noeuds.

    1. Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom de pseudo-pilote de l'ID de périphérique (DID) complet du groupe d'unités de disque brutes.

      Dans l'exemple suivant, le nom du groupe d'unités de disque brutes dsk/d2 apparaît dans la troisième colonne des résultats et correspond au nom complet du pseudo-pilote DID.


      # scdidadm -L
      
      ...
      
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      
      # scconf -c -D name=dsk/d2,localonly=true
      

      Pour plus d'informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

    2. Utilisez la commande scconf(1M) pour activer la propriété localonly.


      # scconf -c -D name=nom_groupe_disques_bruts,localonly=true
      
      -D name=nom_groupe_disques_bruts

      Indique le nom du groupe d'unités de disque brutes

  11. Enregistrez l'autre chemin d'initialisation pour une éventuelle utilisation ultérieure.


    # ls -l /dev/rdsk/tranche_disque_root
    
  12. Répétez l'opération (de l'Étape 1 à l'Étape 11) sur chaque noeud restant du cluster.

    Assurez-vous que chaque nom de métapériphérique pour un miroir est unique sur tout le cluster.

Exemple : mise en miroir du système de fichiers root (/)

L'exemple suivant illustre la création du miroir d0 sur le noeud phys-schost-1, constitué du sous-miroir d10 sur la partition c0t0d0s0 et du sous-miroir d20 sur la partition c2t2d0s0. Le disque c2t2d0 étant multiport, la propriété localonly est activée.


(Créez le miroir :)

# metainit -f d10 1 1 c0t0d0s0

d11: Concat/Stripe is setup

# metainit -f d20 1 1 c2t2d0s0

d12: Concat/Stripe is setup

# metainit d0 -m d10

d10: Mirror is setup

# metaroot d0

# lockfs -fa

 

(Réinitialisez le noeud :)

# scswitch -S -h phys-schost-1

# shutdown -g 0 -y -i 6

 

(Attachez le deuxième sous-miroir : )

# metattach d0 d20

d0: Submirror d20 is attached

 

(Activez la propriété localonly du groupe d'unités de disque brutes du disque mis en miroir :)

# scconf -c -D name=dsk/d2,localonly=true

 

(Enregistrez l'autre chemin d'initialisation :)

# ls -l /dev/rdsk/c2t2d0s0

lrwxrwxrwx  1 root     root          57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 -> 

../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw

Etape suivante

Pour mettre en miroir l'espace de noms global, /global/.devices/node@ID_noeud, reportez-vous à la section "Mise en miroir de l'espace de noms global".

Mise en miroir de l'espace de noms global

Suivez cette procédure pour mettre en miroir l'espace de noms global, /global/.devices/node@ID_noeud.

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Placez la tranche de l'espace de noms global dans une concaténation à une seule tranche (une seule voie).


    # metainit -f sous-miroir1 1 1 tranche_disque
    
  3. Créez une deuxième concaténation.


    # metainit -f sous-miroir2 1 1 tranche_disque_sous_miroir
    
  4. Créez un miroir à une voie avec un sous-miroir.


    Remarque :

    Le nom de métapériphérique du miroir doit être unique sur tout le cluster.



    # metainit miroir -m sous-miroir1
    
  5. Attachez le deuxième sous-miroir au miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    # metattach miroir sous-miroir2
    
  6. Editez l'entrée de fichier /etc/vfstab pour le système de fichiers /global/.devices/node@ID_noeud.

    Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.


    # vi /etc/vfstab
    
    #device        device          mount           FS      fsck    mount   mount
    
    #to mount      to fsck         point           type    pass    at boot options
    
    #
    
    /dev/md/dsk/miroir /dev/md/rdsk/miroir /global/.devices/node@ID_noeud ufs 2 no global
  7. Répétez l'opération (de l'Étape 1 à l'Étape 6) sur chaque noeud restant du cluster.

    Assurez-vous que chaque nom de métapériphérique pour un miroir est unique sur tout le cluster.

  8. Attendez que la synchronisation des miroirs lancée à l'Étape 5 soit terminée.

    Utilisez la commande metastat(1M) pour afficher l'état du miroir.


    # metastat miroir
    
  9. Si le disque utilisé pour mettre en miroir l'espace de noms global est connecté physiquement à plusieurs noeuds (multiport), activez la propriété localonly du groupe d'unités de disque brutes contenant la copie miroir de l'espace de noms global.

    Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un noeud de son périphérique d'initialisation si ce dernier est connecté à plusieurs noeuds.

    1. Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom de pseudo-pilote de l'ID de périphérique (DID) complet du groupe d'unités de disque brutes.

      Dans l'exemple suivant, le nom du groupe d'unités de disque brutes dsk/d2 apparaît dans la troisième colonne des résultats et correspond au nom complet du pseudo-pilote DID.


      # scdidadm -L
      
      ...
      
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      
      # scconf -c -D name=dsk/d2,localonly=true
      

      Pour plus d'informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

    2. Utilisez la commande scconf(1M) pour activer la propriété localonly.


      # scconf -c -D name=nom_groupe_disques_bruts,localonly=true
      
      -D name=nom_groupe_disques_bruts

      Indique le nom du groupe d'unités de disque brutes

Exemple : mise en miroir de l'espace de noms global

L'exemple suivant illustre la création du miroir d101, constitué du sous-miroir d111 sur la partition c0t0d0s3 et du sous-miroir d121 sur la partition c2t2d0s3. L'entrée de fichier /etc/vfstab pour /global/.devices/node@1 est mise à jour pour utiliser le nom de miroir d101. Le disque c2t2d0 étant multiport, la propriété localonly est activée.


(Créez le miroir :)

# metainit -f d111 1 1 c0t0d0s3

d111: Concat/Stripe is setup

# metainit -f d121 1 1 c2t2d0s3

d121: Concat/Stripe is setup

# metainit d101 -m d111

d101: Mirror is setup

# metattach d101 d121

d101: Submirror d121 is attached

 

(Editez le fichier /etc/vfstab :).

# vi /etc/vfstab

#device        device          mount           FS      fsck    mount   mount

#to mount      to fsck         point           type    pass    at boot options

#

/dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global

 

(Affichez l'état de synchronisation :)

# metastat d101

d101: Mirror

      Submirror 0: d111

         State: Okay

      Submirror 1: d121

         State: Resyncing

      Resync in progress: 15 % done

...

 

(Identifiez le nom DID du groupe d'unités de disque brutes du disque mis en miroir :)

# scdidadm -L

...

1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2

 

(Activez la propriété localonly du groupe d'unités de disque brutes du disque mis en miroir :)

# scconf -c -D name=dsk/d2,localonly=true

Etape suivante

Pour mettre en miroir des systèmes de fichiers qui ne peuvent pas être démontés pendant l'utilisation normale du système, tels que /usr, /opt et swap, reportez-vous à la section "Mise en miroir de systèmes de fichiers ne pouvant pas être démontés". Pour mettre en miroir des systèmes de fichiers définis par l'utilisateur, reportez-vous à la section "Mise en miroir de systèmes de fichiers définis par l'utilisateur".

Dans le cas contraire, pour créer un ensemble de disques, reportez-vous à la section "Création d'un ensemble de disques".

Mise en miroir de systèmes de fichiers ne pouvant pas être démontés

Suivez cette procédure pour mettre en miroir des systèmes de fichiers qui ne peuvent pas être démontés pendant l'utilisation normale du système, tels que /usr, /opt et swap

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Placez la tranche sur laquelle réside un système de fichiers démontable dans une concaténation à une seule tranche (une seule voie).


    # metainit -f sous-miroir1 1 1 tranche_disque
    
  3. Créez une deuxième concaténation.


    # metainit -f sous-miroir2 1 1 tranche_disque_sous_miroir
    
  4. Créez un miroir à une voie avec un sous-miroir.


    Remarque :

    Il n'est pas nécessaire que le nom de métapériphérique du miroir soit unique sur tout le cluster.



    # metainit miroir -m sous-miroir1
    
  5. Répétez l'opération (de l'Étape 1 à l'Étape 4) pour chaque système de fichiers démontable à mettre en miroir.

  6. Sur chaque noeud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers démontable mis en miroir.

    Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.


    # vi /etc/vfstab
    
    #device        device          mount           FS      fsck    mount   mount
    
    #to mount      to fsck         point           type    pass    at boot options
    
    #
    
    /dev/md/dsk/miroir /dev/md/rdsk/miroir /système_fichiers  ufs     2       no      global
  7. Evacuez tous les groupes de ressources ou groupes d'unités du noeud.


    # scswitch -S -h noeud 
    
    -S

    Evacue tous les groupes de ressources et groupes de d périphériques

    -h noeud

    Indique le nom du noeud à partir duquel évacuer les groupes de ressources ou de périphériques

  8. Réinitialisez le noeud.


    # shutdown -g 0 -y -i 6
    
  9. Attachez le deuxième sous-miroir à chaque miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    # metattach miroir sous-miroir2
    
  10. Attendez que la synchronisation des miroirs lancée à l'Étape 5 soit terminée.

    Utilisez la commande metastat(1M) pour afficher l'état du miroir.


    # metastat miroir
    
  11. Si le disque utilisé pour mettre en miroir le système de fichiers démontable est connecté physiquement à plusieurs noeuds (multiport), activez la propriété localonly du groupe d'unités de disque brutes pour le disque contenant la copie miroir du système de fichiers démontable.

    Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un noeud de son périphérique d'initialisation si ce dernier est connecté à plusieurs noeuds.

    1. Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom de pseudo-pilote de l'ID de périphérique (DID) complet du groupe d'unités disque brutes.

      Dans l'exemple suivant, le nom du groupe d'unités de disque brutes dsk/d2 apparaît dans la troisième colonne des résultats et correspond au nom complet du pseudo-pilote DID.


      # scdidadm -L
      
      ...
      
      1            phys-schost-3:/dev/rdsk/c1t1d0    /dev/did/rdsk/d2
      
      # scconf -c -D name=dsk/d2,localonly=true
      

      Pour plus d'informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

    2. Utilisez la commande scconf(1M) pour activer la propriété localonly.


      # scconf -c -D name=nom_groupe_disques_bruts,localonly=true
      
      -D name=nom_groupe_disques_bruts

      Indique le nom du groupe d'unités du disque brutes

Exemple : mise en miroir de systèmes de fichiers démontables

L'exemple suivant illustre la création du miroir d1 de /usr sur le noeud phys-schost-1, /usrrésidant sur c0t0d0s1. Le miroir d1 est constitué du sous-miroir d11 sur la partition c0t0d0s1 et du sous-miroir d21 sur la partition c2t2d0s1. L'entrée de fichier /etc/vfstab pour /usr est mise à jour pour utiliser le nom de miroir d1. Le disque c2t2d0 étant multiport, la propriété localonly est activée.


(Créez le miroir :)

# metainit -f d11 1 1 c0t0d0s1

d11: Concat/Stripe is setup

# metainit -f d21 1 1 c2t2d0s1

d21: Concat/Stripe is setup

# metainit d1 -m d11

d1: Mirror is setup

 

(Editez le fichier /etc/vfstab :).

# vi /etc/vfstab

#device        device          mount           FS      fsck    mount   mount

#to mount      to fsck         point           type    pass    at boot options

#

/dev/md/dsk/d1 /dev/md/rdsk/d1 /usr            ufs     2       no      global

 

(Réinitialisez le noeud :)

# scswitch -S -h phys-schost-1

# shutdown -g 0 -y -i 6

 

(Attachez le deuxième sous-miroir : )

# metattach d1 d21

d1: Submirror d21 is attached

 

(Affichez l'état de synchronisation :)

# metastat d1

d1: Mirror

      Submirror 0: d11

         State: Okay

      Submirror 1: d21

         State: Resyncing

      Resync in progress: 15 % done

...

 

(Identifiez le nom DID du groupe d'unités de disque brutes du disque mis en miroir :)

# scdidadm -L

...

1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2

 

(Activez la propriété localonly du groupe d'unités de disque brutes du disque mis en miroir :)

# scconf -c -D name=dsk/d2,localonly=true

Etape suivante

Pour mettre en miroir des systèmes de fichiers définis par l'utilisateur, reportez-vous à la section "Mise en miroir de systèmes de fichiers définis par l'utilisateur". Dans le cas contraire, pour créer un ensemble de disques, reportez-vous à la section "Création d'un ensemble de disques".

Mise en miroir de systèmes de fichiers définis par l'utilisateur

Suivez cette procédure pour mettre en miroir des systèmes de fichiers définis par l'utilisateur. Dans cette procédure, il n'est pas nécessaire de réinitialiser les noeuds.

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Placez la tranche sur laquelle réside un système de fichiers défini par l'utilisateur dans une concaténation à une seule tranche (une seule voie).


    # metainit -f sous-miroir1 1 1 tranche_disque
    
  3. Créez une deuxième concaténation.


    # metainit -f sous-miroir2 1 1 tranche_disque_sous_miroir
    
  4. Créez un miroir à une voie avec un sous-miroir.


    Remarque :

    Il n'est pas nécessaire que le nom de métapériphérique du miroir soit unique sur tout le cluster.



    # metainit miroir -m sous-miroir1
    
  5. Répétez l'opération (de l'Étape 1 à l'Étape 4) pour chaque système de fichiers défini par l'utilisateur à mettre en miroir.

  6. Sur chaque noeud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers défini par l'utilisateur mis en miroir.

    Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.


    # vi /etc/vfstab
    
    #device        device          mount           FS      fsck    mount   mount
    
    #to mount      to fsck         point           type    pass    at boot options
    
    #
    
    /dev/md/dsk/miroir /dev/md/rdsk/miroir /système_fichiers  ufs     2       no      global
  7. Attachez le deuxième sous-miroir au miroir.

    Cet attachement lance une synchronisation des sous-miroirs.


    # metattach miroir sous-miroir2
    
  8. Attendez que la synchronisation des miroirs lancée à l'Étape 5 soit terminée.

    Utilisez la commande metastat(1M) pour afficher l'état du miroir.


    # metastat miroir
    
  9. Si le disque utilisé pour mettre en miroir le système de fichiers défini par l'utilisateur est connecté physiquement à plusieurs noeuds (multiport), activez la propriété localonly du groupe d'unités de disque brutes pour le disque contenant la copie miroir du système de fichiers défini par l'utilisateur.

    Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un noeud de son périphérique d'initialisation si ce dernier est connecté à plusieurs noeuds.

    1. Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom de pseudo-pilote de l'ID de périphérique (DID) complet du groupe d'unités de disque brutes.

      Dans l'exemple suivant, le nom du groupe d'unités du disque brutes dsk/d4 apparaît dans la troisième colonne des résultats et correspond au nom complet du pseudo-pilote DID.


      # scdidadm -L
      
      ...
      
      1         phys-schost-3:/dev/rdsk/c1t1d0     /dev/did/rdsk/d2
      
      # scconf -c -D name=dsk/d2,localonly=true
      

      Pour plus d'informations sur la propriété localonly, reportez-vous à la page de manuel scconf_dg_rawdisk(1M).

    2. Utilisez la commande scconf(1M) pour activer la propriété localonly.


      # scconf -c -D name=nom_groupe_disques_bruts,localonly=true
      
      -D name=nom_groupe_disques_bruts

      Indique le nom du groupe d'unités du disque brutes

Exemple : mise en miroir de systèmes de fichiers définis par l'utilisateur

L'exemple suivant illustre la création du miroir d4 pour mettre en miroir le répertoire /home, résidant sur c0t0d0s4. Le miroir d4 est constitué du sous-miroir d14 sur la partition c0t0d0s4 et du sous-miroir d24 sur la partition c2t2d0s4. L'entrée de fichier /etc/vfstab pour /home est mise à jour pour utiliser le nom de miroir d4. Le disque c2t2d0 étant multiport, la propriété localonly est activée.


(Créez le miroir :)

# metainit -f d14 1 1 c0t0d0s4

d14: Concat/Stripe is setup

# metainit -f d24 1 1 c2t2d0s4

d24: Concat/Stripe is setup

# metainit d4 -m d14

d4: Mirror is setup

 

(Editez le fichier /etc/vfstab :).

# vi /etc/vfstab

#device        device          mount           FS      fsck    mount   mount

#to mount      to fsck         point           type    pass    at boot options

#

/dev/md/dsk/d4 /dev/md/rdsk/d4 /home           ufs     2       no      global

 

(Attachez le deuxième sous-miroir : )

# metattach d4 d24

d4: Submirror d24 is attached

 

(Affichez l'état de synchronisation :)

# metastat d4

d4: Mirror

      Submirror 0: d14

         State: Okay

      Submirror 1: d24

         State: Resyncing

      Resync in progress: 15 % done

...

 

(Identifiez le nom DID du groupe d'unités de disque brutes du disque mis en miroir :)

# scdidadm -L

...

1         phys-schost-3:/dev/rdsk/c2t2d0     /dev/did/rdsk/d2

 

(Activez la propriété localonly du groupe d'unités de disque brutes du disque mis en miroir :)

# scconf -c -D name=dsk/d2,localonly=true

Etape suivante

Pour créer un ensemble de disques, reportez-vous à la section "Création d'un ensemble de disques".

Création d'un ensemble de disques

Suivez cette procédure pour chaque ensemble de disques du cluster.

  1. Si le fichier /.rhosts n'est pas utilisé pour répertorier les noms des noeuds de cluster, assurez-vous que root est membre du groupe 14.


    # vi /etc/group
    
    ...
    
    sysadmin::14:root
    
    ...
  2. Assurez-vous qu'il existe des répliques de la base de données d'état des métapériphériques locaux.

    Si nécessaire, reportez-vous à la procédure décrite dans la section "Création de répliques de la base de données d'état des métapériphériques".

  3. Connectez-vous en tant que superutilisateur sur le noeud de cluster qui sera le maître de l'ensemble de disques.

  4. Créez l'ensemble de disques.

    Cette commande enregistre également l'ensemble de disques comme un groupe d'unités de disque de Sun Cluster.


    # metaset -s nom_ensemble -a -h nom_noeud1 nom_noeud2
    
    -s nom_ensemble

    Indique le nom de l'ensemble de disques

    -a

    Ajoute (crée) l'ensemble de disques

    -h nom_noeud1

    Indique le nom du noeud principal qui sera maître de l'ensemble de disques

    nom_noeud2

    Indique le nom du noeud secondaire qui sera maître de l'ensemble de disques

  5. Vérifiez l'état du nouvel ensemble de disques.


    # metaset -s nom_ensemble
    

Exemple : création d'un ensemble de disques

Les commandes suivantes créent deux ensembles de disques, dg-schost-1 et dg-schost-2, en leur attribuant les noeuds phys-schost-1 et phys-schost-2 comme principaux potentiels :


# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2

# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

Etape suivante

Pour ajouter des lecteurs à l'ensemble de disques, reportez-vous à la section "Ajout de lecteurs à un ensemble de disques".

Ajout de lecteurs à un ensemble de disques

Lorsqu'un lecteur de disque est ajouté à un ensemble de disques, Solstice DiskSuite le repartitionne de la manière suivante afin que la base de données d'état des métapériphériques pour l'ensemble de disques puisse être placée sur le lecteur :

Ajout de lecteurs à un ensemble de disques
  1. Connectez-vous en tant que superutilisateur sur le noeud.

  2. Assurez-vous que l'ensemble de disques a été créé.

    Si nécessaire, reportez-vous à la section "Création d'un ensemble de disques".

  3. Répertoriez les correspondances des ID de périphériques (DID).


    # scdidadm -L
    

    • Choisissez des lecteurs partagés par les noeuds de cluster qui seront maîtres, ou potentiellement maîtres, de l'ensemble de disques.

    • Utilisez les noms complets des pseudo-pilotes DID lors de l'ajout de lecteurs à un ensemble de disques.

    La première colonne des résultats correspond au numéro d'instance DID, la deuxième colonne correspond au chemin complet (chemin physique) et la troisième au nom complet du pseudo-pilote DID (pseudo-chemin). Un lecteur partagé comporte plusieurs entrées par numéro d'instance DID.

    Dans l'exemple suivant, les entrées du numéro d'instance DID 2 indiquent un lecteur partagé par phys-schost-1 et phys-schost-2, le nom DID complet étant /dev/did/rdsk/d2.


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    
    ...
  4. Devenez propriétaire de l'ensemble de disques.


    # metaset -s nom_ensemble -t
    
    -s nom_ensemble

    Indique le nom de l'ensemble de disques

    -t

    Attribue la propriété de l'ensemble de disques

  5. Ajoutez les lecteurs à l'ensemble de disques.

    Utilisez le nom complet du pseudo-pilote DID.


    Remarque :

    N'utilisez pas le nom de périphérique de niveau inférieur (cNtXdY) lors de l'ajout d'un lecteur à un ensemble de disques. Le nom de périphérique de niveau inférieur étant local, et non unique sur le cluster, son utilisation risque d'empêcher la commutation du méta-ensemble.



    # metaset -s nom_ensemble -a nom_DID
    
    -a nom_DID

    Ajoute le lecteur de disque à l'ensemble de disques

  6. Vérifiez l'état de l'ensemble de disques et des lecteurs.


    # metaset -s nom_ensemble
    

Exemple : ajout de lecteurs à un ensemble de disques

La commande metaset ajoute les unités de disque /dev/did/dsk/d1 et /dev/did/dsk/d2 à l'ensemble de disques dg-schost-1.


# metaset -s dg-schost-1 -a /dev/did/dsk/d1 /dev/did/dsk/d2

Etape suivante

Pour repartitionner des lecteurs et les utiliser dans des métapériphériques, reportez-vous à la section "Repartitionnement de lecteurs dans un ensemble de disques".

Repartitionnement de lecteurs dans un ensemble de disques

La commande metaset(1M) repartitionne les lecteurs d'un ensemble de disques de manière qu'une petite partie de chaque lecteur de la tranche 7 soit réservée pour le logiciel Solstice DiskSuite. L'espace restant sur chaque lecteur est placé dans la tranche 0. Pour utiliser le disque de manière plus efficace, suivez cette procédure pour modifier la disposition du disque. L'allocation d'espace aux tranches 1 à 6 vous permet de les utiliser lors de la configuration de métapériphériques.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Utilisez la commande format(1M) pour modifier le partitionnement de chaque lecteur de l'ensemble de disques.

    Lorsque vous repartitionnez un lecteur, vous devez respecter les conditions suivantes pour éviter que la commande metaset(1M) ne repartitionne le disque :

    • Créez une partition 7 commengant au cylindre 0 assez large pour contenir une copie de la base de données d'état (environ 2 Mo).

    • Définissez le champ Flag de la tranche 7 avec la valeur V_UNMT (démontable) et ne le configurez pas en lecture seule.

    • N'autorisez pas la tranche 7 à chevaucher une autre tranche du disque.

Reportez-vous à la page de manuel format(1M) pour plus de détails.

Etape suivante

Pour définir des métapériphériques à l'aide d'un fichier md.tab, reportez-vous à la section "Création d'un fichier md.tab".

Création d'un fichier md.tab

Créez un fichier /etc/lvm/md.tab pour chaque noeud du cluster.


Remarque :

Lors de l'utilisation du logiciel Solstice DiskSuite, assurez-vous que les métapériphériques locaux portent des noms différents de ceux de l'ID de périphérique (DID) utilisé pour former les ensembles de disques. Par exemple, si le nom DID /dev/did/dsk/d3 est utilisé dans un ensemble de disques, n'utilisez pas le nom /dev/md/dsk/d3 pour la configuration des métapériphériques locaux.


  1. Devenez superutilisateur sur le noeud de cluster.

  2. Répertoriez les correspondances DID pour les utiliser lors de la création de votre fichier md.tab.

    Utilisez les noms complets des pseudo-pilotes DID dans le fichier md.tab à la place des noms de périphériques de niveau inférieur (cNtXdY).


    # scdidadm -L
    

    Dans l'exemple suivant, la première colonne des résultats correspond au numéro d'instance DID, la deuxième colonne correspond au chemin complet (chemin physique) et la troisième au nom complet du pseudo-pilote DID (pseudo chemin).


    1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
    
    2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    
    2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
    
    3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    
    3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
    
    ...
  3. Créez un fichier /etc/lvm/md.tab et éditez-le manuellement avec l'éditeur de texte de votre choix.

Reportez-vous à la documentation de Solstice DiskSuite pour plus de détails sur la création d'un fichier md.tab.

Exemple : exemple de fichier md.tab

L'exemple de fichier md.tab suivant définit les métapériphériques de l'ensemble de disques appelé dg-schost-1. L'ordre des lignes du fichier md.tab n'a pas d'importance.


dg-schost-1/d0 -t dg-schost-1/d1 dg-schost-1/d4

    dg-schost-1/d1 -m dg-schost-1/d2

        dg-schost-1/d2 1 1 /dev/did/rdsk/d1s4

        dg-schost-1/d3 1 1 /dev/did/rdsk/d55s4

    dg-schost-1/d4 -m dg-schost-1/d5

        dg-schost-1/d5 1 1 /dev/did/rdsk/d3s5

        dg-schost-1/d6 1 1 /dev/did/rdsk/d57s5

L'exemple de fichier md.tab est construit comme suit.


Remarque :

S'il existe des données sur les disques qui seront utilisés pour les sous-miroirs, sauvegardez-les avant la configuration du métapériphérique et restaurez-les sur le miroir.


Etape suivante

Pour activer les métapériphériques définis dans les fichiers md.tab, reportez-vous à la section "Activation des métapériphériques".

Activation des métapériphériques

  1. Vérifiez que vous satisfaisez aux conditions suivantes :

    • Vous êtes propriétaire de l'ensemble de disques sur le noeud sur lequel la commande sera exécutée.

    • Les fichiers md.tab se trouvent dans le répertoire /etc/lvm.

  2. Devenez superutilisateur sur le noeud de cluster.

  3. Devenez propriétaire de l'ensemble de disques.


    # metaset -s nom_ensemble -t
    
    -s nom_ensemble

    Indique le nom de l'ensemble de disques

    -t

    Attribue la propriété de l'ensemble de disques

  4. Activez les métapériphériques de l'ensemble de disques, définis dans le fichier md.tab.


    # metainit -s nom_ensemble -a
    
    -a

    Active tous les métapériphériques du fichier md.tab

  5. Pour chaque périphérique maître et de journal, attachez le deuxième sous-miroir (sous-miroir2).

    Lorsque les métapériphériques du fichier md.tab sont activés, seul le premier sous-miroir (sous-miroir1) des périphériques maître et de journal est attaché ; le sous-miroir 2 doit donc être attaché manuellement.


    # metattach miroir sous-miroir2
    
  6. Répétez l'Étape 4 et l'Étape 5 pour chaque ensemble de disques du cluster.

    Si nécessaire, exécutez la commande metainit(1M) à partir d'un autre noeud connecté aux disques. Cette étape est obligatoire pour les topologies de paires de clusters, oy les disques ne sont pas accessibles par tous les noeuds.

  7. Vérifiez l'état des métapériphériques.


    # metastat -s nom_ensemble
    

Exemple : activation des métapériphériques dans le fichier md.tab

Dans l'exemple suivant, tous les métapériphériques définis dans le fichier md.tab pour l'ensemble de disques dg-schost-1 sont activés. Ensuite, ce sont les deuxièmes sous-miroirs du périphérique maître dg-schost-1/d1 et du périphérique de journal dg-schost-1/d4 qui sont activés.


# metainit -s dg-schost-1 -a

# metattach dg-schost-1/d1 dg-schost-1/d3

# metattach dg-schost-1/d4 dg-schost-1/d6

Etape suivante

Si votre cluster comporte des ensembles de disques configurés avec exactement deux baies de disques et deux noeuds, ces ensembles de disques ont besoin de médiateurs. Pour ajouter des hosts médiateurs, reportez-vous à la section "Présentation des médiateurs". Dans le cas contraire, pour créer un système de fichiers de cluster, reportez-vous à la section "Ajout de systèmes de fichiers de cluster".

Présentation des médiateurs

Un médiateur, ou host médiateur, est un noeud de cluster stockant des données de médiateur. Les données de médiateur fournissent des informations sur l'emplacement d'autres médiateurs et comportent un nombre de validation identique à celui des répliques de la base de données. Ce nombre de validation est utilisé pour confirmer que les données du médiateur sont synchronisées avec les données des répliques de la base de données.

Les médiateurs sont obligatoires pour tous les ensembles de disques de Solstice DiskSuite configurés avec exactement deux chaînes de disques et deux noeuds de cluster. Une chaîne de disque se compose d'une baie de disques avec ses disques physiques, des câbles de la baie vers le ou les noeuds et des cartes d'interface. L'utilisation des médiateurs permet au logiciel Sun Cluster de continuer à présenter les données les plus récentes en cas de panne d'une chaîne simple dans une configuration à double chaîne. Les règles suivantes s'appliquent aux configurations à double chaîne utilisant des médiateurs :

Ces règles n'exigent pas que le cluster complet ait exactement deux noeuds. Elles impliquent simplement que les ensembles de disques à deux chaînes de disques soient connectés à exactement deux noeuds. Ces règles permettent de configurer un cluster N+1 et de nombreuses autres topologies.

Ajout d'hosts médiateurs

Suivez cette procédure si votre configuration nécessite des médiateurs.

  1. Connectez-vous en tant que superutilisateur sur le noeud actuellement maître de l'ensemble de disques auquel vous souhaitez ajouter des hosts médiateurs.

  2. Exécutez la commande metaset(1M) pour ajouter chaque noeud connecté à l'ensemble de disques en tant qu'host médiateur pour cet ensemble de disques.


    # metaset -s nom_ensemble -a -m liste_hosts_médiateurs
    
    -s nom_ensemble

    Indique le nom de l'ensemble de disques

    -a

    Ajoute des éléments à l'ensemble de disques

    -m liste_hosts_médiateurs

    Indique le nom du noeud à ajouter comme host médiateur pour l'ensemble de disques

Reportez-vous à la page de manuel mediator(7) pour plus de détails sur les options propres au médiateur pour la commande metaset.

Exemple : ajout d'hosts médiateurs

L'exemple suivant ajoute les noeuds phys-schost-1 et phys-schost-2 en tant qu'hosts médiateurs pour l'ensemble de disques dg-schost-1. Les deux commandes sont exécutées à partir du noeud phys-schost-1.


# metaset -s dg-schost-1 -a -m phys-schost-1

# metaset -s dg-schost-2 -a -m phys-schost-1

Etape suivante

Pour vérifier l'état des données du médiateur, reportez-vous à la section "Vérification de l'état des données du médiateur".

Vérification de l'état des données du médiateur

  1. Exécutez la commande medstat.


    # medstat -s nom_ensemble
    
    -s nom_ensemble

    Indique le nom de l'ensemble de disques

    Si la valeur du champ Status est Bad, réparez l'host médiateur endommagé en suivant la procédure décrite dans la section "Correction des données du médiateur".

    Reportez-vous à la page de manuel medstat(1M) pour plus d'informations.

Etape suivante

Si les données du médiateur pour l'un des hosts du médiateur sont incorrectes, reportez-vous à la section "Correction des données du médiateur" pour régler le problème. Dans le cas contraire, pour créer un système de fichiers de cluster, reportez-vous à la section "Ajout de systèmes de fichiers de cluster".

Correction des données du médiateur

Suivez cette procédure pour corriger les données du médiateur. Pour déterminer l'état des données du médiateur, suivez la procédure décrite à la section "Vérification de l'état des données du médiateur".

  1. Devenez superutilisateur sur le noeud propriétaire de l'ensemble de disques affecté.

  2. Supprimez le(s) host(s) médiateur(s) comportant des données de médiateur incorrectes de tous les ensembles de disques affectés.


    # metaset -s nom_ensemble -d -m liste_hosts_médiateurs
    
    -s nom_ensemble

    Indique le nom de l'ensemble de disques

    -d

    Supprime des éléments de l'ensemble de disques

    -m liste_hosts_médiateurs

    Indique le nom du noeud à supprimer comme host médiateur pour l'ensemble de disques

  3. Restaurez l'host médiateur.


    # metaset -s nom_ensemble -a -m liste_hosts_médiateurs
    
    -a

    Ajoute des éléments l'ensemble de disques

    -m liste_hosts_médiateurs

    Indique le nom du noeud à ajouter comme host médiateur pour l'ensemble de disques

Reportez-vous à la page de manuel mediator(7) pour plus de détails sur les options propres au médiateur pour la commande metaset.

Etape suivante

Pour créer un système de fichiers de cluster, reportez-vous à la section "Ajout de systèmes de fichiers de cluster".

Exemple de configuration Solstice DiskSuite

L'exemple suivant permet d'expliquer le processus de détermination du nombre de disques à placer dans chaque ensemble de disques lors de l'utilisation du logiciel Solstice DiskSuite. Cet exemple part du principe que vous utilisez trois périphériques de stockage. Dans cet exemple, les applications existantes sont exécutées sur NFS (deux systèmes de fichiers de 5 Go chacun) et deux bases de données Oracle (une de 5 Go et une de 10 Go).

Le tableau suivant présente les calculs utilisés pour déterminer le nombre de périphériques nécessaires dans l'exemple de configuration. Si vous disposez de trois périphériques de stockage, il vous faudrait 28 lecteurs divisés aussi régulièrement que possible entre ces trois périphériques de stockage. Notez que les systèmes de fichiers de 5 Go ont regu un Go d'espace disque supplémentaire parce que le nombre de disques nécessaire a été arrondi.  

Tableau A-2 Détermination des lecteurs nécessaires pour une configuration

Utilisation 

Données 

Espace disque nécessaire 

Lecteurs nécessaires 

nfs1

5 Go 

3 disques de 2,1 Go * 2 (miroir) 

nfs2

5 Go 

3 disques de 2,1 Go * 2 (miroir) 

oracle1

5 Go 

3 disques de 2,1 Go * 2 (miroir) 

oracle2

10 Go 

5 disques de 2,1 Go * 2 (miroir) 

10 

Le tableau suivant indique l'allocation de lecteurs dans les deux ensembles de disques et les quatre services de données.  

Tableau A-3 Division d'ensembles de disques

Ensemble de disques 

Services de données 

Disques 

Périphérique de stockage 1 

Périphérique de stockage 2 

Périphérique de stockage 3 

dg-schost-1

nfs1/oracle1

12 

dg-schost-2

nfs2/oracle2

16 

Au départ, sur chaque périphérique de stockage, quatre disques sur 12 sont affectés à dg-schost-1 et cinq ou six (sur 16) sont affectés à dg-schost-2.

Aucun disque remplagable à chaud n'est affecté à un ensemble de disques. En utilisant au moins un disque remplagable à chaud par périphérique de stockage et par ensemble de disques, vous rendez un lecteur compatible avec le remplacement à chaud, restaurant ainsi la mise en miroir à deux voies complète).