Sun Cluster Software Guide d'installation pour le SE Solaris

ProcedurePréparation du cluster pour la mise à niveau (partition double)

Effectuez cette procédure pour préparer le cluster à une mise à niveau à partition double. Ces procédures font référence aux deux groupes de nœuds en tant que première partition et deuxième partition. Les nœuds affectés à la deuxième partition assurent la continuité des services du cluster pendant la mise à niveau des nœuds de la première partition. Lorsque tous les nœuds de la première partition sont mis à niveau, vous devez basculer les services du cluster vers la première partition et mettre à niveau la deuxième partition. Lorsque tous les nœuds de la deuxième partition sont mis à niveau, vous devez initialiser les nœuds en mode cluster pour rejoindre les nœuds de la première partition.


Remarque –

Si vous mettez à niveau un cluster mononœud, n'utilisez pas cette méthode de mise à niveau. Reportez-vous plutôt à la section Préparation du cluster pour la mise à niveau (standard) ou à la section Préparation du cluster pour la mise à niveau (en direct).


Sur Solaris 10, effectuez toutes les étapes à partir de la zone globale uniquement.

Avant de commencer

Effectuez les tâches suivantes :

  1. Vérifiez que le cluster fonctionne normalement.

    1. Affichez le statut actuel du cluster en exécutant la commande suivante à partir de n'importe quel nœud.


      % scstat
      

      Reportez-vous à la page de manuel scstat(1M) pour obtenir plus d'informations.

    2. Recherchez le journal /var/adm/messages sur chaque noeud pour obtenir les erreurs non résolues et les messages d'avertissement.

    3. Vérifiez l'état du gestionnaire de volumes.

  2. Si nécessaire, informez les utilisateurs que les services du cluster seront temporairement interrompus pendant la mise à niveau.

    L'interruption du service correspond approximativement au temps habituellement nécessaire pour que votre cluster bascule les services vers un autre nœud.

  3. Devenez superutilisateur sur un noeud du cluster.

  4. Pour un cluster à deux nœuds qui utilise le logiciel Sun StorEdge Availability Suite ou le logiciel Sun StorageTek Availability Suite, vérifiez que les données de configuration pour les services de disponibilité résident sur le disque de quorum.

    Les données de configuration doivent résider sur le disque de quorum pour garantir le fonctionnement correct d'Availability Suite après la mise à niveau du logiciel de cluster.

    1. Devenez superutilisateur d'un nœud de cluster qui exécute le logiciel Availability Suite.

    2. Identifiez l'ID de périphérique et la tranche utilisés par le fichier de configuration de Availability Suite.


      phys-schost# /usr/opt/SUNWscm/sbin/dscfg
      /dev/did/rdsk/dNsS
      

      Dans cet exemple, N correspond à l'ID du périphérique et T à la tranche du périphérique N.

    3. Identifiez le périphérique de quorum existant.


      phys-schost# scstat -q
      -- Quorum Votes by Device --
                           Device Name         Present Possible Status
                           -----------         ------- -------- ------
         Device votes:     /dev/did/rdsk/dQsS  1       1        Online

      Dans cet exemple, dQsS correspond au périphérique de quorum existant.

    4. Si le périphérique de quorum n'est pas le périphérique de données de configuration de Availability Suite, déplacez les données de configuration vers une tranche disponible du périphérique de quorum.


      phys-schost# dd if=`/usr/opt/SUNWesm/sbin/dscfg` of=/dev/did/rdsk/dQsS
      

      Remarque –

      Vous devez utiliser le nom du périphérique DID en mode caractère, /dev/did/rdsk/, et non celui du périphérique DID en mode bloc, /dev/did/dsk/.


    5. Si vous avez déplacé les données de configuration, configurez Availability Suite pour qu'il utilise le nouvel emplacement.

      En tant que superutilisateur, exécutez la commande suivante sur chaque nœud exécutant le logiciel Availability Suite.


      phys-schost# /usr/opt/SUNWesm/sbin/dscfg -s /dev/did/rdsk/dQsS
      
  5. Si vous prévoyez de mettre à niveau le SE Solaris et que votre cluster utilise des médiateurs à deux chaînes pour le logiciel Solaris Volume Manager, annulez la configuration de vos médiateurs.

    Pour de plus amples informations sur les médiateurs, reportez-vous à la rubrique Configuration de médiateurs à deux chaînes.

    1. Exécutez la commande suivante pour vérifier l'absence de problèmes de données du médiateur.


      phys-schost# medstat -s setname
      
      -s setname

      Spécifie le nom du jeu de disques.

      Si le champ Statut affiche la valeur Incorrect, réparez l'hôte médiateur affecté. Suivez la procédure de la rubrique Correction des données incorrectes du médiateur.

    2. Répertoriez tous les médiateurs.

      Enregistrez ces informations pour les cas où vous devez restaurer les médiateurs pendant la procédure de la section Finition de la mise à niveau vers Sun Cluster 3.2.

    3. Lorsqu'un jeu de disques utilise des médiateurs, devenez propriétaire du jeu si aucun nœud n'en est propriétaire.


      phys-schost# scswitch -z -D setname -h node
      
      -z

      Change de maître.

      -D devicegroup

      Indique le nom du jeu de disques.

      -h noeud

      Indique le nom du nœud que vous voulez convertir en nœud principal du jeu de disques.

    4. Annulez la configuration de tous les médiateurs du jeu de disques.


      phys-schost# metaset -s setname -d -m mediator-host-list
      
      -s nom_jeu

      Spécifie le nom du jeu de disques.

      -d

      Supprime du jeu de disques.

      -m liste_hôtes_médiateurs

      Indique le nom du nœud à supprimer en tant qu'hôte médiateur du jeu de disques.

      Reportez-vous à la page de manuel mediator(7D) afin d'obtenir plus d'informations sur les options spécifiques du médiateur pour la commande metaset.

    5. Répétez de l'étape c à l'étape d pour chaque jeu de disques restant qui utilise des médiateurs.

  6. Si vous exécutez le service de données Sun Cluster HA pour Sun Java System Application Server EE (HADB) avec le logiciel Sun Java System Application Server EE (HADB) version 4.4 ou ultérieure, désactivez la ressource HADB et arrêtez la base de données HADB.

    Si vous exécutez une version de Sun Java System Application Server EE (HADB) antérieure à la 4.4, vous pouvez ignorer cette étape.

    Lorsqu'une partition du cluster est hors service au cours de la mise à niveau, les nœuds de la partition active ne sont pas suffisants pour respecter les exigences d'appartenance HADB. Vous devez donc arrêter la base de données HADB et désactiver la ressource HADB avant de commencer la partition du cluster.


    phys-schost# hadbm stop database-name
    phys-schost# scswitch -n -j hadb-resource
    

    Pour de plus amples informations, reportez-vous à la page de manuel hadbm(1m).

  7. Si vous mettez à niveau un cluster à deux nœuds, passez à l'Étape 16.

    Dans le cas contraire, passez à l'Étape 8 pour déterminer le schéma de partitionnement à utiliser. Vous devez déterminer les nœuds que chaque partition doit contenir, mais interrompre le processus de partitionnement. Ensuite, vous devez comparer les listes de nœuds de tous les groupes de ressources par rapport aux membres de nœuds de chaque partition du schéma utilisé. Si un groupe de ressources ne contient pas un membre de chaque partition, vous devez modifier la liste de nœuds.

  8. Chargez le DVD-ROM Sun Java Availability Suite dans le lecteur DVD-ROM\~;.

    Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il est configuré pour gérer les périphériques de CD-ROM ou de DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0/.

  9. Déplacez-vous sur le répertoire RépertoireSolaris_arch/Product/sun_cluster/Solaris_ver/Tools/ , où arch est sparc ou x86 (Solaris 10 uniquement) et où ver est 9 pour Solaris 9 ou 10 pour Solaris 10 .


    phys-schost# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Tools
    
  10. Lancez l'utilitaire scinstall en mode interactif.


    phys-schost# ./scinstall
    

    Remarque –

    n'utilisez pas la commande /usr/cluster/bin/scinstall déjà installée sur le noeud. Vous devez utiliser la commande scinstall sur le DVD-ROM Sun Java Availability Suite.


    Le menu principal scinstall s'affiche.

  11. Saisissez le numéro correspondant à l'option de gestion d'une mise à niveau à partition double, puis appuyez sur la touche Retour.


    *** Main Menu ***
    
        Please select from one of the following (*) options:
    
            1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
          * 3) Manage a dual-partition upgrade
          * 4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  3
    

    Le menu de gestion d'une mise à niveau à partition double s'affiche.

  12. Saisissez le numéro correspondant à l'option d'affichage et de sélection des schémas de partitionnement possibles, puis appuyez sur la touche Retour.

  13. Suivez les invites pour effectuer les tâches suivantes :

    1. Affichez les schémas de partitionnement possibles pour votre cluster.

    2. Choisissez un schéma de partitionnement.

    3. Choisissez la partition à mettre à niveau en premier.


      Remarque –

      Arrêtez et ne répondez pas encore à l'invite qui s'affiche Voulez-vous commencer la mise à niveau à partition double ?, mais ne quittez pas l'utilitaire scinstall. Vous répondrez à cette invite à l'Étape 18 de cette procédure.


  14. Souvenez-vous des nœuds appartenant à chaque partition dans le schéma de partitionnement.

  15. Sur un autre nœud du cluster, devenez superutilisateur.

  16. Assurez-vous que les services de données critiques peuvent basculer entre les partitions.

    Pour un cluster à deux nœuds, chaque nœud est le seul de sa partition.

    Lorsque les nœuds d'une partition sont arrêtés en préparation de la mise à niveau à partition double, les groupes de ressources hébergés sur ces nœuds basculent vers un nœud de l'autre partition. Si un groupe de ressources ne contient pas de nœud de chaque partition dans sa liste des nœuds, le groupe de ressources ne peut pas basculer. Pour être certain que le basculement de tous les services de données soit réussi, vérifiez que la liste des nœuds des groupes de ressources liés contient un membre de chaque partition de mise à niveau.

    1. Affichez la liste des nœuds de chaque groupe de ressources devant rester en service au cours de l'intégralité de la mise à niveau.


      phys-schost# scrgadm -pv -g resourcegroup | grep "Res Group Nodelist"
      
      -p

      Affiche les informations de configuration.

      -v

      Affiche en mode détaillé.

      -g resourcegroup

      Indique le nom du groupe de ressources.

    2. Si la liste des nœuds d'un groupe de ressources ne contient pas au minimum un membre de chaque partition, redéfinissez la liste des nœuds pour inclure un membre de chaque partition en tant que nœud principal potentiel.


      phys-schost# scrgadm -a -g resourcegroup -h nodelist
      
      -a

      Ajoute une nouvelle configuration.

      -h

      Indique une liste des noms de nœuds séparés par des virgules.

  17. Déterminez l'étape suivante.

    • Si vous mettez à niveau un cluster à deux nœuds, répétez de l'Étape 8 à l'Étape 13 pour désigner votre schéma de partitionnement et votre ordre de mise à niveau.

      Lorsque vous atteignez l'invite Voulez-vous commencer la mise à niveau à partition double ?, passez à l'Étape 18.

    • Si vous mettez à niveau un cluster possédant trois nœuds ou plus, retournez au nœud exécutant l'utilitaire scinstall interactif.

      Passez à l'Étape 18.

  18. À l'invite Voulez-vous commencer la mise à niveau à partition double ? de l'utilitaire scinstall interactif, saisissez Yes.

    La commande vérifie qu'une méthode d'installation à distance est disponible.

  19. Lorsque vous y êtes invité, appuyez sur Entrée pour continuer chaque étape de la préparation pour la mise à niveau à partition double.

    La commande bascule les groupes de ressources vers les nœuds de la deuxième partition, puis arrête chaque nœud de la première partition.

  20. Lorsque tous les nœuds de la première partition sont arrêtés, initialisez chaque nœud de cette partition en mode non cluster.

    • Sur les systèmes SPARC, exécutez la commande suivante :


      ok boot -x
      
    • Sur les systèmes x86 exécutés sous Solaris 9, exécutez l'une des commandes suivantes :


      phys-schost# reboot -- -xs
      or
      ...
                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER>  to boot with options
      or    i <ENTER>                           to enter boot interpreter
      or    <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -xs
      
    • Sur les systèmes x86 exécutés sous Solaris 10, exécutez les commandes suivantes :

      1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.

        Le menu GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

      2. Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.

        L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot                                     |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.
      3. Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.


        [ Minimal BASH-like line editing is supported. For the first word, TAB
        lists possible command completions. Anywhere else TAB lists the possible
        completions of a device/filename. ESC at any time exits. ]
        
        grub edit> kernel /platform/i86pc/multiboot -x
        
      4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

        L'écran affiche la commande modifiée.


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot -x                                  |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.-
      5. Saisissez b pour initialiser le nœud en mode non cluster.


        Remarque –

        Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour effectuer un démarrage en mode non cluster, exécutez à nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.


  21. Si des applications exécutées dans la deuxième partition ne sont pas contrôlées par Gestionnaire du groupe de ressources (RGM), créez des scripts qui suspendent les applications avant de commencer la mise à niveau de ces nœuds.

    Au cours de la mise à niveau à partition double, ces scripts sont appelés pour arrêter les applications telles que Oracle RAC avant que les nœuds de la deuxième partition ne soient suspendus.

    1. Créez les scripts nécessaires pour arrêter les applications non contrôlées par RGM.

      • Créez des scripts séparés pour les applications qui doivent être arrêtées avant les applications contrôlées par RGM ainsi que pour les applications qui doivent être arrêtées par la suite.

      • Pour arrêter les applications exécutées sur plusieurs nœuds de la partition, écrivez les scripts en conséquence.

      • Utilisez un nom et un chemin de répertoire de votre choix pour vos scripts.

    2. Assurez-vous que chaque nœud du cluster possède sa propre copie de vos scripts.

    3. Sur chaque nœud, modifiez les scripts Sun Cluster suivants pour appeler les scripts placés sur ce nœud.

      • /etc/cluster/ql/cluster_pre_halt_apps : utilisez ce fichier pour appeler les scripts à exécuter avant que les applications contrôlées par RGM ne soient arrêtées.

      • /etc/cluster/ql/cluster_post_halt_apps : utilisez ce fichier pour appeler les scripts à exécuter après que les applications contrôlées par RGM sont arrêtées.

      Les scripts Sun Cluster sont émis à partir d'un nœud arbitraire de la partition pendant le traitement suivant la mise à niveau de la partition. Pour cette raison, assurez-vous que les scripts d'un nœud de la partition effectuent les actions nécessaires pour tous les nœuds de la partition.

Étapes suivantes

Mettez à niveau le logiciel sur chaque nœud de la première partition.