Sun Cluster Software Guide d'installation pour le SE Solaris

Exécution d'une mise à niveau à partition double vers Sun Cluster 3.2

Cette section fournit les informations suivantes pour mettre à niveau à partir de Sun Cluster 3.1 ; vers Sun Cluster 3.2 à l'aide de la méthode de mise à niveau à partition double :

Le tableau suivant répertorie les tâches à effectuer pour procéder à la mise à niveau depuis le logiciel Sun Cluster 3.1 vers le logiciel Sun Cluster 3.2. Vous pouvez également effectuer ces tâches pour mettre à niveau uniquement la version du SE Solaris. Si vous procédez à la mise à niveau du SE Solaris depuis Solaris 9 vers Solaris 10, vous devez également mettre à niveau le logiciel Sun Cluster et les logiciels de dépendance vers une version compatible avec la nouvelle version du SE Solaris.

Tableau 8–2 Liste des tâches : Exécution d'une mise à niveau à partition double vers Sun Cluster 3.2

Tâche 

Instructions 

1. Lire les exigences et restrictions de la mise à niveau. Déterminer la méthode de mise à niveau appropriée pour votre configuration et vos besoins. 

Prise en charge liée à la mise à niveau

Choix d'une méthode de mise à niveau Sun Cluster

2. Partitionner le cluster en deux groupes de nœuds. 

Préparation du cluster pour la mise à niveau (partition double)

3. Si nécessaire, mettre à niveau le logiciel Solaris vers une version de mise à jour Solaris prise en charge. Si le cluster utilise des médiateurs à deux chaînes pour Solaris Volume Manager, annuler leur configuration. Selon les besoins, mettre à niveau VERITAS Volume Manager (VxVM) et VERITAS File System (VxFS). Le logiciel Solaris Volume Manager est automatiquement mis à niveau avec le système d'exploitation Solaris. 

Mise à niveau du système d'exploitation Solaris et de Volume Manager Software (partition double)

4. Mettre à niveau vers une structure Sun Cluster 3.2 et un logiciel de service de données. Si nécessaire, mettre à niveau des applications. Si le cluster utilise des médiateurs à deux chaînes et que vous mettez à niveau le système d'exploitation Solaris, reconfigurer les médiateurs. Si VxVM a été mis à niveau, mettre à niveau les groupes de disques. 

Mise à niveau de Sun Cluster 3.2 (partition double)

5. Vérifier le bon déroulement de la mise à niveau vers Sun Cluster 3.2. 

Vérification de la mise à niveau de Sun Cluster 3.2

6. Activer les ressources et connecter leur groupe. (Facultatif) Migrer les ressources existantes vers de nouveaux types de ressources. 

Finition de la mise à niveau vers Sun Cluster 3.2

7. (Facultatif) SPARC : si nécessaire, mettre à niveau le module Sun Cluster pour Sun Management Center.

SPARC : Mise à niveau du module Sun Cluster pour Sun Management Center

ProcedurePréparation du cluster pour la mise à niveau (partition double)

Effectuez cette procédure pour préparer le cluster à une mise à niveau à partition double. Ces procédures font référence aux deux groupes de nœuds en tant que première partition et deuxième partition. Les nœuds affectés à la deuxième partition assurent la continuité des services du cluster pendant la mise à niveau des nœuds de la première partition. Lorsque tous les nœuds de la première partition sont mis à niveau, vous devez basculer les services du cluster vers la première partition et mettre à niveau la deuxième partition. Lorsque tous les nœuds de la deuxième partition sont mis à niveau, vous devez initialiser les nœuds en mode cluster pour rejoindre les nœuds de la première partition.


Remarque –

Si vous mettez à niveau un cluster mononœud, n'utilisez pas cette méthode de mise à niveau. Reportez-vous plutôt à la section Préparation du cluster pour la mise à niveau (standard) ou à la section Préparation du cluster pour la mise à niveau (en direct).


Sur Solaris 10, effectuez toutes les étapes à partir de la zone globale uniquement.

Avant de commencer

Effectuez les tâches suivantes :

  1. Vérifiez que le cluster fonctionne normalement.

    1. Affichez le statut actuel du cluster en exécutant la commande suivante à partir de n'importe quel nœud.


      % scstat
      

      Reportez-vous à la page de manuel scstat(1M) pour obtenir plus d'informations.

    2. Recherchez le journal /var/adm/messages sur chaque noeud pour obtenir les erreurs non résolues et les messages d'avertissement.

    3. Vérifiez l'état du gestionnaire de volumes.

  2. Si nécessaire, informez les utilisateurs que les services du cluster seront temporairement interrompus pendant la mise à niveau.

    L'interruption du service correspond approximativement au temps habituellement nécessaire pour que votre cluster bascule les services vers un autre nœud.

  3. Devenez superutilisateur sur un noeud du cluster.

  4. Pour un cluster à deux nœuds qui utilise le logiciel Sun StorEdge Availability Suite ou le logiciel Sun StorageTek Availability Suite, vérifiez que les données de configuration pour les services de disponibilité résident sur le disque de quorum.

    Les données de configuration doivent résider sur le disque de quorum pour garantir le fonctionnement correct d'Availability Suite après la mise à niveau du logiciel de cluster.

    1. Devenez superutilisateur d'un nœud de cluster qui exécute le logiciel Availability Suite.

    2. Identifiez l'ID de périphérique et la tranche utilisés par le fichier de configuration de Availability Suite.


      phys-schost# /usr/opt/SUNWscm/sbin/dscfg
      /dev/did/rdsk/dNsS
      

      Dans cet exemple, N correspond à l'ID du périphérique et T à la tranche du périphérique N.

    3. Identifiez le périphérique de quorum existant.


      phys-schost# scstat -q
      -- Quorum Votes by Device --
                           Device Name         Present Possible Status
                           -----------         ------- -------- ------
         Device votes:     /dev/did/rdsk/dQsS  1       1        Online

      Dans cet exemple, dQsS correspond au périphérique de quorum existant.

    4. Si le périphérique de quorum n'est pas le périphérique de données de configuration de Availability Suite, déplacez les données de configuration vers une tranche disponible du périphérique de quorum.


      phys-schost# dd if=`/usr/opt/SUNWesm/sbin/dscfg` of=/dev/did/rdsk/dQsS
      

      Remarque –

      Vous devez utiliser le nom du périphérique DID en mode caractère, /dev/did/rdsk/, et non celui du périphérique DID en mode bloc, /dev/did/dsk/.


    5. Si vous avez déplacé les données de configuration, configurez Availability Suite pour qu'il utilise le nouvel emplacement.

      En tant que superutilisateur, exécutez la commande suivante sur chaque nœud exécutant le logiciel Availability Suite.


      phys-schost# /usr/opt/SUNWesm/sbin/dscfg -s /dev/did/rdsk/dQsS
      
  5. Si vous prévoyez de mettre à niveau le SE Solaris et que votre cluster utilise des médiateurs à deux chaînes pour le logiciel Solaris Volume Manager, annulez la configuration de vos médiateurs.

    Pour de plus amples informations sur les médiateurs, reportez-vous à la rubrique Configuration de médiateurs à deux chaînes.

    1. Exécutez la commande suivante pour vérifier l'absence de problèmes de données du médiateur.


      phys-schost# medstat -s setname
      
      -s setname

      Spécifie le nom du jeu de disques.

      Si le champ Statut affiche la valeur Incorrect, réparez l'hôte médiateur affecté. Suivez la procédure de la rubrique Correction des données incorrectes du médiateur.

    2. Répertoriez tous les médiateurs.

      Enregistrez ces informations pour les cas où vous devez restaurer les médiateurs pendant la procédure de la section Finition de la mise à niveau vers Sun Cluster 3.2.

    3. Lorsqu'un jeu de disques utilise des médiateurs, devenez propriétaire du jeu si aucun nœud n'en est propriétaire.


      phys-schost# scswitch -z -D setname -h node
      
      -z

      Change de maître.

      -D devicegroup

      Indique le nom du jeu de disques.

      -h noeud

      Indique le nom du nœud que vous voulez convertir en nœud principal du jeu de disques.

    4. Annulez la configuration de tous les médiateurs du jeu de disques.


      phys-schost# metaset -s setname -d -m mediator-host-list
      
      -s nom_jeu

      Spécifie le nom du jeu de disques.

      -d

      Supprime du jeu de disques.

      -m liste_hôtes_médiateurs

      Indique le nom du nœud à supprimer en tant qu'hôte médiateur du jeu de disques.

      Reportez-vous à la page de manuel mediator(7D) afin d'obtenir plus d'informations sur les options spécifiques du médiateur pour la commande metaset.

    5. Répétez de l'étape c à l'étape d pour chaque jeu de disques restant qui utilise des médiateurs.

  6. Si vous exécutez le service de données Sun Cluster HA pour Sun Java System Application Server EE (HADB) avec le logiciel Sun Java System Application Server EE (HADB) version 4.4 ou ultérieure, désactivez la ressource HADB et arrêtez la base de données HADB.

    Si vous exécutez une version de Sun Java System Application Server EE (HADB) antérieure à la 4.4, vous pouvez ignorer cette étape.

    Lorsqu'une partition du cluster est hors service au cours de la mise à niveau, les nœuds de la partition active ne sont pas suffisants pour respecter les exigences d'appartenance HADB. Vous devez donc arrêter la base de données HADB et désactiver la ressource HADB avant de commencer la partition du cluster.


    phys-schost# hadbm stop database-name
    phys-schost# scswitch -n -j hadb-resource
    

    Pour de plus amples informations, reportez-vous à la page de manuel hadbm(1m).

  7. Si vous mettez à niveau un cluster à deux nœuds, passez à l'Étape 16.

    Dans le cas contraire, passez à l'Étape 8 pour déterminer le schéma de partitionnement à utiliser. Vous devez déterminer les nœuds que chaque partition doit contenir, mais interrompre le processus de partitionnement. Ensuite, vous devez comparer les listes de nœuds de tous les groupes de ressources par rapport aux membres de nœuds de chaque partition du schéma utilisé. Si un groupe de ressources ne contient pas un membre de chaque partition, vous devez modifier la liste de nœuds.

  8. Chargez le DVD-ROM Sun Java Availability Suite dans le lecteur DVD-ROM\~;.

    Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il est configuré pour gérer les périphériques de CD-ROM ou de DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0/.

  9. Déplacez-vous sur le répertoire RépertoireSolaris_arch/Product/sun_cluster/Solaris_ver/Tools/ , où arch est sparc ou x86 (Solaris 10 uniquement) et où ver est 9 pour Solaris 9 ou 10 pour Solaris 10 .


    phys-schost# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Tools
    
  10. Lancez l'utilitaire scinstall en mode interactif.


    phys-schost# ./scinstall
    

    Remarque –

    n'utilisez pas la commande /usr/cluster/bin/scinstall déjà installée sur le noeud. Vous devez utiliser la commande scinstall sur le DVD-ROM Sun Java Availability Suite.


    Le menu principal scinstall s'affiche.

  11. Saisissez le numéro correspondant à l'option de gestion d'une mise à niveau à partition double, puis appuyez sur la touche Retour.


    *** Main Menu ***
    
        Please select from one of the following (*) options:
    
            1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
          * 3) Manage a dual-partition upgrade
          * 4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  3
    

    Le menu de gestion d'une mise à niveau à partition double s'affiche.

  12. Saisissez le numéro correspondant à l'option d'affichage et de sélection des schémas de partitionnement possibles, puis appuyez sur la touche Retour.

  13. Suivez les invites pour effectuer les tâches suivantes :

    1. Affichez les schémas de partitionnement possibles pour votre cluster.

    2. Choisissez un schéma de partitionnement.

    3. Choisissez la partition à mettre à niveau en premier.


      Remarque –

      Arrêtez et ne répondez pas encore à l'invite qui s'affiche Voulez-vous commencer la mise à niveau à partition double ?, mais ne quittez pas l'utilitaire scinstall. Vous répondrez à cette invite à l'Étape 18 de cette procédure.


  14. Souvenez-vous des nœuds appartenant à chaque partition dans le schéma de partitionnement.

  15. Sur un autre nœud du cluster, devenez superutilisateur.

  16. Assurez-vous que les services de données critiques peuvent basculer entre les partitions.

    Pour un cluster à deux nœuds, chaque nœud est le seul de sa partition.

    Lorsque les nœuds d'une partition sont arrêtés en préparation de la mise à niveau à partition double, les groupes de ressources hébergés sur ces nœuds basculent vers un nœud de l'autre partition. Si un groupe de ressources ne contient pas de nœud de chaque partition dans sa liste des nœuds, le groupe de ressources ne peut pas basculer. Pour être certain que le basculement de tous les services de données soit réussi, vérifiez que la liste des nœuds des groupes de ressources liés contient un membre de chaque partition de mise à niveau.

    1. Affichez la liste des nœuds de chaque groupe de ressources devant rester en service au cours de l'intégralité de la mise à niveau.


      phys-schost# scrgadm -pv -g resourcegroup | grep "Res Group Nodelist"
      
      -p

      Affiche les informations de configuration.

      -v

      Affiche en mode détaillé.

      -g resourcegroup

      Indique le nom du groupe de ressources.

    2. Si la liste des nœuds d'un groupe de ressources ne contient pas au minimum un membre de chaque partition, redéfinissez la liste des nœuds pour inclure un membre de chaque partition en tant que nœud principal potentiel.


      phys-schost# scrgadm -a -g resourcegroup -h nodelist
      
      -a

      Ajoute une nouvelle configuration.

      -h

      Indique une liste des noms de nœuds séparés par des virgules.

  17. Déterminez l'étape suivante.

    • Si vous mettez à niveau un cluster à deux nœuds, répétez de l'Étape 8 à l'Étape 13 pour désigner votre schéma de partitionnement et votre ordre de mise à niveau.

      Lorsque vous atteignez l'invite Voulez-vous commencer la mise à niveau à partition double ?, passez à l'Étape 18.

    • Si vous mettez à niveau un cluster possédant trois nœuds ou plus, retournez au nœud exécutant l'utilitaire scinstall interactif.

      Passez à l'Étape 18.

  18. À l'invite Voulez-vous commencer la mise à niveau à partition double ? de l'utilitaire scinstall interactif, saisissez Yes.

    La commande vérifie qu'une méthode d'installation à distance est disponible.

  19. Lorsque vous y êtes invité, appuyez sur Entrée pour continuer chaque étape de la préparation pour la mise à niveau à partition double.

    La commande bascule les groupes de ressources vers les nœuds de la deuxième partition, puis arrête chaque nœud de la première partition.

  20. Lorsque tous les nœuds de la première partition sont arrêtés, initialisez chaque nœud de cette partition en mode non cluster.

    • Sur les systèmes SPARC, exécutez la commande suivante :


      ok boot -x
      
    • Sur les systèmes x86 exécutés sous Solaris 9, exécutez l'une des commandes suivantes :


      phys-schost# reboot -- -xs
      or
      ...
                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER>  to boot with options
      or    i <ENTER>                           to enter boot interpreter
      or    <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -xs
      
    • Sur les systèmes x86 exécutés sous Solaris 10, exécutez les commandes suivantes :

      1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.

        Le menu GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

      2. Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.

        L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot                                     |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.
      3. Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.


        [ Minimal BASH-like line editing is supported. For the first word, TAB
        lists possible command completions. Anywhere else TAB lists the possible
        completions of a device/filename. ESC at any time exits. ]
        
        grub edit> kernel /platform/i86pc/multiboot -x
        
      4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

        L'écran affiche la commande modifiée.


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot -x                                  |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.-
      5. Saisissez b pour initialiser le nœud en mode non cluster.


        Remarque –

        Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour effectuer un démarrage en mode non cluster, exécutez à nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.


  21. Si des applications exécutées dans la deuxième partition ne sont pas contrôlées par Gestionnaire du groupe de ressources (RGM), créez des scripts qui suspendent les applications avant de commencer la mise à niveau de ces nœuds.

    Au cours de la mise à niveau à partition double, ces scripts sont appelés pour arrêter les applications telles que Oracle RAC avant que les nœuds de la deuxième partition ne soient suspendus.

    1. Créez les scripts nécessaires pour arrêter les applications non contrôlées par RGM.

      • Créez des scripts séparés pour les applications qui doivent être arrêtées avant les applications contrôlées par RGM ainsi que pour les applications qui doivent être arrêtées par la suite.

      • Pour arrêter les applications exécutées sur plusieurs nœuds de la partition, écrivez les scripts en conséquence.

      • Utilisez un nom et un chemin de répertoire de votre choix pour vos scripts.

    2. Assurez-vous que chaque nœud du cluster possède sa propre copie de vos scripts.

    3. Sur chaque nœud, modifiez les scripts Sun Cluster suivants pour appeler les scripts placés sur ce nœud.

      • /etc/cluster/ql/cluster_pre_halt_apps : utilisez ce fichier pour appeler les scripts à exécuter avant que les applications contrôlées par RGM ne soient arrêtées.

      • /etc/cluster/ql/cluster_post_halt_apps : utilisez ce fichier pour appeler les scripts à exécuter après que les applications contrôlées par RGM sont arrêtées.

      Les scripts Sun Cluster sont émis à partir d'un nœud arbitraire de la partition pendant le traitement suivant la mise à niveau de la partition. Pour cette raison, assurez-vous que les scripts d'un nœud de la partition effectuent les actions nécessaires pour tous les nœuds de la partition.

Étapes suivantes

Mettez à niveau le logiciel sur chaque nœud de la première partition.

ProcedureMise à niveau du système d'exploitation Solaris et de Volume Manager Software (partition double)

Effectuez cette procédure sur chaque noeud du cluster pour mettre à niveau le système d'exploitation Solaris 10. Sur Solaris 10, effectuez toutes les étapes à partir de la zone globale uniquement.Si le cluster fonctionne déjà avec une version de Solaris prenant en charge Sun Cluster 3.2, il n'est pas nécessaire de mettre Solaris à niveau. Si vous ne prévoyez pas de mettre à niveau le système d'exploitation Solaris, reportez-vous à la rubrique Mise à niveau de Sun Cluster 3.2 (standard).


Remarque –

Le cluster doit déjà fonctionner avec, ou être mis à niveau vers, au moins le niveau minimum requis du système d'exploitation Solaris pour prendre en charge la mise à niveau vers Sun Cluster 3.2. Pour de plus amples informations, reportez-vous à la rubrique « Produits pris en charge » des Notes de version de Sun Cluster 3.2 pour SE Solaris.


Avant de commencer

Assurez-vous d'avoir suivi toutes les étapes de la rubrique Préparation du cluster pour la mise à niveau (standard).

  1. Devenez superutilisateur du nœud de cluster à mettre à niveau.

    Le nœud doit être un membre de la partition en mode non cluster.

  2. Si le logiciel Sun Cluster Geographic Edition est installé, désinstallez-le.

    Pour connaître les procédures de désinstallation, reportez-vous à la documentation correspondant à votre version de Sun Cluster Geographic Edition.

  3. Déterminez si les scripts suivants de contrôle d'exécution Apache sont présents et activés :


    /etc/rc0.d/K16apache
    /etc/rc1.d/K16apache
    /etc/rc2.d/K16apache
    /etc/rc3.d/S50apache
    /etc/rcS.d/K16apache

    Certaines applications, telles que Sun Cluster HA pour Apache, nécessitent la désactivation des scripts de contrôle d'exécution Apache.

    • Si ces scripts existent et contiennent un K ou un S en majuscule dans le nom de fichier, ils sont activés. Ils ne nécessitent aucune autre intervention.

    • Si ces scripts n'existent pas, vous devez vérifier à l'Étape 8 que ceux installés lors de la mise à niveau du système d'exploitation Solaris sont désactivés.

    • Si ces scripts existent et contiennent un k ou un s en minuscule, ils sont désactivés. À l'Étape 8, vous devez vous assurer de la désactivation des scripts de contrôle d'exécution Apache installés lors de la mise à niveau du système d'exploitation Solaris.

  4. Commentez toutes les entrées des systèmes de fichiers montés globalement dans le fichier /etc/vfstab du nœud.

    1. Notez toutes les entrées faisant déjà l'objet d'un commentaire afin de pouvoir vous y reporter ultérieurement.

    2. Mettez en commentaire provisoirement toutes les entrées des systèmes de fichiers montés globalement dans le fichier /etc/vfstab.

      Ces entrées contiennent l'option de montage global. En les mettant en commentaire, vous empêchez la mise à niveau de Solaris de monter les périphériques globaux.

  5. Déterminez la procédure à suivre pour mettre à niveau le système d'exploitation Solaris.

    Gestionnaire de volumes 

    Procédure 

    Emplacement des instructions 

    Solaris Volume Manager 

    Toute méthode de mise à niveau de Solaris à l'exception de la méthode Live Upgrade.

    Documentation d'installation de Solaris 

    VERITAS Volume Manager 

    “Mise à niveau de VxVM et de Solaris” 

    Documentation d'installation de VERITAS Volume Manager 


    Remarque –

    Si VxVM est installé sur votre cluster, vous devez réinstaller le logiciel VxVM existant ou effectuer une mise à niveau vers la version Solaris 9 ou 10 dans le cadre de la mise à niveau Solaris.


  6. Mettez à niveau Solaris en suivant la procédure choisie à l'Étape 5.

    1. Lorsque vous y êtes invité, choisissez l'option de réinitialisation manuelle.

    2. Lorsque vous êtes invité à réinitialiser, réinitialisez toujours en mode non cluster.


      Remarque –

      Ne suivez pas l'instruction finale de réinitialisation lors de la mise à niveau de Solaris. Procédez donc comme suit :

      1. Retournez à cette procédure pour effectuer l'Étape 7 et l'Étape 8.

      2. Pour terminer la mise à niveau de Solaris, effectuez la réinitialisation en mode non cluster à l'Étape 9.


      Exécutez les commandes suivantes pour initialiser un nœud en mode non cluster au cours d'une mise à niveau de Solaris :

      • Sur les systèmes SPARC, exécutez l'une des commandes suivantes :


        phys-schost# reboot -- -xs
        or
        ok boot -xs
        

        Si vous êtes invité à exécuter init S, utilisez plutôt la commande reboot -- -xs.

      • Sur les systèmes x86, effectuez la commande suivante :


        phys-schost# shutdown -g -y -i0
        
        Press any key to continue
        1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.

          Le menu GRUB qui s'affiche est similaire à ce qui suit :


          GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
          +-------------------------------------------------------------------------+
          | Solaris 10 /sol_10_x86                                                  |
          | Solaris failsafe                                                        |
          |                                                                         |
          +-------------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press enter to boot the selected OS, 'e' to edit the
          commands before booting, or 'c' for a command-line.

          Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

        2. Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.

          L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :


          GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       |
          | kernel /platform/i86pc/multiboot                                     |
          | module /platform/i86pc/boot_archive                                  |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.
        3. Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.


          [ Minimal BASH-like line editing is supported. For the first word, TAB
          lists possible command completions. Anywhere else TAB lists the possible
          completions of a device/filename. ESC at any time exits. ]
          
          grub edit> kernel /platform/i86pc/multiboot -x
          
        4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

          L'écran affiche la commande modifiée.


          GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
          +----------------------------------------------------------------------+
          | root (hd0,0,a)                                                       |
          | kernel /platform/i86pc/multiboot -x                                  |
          | module /platform/i86pc/boot_archive                                  |
          +----------------------------------------------------------------------+
          Use the ^ and v keys to select which entry is highlighted.
          Press 'b' to boot, 'e' to edit the selected command in the
          boot sequence, 'c' for a command-line, 'o' to open a new line
          after ('O' for before) the selected line, 'd' to remove the
          selected line, or escape to go back to the main menu.-
        5. Saisissez b pour initialiser le nœud en mode non cluster.


          Remarque –

          Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour effectuer un démarrage en mode non cluster, exécutez à nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.


        Si l'instruction vous indique d'exécuter la commande init S, arrêtez le système, puis modifiez plutôt la commande d'initialisation de noyau GRUB sur /platform/i86pc/multiboot -sx.

  7. Dans le fichier /a/etc/vfstab, retirez les commentaires de l' sur les entrées des systèmes de fichiers montés globalement.

  8. Si les scripts de contrôle d'exécution Apache étaient désactivés ou absents avant la mise à niveau de Solaris, assurez-vous de la non-exécution de ceux installés lors de l'opération.

    Pour désactiver les scripts de contrôle d'exécution Apache, utilisez les commandes suivantes pour renommer les fichiers avec un k ou un s minuscule.


    phys-schost# mv /a/etc/rc0.d/K16apache /a/etc/rc0.d/k16apache
    phys-schost# mv /a/etc/rc1.d/K16apache /a/etc/rc1.d/k16apache
    phys-schost# mv /a/etc/rc2.d/K16apache /a/etc/rc2.d/k16apache
    phys-schost# mv /a/etc/rc3.d/S50apache /a/etc/rc3.d/s50apache
    phys-schost# mv /a/etc/rcS.d/K16apache /a/etc/rcS.d/k16apache
    

    Vous pouvez alternativement renommer les scripts conformément à vos pratiques administratives.

  9. Réinitialisez le noeud en mode non cluster.

    • Sur les systèmes SPARC, exécutez la commande suivante.

      Insérez un double tiret (--) dans la commande :


      phys-schost# reboot -- -x
      
    • Sur les systèmes x86, effectuez les procédures d'arrêt et d'initialisation décrites dans l'Étape 6, mais ajoutez -x à la commande d'initialisation du noyau au lieu de -sx.

  10. Si votre cluster exécute VxVM, suivez les étapes restantes de la procédure « Mise à niveau de VxVM et du logiciel Solaris » pour réinstaller ou mettre à niveau VxVM.

    Apportez les changements suivants à la procédure :

    • Une fois la mise à niveau de VxVM terminée, mais avant de procéder à la réinitialisation, vérifiez les entrées du fichier /etc/vfstab.

      Si des commentaires d'entrée n'ont pas été retirés à l'Étape 7, réessayez.

    • Si VxVM vous invite à effectuer une reconfiguration finale après réinitialisation, n'utilisez pas l'option -r seule. Utilisez plutôt les options -rx pour effectuer une réinitialisation en mode non cluster.

      • Sur les systèmes SPARC, exécutez la commande suivante :


        phys-schost# reboot -- -rx
        
      • Sur les systèmes x86, effectuez les procédures d'arrêt et d'initialisation décrites dans l'Étape 6, mais ajoutez -rx à la commande d'initialisation du noyau au lieu de -sx.


    Remarque –

    Si un message similaire à celui-ci s'affiche, entrez le mot de passe racine pour continuer la mise à niveau. N'exécutez pas la commande fsck et n'appuyez pas sur Ctrl+D.


    WARNING - Unable to repair the /global/.devices/node@1 filesystem.
    Run fsck manually (fsck -F ufs /dev/vx/rdsk/rootdisk_13vol). Exit the
    shell when done to continue the boot process.
    
    Type control-d to proceed with normal startup,
    (or give root password for system maintenance):  Type the root password
    

  11. (Facultatif) SPARC : mettez à niveau VxFS.

    Suivez les instructions des procédures fournies dans la documentation VxFS.

  12. Installez tous les patchs du logiciel Solaris ainsi que les patchs matériels, puis téléchargez tous les microprogrammes des patchs matériels dont vous pourriez avoir besoin.


    Remarque –

    n'effectuez aucune réinitialisation après l'ajout des patchs. Attendez la fin de la mise à niveau du logiciel Sun Cluster pour réinitialiser le nœud.


    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la section Patchs et niveaux des micrologiciels requis du Notes de version de Sun Cluster 3.2 pour SE Solaris.

Étapes suivantes

Mise à niveau vers le logiciel Sun Cluster 3.2 Reportez-vous à la section Mise à niveau de Sun Cluster 3.2 (partition double).


Remarque –

Si vous procédez à la mise à niveau du système d'exploitation Solaris vers une nouvelle version marketing, par exemple à partir de Solaris 9 vers Solaris 10, vous devez également mettre à niveau le logiciel Sun Cluster et les logiciels de dépendance vers une version compatible avec la nouvelle version du système d'exploitation Solaris.


ProcedureMise à niveau de Sun Cluster 3.2 (partition double)

Effectuez cette procédure afin de mettre à niveau chacun des nœuds du cluster vers Sun Cluster 3.2. Cette procédure met également à niveau les composants Sun Java Enterprise System requis. Vous devez également effectuer cette procédure après avoir procédé à une mise à niveau vers une version marketing différente du système d'exploitation Solaris, notamment à partir de Solaris 9 vers Solaris 10.

Sur Solaris 10, effectuez toutes les étapes à partir de la zone globale uniquement.


Astuce –

Vous pouvez effectuer cette procédure sur plusieurs nœuds de la partition simultanément.


Avant de commencer

Effectuez les tâches suivantes :

  1. Devenez superutilisateur sur un nœud membre de la partition en mode non cluster.

  2. Vérifiez que le répertoire /usr/java/ est un lien symbolique vers la version minimum ou la dernière version du logiciel Java.

    Le logiciel Sun Cluster requiert au minimum la version 1.5.0_06 du logiciel Java. Si vous avez procédé à la mise à niveau vers une version de Solaris qui installe une version antérieure de Java, il se peut que la mise à niveau ait modifié le lien symbolique pour pointer vers une version de Java ne correspondant pas au minimum requis pour le logiciel Sun Cluster 3.2.

    1. Identifiez le répertoire auquel /usr/java/ est associé par lien symbolique.


      phys-schost# ls -l /usr/java
      lrwxrwxrwx   1 root   other    9 Apr 19 14:05 /usr/java -> /usr/j2se/
    2. Identifiez la ou les versions installées du logiciel Java.

      L'exemple suivant présente les commandes que vous pouvez utiliser pour afficher les versions connexes du logiciel Java.


      phys-schost# /usr/j2se/bin/java -version
      phys-schost# /usr/java1.2/bin/java -version
      phys-schost# /usr/jdk/jdk1.5.0_06/bin/java -version
      
    3. Si le répertoire /usr/java/ n'est pas associé par un lien symbolique à une version prise en charge du logiciel Java, recréez le lien symbolique.

      L'exemple suivant présente la création d'un lien symbolique vers le répertoire /usr/j2se/ contenant le logiciel Java 1.5.0_06.


      phys-schost# rm /usr/java
      phys-schost# ln -s /usr/j2se /usr/java
      
  3. Chargez le DVD-ROM Sun Java Availability Suite dans le lecteur DVD-ROM\~;.

    Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il est configuré pour gérer les périphériques de CD-ROM ou de DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0/.

  4. Déplacez-vous sur le répertoire assistant d'installation du DVD-ROM\~;.

    • Si vous installez les packages du logiciel sur une plate-forme SPARC, exécutez la commande suivante :


      phys-schost# cd /cdrom/cdrom0//Solaris_sparc
      
    • Si vous installez les packages du logiciel sur une plate-forme x86, exécutez la commande suivante :


      phys-schost# cd /cdrom/cdrom0//Solaris_x86
      
  5. Démarrez le programme assistant d'installation.


    phys-schost# ./installer
    
  6. Suivez les instructions qui apparaissent à l'écran pour sélectionner et mettre à niveau les packages des composants partagés sur le nœud.


    Remarque –

    N'utilisez pas l'assistant d'installation pour mettre à niveau les packages Sun Cluster.


    Le programme assistant d'installation affiche l'état de l'installation. Une fois l'installation terminée, le programme affiche un récapitulatif et l'installation démarre.

  7. Quittez le programme assistant d'installation.

  8. Déplacez-vous sur le répertoire RépertoireSolaris_arch/Product/sun_cluster/Solaris_ver/Tools/ , où arch est sparc ou x86 (Solaris 10 uniquement) et où ver est 9 pour Solaris 9 ou 10 pour Solaris 10 .


    phys-schost# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Tools
    
  9. Lancer l'utilitaire scinstall.


    phys-schost# ./scinstall
    

    Remarque –

    n'utilisez pas la commande /usr/cluster/bin/scinstall déjà installée sur le noeud. Vous devez utiliser la commande scinstall située sur le DVD-ROM Sun Java Availability Suite.


    Le menu principal scinstall s'affiche.

  10. Saisissez le numéro correspondant à l'option de mise à niveau de ce nœud de cluster, puis appuyez sur la touche Retour.


      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
          * 3) Manage a dual-partition upgrade
          * 4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  4
    

    Le menu de mise à niveau s'affiche.

  11. Saisissez le numéro correspondant à l'option de mise à niveau de la structure Sun Cluster sur ce nœud de cluster, puis appuyez sur la touche Retour.

  12. Suivez les instructions pour mettre à niveau la structure du cluster.

    Lors de la mise à niveau de Sun Cluster, scinstall risque d'apporter le(s) changement(s) de configuration suivant(s) :

    La mise à niveau de la structure Sun Cluster est terminée lorsque le système affiche un message de confirmation et vous invite à appuyer sur la touche entrée.

  13. Fermez l'utilitaire scinstall.

  14. Retirez le DVD-ROM Sun Java Availability Suite du lecteur DVD-ROM\~;.

    1. Afin de vous assurer que le DVD-ROM\~; n'est pas utilisé, déplacez-vous sur un répertoire ne résidant pas sur le DVD-ROM\~;.

    2. Éjectez le DVD-ROM\~;.


      phys-schost# eject cdrom
      
  15. Mettez à niveau les packages de services de données.

    Vous devez mettre à niveau tous les services de données vers la version 3.2 de Sun Cluster.


    Remarque –

    Pour Sun Cluster HA pour SAP Web Application Server, si vous utilisez une ressource de moteur J2EE ou une ressource de composant serveur d'application Web, ou les deux, vous devez supprimer la ressource et la recréer avec la nouvelle ressource de composant serveur d'application Web. Les modifications apportées à la nouvelle ressource de composant serveur d'application Web incluent l'intégration de la fonctionnalité J2EE. Pour plus d'informations, reportez-vous au manuel Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS.


    1. Lancez l'utilitaire scinstall interactif mis à niveau.


      phys-schost# /usr/cluster/bin/scinstall
      

      Remarque –

      N'utilisez pas l'utilitaire scinstall se trouvant sur le support d'installation pour mettre à niveau les packages de services de données.


      Le menu principal scinstall s'affiche.

    2. Saisissez le numéro correspondant à l'option de mise à niveau de ce nœud de cluster, puis appuyez sur la touche Retour.

      Le menu de mise à niveau s'affiche.

    3. Saisissez le numéro correspondant à l'option de mise à niveau des agents de services de données Sun Cluster sur ce nœud, puis appuyez sur la touche Retour.

    4. Suivez les instructions pour mettre à niveau les agents de services de données Sun Cluster installés sur le nœud.

      Vous pouvez choisir de mettre à niveau tous les services de données installés ou une partie des éléments répertoriés.

      La mise à niveau est terminée lorsque le système affiche un message de confirmation signalant que la mise à niveau des agents de services de données a été effectuée avec succès et vous invite à appuyer sur la touche Entrée pour continuer.

    5. Appuyez sur Entr\'e9e.

      Le menu de mise à niveau s'affiche.

  16. Fermez l'utilitaire scinstall.

  17. Si Sun Cluster HA pour NFS est configuré sur un système de fichiers local à haute disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.


    Remarque –

    Si des zones non globales sont configurées, le LOFS doit rester activé. Pour obtenir des directives sur l'utilisation du LOFS et les possibilités de le désactiver, reportez-vous à la section Systèmes de fichiers de grappe.


    À partir de la version 3.2 de Sun Cluster, le LOFS n'est plus désactivé par défaut au cours de l'installation ou de la mise à niveau de Sun Cluster. Pour désactiver le LOFS, assurez-vous que le ficher /etc/system contient l'entrée suivante :


    exclude:lofs

    Ce changement est pris en compte à la prochaine réinitialisation du système.

  18. En fonction des besoins, mettez à niveau manuellement les services de données personnalisés non disponibles sur le support produit.

  19. Vérifiez que chaque mise à jour des services de données est correctement installée.

    Consultez le journal de la mise à niveau, référencé à la fin des messages émis en cours de mise à niveau.

  20. Installez les patchs du logiciel de service de données et de l'architecture de Sun Cluster 3.2.

    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la section Patchs et niveaux des micrologiciels requis du Notes de version de Sun Cluster 3.2 pour SE Solaris.

  21. Mettez à niveau les applications du logiciel installées sur le cluster.

    Assurez-vous que les niveaux des applications sont compatibles avec les versions actuelles de Sun Cluster et du logiciel Solaris. Reportez-vous à la documentation de l'application pour les instructions d'installation.

  22. Lorsque tous les nœuds d'une partition sont mis à niveau, appliquez les changements de la mise à niveau.

    1. À partir d'un nœud de la partition que vous mettez à niveau, lancez l'utilitaire scinstall interactif.


      phys-schost# /usr/cluster/bin/scinstall
      

      Remarque –

      N'utilisez pas la commande scinstall située sur le support d'installation. Utilisez uniquement la commande scinstall située sur le nœud du cluster.


      Le menu principal scinstall s'affiche.

    2. Saisissez le numéro correspondant à l'option d'application des changements de la mise à niveau à partition double à la partition, puis appuyez sur la touche Retour.

    3. Suivez les invites pour continuer chaque étape du traitement de la mise à niveau.

      La commande effectue les tâches suivantes, en fonction de la partition à partir de laquelle la commande est exécutée :

      • Première partition : la commande interrompt chaque nœud de la deuxième partition, un nœud à la fois. Lorsqu'un nœud est interrompu, les services de ce nœud sont automatiquement basculés vers un nœud de la première partition, à condition que la liste des nœuds du groupe de ressources lié contienne un nœud dans la première partition. Lorsque tous les nœuds de la deuxième partition sont interrompus, les nœuds de la première partition sont initialisés en mode cluster et reprennent les services du cluster.

      • Deuxième partition : la commande initialise les nœuds de la deuxième partition en mode cluster pour rejoindre le cluster actif formé par la première partition. Lorsque tous les nœuds ont rejoint le cluster, la commande effectue un traitement final et établit des rapports sur le statut de la mise à niveau.

    4. Quittez l'utilitaire scinstall, s'il est toujours exécuté.

    5. Si vous terminez la mise à niveau de la première partition, effectuez les sous-étapes suivantes afin de préparer la deuxième partition pour la mise à niveau.

      Dans le cas contraire, si vous terminez la mise à niveau de la deuxième partition, passez à la rubrique Vérification de la mise à niveau de Sun Cluster 3.2.

      1. Initialisez chaque nœud de la deuxième partition en mode non cluster.

        • Sur les systèmes SPARC, exécutez la commande suivante :


          ok boot -x
          
        • Sur les systèmes x86, exécutez les commandes suivantes :

          1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.

            Le menu GRUB qui s'affiche est similaire à ce qui suit :


            GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
            +-------------------------------------------------------------------------+
            | Solaris 10 /sol_10_x86                                                  |
            | Solaris failsafe                                                        |
            |                                                                         |
            +-------------------------------------------------------------------------+
            Use the ^ and v keys to select which entry is highlighted.
            Press enter to boot the selected OS, 'e' to edit the
            commands before booting, or 'c' for a command-line.

            Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

          2. Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.

            L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :


            GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
            +----------------------------------------------------------------------+
            | root (hd0,0,a)                                                       |
            | kernel /platform/i86pc/multiboot                                     |
            | module /platform/i86pc/boot_archive                                  |
            +----------------------------------------------------------------------+
            Use the ^ and v keys to select which entry is highlighted.
            Press 'b' to boot, 'e' to edit the selected command in the
            boot sequence, 'c' for a command-line, 'o' to open a new line
            after ('O' for before) the selected line, 'd' to remove the
            selected line, or escape to go back to the main menu.
          3. Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.


            [ Minimal BASH-like line editing is supported. For the first word, TAB
            lists possible command completions. Anywhere else TAB lists the possible
            completions of a device/filename. ESC at any time exits. ]
            
            grub edit> kernel /platform/i86pc/multiboot -x
            
          4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

            L'écran affiche la commande modifiée.


            GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
            +----------------------------------------------------------------------+
            | root (hd0,0,a)                                                       |
            | kernel /platform/i86pc/multiboot -x                                  |
            | module /platform/i86pc/boot_archive                                  |
            +----------------------------------------------------------------------+
            Use the ^ and v keys to select which entry is highlighted.
            Press 'b' to boot, 'e' to edit the selected command in the
            boot sequence, 'c' for a command-line, 'o' to open a new line
            after ('O' for before) the selected line, 'd' to remove the
            selected line, or escape to go back to the main menu.-
          5. Saisissez b pour initialiser le nœud en mode non cluster.


            Remarque –

            Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour effectuer un démarrage en mode non-cluster, exécutez à nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.


      2. Mettez à niveau les nœuds de la deuxième partition.

        Pour mettre à niveau le logiciel Solaris avant d'effectuer une mise à niveau de Sun Cluster, reportez-vous à la section Mise à niveau du système d'exploitation Solaris et de Volume Manager Software (partition double).

        Dans le cas contraire, mettez à niveau Sun Cluster dans la deuxième partition. Retournez à l'Étape 1.

Étapes suivantes

Reportez-vous à la section Vérification de la mise à niveau de Sun Cluster 3.2.

Erreurs fréquentes

Si vous rencontrez une erreur irrécupérable au cours de la mise à niveau à partition double, effectuez les procédures de récupération de la rubrique Récupération suite à l'échec d'une mise à niveau à partition double.