Sun Cluster Software Guide d'installation pour le SE Solaris

Exécution d'une mise à niveau standard vers Sun Cluster 3.2

Cette section fournit les informations suivantes nécessaires à la mise à niveau vers Sun Cluster 3.2 à l'aide de la méthode de mise à niveau standard :

Le tableau suivant répertorie les tâches à effectuer pour procéder à la mise à niveau depuis le logiciel Sun Cluster 3.1 vers le logiciel Sun Cluster 3.2. Vous pouvez également effectuer ces tâches pour mettre à niveau uniquement la version du SE Solaris. Si vous procédez à la mise à niveau du SE Solaris depuis Solaris 9 vers Solaris 10, vous devez également mettre à niveau le logiciel Sun Cluster et les logiciels de dépendance vers une version compatible avec la nouvelle version du SE Solaris.

Tableau 8–1 Liste des tâches : Exécution d'une mise à niveau standard vers Sun Cluster 3.2

Tâche 

Instructions 

1. Lire les exigences et restrictions de la mise à niveau. Déterminer la méthode de mise à niveau appropriée pour votre configuration et vos besoins. 

Prise en charge liée à la mise à niveau

Choix d'une méthode de mise à niveau Sun Cluster

2. Désactiver le cluster et sauvegarder les données partagées. 

Préparation du cluster pour la mise à niveau (standard)

3. Si nécessaire, mettre à niveau le logiciel Solaris vers une version de mise à jour Solaris prise en charge. Si le cluster utilise des médiateurs à deux chaînes pour Solaris Volume Manager, annuler leur configuration. Selon les besoins, mettre à niveau VERITAS Volume Manager (VxVM) et VERITAS File System (VxFS). Le logiciel Solaris Volume Manager est automatiquement mis à niveau avec le système d'exploitation Solaris. 

Mise à niveau du système d'exploitation Solaris et du logiciel Volume Manager (standard)

4. Mettre à niveau vers une structure Sun Cluster 3.2 et un logiciel de service de données. Si nécessaire, mettre à niveau des applications. Si le cluster utilise des médiateurs à deux chaînes et que vous mettez à niveau le système d'exploitation Solaris, reconfigurer les médiateurs. Si VxVM a été mis à niveau, mettre à niveau les groupes de disques. 

Mise à niveau de Sun Cluster 3.2 (standard)

5. Vérifier le bon déroulement de la mise à niveau vers Sun Cluster 3.2. 

Vérification de la mise à niveau de Sun Cluster 3.2

6. Activer les ressources et connecter leur groupe. Migrer les ressources existantes vers de nouveaux types de ressources. 

Finition de la mise à niveau vers Sun Cluster 3.2

7. (Facultatif) SPARC : si nécessaire, mettre à niveau le module Sun Cluster pour Sun Management Center.

SPARC : Mise à niveau du module Sun Cluster pour Sun Management Center

ProcedurePréparation du cluster pour la mise à niveau (standard)

Effectuez cette procédure pour supprimer le cluster de la production avant d'effectuer une mise à niveau standard. Sur Solaris 10, effectuez toutes les étapes à partir de la zone globale uniquement.

Avant de commencer

Effectuez les tâches suivantes :

  1. Vérifiez que le cluster fonctionne normalement.

    1. Affichez le statut actuel du cluster en exécutant la commande suivante à partir de n'importe quel nœud.


      phys-schost% scstat
      

      Reportez-vous à la page de manuel scstat(1M) pour obtenir plus d'informations.

    2. Recherchez le journal /var/adm/messages sur chaque noeud pour obtenir les erreurs non résolues et les messages d'avertissement.

    3. Vérifiez l'état du gestionnaire de volumes.

  2. Informez les utilisateurs de l'indisponibilité des services du cluster au cours de la mise à niveau.

  3. Devenez superutilisateur sur un noeud du cluster.

  4. Mettez chaque groupe de ressources hors ligne et désactivez toutes les ressources.

    Mettez hors ligne tous les groupes de ressources du cluster, y compris ceux qui se trouvent dans les zones non globales. Ensuite, désactivez toutes les ressources pour éviter que le cluster ne remette les ressources en ligne automatiquement si un nœud est réinitialisé en mode cluster par erreur.

    • Si vous procédez à une mise à niveau à partir de Sun Cluster 3.1 et que vous souhaitez utiliser l'utilitaire scsetup, effectuez les étapes suivantes :

      1. Lancez l'utilitaire scsetup.


        phys-schost# scsetup
        

        Le menu principal scsetup s'affiche.

      2. Saisissez le numéro correspondant à l'option des groupes de ressources, puis appuyez sur la touche Retour.

        Le menu du groupe de ressources apparaît.

      3. Saisissez le numéro correspondant à l'option en ligne/hors ligne ou la commutation d'un groupe de ressources, puis appuyez sur la touche Retour.

      4. Suivez les instructions pour désactiver tous les groupes de ressources et les placer en mode sans gestion.

      5. Une fois tous les groupes de ressources désactivés, entrez q pour revenir au menu Groupe de ressources.

      6. Quittez l'utilitaire scsetup.

        Entrez q pour sortir de chaque sous-menu ou appuyez sur Ctrl+C.

    • Pour utiliser la ligne de commande, effectuez les étapes suivantes :

      1. Mettez la ressource hors ligne.


        phys-schost# scswitch -F -g resource-group
        
        -F

        Bascule un groupe de ressources hors ligne.

        -g resource-group

        Indique le nom du groupe de ressources à mettre hors ligne.

      2. À partir d'un nœud, dressez la liste de toutes les ressources activées dans le cluster.


        phys-schost# scrgadm -pv | grep "Res enabled"
        (resource-group:resource) Res enabled: True
      3. Identifiez les ressources dépendant d'autres ressources.

        Vous devez d'abord désactiver les ressources dépendantes avant de désactiver celles dont elles dépendent.

      4. Désactivez chaque ressource activée dans le cluster.


        phys-schost# scswitch -n -j resource
        
        -n

        Désactive.

        -j ressource

        Indique la ressource.

        Reportez-vous à la page de manuel scswitch(1M) pour obtenir plus d'informations.

      5. Assurez-vous que toutes les ressources sont désactivées.


        phys-schost# scrgadm -pv | grep "Res enabled"
        (resource-group:resource) Res enabled: False
      6. Basculez l'état de chaque groupe de ressources sur sans gestion.


        phys-schost# scswitch -u -g resource-group
        
        -u

        Bascule le groupe de ressources spécifié en mode sans gestion.

        -g resource-group

        Spécifie le nom du groupe de ressources à basculer en mode sans gestion.

  5. Vérifiez que les ressources de tous les nœuds sont déconnectées et que tous les groupes de ressources sont en mode sans gestion.


    phys-schost# scstat
    
  6. Pour un cluster à deux nœuds qui utilise le logiciel Sun StorEdge Availability Suite ou le logiciel Sun StorageTekTM Availability Suite, vérifiez que les données de configuration pour les services de disponibilité résident sur le disque de quorum.

    Les données de configuration doivent résider sur le disque de quorum pour garantir le fonctionnement correct d'Availability Suite après la mise à niveau du logiciel de cluster.

    1. Devenez superutilisateur d'un nœud de cluster qui exécute le logiciel Availability Suite.

    2. Identifiez l'ID de périphérique et la tranche utilisés par le fichier de configuration de Availability Suite.


      phys-schost# /usr/opt/SUNWscm/sbin/dscfg
      /dev/did/rdsk/dNsS
      

      Dans cet exemple, N correspond à l'ID du périphérique et T à la tranche du périphérique N.

    3. Identifiez le périphérique de quorum existant.


      phys-schost# scstat -q
      -- Quorum Votes by Device --
                           Device Name         Present Possible Status
                           -----------         ------- -------- ------
         Device votes:     /dev/did/rdsk/dQsS  1       1        Online

      Dans cet exemple, dQsS correspond au périphérique de quorum existant.

    4. Si le périphérique de quorum n'est pas le périphérique de données de configuration de Availability Suite, déplacez les données de configuration vers une tranche disponible du périphérique de quorum.


      phys-schost# dd if=`/usr/opt/SUNWesm/sbin/dscfg` of=/dev/did/rdsk/dQsS
      

      Remarque –

      Vous devez utiliser le nom du périphérique DID en mode caractère, /dev/did/rdsk/, et non celui du périphérique DID en mode bloc, /dev/did/dsk/.


    5. Si vous avez déplacé les données de configuration, configurez Availability Suite pour qu'il utilise le nouvel emplacement.

      En tant que superutilisateur, exécutez la commande suivante sur chaque nœud exécutant le logiciel Availability Suite.


      phys-schost# /usr/opt/SUNWesm/sbin/dscfg -s /dev/did/rdsk/dQsS
      
  7. (Facultatif) Si vous procédez à la mise à niveau depuis une version du logiciel Sun Cluster 3.0 et ne souhaitez pas que votre fichier ntp.conf soit renommé en ntp.conf.cluster, créez un fichier ntp.conf.cluster.

    Sur chaque nœud, copiez /etc/inet/ntp.cluster sous le nom ntp.conf.cluster.


    phys-schost# cp /etc/inet/ntp.cluster /etc/inet/ntp.conf.cluster
    

    L'existence d'un fichier ntp.conf.cluster empêche le processus de mise à niveau de renommer le fichier ntp.conf. Le fichier ntp.conf sera toujours utilisé pour synchroniser NTP entre les nœuds du cluster.

  8. Fermez toutes les applications ouvertes sur chaque noeud du cluster.

  9. Assurez-vous que toutes les données partagées sont sauvegardées.

  10. Si vous prévoyez de mettre à niveau le SE Solaris et que votre cluster utilise des médiateurs à deux chaînes pour le logiciel Solaris Volume Manager, annulez la configuration de vos médiateurs.

    Pour de plus amples informations sur les médiateurs, reportez-vous à la rubrique Configuration de médiateurs à deux chaînes.

    1. Exécutez la commande suivante pour vérifier l'absence de problèmes de données du médiateur.


      phys-schost# medstat -s setname
      
      -s setname

      Spécifie le nom du jeu de disques.

      Si le champ Statut affiche la valeur Incorrect, réparez l'hôte médiateur affecté. Suivez la procédure de la rubrique Correction des données incorrectes du médiateur.

    2. Répertoriez tous les médiateurs.

      Enregistrez ces informations pour les cas où vous devez restaurer les médiateurs pendant la procédure de la section Finition de la mise à niveau vers Sun Cluster 3.2.

    3. Lorsqu'un jeu de disques utilise des médiateurs, devenez propriétaire du jeu si aucun nœud n'en est propriétaire.


      phys-schost# scswitch -z -D setname -h node
      
      -z

      Change de maître.

      -D devicegroup

      Indique le nom du jeu de disques.

      -h noeud

      Indique le nom du nœud que vous voulez convertir en nœud principal du jeu de disques.

    4. Annulez la configuration de tous les médiateurs du jeu de disques.


      phys-schost# metaset -s setname -d -m mediator-host-list
      
      -s nom_jeu

      Spécifie le nom du jeu de disques.

      -d

      Supprime du jeu de disques.

      -m liste_hôtes_médiateurs

      Indique le nom du nœud à supprimer en tant qu'hôte médiateur du jeu de disques.

      Reportez-vous à la page de manuel mediator(7D) afin d'obtenir plus d'informations sur les options spécifiques du médiateur pour la commande metaset.

    5. Répétez de l'étape c à l'étape d pour chaque jeu de disques restant qui utilise des médiateurs.

  11. Arrêtez le cluster depuis un noeud.


    # scshutdown -g0 -y
    

    Reportez-vous à la page de manuel scshutdown(1M) pour plus d'informations.

  12. Réinitialisez chaque noeud en mode non cluster.

    • Sur les systèmes SPARC, exécutez la commande suivante :


      ok boot -x
      
    • Sur les systèmes x86, exécutez les commandes suivantes :

      1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.

        Le menu GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

      2. Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.

        L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot                                     |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.
      3. Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.


        [ Minimal BASH-like line editing is supported. For the first word, TAB
        lists possible command completions. Anywhere else TAB lists the possible
        completions of a device/filename. ESC at any time exits. ]
        
        grub edit> kernel /platform/i86pc/multiboot -x
        
      4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

        L'écran affiche la commande modifiée.


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot -x                                  |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.-
      5. Saisissez b pour initialiser le nœud en mode non cluster.


        Remarque –

        Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour effectuer un démarrage en mode non-cluster, exécutez à nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.


  13. Assurez-vous que chaque disque système est sauvegardé.

Étapes suivantes

Mettez à niveau le logiciel sur chaque nœud.

ProcedureMise à niveau du système d'exploitation Solaris et du logiciel Volume Manager (standard)

Effectuez cette procédure sur chaque noeud du cluster pour mettre à niveau le système d'exploitation Solaris. Sur Solaris 10, effectuez toutes les étapes à partir de la zone globale uniquement.Si le cluster fonctionne déjà avec une version de Solaris prenant en charge Sun Cluster 3.2, il n'est pas nécessaire de mettre Solaris à niveau. Si vous ne prévoyez pas de mettre à niveau le système d'exploitation Solaris, reportez-vous à la rubrique Mise à niveau de Sun Cluster 3.2 (standard).


Remarque –

Le cluster doit déjà fonctionner avec, ou être mis à niveau vers, au moins le niveau minimum requis du système d'exploitation Solaris pour prendre en charge la mise à niveau vers Sun Cluster 3.2. Pour de plus amples informations, reportez-vous à la rubrique « Produits pris en charge » des Notes de version de Sun Cluster 3.2 pour SE Solaris.


Avant de commencer

Assurez-vous d'avoir suivi toutes les étapes de la rubrique Préparation du cluster pour la mise à niveau (standard).

  1. Devenez superutilisateur du nœud de cluster à mettre à niveau.

    Si vous effectuez une mise à niveau à partition double, le nœud doit être un membre de la partition en mode non cluster.

  2. Si le logiciel Sun Cluster Geographic Edition est installé, désinstallez-le.

    Pour connaître les procédures de désinstallation, reportez-vous à la documentation correspondant à votre version de Sun Cluster Geographic Edition.

  3. Déterminez si les scripts suivants de contrôle d'exécution Apache sont présents et activés :


    /etc/rc0.d/K16apache
    /etc/rc1.d/K16apache
    /etc/rc2.d/K16apache
    /etc/rc3.d/S50apache
    /etc/rcS.d/K16apache

    Certaines applications, telles que Sun Cluster HA pour Apache, nécessitent la désactivation des scripts de contrôle d'exécution Apache.

    • Si ces scripts existent et contiennent un K ou un S en majuscule dans le nom de fichier, ils sont activés. Ils ne nécessitent aucune autre intervention.

    • Si ces scripts n'existent pas, vous devez vérifier à l'Étape 8 que ceux installés lors de la mise à niveau du système d'exploitation Solaris sont désactivés.

    • Si ces scripts existent et contiennent un k ou un s en minuscule, ils sont désactivés. À l'Étape 8, vous devez vous assurer de la désactivation des scripts de contrôle d'exécution Apache installés lors de la mise à niveau du système d'exploitation Solaris.

  4. Commentez toutes les entrées des systèmes de fichiers montés globalement dans le fichier /etc/vfstab du nœud.

    1. Notez toutes les entrées faisant déjà l'objet d'un commentaire afin de pouvoir vous y reporter ultérieurement.

    2. Mettez en commentaire provisoirement toutes les entrées des systèmes de fichiers montés globalement dans le fichier/etc/vfstab.

      Ces entrées contiennent l'option de montage global. En les mettant en commentaire, vous empêchez la mise à niveau de Solaris de monter les périphériques globaux.

  5. Déterminez la procédure à suivre pour mettre à niveau le système d'exploitation Solaris.

    Gestionnaire de volumes 

    Procédure 

    Emplacement des instructions 

    Solaris Volume Manager 

    Toute méthode de mise à niveau de Solaris à l'exception de la méthode Live Upgrade.

    Documentation d'installation de Solaris 

    VERITAS Volume Manager 

    “Mise à niveau de VxVM et de Solaris” 

    Documentation d'installation de VERITAS Volume Manager 


    Remarque –

    Si VxVM est installé sur votre cluster, vous devez réinstaller le logiciel VxVM existant ou effectuer une mise à niveau vers la version Solaris 9 ou 10 dans le cadre de la mise à niveau Solaris.


  6. En fonction du choix opéré à l'Étape 5, mettez à niveau Solaris.


    Remarque –

    Ne suivez pas l'instruction finale de réinitialisation lors de la mise à niveau de Solaris. Procédez donc comme suit :

    1. Passez à l'Étape 7 et à l'Étape 8 de cette procédure.

    2. Pour terminer la mise à niveau de Solaris, effectuez la réinitialisation en mode non cluster à l'Étape 9.


    • Lorsque vous y êtes invité, choisissez l'option de réinitialisation manuelle.

    • Si vous êtes invité à réinitialiser un nœud lors de la mise à niveau, effectuez toujoursl'opération en mode non cluster. À la commande boot ou reboot, ajoutez l'option -x. L'option -x vous assure que le nœud est réinitialisé en mode non cluster. Par exemple, les deux commandes suivantes initialisent un noeud en mode monoutilisateur non cluster :

    • Sur les systèmes SPARC, exécutez l'une des commandes suivantes :


      phys-schost# reboot -- -xs
      or
      ok boot -xs
      

      Si vous êtes invité à exécuter init S, utilisez plutôt la commande reboot -- -xs.

    • Sur les systèmes x86 exécutés sous Solaris 9, exécutez l'une des commandes suivantes :


      phys-schost# reboot -- -xs
      or
      ...
                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER>  to boot with options
      or    i <ENTER>                           to enter boot interpreter
      or    <ENTER>                             to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -xs
      
    • Sur les systèmes x86 exécutés sous Solaris 10, exécutez la commande suivante :


      phys-schost# shutdown -g -y -i0Press any key to continue
      1. Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.

        Le menu GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

      2. Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.

        L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot                                     |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.
      3. Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.


        [ Minimal BASH-like line editing is supported. For the first word, TAB
        lists possible command completions. Anywhere else TAB lists the possible
        completions of a device/filename. ESC at any time exits. ]
        
        grub edit> kernel /platform/i86pc/multiboot -x
        
      4. Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.

        L'écran affiche la commande modifiée.


        GNU GRUB version 0.95 (615K lower / 2095552K upper memory)
        +----------------------------------------------------------------------+
        | root (hd0,0,a)                                                       |
        | kernel /platform/i86pc/multiboot -x                                  |
        | module /platform/i86pc/boot_archive                                  |
        +----------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press 'b' to boot, 'e' to edit the selected command in the
        boot sequence, 'c' for a command-line, 'o' to open a new line
        after ('O' for before) the selected line, 'd' to remove the
        selected line, or escape to go back to the main menu.-
      5. Saisissez b pour initialiser le nœud en mode non cluster.


        Remarque –

        Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour effectuer un démarrage en mode non cluster, exécutez à nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.


      Si l'instruction vous indique d'exécuter la commande init S, arrêtez le système, puis modifiez plutôt la commande d'initialisation de noyau GRUB sur /platform/i86pc/multiboot -sx.

  7. Dans le fichier /a/etc/vfstab, retirez les commentaires de l' Étape 4 sur les entrées des systèmes de fichiers montés globalement.

  8. Si les scripts de contrôle d'exécution Apache étaient désactivés ou n'existaient pas avant la mise à niveau du système d'exploitation Solaris, vérifiez que les scripts installés au cours de la mise à niveau de Solaris sont désactivés.

    Pour désactiver les scripts de contrôle d'exécution Apache, utilisez les commandes suivantes pour renommer les fichiers avec un k ou un s minuscule.


    phys-schost# mv /a/etc/rc0.d/K16apache /a/etc/rc0.d/k16apache
    phys-schost# mv /a/etc/rc1.d/K16apache /a/etc/rc1.d/k16apache
    phys-schost# mv /a/etc/rc2.d/K16apache /a/etc/rc2.d/k16apache
    phys-schost# mv /a/etc/rc3.d/S50apache /a/etc/rc3.d/s50apache
    phys-schost# mv /a/etc/rcS.d/K16apache /a/etc/rcS.d/k16apache
    

    Vous pouvez alternativement renommer les scripts conformément à vos pratiques administratives.

  9. Réinitialisez le noeud en mode non cluster.

    Insérez un double tiret (--) dans la commande suivante :


    phys-schost# reboot -- -x
    
  10. Si votre cluster exécute VxVM, suivez les étapes restantes de la procédure « Mise à niveau de VxVM et du logiciel Solaris » pour réinstaller ou mettre à niveau VxVM.

    Apportez les changements suivants à la procédure :

    • Une fois la mise à niveau de VxVM terminée, mais avant de procéder à la réinitialisation, vérifiez les entrées du fichier /etc/vfstab.

      Si des commentaires d'entrée n'ont pas été retirés à l'Étape 7 réessayez.

    • Si VxVM vous invite à effectuer une reconfiguration finale après réinitialisation, n'utilisez pas l'option -r seule. Utilisez plutôt les options -rx pour effectuer une réinitialisation en mode non cluster.

      • Sur les systèmes SPARC, exécutez la commande suivante :


        phys-schost# reboot -- -rx
        
      • Sur les systèmes x86, effectuez les procédures d'arrêt et d'initialisation décrites dans l'Étape 6, mais ajoutez -rx à la commande d'initialisation du noyau au lieu de -sx.


    Remarque –

    Si un message similaire à celui-ci s'affiche, entrez le mot de passe racine pour continuer la mise à niveau. N'exécutez pas la commande fsck et n'appuyez pas sur Ctrl+D.


    WARNING - Unable to repair the /global/.devices/node@1 filesystem.
    Run fsck manually (fsck -F ufs /dev/vx/rdsk/rootdisk_13vol). Exit the
    shell when done to continue the boot process.
    
    Type control-d to proceed with normal startup,
    (or give root password for system maintenance):  Type the root password
    

  11. (Facultatif) SPARC : mettez à niveau VxFS.

    Suivez les instructions des procédures fournies dans la documentation VxFS.

  12. Installez tous les patchs du logiciel Solaris ainsi que les patchs matériels, puis téléchargez tous les microprogrammes des patchs matériels dont vous pourriez avoir besoin.


    Remarque –

    n'effectuez aucune réinitialisation après l'ajout des patchs. Attendez la fin de la mise à niveau du logiciel Sun Cluster pour réinitialiser le nœud.


    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la section Patchs et niveaux des micrologiciels requis du Notes de version de Sun Cluster 3.2 pour SE Solaris.

Étapes suivantes

Mise à niveau vers le logiciel Sun Cluster 3.2 Reportez-vous à la section Mise à niveau de Sun Cluster 3.2 (standard).


Remarque –

Si vous procédez à la mise à niveau du système d'exploitation Solaris vers une nouvelle version marketing, par exemple à partir de Solaris 8 vers Solaris 10, vous devez également mettre à niveau le logiciel Sun Cluster et les logiciels de dépendance vers une version compatible avec la nouvelle version du système d'exploitation Solaris.


ProcedureMise à niveau de Sun Cluster 3.2 (standard)

Effectuez cette procédure afin de mettre à niveau chacun des nœuds du cluster vers Sun Cluster 3.2. Cette procédure met également à niveau les composants Sun Java Enterprise System requis.

Vous devez également effectuer cette procédure après la mise à niveau vers une version marketing différente du système d'exploitation Solaris, notamment à partir de Solaris 8 vers Solaris 10.

Sur Solaris 10, effectuez toutes les étapes à partir de la zone globale uniquement.


Astuce –

vous pouvez effectuer cette procédure sur plusieurs nœuds simultanément.


Avant de commencer

Effectuez les tâches suivantes :

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Vérifiez que le répertoire /usr/java/ est un lien symbolique vers la version minimum ou la dernière version du logiciel Java.

    Le logiciel Sun Cluster requiert au minimum la version 1.5.0_06 du logiciel Java. Si vous avez procédé à la mise à niveau vers une version de Solaris qui installe une version antérieure de Java, il se peut que la mise à niveau ait modifié le lien symbolique pour pointer vers une version de Java ne correspondant pas au minimum requis pour le logiciel Sun Cluster 3.2.

    1. Identifiez le répertoire auquel /usr/java/ est associé par lien symbolique.


      phys-schost# ls -l /usr/java
      lrwxrwxrwx   1 root   other    9 Apr 19 14:05 /usr/java -> /usr/j2se/
    2. Identifiez la ou les versions installées du logiciel Java.

      L'exemple suivant présente les commandes que vous pouvez utiliser pour afficher les versions connexes du logiciel Java.


      phys-schost# /usr/j2se/bin/java -version
      phys-schost# /usr/java1.2/bin/java -version
      phys-schost# /usr/jdk/jdk1.5.0_06/bin/java -version
      
    3. Si le répertoire /usr/java/ n'est pas associé par un lien symbolique à une version prise en charge du logiciel Java, recréez le lien symbolique.

      L'exemple suivant présente la création d'un lien symbolique vers le répertoire /usr/j2se/ contenant le logiciel Java 1.5.0_06.


      phys-schost# rm /usr/java
      phys-schost# ln -s /usr/j2se /usr/java
      
  3. Chargez le DVD-ROM Sun Java Availability Suite dans le lecteur DVD-ROM\~;.

    Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il est configuré pour gérer les périphériques de CD-ROM ou de DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0/.

  4. Déplacez-vous sur le répertoire assistant d'installation du DVD-ROM\~;.

    • Si vous installez les packages du logiciel sur une plate-forme SPARC, exécutez la commande suivante :


      phys-schost# cd /cdrom/cdrom0//Solaris_sparc
      
    • Si vous installez les packages du logiciel sur une plate-forme x86, exécutez la commande suivante :


      phys-schost# cd /cdrom/cdrom0//Solaris_x86
      
  5. Démarrez le programme assistant d'installation.


    phys-schost# ./installer
    
  6. Suivez les instructions qui apparaissent à l'écran pour sélectionner et mettre à niveau les packages des composants partagés sur le nœud.


    Remarque –

    N'utilisez pas l'assistant d'installation pour mettre à niveau les packages Sun Cluster.


    Le programme assistant d'installation affiche l'état de l'installation. Une fois l'installation terminée, le programme affiche un récapitulatif et l'installation démarre.

  7. Quittez le programme assistant d'installation.

  8. Déplacez-vous sur le répertoire RépertoireSolaris_arch/Product/sun_cluster/Solaris_ver/Tools/ , où arch est sparc ou x86 (Solaris 10 uniquement) et où ver est 9 pour Solaris 9 ou 10 pour Solaris 10 .


    phys-schost# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Tools
    
  9. Lancer l'utilitaire scinstall.


    phys-schost# ./scinstall
    

    Remarque –

    n'utilisez pas la commande /usr/cluster/bin/scinstall déjà installée sur le noeud. Vous devez utiliser la commande scinstall située sur le DVD-ROM Sun Java Availability Suite.


    Le menu principal scinstall s'affiche.

  10. Saisissez le numéro correspondant à l'option de mise à niveau de ce nœud de cluster, puis appuyez sur la touche Retour.


      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Create a new cluster or add a cluster node
            2) Configure a cluster to be JumpStarted from this install server
          * 3) Manage a dual-partition upgrade
          * 4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
    
        Option:  4
    

    Le menu de mise à niveau s'affiche.

  11. Saisissez le numéro correspondant à l'option de mise à niveau de la structure Sun Cluster sur ce nœud de cluster, puis appuyez sur la touche Retour.

  12. Suivez les instructions pour mettre à niveau la structure du cluster.

    Lors de la mise à niveau de Sun Cluster, scinstall risque d'apporter le(s) changement(s) de configuration suivant(s) :

    La mise à niveau de la structure Sun Cluster est terminée lorsque le système affiche un message de confirmation et vous invite à appuyer sur la touche entrée.

  13. Fermez l'utilitaire scinstall.

  14. Retirez le DVD-ROM Sun Java Availability Suite du lecteur DVD-ROM\~;.

    1. Afin de vous assurer que le DVD-ROM\~; n'est pas utilisé, déplacez-vous sur un répertoire ne résidant pas sur le DVD-ROM\~;.

    2. Éjectez le DVD-ROM\~;.


      phys-schost# eject cdrom
      
  15. Mettez à niveau les packages de services de données.

    Vous devez mettre à niveau tous les services de données vers la version 3.2 de Sun Cluster.


    Remarque –

    Pour Sun Cluster HA pour SAP Web Application Server, si vous utilisez une ressource de moteur J2EE ou une ressource de composant serveur d'application Web, ou les deux, vous devez supprimer la ressource et la recréer avec la nouvelle ressource de composant serveur d'application Web. Les modifications apportées à la nouvelle ressource de composant serveur d'application Web incluent l'intégration de la fonctionnalité J2EE. Pour plus d'informations, reportez-vous au manuel Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS.


    1. Lancez l'utilitaire scinstall interactif mis à niveau.


      phys-schost# /usr/cluster/bin/scinstall
      

      Remarque –

      N'utilisez pas l'utilitaire scinstall se trouvant sur le support d'installation pour mettre à niveau les packages de services de données.


      Le menu principal scinstall s'affiche.

    2. Saisissez le numéro correspondant à l'option de mise à niveau de ce nœud de cluster, puis appuyez sur la touche Retour.

      Le menu de mise à niveau s'affiche.

    3. Saisissez le numéro correspondant à l'option de mise à niveau des agents de services de données Sun Cluster sur ce nœud, puis appuyez sur la touche Retour.

    4. Suivez les instructions pour mettre à niveau les agents de services de données Sun Cluster installés sur le nœud.

      Vous pouvez choisir de mettre à niveau tous les services de données installés ou une partie des éléments répertoriés.

      La mise à niveau est terminée lorsque le système affiche un message de confirmation signalant que la mise à niveau des agents de services de données a été effectuée avec succès et vous invite à appuyer sur la touche Entrée pour continuer.

    5. Appuyez sur Entr\'e9e.

      Le menu de mise à niveau s'affiche.

  16. Fermez l'utilitaire scinstall.

  17. Si Sun Cluster HA pour NFS est configuré sur un système de fichiers local à forte disponibilité, assurez-vous que le système de fichiers loopback (LOFS) est désactivé.


    Remarque –

    Si des zones non globales sont configurées, le LOFS doit rester activé. Pour obtenir des directives sur l'utilisation du LOFS et les possibilités de le désactiver, reportez-vous à la section Systèmes de fichiers de grappe.


    À partir de la version 3.2 de Sun Cluster, le LOFS n'est plus désactivé par défaut au cours de l'installation ou de la mise à niveau de Sun Cluster. Pour désactiver le LOFS, assurez-vous que le ficher /etc/system contient l'entrée suivante :


    exclude:lofs

    Ce changement est pris en compte à la prochaine réinitialisation du système.

  18. En fonction des besoins, mettez à niveau manuellement les services de données personnalisés non disponibles sur le support produit.

  19. Vérifiez que chaque mise à jour des services de données est correctement installée.

    Consultez le journal de la mise à niveau, référencé à la fin des messages émis en cours de mise à niveau.

  20. Installez les patchs du logiciel de service de données et de l'architecture de Sun Cluster 3.2.

    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la section Patchs et niveaux des micrologiciels requis du Notes de version de Sun Cluster 3.2 pour SE Solaris.

  21. Mettez à niveau les applications du logiciel installées sur le cluster.

    Assurez-vous que les niveaux des applications sont compatibles avec les versions actuelles de Sun Cluster et du logiciel Solaris. Reportez-vous à la documentation de l'application pour les instructions d'installation.

  22. (Facultatif) Reconfigurez la plage d'adresses du réseau privé.

    Effectuez cette étape si vous souhaitez augmenter ou réduire la taille de la plage d'adresses IP utilisée par l'interconnexion privée. La plage d'adresses IP configurée doit au minimum prendre en charge le nombre de nœuds et de réseaux privés du cluster. Pour de plus amples informations, reportez-vous à la section Réseau privé.

    1. À partir d'un nœud, lancez l'utilitaire clsetup.

      S'il est exécuté en mode non cluster, l'utilitaire clsetup affiche le menu principal pour les opérations en mode non cluster.

    2. Saisissez le numéro correspondant à l'option de modification de la plage d'adresses IP, puis appuyez sur la touche Retour.

      L'utilitaire clsetup affiche la configuration de réseau privé actuelle, puis vous demande si vous souhaitez modifier cette configuration.

    3. Pour modifier l'adresse IP de réseau privé ou la plage d'adresses IP, tapez oui, puis appuyez sur la touche Retour.

      L'utilitaire clsetup affiche l'adresse IP de réseau privé par défaut, 172.16.0.0, puis vous demande si vous acceptez cette valeur par défaut.

    4. Modifiez ou acceptez l'adresse IP de réseau privé.

      • Pour accepter l'adresse IP de réseau privé par défaut et continuer en modifiant la plage d'adresses IP, saisissez oui, puis appuyez sur la touche Retour.

        L'utilitaire clsetup vous demande si vous souhaitez accepter le masque de réseau par défaut. Passez à l'étape suivante pour entrer votre réponse.

      • Pour modifier l'adresse IP de réseau privé par défaut, effectuez les sous-étapes suivantes.

        1. Saisissez non en réponse à la question de l'utilitaire clsetup portant sur l'acceptation de l'adresse par défaut, puis appuyez sur la touche Retour.

          L'utilitaire clsetup vous invite à saisir la nouvelle adresse IP de réseau privé.

        2. Saisissez la nouvelle adresse IP, puis appuyez sur la touche Retour.

          L'utilitaire clsetup affiche le masque de réseau par défaut, puis vous demande si vous acceptez le masque de réseau par défaut.

    5. Modifiez ou acceptez la plage d'adresses IP de réseau privé par défaut.

      Le masque de réseau par défaut est le 255.255.248.0. Cette plage d'adresses IP par défaut prend en charge un maximum de 64 nœuds et de 10 réseaux privés dans le cluster.

      • Pour accepter la plage d'adresses IP par défaut, saisissez oui, puis appuyez sur la touche Retour.

        Passez ensuite à l'étape suivante.

      • Pour modifier la plage d'adresses IP, effectuez les sous-étapes suivantes.

        1. Saisissez non en réponse à la question de l'utilitaire clsetup portant sur l'acceptation de la plage d'adresses par défaut, puis appuyez sur la touche Retour.

          Lorsque vous refusez le masque de réseau par défaut, l'utilitaire clsetup vous invite à saisir le nombre de nœuds et de réseaux privés que vous prévoyez de configurer dans le cluster.

        2. Saisissez le nombre de nœuds et de réseaux privés que vous prévoyez de configurer dans le cluster.

          À partir de ces chiffres, l'utilitaire clsetup calcule deux masques de réseau proposés :

          • Le premier masque de réseau est le masque de réseau minimum pour assurer la prise en charge des nœuds et réseaux privés spécifiés.

          • Le second masque de réseau prend en charge deux fois plus de nœuds et de réseaux privés que ce que vous avez indiqué afin de permettre une éventuelle augmentation ultérieure.

        3. Indiquez l'un des masques de réseau calculés ou indiquez un masque de réseau différent prenant en charge le nombre de nœuds et de réseaux privés souhaités.

    6. Saisissez oui lorsque l'utilitaire clsetup vous demande de continuer avec la mise à jour.

    7. Une fois l'opération terminée, quittez l'utilitaire clsetup.

  23. Lorsque tous les nœuds sont mis à niveau, réinitialisez les nœuds mis à niveau.

    1. Arrêtez tous les noeuds.


      phys-schost# shutdown -g0 -y
      
    2. Initialisez chaque nœud en mode cluster.

      • Sur les systèmes SPARC, procédez comme suit :


        ok boot
        
      • Sur les systèmes x86, procédez comme suit :

        Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Solaris appropriée, puis appuyez sur Entrée. Le menu GRUB qui s'affiche est similaire à ce qui suit :


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.

Étapes suivantes

Reportez-vous à la section Vérification de la mise à niveau de Sun Cluster 3.2.