Guide d'installation du logiciel Sun Cluster pour SE Solaris

Préparation du cluster en vue d'une mise à niveau non progressive

Avant de mettre le logiciel à niveau, procédez comme suit pour mettre le cluster hors service :

  1. Assurez-vous que la configuration respecte les conditions de mise à niveau.

    Reportez-vous à la rubrique Mises à niveau requises et instructions relatives aux prises en charge .

  2. Gardez à portée de main les CD, la documentation et les patchs de tous les produits logiciels que vous mettez à niveau.

    • système d'exploitation Solaris 8 ou Solaris 9 ;

    • infrastructure Sun Cluster 3.1 9/04 ;

    • services de données Sun Cluster 3.1 9/04 (agents) ;

    • applications gérées par les agents des services de données de Sun Cluster 3.1 9/04.

    • SPARC : VERITAS Volume Manager

    Reportez-vous à la rubrique “Patchs et niveaux de microprogrammes requis” du document Notes de version de Sun Cluster 3.1 pour connaître l'emplacement des patchs et les consignes d'installation.

  3. (Facultatif) Installez la documentation Sun Cluster 3.1 9/04.

    Installez les packages de documentation à l'emplacement de votre choix, comme une console administrative ou un serveur de documentation. Reportez-vous au fichier index.html situé au niveau supérieur du CD-ROM Sun Cluster 3.1 9/04 pour accéder aux instructions d'installation.

  4. Si vous effectuez une mise à niveau à partir du logiciel Sun Cluster 3.0, veillez à ce que la liste des adresses IP de test soit accessible.

    Chacun des adaptateurs de réseau public du cluster doit disposer d'au moins une adresse IP de test. Cette condition s'applique qu'il s'agisse de l'adaptateur actif ou de l'adaptateur de sauvegarde du groupe. Les adresses IP de test permettent de reconfigurer les adaptateurs, afin d'utiliser le Multiacheminement sur réseau IP.


    Remarque –

    chaque adresse IP de test doit figurer sur le même sous-réseau que l'adresse IP existante qu'utilise l'adaptateur réseau public.


    Pour afficher la liste des adaptateurs réseau public d'un nœud, exécutez la commande suivante :


    % pnmstat
    

    Reportez-vous au document IP Network Multipathing Administration Guide (Solaris 8) ou au System Administration Guide: IP Services (Solaris 9) pour de plus amples informations sur les adresses IP de test pour Multiacheminement sur réseau IP.

  5. Informez les utilisateurs de l'indisponibilité des services du cluster au cours de la mise à niveau.

  6. Vérifiez que le cluster fonctionne normalement.

    • Pour afficher l'état actuel du cluster, exécutez la commande suivante à partir de n'importe quel nœud.


      % scstat
      

      Reportez-vous à la page man scstat(1M) pour de plus amples informations.

    • Recherchez le journal /var/adm/messages sur chaque nœud pour obtenir les erreurs non résolues et les messages d'avertissement.

    • Vérifiez l'état du gestionnaire de volumes.

  7. Devenez superutilisateur sur un nœud du cluster.

  8. Démarrez l'utilitaire scsetup(1m).


    # scsetup
    

    Le menu principal apparaît.

  9. Basculez chaque groupe de ressources hors ligne.

    1. À partir du menu principal scsetup, choisissez les groupes de ressources.

    2. Dans le menu Groupe de ressources, choisissez l'option Connecter/déconnecter ou basculer un groupe de ressources.

    3. Suivez les instructions pour désactiver tous les groupes de ressources et les placer dans l'état non géré.

    4. Une fois tous les groupes de ressources désactivés, entrez q pour revenir au menu Groupe de ressources.

  10. Désactivez toutes les ressources du cluster.

    La désactivation des ressources avant la mise à niveau permet d'éviter que le cluster ne remette en ligne des ressources automatiquement si un nœud est réinitialisé en mode cluster par erreur.

    1. Dans le menu Groupe de ressources, choisissez Activation/Désactivation d'une ressource.

    2. Choisissez une ressource à désactiver, puis suivez les directives fournies.

    3. Répétez l'Étape b pour chacune des ressources.

    4. Une fois que toutes les ressources sont désactivées, entrez q pour revenir au menu Groupe de ressources.

  11. Quittez l'utilitaire scsetup.

    Entrez q pour sortir de chaque sous-menu ou appuyez sur Ctrl+C.

  12. Vérifiez que tous les nœuds sont Désactivés et que tous les groupes de ressources sont en mode sans gestion.


    # scstat -g
    

  13. Si le cluster utilise des médiateurs à deux chaînes pour Solstice DiskSuite ou Solaris Volume Manager, déconfigurez-les.

    Pour de plus amples informations, reportez-vous à la rubrique Configuration de médiateurs à deux chaînes .

    1. Exécutez la commande suivante pour vérifier l'absence de problèmes de données du médiateur.


      # medstat -s nom_jeu
      
      -s nom_jeu

      Indique le nom d'un jeu de disques.

      Si le champ Status affiche la valeur Bad, réparez l'hôte médiateur affecté. Suivez la procédure de la rubrique Correction des données incorrectes du médiateur .

    2. Répertoriez tous les médiateurs.

      Enregistrez ces informations afin de les utiliser lors de la restauration des médiateurs au cours de la procédure décrite sous la rubrique Exécution d'une mise à niveau non progressive du logiciel Sun Cluster 3.1 9/04.

    3. Lorsqu'un jeu de disques utilise des médiateurs, devenez propriétaire du jeu si aucun nœud n'en est propriétaire.


      # metaset -s nom_jeu -t
      
      -t

      Permet de devenir propriétaire du jeu de disques.

    4. Déconfigurez tous les médiateurs du jeu de disques.


      # metaset -s nom_jeu -d -m liste_hôtes_médiateurs
      
      -s nom_jeu

      Indique le nom d'un jeu de disques.

      -d

      Supprime du jeu de disques.

      -m liste_hôtes_médiateurs

      Indique le nom du nœud à supprimer en tant qu'hôte médiateur du jeu de disques.

      Reportez-vous à la page man mediator(7D) pour plus de détails sur les options propres au médiateur pour la commande metaset.

    5. Répétez l'Étape c et l'Étape d pour chacun des jeux de disques restant utilisant des médiateurs.

  14. Installez les packages Console Web de Sun, si ce n'est déjà fait.

    Effectuez cette opération sur chaque nœud du cluster. Ces packages sont requis par Sun Cluster, même si vous n'utilisez pas Console Web de Sun.

    1. Insérez le CD-ROM CD-ROM Sun Cluster 3.1 9/04 dans le lecteur.

    2. Choisissez le répertoire /cdrom/cdrom0/Solaris_arch/Product/sun_web_console/2.1/, où arch correspond à sparc ou à x86.

    3. Exécutez la commande setup.


      # ./setup
      

      La commande setup installe tous les packages nécessaires à la prise en charge de Console Web de Sun.

  15. Dans le cadre d'un cluster à deux nœuds, si celui-ci utilise le logiciel Sun StorEdge Availability Suite, vérifiez que les données de configuration des services de disponibilité résident sur le disque de quorum.

    Pour garantir le bon fonctionnement du logiciel Sun StorEdge Availability Suite après la mise à niveau du logiciel de cluster, il est essentiel que les données de configuration figurent sur un disque de quorum.

    1. Devenez superutilisateur sur l'un des nœuds du cluster exécutant le logiciel Sun StorEdge Availability Suite.

    2. Identifiez l'ID de périphérique et la tranche utilisée par le fichier de configuration du logiciel Sun StorEdge Availability Suite.


      # /usr/opt/SUNWscm/sbin/dscfg
      /dev/did/rdsk/dNsT
      

      Dans cet exemple, N correspond à l'ID du périphérique et T à la tranche du périphérique N.

    3. Identifiez le périphérique de quorum existant.


      # scstat -q
      -- Votes de quorum par périphériques --
                           		Nom du 
      							périphérique  		Actuel Possible Statut
                           		------------------  ------ -------- ------
         Votes du périphérique : /dev/did/rdsk/dQsS  1       1      En ligne

      Dans cet exemple, dQsS correspond au périphérique de quorum existant.

    4. Si le périphérique de quorum n'est pas le même que celui des données de configuration de Sun StorEdge Availability Suite, déplacez ces dernières vers une tranche disponible du périphérique de quorum.


      # dd if=`/usr/opt/SUNWesm/sbin/dscfg` of=/dev/did/rdsk/dQsS
      


      Remarque –

      Vous devez utiliser le nom du périphérique DID en mode caractère, /dev/did/rdsk/, et non celui du périphérique DID en mode bloc, /dev/did/dsk/.


    5. Si vous avez déplacé les données de configuration, configurez le logiciel Sun StorEdge Availability Suite afin d'utiliser le nouvel emplacement.

      En tant que superutilisateur, exécutez la commande ci-dessous sur chacun des nœuds exécutant le logiciel Sun StorEdge Availability Suite.


      # /usr/opt/SUNWesm/sbin/dscfg -s /dev/did/rdsk/dQsS
      

  16. Fermez toutes les applications ouvertes sur chaque nœud du cluster.

  17. Assurez-vous que toutes les données partagées sont sauvegardées.

  18. Fermez le cluster à partir d'un nœud.


    # scshutdown -g0 -y
    

    Reportez-vous à la page man scshutdown(1M) pour de plus amples informations.

  19. Réinitialisez chaque nœud en mode non-cluster.

    Sur les systèmes SPARC, exécutez la commande suivante :


    ok boot -x
    

    Sur les systèmes x86, exécutez les commandes suivantes :


    ...
                          <<< Paramètres d'initialisation actuels >>>
    Chemin d'initialisation : /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
    Args d'initialisation :
    
    Entrez  b [nom-fichier] [indicateurs-initialisation] <ENTRÉE>
    pour initialiser avec les options
    
    ou    	  i <ENTRÉE>	pour entrer l'interprète d'initialisation
    ou      <ENTRÉE>	pour initialiser avec les valeurs par défaut
    
                      <<< expiration du délai dans 5 secondes >>>
    Sélectionnez (b)oot ou (i)nterpreter : b -x
    

  20. Assurez-vous que chaque disque système est sauvegardé.

  21. Effectuez la mise à niveau de Sun Cluster ou du système d'exploitation Solaris.