Guide d'installation du logiciel Sun Cluster pour SE Solaris

ProcedurePréparation d'un nœud de cluster à une mise à niveau progressive Mise à niveau

Exécutez cette procédure sur un seul nœud à la fois. Vous sortez le nœud mis à niveau du cluster pendant que les autres nœuds continuent à fonctionner en tant qu'éléments actifs du cluster.

Avant de commencer

Effectuez les tâches suivantes :

Respectez les instructions suivantes lors d'une mise à niveau progressive :

Étapes
  1. (Facultatif) Installez la documentation Sun Cluster 3.1 8/05.

    Installez les packages de documentation à l'emplacement de votre choix, comme une console administrative ou un serveur de documentation. Reportez-vous au fichier Solaris_arch/Product/sun_cluster/index.html du CD 2 de Sun Cluster pour connaître les instructions d'installation (arch représente sparc ou x86).

  2. Si vous mettez à niveau Sun Cluster 3.1 version 09/04, assurez-vous que le dernier patch de base de Sun Cluster 3.1 est installé.

    Ce patch de base contient les corrections de CR 6210440 nécessaires pour permettre la mise à niveau progressive de Sun Cluster 3.1 version 9/04 vers Sun Cluster 3.1 8/05.

  3. Devenez superutilisateur d'un nœud du cluster à mettre à niveau.

  4. Pour un cluster à deux nœuds utilisant Sun StorEdge Availability Suite, vérifiez que les données de configuration des services de disponibilité se trouvent sur le disque de quorum.

    Les données de configuration doivent résider sur le disque de quorum pour garantir le fonctionnement correct de Sun StorEdge Availability Suite après la mise à niveau du logiciel de cluster.

    1. Devenez superutilisateur d'un nœud de cluster qui exécute Sun StorEdge Availability Suite.

    2. Identifiez l'ID de périphérique et la tranche utilisés par le fichier de configuration de Sun StorEdge Availability Suite.


      # /usr/opt/SUNWscm/sbin/dscfg
      /dev/did/rdsk/dNsT
      

      Dans cet exemple, N correspond à l'ID du périphérique et T à la tranche du périphérique N.

    3. Identifiez le périphérique de quorum existant.


      # scstat -q
      -- Quorum Votes by Device --
                           Device Name         Present Possible Status
                           -----------         ------- -------- ------
         Device votes:     /dev/did/rdsk/dQsS  1       1        Online

      Dans cet exemple,dQsS correspond au périphérique de quorum existant.

    4. Si le périphérique de quorum n'est pas le périphérique de données de configuration de Sun StorEdge Availability Suite, déplacez les données de configuration vers une tranche disponible du périphérique de quorum.


      # dd if=`/usr/opt/SUNWesm/sbin/dscfg` of=/dev/did/rdsk/dQsS
      

      Remarque –

      Vous devez utiliser le nom du périphérique DID en mode caractère, /dev/did/rdsk/, et non celui du périphérique DID en mode bloc, /dev/did/dsk/.


    5. Si vous avez déplacé les données de configuration, configurez Sun StorEdge Availability Suite pour qu'il utilise le nouvel emplacement.

      En tant que superutilisateur, exécutez la commande suivante sur chaque nœud exécutant Sun StorEdge Availability Suite.


      # /usr/opt/SUNWesm/sbin/dscfg -s /dev/did/rdsk/dQsS
      
  5. Visualisez l'état du cluster à partir de l'un des nœuds.

    Enregistrez ces données afin de pouvoir les consulter ultérieurement.


    % scstat
    % scrgadm -pv[v]

    Reportez-vous aux pages de manuel scstat(1M) et scrgadm(1M) pour obtenir plus d'informations.

  6. Déplacez tous les groupes de ressources/périphériques exécutés sur le nœud à mettre à niveau.


    # scswitch -S -h from-node
    
    -S

    Déplace tous les groupes de ressources et groupes de périphériques.

    -h nœud_origine

    Spécifie le nom du nœud à partir duquel déplacer les groupes de ressources et de périphériques.

    Reportez-vous à la page de manuel scswitch(1M) pour obtenir plus d'informations.

  7. Assurez-vous de la réussite de l'évacuation.


    # scstat -g -D
    
    -g

    Affiche l'état de tous les groupes de ressources.

    -D

    Affiche l'état de tous les groupes de périphériques de disques.

  8. Assurez-vous de la sauvegarde du disque système, des applications et de toutes les données.

  9. Si le cluster utilise des médiateurs à deux chaînes pour Solstice DiskSuite ou Solaris Volume Manager, annulez leur configuration.

    Reportez-vous à la rubrique Configuration de médiateurs à deux chaînes pour obtenir plus d'informations.

    1. Exécutez la commande suivante pour vérifier l'absence de problèmes de données du médiateur.


      # medstat -s setname
      
      -s setname

      Indique le nom d'un jeu de disques.

      Si le champ Status affiche la valeur Bad, réparez l'hôte médiateur affecté. Suivez la procédure de la rubrique Correction des données incorrectes du médiateur .

    2. Répertoriez tous les médiateurs.

      Enregistrez ces informations à utiliser lors de la restauration de médiateurs décrite dans la rubrique Finalisation d'une mise à niveau progressive vers Sun Cluster 3.1 8/05 .

    3. Lorsqu'un jeu de disques utilise des médiateurs, devenez propriétaire du jeu si aucun nœud n'en est propriétaire.


      # scswitch -z -D setname -h node
      
      -z

      Change de maître.

      -D

      Indique le nom du jeu de disques.

      -h nœud

      Indique le nom de l'élément que vous voulez convertir en nœud principal du jeu de disques.

    4. Annulez la configuration de tous les médiateurs du jeu de disques.


      # metaset -s setname -d -m mediator-host-list
      
      -s setname

      Indique le nom du jeu de disques.

      -d

      Supprime du jeu de disques.

      -m mediator-host-list

      Indique le nom du nœud à supprimer en tant qu'hôte médiateur du jeu de disques.

      Reportez-vous à la page de manuel mediator(7D) afin d'obtenir plus d'informations sur les options spécifiques du médiateur pour la commande metaset.

    5. Répétez ces étapes pour les autres jeux de disques utilisant des médiateurs.

  10. Fermez le nœud à mettre à niveau et initialisez-le en mode non-cluster.

    • Sur les systèmes SPARC, exécutez la commande suivante :


      # shutdown -y -g0
      ok boot -x
      
    • Sur les systèmes x86, exécutez les commandes suivantes :


      # shutdown -y -g0
      ...
                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
      Boot args:
      
      Type   b [file-name] [boot-flags] <ENTER>    to boot with options
      or     i <ENTER>                             to enter boot interpreter
      or     <ENTER>                               to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      

    Les autres nœuds du cluster continuent de fonctionner en tant qu'éléments actifs du cluster.

Étapes suivantes

Pour mettre à niveau Solaris vers une version de maintenance, reportez-vous à la rubrique Mise à niveau progressive vers une version Solaris de maintenance .


Remarque –

Le cluster doit déjà fonctionner avec, ou être mis à niveau vers, au moins le niveau minimum requis du système d'exploitation Solaris pour prendre en charge le logiciel Sun Cluster 3.1 8/05. Reportez-vous aux Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris pour obtenir des informations sur les versions de Solaris prises en charges.


Si vous n'envisagez pas de mettre à niveau Solaris, reportez-vous à la rubrique Mise à niveau du logiciel dépendant avant une mise à niveau progressive .