Guide d'installation de Sun Cluster 3.0

Mise à niveau de Sun Cluster 2.2 à Sun Cluster 3.0

Effectuez les tâches suivantes pour mettre à niveau votre cluster à deux noeuds de Sun Cluster 2.2 à Sun Cluster 3.0.

Tableau 3-1 Plan des tâches : mise à niveau de Sun Cluster 2.2 à Sun Cluster 3.0

Tâche 

Pour les instructions, voir... 

Lisez les conditions et restrictions relatives à la mise à niveau et planifiez un projet de partitionnement sur le disque root destiné à recevoir le logiciel Sun Cluster 3.0. 

"Présentation de la mise à niveau de Sun Cluster 2.2 vers Sun Cluster 3.0"

Arrêtez le cluster. 

"Arrêt du cluster"

Si votre cluster utilise VERITAS Volume Manager (VxVM), déplacez les groupes de disques et supprimez les modules logiciels de VxVM. 

"Désinstallation du logiciel VERITAS Volume Manager"

Effectuez une mise à niveau vers l'environnement d'exploitation Solaris 8, si nécessaire, ajoutez un nouveau système de fichiers /globaldevices et modifiez les allocations de systèmes de fichiers selon les besoins du logiciel Sun Cluster 3.0. Si votre cluster utilise le logiciel Solstice DiskSuite, supprimez les médiateurs et mettez à niveau le logiciel Solstice DiskSuite.

"Mise à niveau de l'environnement d'exploitation Solaris"

Effectuez une mise à niveau vers le logiciel Sun Cluster 3.0. Si votre cluster utilise le logiciel Solstice DiskSuite, recréez les médiateurs. 

"Mise à niveau des modules logiciels du cluster"

Mettez à jour les variables PATH et MANPATH.

"Mise à jour de l'environnement de l'utilisateur root"

Effectuez une mise à niveau vers le logiciel de services de données Sun Cluster 3.0. Si nécessaire, mettez à niveau les applications de fournisseurs tiers. 

"Mise à niveau des modules logiciels des services de données"

Affectez un périphérique de quorum, terminez la mise à niveau du logiciel du cluster et démarrez les groupes de services et les services de données. Si votre cluster utilise VERITAS Volume Manager (VxVM), réinstallez les modules logiciels de VxVM et importez et enregistrez les groupes de disques. Si votre cluster utilise le logiciel Solstice DiskSuite, restaurez les médiateurs. 

"Fin de la mise à niveau du logiciel du cluster"

Vérifiez que tous les noeuds ont rejoint le cluster. 

"Vérification des membres du cluster"

Présentation de la mise à niveau de Sun Cluster 2.2 vers Sun Cluster 3.0

Cette section présente les conditions, les restrictions et les consignes à suivre pour la mise à niveau de Sun Cluster 2.2 à Sun Cluster 3.0.

Conditions et restrictions

Les conditions suivantes doivent être respectées pour la mise à niveau de Sun Cluster 2.2 à Sun Cluster 3.0 :

Planification de la mise à niveau

Pour prendre en charge Sun Cluster 3.0, vous devrez probablement modifier la disposition actuelle de votre disque système. Tenez compte des points suivants lorsque vous planifiez votre nouveau projet de partitionnement :

Reportez-vous à la section "Partitions du disque système" pour plus d'informations sur l'espace disque nécessaire pour prendre en charge Sun Cluster3.0.

Arrêt du cluster

Avant de mettre le logiciel à niveau, arrêtez le cluster.

  1. Gardez à portée de main les CD-ROM, la documentation et les patchs de tous les produits logiciels que vous mettez à niveau.

    • Environnement d'exploitation Solaris 8

    • Logiciel Solstice DiskSuite ou VERITAS Volume Manager

    • Logiciel Sun Cluster 3.0

    • Services de données Sun Cluster 3.0

    • Applications de fournisseurs tiers

    le logiciel Solstice DiskSuite et la documentation font maintenant partie du produit Solaris 8.


    Remarque :

    ces procédures sont prévues pour une installation à partir des CD-ROM. Si vous effectuez l'installation à partir du réseau, assurez-vous que l'image du CD-ROM de chaque produit logiciel est chargée sur le réseau.


    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

  2. Prévenez les utilisateurs de l'arrêt du cluster.

  3. Connectez-vous en tant que superutilisateur sur chaque noeud du cluster.

  4. Recherchez dans le journal /var/adm/messages d'éventuelles erreurs non résolues ou des messages d'avertissement.

    Corrigez les problèmes, le cas échéant.

  5. Vérifiez qu'aucun host logique n'est en cours de maintenance.

    1. Devenez superutilisateur sur un noeud du cluster.

    2. Utilisez la commande hastat(1M) pour afficher l'état du cluster.


      # hastat
      
      HIGH AVAILABILITY CONFIGURATION AND STATUS
      
      -------------------------------------------
      
      ...
      
      LOGICAL HOSTS IN MAINTENANCE STATE

      Si la sortie à l'écran affiche NONE, aucun host logique n'est en cours de maintenance. Passez à l'Étape 6.

    3. Si un host logique est en cours de maintenance, utilisez la commande haswitch(1M) pour effectuer un basculement.


      # haswitch nom_host nom_host_logique
      
      nom_host

      Indique le nom du noeud qui sera propriétaire de l'host logique

      nom_host_logique

      Indique le nom de l'host logique

    4. Exécutez la commande hastat pour vérifier que le basculement a réussi.

  6. Vérifiez que la taille du système de fichiers administratif de chaque host logique est d'au moins 10 Mo.


    # df -k /nom_host_logique
    

    Après la mise à niveau à Sun Cluster 3.0, les systèmes de fichiers administratifs des hosts logiques dont la taille est inférieure à 10 Mo ne pourront pas être montés. Le cas échéant, reportez-vous à la documentation de votre gestionnaire de volumes pour augmenter la taille du système de fichiers concerné.

  7. Sauvegardez votre système.

    Vérifiez que tous les utilisateurs sont déconnectés du système avant de le sauvegarder.

  8. Arrêtez le logiciel Sun Cluster 2.2 sur chaque noeud du cluster.


    # scadmin stopnode
    
  9. Exécutez la commande hastat pour vérifier qu'il n'y a aucun noeud dans le cluster.

Etape suivante

Si votre cluster utilise VERITAS Volume Manager, reportez-vous à la section "Désinstallation du logiciel VERITAS Volume Manager". Si votre cluster utilise le logiciel Solstice DiskSuite, pour mettre à niveau ou préparer l'environnement d'exploitation Solaris à la prise en charge de Sun Cluster3.0, reportez-vous à la section "Mise à niveau de l'environnement d'exploitation Solaris".

Désinstallation du logiciel VERITAS Volume Manager

Si votre cluster utilise VERITAS Volume Manager (VxVM), effectuez cette procédure sur chaque noeud du cluster pour désinstaller de logiciel VxVM. Les groupes de disques existants sont conservés et automatiquement réimportés après la mise à niveau de tout le logiciel.


Remarque :

pour effectuer une mise à niveau vers le logiciel Sun Cluster 3.0, vous devez supprimer le logiciel VxVM puis le réinstaller, que vous disposiez ou non de la dernière version de VxVM.


  1. Connectez-vous en tant que superutilisateur sur un noeud du cluster.

  2. Déplacez tous les groupes de disques de VxVM.

    Reportez-vous à la documentation de VxVM pour connaître les procédures.


    Remarque :

    assurez-vous que les disques comportant des données à conserver ne sont pas utilisés à d'autres fins lors de la mise à niveau.


  3. Désencapsulez le disque root s'il est encapsulé.

    Reportez-vous à la documentation de VxVM pour connaître les procédures.

  4. Arrêtez VxVM.

    Reportez-vous à la documentation de VxVM pour connaître les procédures.

  5. Supprimez tous les modules logiciels de VxVM installés.

    Reportez-vous à la documentation de VxVM pour connaître les procédures.

  6. Supprimez l'espace de noms du périphérique de VxVM.


    # rm -rf /dev/vx
    

Etape suivante

Pour mettre à niveau ou préparer l'environnement d'exploitation Solaris pour la prise en charge de Sun Cluster 3.0, reportez-vous à la section "Mise à niveau de l'environnement d'exploitation Solaris".

Mise à niveau de l'environnement d'exploitation Solaris

Suivez ces procédures sur chaque noeud du cluster pour mettre à niveau ou préparer l'environnement d'exploitation Solaris pour la prise en charge de Sun Cluster 3.0.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Si votre gestionnaire de volumes est Solstice DiskSuite et que vous utilisez des médiateurs, annulez la configuration des médiateurs.

    1. Exécutez la commande suivante pour vérifier l'absence de problèmes de données du médiateur :


      # medstat -s nom_ensemble
      
      -s nom_ensemble

      Indique le nom de l'ensemble de disques

      Si la valeur du champ Status est Bad, réparez l'host médiateur endommagé en suivant la procédure décrite dans la section "Correction des données du médiateur".

      Reportez-vous à la page de manuel medstat(1M) pour plus d'informations.

    2. Répertoriez tous les médiateurs.

      Utilisez ces informations pour déterminer quel noeud, le cas échéant, est propriétaire de l'ensemble de disque dont vous allez supprimer les médiateurs.


      # metaset -s nom_ensemble
      

      Enregistrez ces informations afin de les utiliser pour restaurer les médiateurs lors de la procédure décrite dans la section "Mise à niveau des modules logiciels du cluster".

    3. Si aucun noeud n'a de propriétaire, devenez propriétaire de l'ensemble de disques.


      # metaset -s nom_ensemble -t
      
      -t

      Attribue la propriété de l'ensemble de disques

    4. Annulez la configuration de tous les médiateurs.


      # metaset -s nom_ensemble -d -m liste_hosts_médiateurs
      
      -s nom_ensemble

      Indique le nom de l'ensemble de disques

      -d

      Supprime des éléments de l'ensemble de disques

      -m liste_hosts_médiateurs

      Indique le nom du noeud à supprimer en tant qu'host médiateur pour l'ensemble de disques

      Reportez-vous à la page de manuel mediator(7) pour plus d'informations sur les options propres au médiateur pour la commande metaset.

    5. Supprimez le logiciel du médiateur.


      # pkgrm SUNWmdm
      
  3. Votre configuration exécute-t-elle actuellement le logiciel Solaris 8 ?

    • Si ce n'est pas le cas, reportez-vous à l'Étape 4.

    • Si c'est le cas :

    1. Créez un système de fichiers d'au moins 100 Mo et définissez son point de montage comme /globaldevices.


      Remarque :

      le système de fichiers /globaldevices est nécessaire à la réussite de l'installation logicielle de Sun Cluster 3.0.


    2. Réaffectez de l'espace dans d'autres partitions si nécessaire pour prendre le logiciel Sun Cluster 3.0 en charge.

      Reportez-vous à la section "Partitions du disque système" pour obtenir les consignes.

    3. Passez à l'Étape 6.

  4. Déterminez la procédure à suivre pour mettre à niveau le logiciel Solaris 8.

    Gestionnaire de volumes 

    Procédure à suivre 

    Pour les instructions, voir... 

    Solstice DiskSuite 

    Mise à niveau de Solaris et du logiciel Solstice DiskSuite 

    Documentation d'installation de Solstice DiskSuite 

    VxVM 

    Installation standard du logiciel Solaris 

    Documentation d'installation de Solaris 8 

  5. Effectuez la mise à niveau vers le logiciel Solaris 8, en suivant la procédure sélectionnée à l'Étape 4.

    Pendant l'installation, apportez les modifications suivantes au projet de partitionnement sur le disque root :

    • Créez un système de fichiers d'au moins 100 Mo et définissez son point de montage comme /globaldevices. Le système de fichiers /globaldevices est nécessaire à la réussite de l'installation logicielle de Sun Cluster 3.0.

    • Réaffectez de l'espace dans d'autres partitions si nécessaire pour prendre le logiciel Sun Cluster 3.0 en charge.

    Reportez-vous à la section "Partitions du disque système" pour obtenir les consignes sur la création de partitions.


    Remarque :

    la fonction de groupes d'interface de Solaris est désactivée par défaut pendant l'installation de ce logiciel. Les groupes d'interface ne sont pas pris en charge dans une configuration Sun Cluster et ne doivent pas être activés. Reportez-vous à la page de manuel ifconfig(1M) pour plus d'informations sur les groupes d'interface de Solaris.


  6. Installez les patchs logiciels Solaris, si nécessaire.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

  7. Installez les patchs matériels requis pour votre matériel, si nécessaire.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

  8. Pour le logiciel Solstice DiskSuite, installez les patchs logiciels de Solstice DiskSuite.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

Exemple : annulation de la configuration des médiateurs

L'exemple suivant présente l'host médiateur phys-schost-1 supprimé de l'ensemble de disques schost-1 avant la mise à niveau vers le logiciel Solaris 8.


(Vérifiez l'état du médiateur :)

# medstat -s schost-1

 

(Répertoriez tous les médiateurs :)

# metaset -s schost-1

 

(Annulez la configuration du médiateur :)metaset -s schost-1 -d -m phys-schost-1

 

(Supprimez le logiciel du médiateur :)pkgrm SUNWmdm

 

(Commencez la mise à niveau du logiciel)

Etape suivante

Pour effectuer une mise à niveau vers le logiciel Sun Cluster 3.0, reportez-vous à la section "Mise à niveau des modules logiciels du cluster".

Mise à niveau des modules logiciels du cluster

Effectuez cette procédure sur chaque noeud. Vous pouvez effectuer cette procédure sur deux noeuds en même temps si vous disposez de deux copies du CD-ROM de Sun Cluster 3.0.


Remarque :

la commande de mise à niveau scinstall(1M) comporte deux étapes : l'option -u begin et l'option -u finish. Cette procédure exécute l'option begin. L'option finish est exécutée dans la section "Fin de la mise à niveau du logiciel du cluster".


  1. Connectez-vous en tant que superutilisateur sur un noeud du cluster.

  2. Si votre gestionnaire de volumes est Solstice DiskSuite, installez le dernier module du médiateur de Solstice DiskSuite (SUNWmdm) sur chaque noeud.

    1. Si vous effectuez une installation à partir d'un CD-ROM, insérez le CD-ROM Sun Cluster 3.0 dans le lecteur de CD-ROM d'un noeud.

      Si le démon du gestionnaire de volumes vold(1M) est en cours d'exécution et configuré pour gérer les lecteurs de CD-ROM, il monte automatiquement le CD-ROM dans le répertoire /cdrom/suncluster_3_0.

    2. Placez-vous dans le répertoire /image_cdrom/suncluster_3_0/SunCluster_3.0/Packages.


      # cd /image_cdrom/suncluster_3_0/SunCluster_3.0/Packages
      
    3. Ajoutez le module SUNWmdm.


      # pkgadd -d . SUNWmdm
      
    4. Réinitialisez le noeud.


      # shutdown -g 0 -y -i 6
      
    5. Répétez l'opération sur l'autre noeud.

  3. Reconfigurez les médiateurs.

    1. Identifiez le noeud possédant l'ensemble de disques auquel vous souhaitez ajouter les hosts médiateurs.


      # metaset -s nom_ensemble
      
      -s nom_ensemble

      Indique le nom de l'ensemble de disques

    2. Si aucun noeud n'a de propriétaire, devenez propriétaire de l'ensemble de disques.


      # metaset -s nom_ensemble -t
      
      -t

      Attribue la propriété de l'ensemble de disques

    3. Recréez les médiateurs.


      # metaset -s nom_ensemble -a -m liste_hosts_médiateurs
      
      -a

      Ajoute des éléments à l'ensemble de disques

      -m liste_hosts_médiateurs

      Indique le nom des noeuds à ajouter en tant qu'hosts médiateurs pour l'ensemble de disques

    4. Répétez l'opération pour chaque ensemble de disques.

  4. Sur chaque noeud, commencez la mise à niveau vers le logiciel Sun Cluster 3.0.

    1. Sur un noeud, placez-vous dans le répertoire /image_cdrom/suncluster_3_0/SunCluster_3.0/Tools.


      # cd /image_cdrom/suncluster_3_0/SunCluster_3.0/Tools
      
    2. Mettez à niveau la structure logicielle du cluster.

      Pour mettre à niveau le... 

      Utilisez cette commande... 

      Premier noeud 

      ./scinstall -u begin -F

      Deuxième noeud 

      ./scinstall -u begin -N noeud_cluster_1

      -F

      Indique qu'il s'agit du premier noeud mis à niveau dans le cluster

      -N noeud_cluster_1

      Indique le nom du premier noeud mis à niveau dans le cluster, pas le nom du deuxième noeud mis à niveau

      Reportez-vous à la page de manuel scinstall(1M) pour plus d'informations.

    3. Réinitialisez le noeud.


      # shutdown -g 0 -y -i 6
      

      Lorsque le premier noeud se réinitialise en mode cluster, il établit le cluster. Le deuxième noeud attend si nécessaire que le cluster soit établi avant de terminer ses propres processus et de rejoindre le cluster.

    4. Répétez l'opération sur l'autre noeud du cluster.

  5. Sur chaque noeud, installez les patchs de Sun Cluster.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

Exemple : mise à niveau de Sun Cluster 2.2 vers Sun Cluster 3.0 - Processus de début

L'exemple suivant présente le début du processus de mise à niveau d'un cluster à deux noeuds de Sun Cluster 2.2 vers Sun Cluster 3.0. Les noms des noeuds du cluster sont phys-schost-1, le noeud parrain, et phys-schost-2, qui rejoint le cluster établi par phys-schost-1. Le gestionnaire de volumes est Solstice DiskSuite et les deux noeuds sont utilisés en tant qu'hosts médiateurs pour l'ensemble de disque schost-1.


(Installez le dernier module du médiateur de Sun Cluster sur chaque noeud :)

# cd /cdrom/suncluster_3_0/SunCluster_3.0/Packagespkgadd -d . SUNWmdm

 

(Restaurez le médiateur :)

# metaset -s schost-1 -tmetaset -s schost-1 -a -m phys-schost-1 phys-schost-2

 

(Commencez la mise à niveau du premier noeud :)

phys-schost-1# cd /cdrom/suncluster_3_0/SunCluster_3.0/Tools

phys-schost-1# ./scinstall -u begin -F

 

(Commencez la mise à niveau du deuxième noeud :)

phys-schost-2# cd /cdrom/suncluster_3_0/SunCluster_3.0/Tools

phys-schost-2# ./scinstall -u begin -N phys-schost-1

 

(Réinitialisez chaque noeud :)

# shutdown -g 0 -y -i 6

Etape suivante

Pour mettre à jour les chemins des répertoires, reportez-vous à la section "Mise à jour de l'environnement de l'utilisateur root".

Mise à jour de l'environnement de l'utilisateur root

Effectuez les tâches suivantes sur chaque noeud du cluster.

  1. Définissez la variable PATH afin qu'elle contienne /usr/sbin et /usr/cluster/bin.

    Pour VERITAS Volume Manager, définissez également votre variable PATH afin qu'elle contienne /etc/vx/bin. Si vous avez installé le module VRTSvmsa, ajoutez également /opt/VRTSvmsa/bin à votre variable PATH.

  2. Modifiez la variable MANPATH afin qu'elle contienne /usr/cluster/man. Incluez également les chemins propres au gestionnaire de volumes.

    • Pour le logiciel Solstice DiskSuite, définissez la variable MANPATH afin qu'elle contienne /usr/share/man.

    • Pour le logiciel VERITAS Volume Manager, définissez la variable MANPATH afin qu'elle contienne /opt/VRTSvxvm/man. Si vous avez installé le module VRTSvmsa, ajoutez également /opt/VRTSvmsa/man à votre variable MANPATH.

  3. (Facultatif) Afin de vous faciliter le travail d'administration, définissez le même mot de passe root sur chaque noeud.

  4. Démarrez un nouveau shell pour activer les modifications apportées à l'environnement.

Etape suivante

Pour effectuer une mise à niveau vers le logiciel de service de données Sun Cluster 3.0, reportez-vous à la section "Mise à niveau des modules logiciels des services de données".

Mise à niveau des modules logiciels des services de données

Effectuez cette procédure sur chaque noeud du cluster.

  1. Connectez-vous en tant que superutilisateur sur un noeud du cluster.

  2. Mettez les applications à niveau et appliquez leur les patchs éventuellement requis.

    Reportez-vous à la documentation de votre application pour connaître les instructions d'installation.


    Remarque :

    si les applications sont enregistrées sur des disques partagés, vous devez devenir maître des groupes de disques appropriés et monter manuellement les systèmes de fichiers adéquats avant de mettre à niveau l'application.


  3. Ajoutez les services de données.

    1. Insérez le CD-ROM des services de données Sun Cluster 3.0 dans le lecteur de CD-ROM du noeud.

    2. Lancez l'utilitaire scinstall(1M).


      # scinstall
      

      Tenez compte des points suivants lors de l'exécution de l'utilitaire scinstall interactif :

      • L'utilitaire scinstall tient compte de toutes les frappes au clavier. Par conséquent, n'appuyez pas sur la touche Entrée plus d'une fois si l'écran de menu suivant n'apparaît pas immédiatement.

      • Sauf indication contraire, l'utilisation de Control-D vous permet de retourner au début d'une série de questions connexes ou au menu principal.

    3. Pour ajouter des services de données, tapez 4 (Add support for a new data service to this cluster node).

      Suivez les invites pour ajouter les services de données.

    4. Ejectez le CD-ROM.

  4. Installez les patchs de services de données de Sun Cluster.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

  5. Répétez l'opération (de l'Étape 1 à l'Étape 4) sur l'autre noeud du cluster.

  6. Arrêtez le deuxième noeud à mettre à niveau vers le logiciel Sun Cluster 3.0.

    Laissez le deuxième noeud arrêté tant que le premier noeud, ou noeud parrain, n'a pas été réinitialisé.


    phys-schost-2# shutdown -g 0 -y -i 0
    
  7. Réinitialisez le premier noeud, le parrain, du cluster.

    Assurez-vous que le deuxième noeud a été arrêté avant de réinitialiser le premier noeud. En effet, la réinitialisation du premier noeud alors que le deuxième est toujours actif provoque une erreur grave sur le deuxième noeud parce que les votes de quorum n'ont pas encore été affectés.


    phys-schost-1# shutdown -g 6 -y -i 0
    
  8. Une fois l'initialisation du premier noeud terminée, initialisez le deuxième noeud.


    phys-schost-2# boot
    
  9. Une fois les deux noeuds réinitialisés, vérifiez à partir de l'un des noeuds que les deux noeuds sont membres du cluster.


    # scstat -n
    
    Node                                               
    
      Node Name:                                        phys-schost-1
    
      Status:                                           Online
    
     
    
      Node Name:                                        phys-schost-2
    
      Status:                                           Online

    Reportez-vous à la page de manuel scstat(1M) pour plus d'informations sur l'affichage de l'état du cluster.

Etape suivante

Pour affecter un périphérique de quorum et terminer la mise à niveau, reportez-vous à la section "Fin de la mise à niveau du logiciel du cluster".

Fin de la mise à niveau du logiciel du cluster

Cette procédure termine le processus de mise à niveau scinstall(1M) commencé dans la section "Mise à niveau des modules logiciels du cluster". Exécutez les étapes suivantes sur chaque noeud du cluster :

  1. Connectez-vous en tant que superutilisateur sur chaque noeud du cluster.

  2. Choisissez un disque partagé en tant que périphérique de quorum.

    Vous pouvez utiliser n'importe quel disque partagé par les deux noeuds en tant que périphérique de quorum. A partir de l'un des noeuds, utilisez la commande scdidadm(1M) pour déterminer le nom de l'ID de périphérique (DID) du disque partagé. Le nom de ce périphérique a été spécifié à l'Étape 5, avec l'option -q globaldev=nom_périph de scinstall.


    # scdidadm -L
    
  3. Si votre gestionnaire de volumes est VxVM, réinstallez le logiciel VxVM sur chaque noeud du cluster.


    Remarque :

    à tout moment, pour effectuer une réinitialisation, arrêtez le deuxième noeud du cluster avant de réinitialiser le premier noeud, ou noeud parrain. Vous pourrez réactiver le deuxième noeud après avoir réinitialisé le premier. Dans le cas contraire, la réinitialisation du premier noeud alors que le deuxième est toujours actif provoque une erreur grave sur le deuxième noeud parce que les votes de quorum n'ont pas encore été affectés.


    1. Installez le logiciel VxVM, y compris les patchs requis, le cas échéant.

      Suivez les procédures indiquées dans la section "Installation du logiciel VERITAS Volume Manager".

    2. Configurez VxVM.

      Suivez les procédures indiquées dans la section "Configuration de VxVM pour les configurations Sun Cluster".

  4. Insérez le CD-ROM des services de données de Sun Cluster 3.0 dans le lecteur de CD-ROM du noeud.

    Cette étape implique que le démon de gestion des volumes vold(1M) fonctionne et soit configuré pour gérer des périphériques de CD-ROM.

  5. Terminez la mise à niveau du logiciel du cluster sur ce noeud.


    # scinstall -u finish -q globaldev=nom_périph \
    
    -d /image_cdrom/scdataservices_3_0 -s srvc[,srvc]
    -q globaldev=nom_périphérique

    Indique le nom du périphérique de quorum.

    -d image_cdrom/scdataservices_3_0

    Indique l'emplacement du répertoire de l'image du CD-ROM

    -s srvc

    Indique le nom du service de données à configurer


    Remarque :

    un message d'erreur similaire à celui présenté ci-après peut apparaître. Vous pouvez l'ignorer sans risque.



    ** Installing Sun Cluster - Highly Available NFS Server **
    
    Skipping "SUNWscnfs" - already installed
  6. Ejectez le CD-ROM.

  7. Répétez l'opération (de l'Étape 4 à l'Étape 6) sur l'autre noeud.

    Lorsque vous avez exécuté les opérations sur les deux noeuds, le cluster est supprimé du mode d'installation et tous les votes de quorum sont affectés.

  8. Si votre gestionnaire de volumes est Solstice DiskSuite, démarrez les groupes de périphériques du disque préexistant à partir de n'importe quel noeud.


    # scswitch -z -D groupe_périphériques_disque -h noeud
    
    -z

    Effectue le changement

    -D groupe_unités_disques

    Indique le nom du groupe d'unités de disque, qui correspond au nom de l'ensemble de disques pour le logiciel Solstice DiskSuite.

    -h noeud

    Indique le nom du noeud de cluster jouant le rôle de noeud principal pour le groupe d'unités de disque

  9. A partir de l'un des noeuds, démarrez les groupes de ressources du service de données préexistant.

    A ce stade, les hosts logiques de Sun Cluster 2.2 sont convertis en groupes de ressources de Sun Cluster 3.0 et les noms des hosts logiques sont ajoutés avec le suffixe -lh. Par exemple, un host logique appelé lhost-1 est mis à niveau en groupe de ressources appelé lhost-1-lh. Utilisez ces noms de groupes de ressources convertis dans la commande suivante :


    # scswitch -z -g groupe_ressources -h noeud
    
    -g groupe_ressources

    Indique le nom du groupe de ressources à démarrer

    Vous pouvez utiliser la commande scrgadm -p pour afficher une liste de tous les types de ressources et groupes de ressources du cluster. La commande scrgadm -pv affiche cette liste avec plus de détails.

  10. Si vous utilisez le produit Sun Management Center pour surveiller votre configuration Sun Cluster, installez le module de Sun Cluster pour le produit Sun Management Center.

    1. Assurez-vous que vous utilisez la version la plus récente du logiciel Sun Management Center (anciennement Sun Enterprise SyMON).

      Reportez-vous à la documentation de Sun Management Center pour connaître les procédures d'installation ou de mise à niveau.

    2. Suivez les consignes et les procédures décrites dans la section "Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster" pour installer le module Sun Cluster.

Exemple : mise à niveau de Sun Cluster 2.2 vers Sun Cluster 3.0 - processus de fin

L'exemple suivant présente la fin du processus de mise à niveau d'un cluster à deux noeuds de Sun Cluster 2.2 vers Sun Cluster 3.0. Les noms des noeuds du cluster sont phys-schost-1 et phys-schost-2, les noms des groupes de périphériques sont dg-schost-1 et dg-schost-2, et les noms des groupes de ressources du service de données sont lh-schost-1 et lh-schost-2.


(Déterminez le DID du périphérique de quorum partagé :)

phys-schost-1# scdidadm -L

 

(Terminez la mise à niveau sur chaque noeud :)

phys-schost-1# scinstall -u finish -q globaldev=d1 \

-d /cdrom/suncluster_3_0 -s nfs

phys-schost-2# scinstall -u finish -q globaldev=d1 \

-d /cdrom/suncluster_3_0 -s nfs

 

(Démarrez les groupes de périphériques et les groupes de ressources de services de données sur chaque noeud :)

phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1

phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1

phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 

phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2

Etape suivante

Pour vérifier que tous les noeuds ont rejoint le cluster, reportez-vous à la section "Vérification des membres du cluster".

Vérification des membres du cluster

Suivez cette procédure pour vérifier que tous les noeuds ont rejoint le cluster.

  1. Devenez superutilisateur sur un noeud du cluster.

  2. Affichez l'état du cluster.

    Vérifiez que les noeuds du cluster sont en ligne et que le périphérique de quorum, les groupes de périphériques et les groupes de ressources des services de données sont configurés et en ligne.


    # scstat
    

    Reportez-vous à la page de manuel scstat(1M) pour plus d'informations sur l'affichage de l'état du cluster.

  3. Sur chaque noeud, affichez une liste de tous les périphériques que le système vérifie pour vous assurer de leur connectivité avec les noeuds de cluster.

    La sortie doit être la même pour chaque noeud.


    # scdidadm -L
    

La mise à niveau du cluster est terminée. Vous pouvez maintenant remettre le cluster en marche.