Cette procédure permet de désactiver le cluster.
Effectuez les tâches suivantes :
Assurez-vous que la configuration respecte les conditions de mise à niveau. Reportez-vous à la rubrique Prise en charge liée à la mise à niveau .
Ayez à disposition les CD-ROM, la documentation et les patchs de tous les logiciels en cours de mise à niveau, notamment les éléments suivants.
Système d'exploitation Solaris
structure Sun Cluster 3.1 8/05 ;
services de données Sun Cluster 3.1 8/05 (agents) ;
applications gérées par les agents des services de données de Sun Cluster 3.1 8/05.
SPARC : VERITAS Volume Manager (le cas échéant)
Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.
Si vous effectuez une mise à niveau à partir du logiciel Sun Cluster 3.0, veillez à ce que la liste des adresses IP de test soit accessible. Chacun des adaptateurs de réseau public du cluster doit disposer d'au moins une adresse IP de test. Cette condition s'applique qu'il s'agisse de l'adaptateur actif ou de l'adaptateur de sauvegarde du groupe. Les adresses IP de test permettent de reconfigurer les adaptateurs, afin d'utiliser le Multiacheminement sur réseau IP.
chaque adresse IP de test doit figurer sur le même sous-réseau que l'adresse IP existante qu'utilise l'adaptateur réseau public.
Pour afficher la liste des adaptateurs réseau public d'un nœud, exécutez la commande suivante :
% pnmstat |
Reportez-vous à l'un des manuels suivants afin d'obtenir plus d'informations sur les adresses IP de test pour Multiacheminement sur réseau IP :
IP Network Multipathing Administration Guide (Solaris 8)
Configuring Test Addresses de la rubrique Administering Multipathing Groups With Multiple Physical Interfaces du System Administration Guide: IP Services (Solaris 9)
Test Addresses du System Administration Guide: IP Services (Solaris 10)
Vérifiez que le cluster fonctionne normalement.
Pour afficher l'état actuel du cluster, exécutez la commande suivante à partir de n'importe quel nœud.
% scstat |
Reportez-vous à la page de manuel scstat(1M) pour obtenir plus d'informations.
Recherchez le journal /var/adm/messages sur chaque nœud pour obtenir les erreurs non résolues et les messages d'avertissement.
Vérifiez l'état du gestionnaire de volumes.
(Facultatif) Installez la documentation Sun Cluster 3.1 8/05.
Installez les packages de documentation à l'emplacement de votre choix, comme une console administrative ou un serveur de documentation. Reportez-vous au fichier Solaris_arch/Product/sun_cluster/index.html du CD 2 de Sun Cluster pour connaître les instructions d'installation (arch représente sparc ou x86).
Informez les utilisateurs de l'indisponibilité des services du cluster au cours de la mise à niveau.
Devenez superutilisateur sur un nœud du cluster.
Lancez l'utilitaire scsetup(1m).
# scsetup |
Le menu principal apparaît.
Basculez chaque groupe de ressources hors ligne.
Dans le menu principal de scsetup, choisissez l'option de groupes de ressources.
Dans le menu de groupes de ressources, choisissez l'option de connexion/déconnexion ou celle de basculement d'un groupe de ressources.
Suivez les instructions pour désactiver tous les groupes de ressources et les placer en mode sans gestion.
Une fois tous les groupes de ressources désactivés, entrez q pour revenir au menu Groupe de ressources.
Désactivez toutes les ressources du cluster.
La désactivation des ressources avant la mise à niveau permet d'éviter que le cluster ne remette des ressources en ligne automatiquement si un nœud est réinitialisé par erreur en mode cluster.
Dans le menu de groupes de ressources, choisissez l'option de connexion/déconnexion d'une ressource.
Choisissez une ressource à désactiver, puis suivez les directives fournies.
Pour chaque ressource, répétez l'Étape b.
Une fois que toutes les ressources sont désactivées, entrez q pour revenir au menu Groupe de ressources.
Quittez l'utilitaire scsetup.
Entrez q pour sortir de chaque sous-menu ou appuyez sur Ctrl+C.
Vérifiez que les ressources de tous les nœuds sont déconnectées et que leur groupe sont en mode sans gestion.
# scstat -g |
Si le cluster utilise des médiateurs à deux chaînes pour Solstice DiskSuite ou Solaris Volume Manager, annulez leur configuration.
Reportez-vous à la rubrique Configuration de médiateurs à deux chaînes pour obtenir plus d'informations.
Exécutez la commande suivante pour vérifier l'absence de problèmes de données du médiateur.
# medstat -s setname |
Indique le nom d'un jeu de disques.
Si le champ Status affiche la valeur Bad, réparez l'hôte médiateur affecté. Suivez la procédure de la rubrique Correction des données incorrectes du médiateur .
Répertoriez tous les médiateurs.
Enregistrez ces informations à utiliser lors de la restauration de médiateurs décrite dans la rubrique Finalisation d'une mise à niveau non progressive vers Sun Cluster 3.1 8/05.
Lorsqu'un jeu de disques utilise des médiateurs, devenez propriétaire du jeu si aucun nœud n'en est propriétaire.
# scswitch -z -D setname -h node |
Change de maître.
Indique le nom du jeu de disques.
Indique le nom de l'élément que vous voulez convertir en nœud principal du jeu de disques.
Annulez la configuration de tous les médiateurs du jeu de disques.
# metaset -s setname -d -m mediator-host-list |
Indique le nom d'un jeu de disques.
Supprime du jeu de disques.
Indique le nom du nœud à supprimer en tant qu'hôte médiateur du jeu de disques.
Reportez-vous à la page de manuel mediator(7D) afin d'obtenir plus d'informations sur les options spécifiques du médiateur pour la commande metaset.
Pour les autres disques utilisant des médiateurs, répétez l'Étape c à l'Étape d.
Pour un cluster à deux nœuds utilisant Sun StorEdge Availability Suite, vérifiez que les données de configuration des services de disponibilité se trouvent sur le disque de quorum.
Les données de configuration doivent résider sur le disque de quorum pour garantir le fonctionnement correct de Sun StorEdge Availability Suite après la mise à niveau du logiciel de cluster.
Devenez superutilisateur d'un nœud de cluster qui exécute Sun StorEdge Availability Suite.
Identifiez l'ID de périphérique et la tranche utilisés par le fichier de configuration de Sun StorEdge Availability Suite.
# /usr/opt/SUNWscm/sbin/dscfg /dev/did/rdsk/dNsT |
Dans cet exemple, N correspond à l'ID du périphérique et T à la tranche du périphérique N.
Identifiez le périphérique de quorum existant.
# scstat -q -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/dQsS 1 1 Online |
Dans cet exemple,dQsS correspond au périphérique de quorum existant.
Si le périphérique de quorum n'est pas le périphérique de données de configuration de Sun StorEdge Availability Suite, déplacez les données de configuration vers une tranche disponible du périphérique de quorum.
# dd if=`/usr/opt/SUNWesm/sbin/dscfg` of=/dev/did/rdsk/dQsS |
Vous devez utiliser le nom du périphérique DID en mode caractère, /dev/did/rdsk/, et non celui du périphérique DID en mode bloc, /dev/did/dsk/.
Si vous avez déplacé les données de configuration, configurez Sun StorEdge Availability Suite pour qu'il utilise le nouvel emplacement.
En tant que superutilisateur, exécutez la commande suivante sur chaque nœud exécutant Sun StorEdge Availability Suite.
# /usr/opt/SUNWesm/sbin/dscfg -s /dev/did/rdsk/dQsS |
Fermez toutes les applications ouvertes sur chaque nœud du cluster.
Assurez-vous que toutes les données partagées sont sauvegardées.
Fermez le cluster à partir d'un nœud.
# scshutdown -g0 -y |
Reportez-vous à la page de manuel scshutdown(1M) pour obtenir plus d'informations.
Réinitialisez chaque nœud en mode non-cluster.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot -x |
Sur les systèmes x86, exécutez les commandes suivantes :
… <<< Current Boot Parameters >>> Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
Assurez-vous que chaque disque système est sauvegardé.
Pour mettre à niveau Solaris avant le logiciel Sun Cluster, reportez-vous à la rubrique Mise à niveau non progressive de Solaris.
Si le logiciel Sun Cluster 3.1 8/05 ne prend pas en charge la version du système d'exploitation Solaris exécutée sur le cluster, vous devez mettre le logiciel Solaris à niveau vers une version prise en charge. Reportez-vous à la rubrique “Supported Products” des Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris pour obtenir plus d'informations.
En revanche, si Sun Cluster 3.1 8/05 prend en charge la version de Solaris exécutée sur le cluster, il n'est pas nécessaire d'effectuer la mise à niveau de Solaris.
Dans le cas contraire, mettez à niveau le logiciel dépendant. Reportez-vous à la rubrique Mise à niveau du logiciel dépendant avant une mise à niveau non progressive .