Effectuez les tâches suivantes pour mettre à niveau votre cluster à deux noeuds de Sun Cluster 2.2 à Sun Cluster 3.0.
Tableau 3-1 Plan des tâches : mise à niveau de Sun Cluster 2.2 à Sun Cluster 3.0
Tâche |
Pour les instructions, voir... |
---|---|
Lisez les conditions et restrictions relatives à la mise à niveau et planifiez un projet de partitionnement sur le disque root destiné à recevoir le logiciel Sun Cluster 3.0. |
"Présentation de la mise à niveau de Sun Cluster 2.2 vers Sun Cluster 3.0" |
Arrêtez le cluster. | |
Si votre cluster utilise VERITAS Volume Manager (VxVM), déplacez les groupes de disques et supprimez les modules logiciels de VxVM. | |
Effectuez une mise à niveau vers l'environnement d'exploitation Solaris 8, si nécessaire, ajoutez un nouveau système de fichiers /globaldevices et modifiez les allocations de systèmes de fichiers selon les besoins du logiciel Sun Cluster 3.0. Si votre cluster utilise le logiciel Solstice DiskSuite, supprimez les médiateurs et mettez à niveau le logiciel Solstice DiskSuite. | |
Effectuez une mise à niveau vers le logiciel Sun Cluster 3.0. Si votre cluster utilise le logiciel Solstice DiskSuite, recréez les médiateurs. | |
Mettez à jour les variables PATH et MANPATH. | |
Effectuez une mise à niveau vers le logiciel de services de données Sun Cluster 3.0. Si nécessaire, mettez à niveau les applications de fournisseurs tiers. |
"Mise à niveau des modules logiciels des services de données" |
Affectez un périphérique de quorum, terminez la mise à niveau du logiciel du cluster et démarrez les groupes de services et les services de données. Si votre cluster utilise VERITAS Volume Manager (VxVM), réinstallez les modules logiciels de VxVM et importez et enregistrez les groupes de disques. Si votre cluster utilise le logiciel Solstice DiskSuite, restaurez les médiateurs. | |
Vérifiez que tous les noeuds ont rejoint le cluster. |
Cette section présente les conditions, les restrictions et les consignes à suivre pour la mise à niveau de Sun Cluster 2.2 à Sun Cluster 3.0.
Les conditions suivantes doivent être respectées pour la mise à niveau de Sun Cluster 2.2 à Sun Cluster 3.0 :
Le cluster doit avoir exactement deux noeuds et une configuration prise en charge pour Sun Cluster 3.0. La mise à niveau ne prend pas en charge les clusters à trois noeuds ou plus.
Seuls les adaptateurs Ethernet sont pris en charge. Les adaptateurs de transport doivent avoir un taux de transmission d'au moins 100 Mbit/s.
Tout le matériel du cluster doit être stable et fonctionner correctement.
Toutes les applications tierces doivent fonctionner correctement.
Le cluster doit fonctionner sous l'environnement d'exploitation Solaris 8 ou être mis à niveau pour fonctionner sous cet environnement.
Vous devez mettre à niveau le logiciel Sun Cluster, la structure et les services de données en même temps.
Le logiciel Sun Cluster 3.0 ne permet pas la mise à niveau directe vers logiciel Sun Cluster 3.0 à partir du logiciel Solstice HA 1.3, Sun Cluster 2.0 ou Sun Cluster 2.1.
Sun Cluster 3.0 ne prend pas en charge la transition d'un gestionnaire de volumes à un autre pendant la mise à niveau.
La mise à niveau de Sun Cluster 2.2 à Sun Cluster 3.0 ne peut pas être annulée après que la commande scinstall(1M) a été démarrée sur un noeud, même si la commande ne se termine pas correctement. Pour reprendre une mise à niveau qui a échoué, vous devez commencer par réinstaller Sun Cluster 2.2 sur le noeud.
Pour prendre en charge Sun Cluster 3.0, vous devrez probablement modifier la disposition actuelle de votre disque système. Tenez compte des points suivants lorsque vous planifiez votre nouveau projet de partitionnement :
Espace de noms des périphériques globaux : vous devez créer sur chaque noeud un système de fichiers d'au moins 100 Mo et définir son point de montage comme /globaldevices. Ce système de fichiers sera remplacé pendant la mise à niveau par l'espace de noms du périphérique global approprié. Si nécessaire, vous pouvez supprimer une partie de l'espace de swap à cet effet ou utiliser un disque externe n'étant partagé avec aucun autre noeud.
Root mise en miroir : si vos disques root sont mis en miroir, vous devez supprimer le miroir avant de modifier les partitions. Ce miroir peut être utilisé pour récupérer la configuration initiale en cas d'échec de la mise à niveau. Pour toute information, reportez-vous à la documentation du gestionnaire de volumes.
Allocation du système de fichiers root (/) : si vous avez besoin de mettre à niveau votre configuration vers l'environnement d'exploitation Solaris 8, il vous faudra probablement augmenter la taille de la partition de la root (/) sur les disques roots de tous les noeuds de Sun Cluster.
Reportez-vous à la section "Partitions du disque système" pour plus d'informations sur l'espace disque nécessaire pour prendre en charge Sun Cluster3.0.
Avant de mettre le logiciel à niveau, arrêtez le cluster.
Gardez à portée de main les CD-ROM, la documentation et les patchs de tous les produits logiciels que vous mettez à niveau.
Environnement d'exploitation Solaris 8
Logiciel Solstice DiskSuite ou VERITAS Volume Manager
Logiciel Sun Cluster 3.0
Services de données Sun Cluster 3.0
Applications de fournisseurs tiers
le logiciel Solstice DiskSuite et la documentation font maintenant partie du produit Solaris 8.
ces procédures sont prévues pour une installation à partir des CD-ROM. Si vous effectuez l'installation à partir du réseau, assurez-vous que l'image du CD-ROM de chaque produit logiciel est chargée sur le réseau.
Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.
Prévenez les utilisateurs de l'arrêt du cluster.
Connectez-vous en tant que superutilisateur sur chaque noeud du cluster.
Recherchez dans le journal /var/adm/messages d'éventuelles erreurs non résolues ou des messages d'avertissement.
Corrigez les problèmes, le cas échéant.
Vérifiez qu'aucun host logique n'est en cours de maintenance.
Devenez superutilisateur sur un noeud du cluster.
Utilisez la commande hastat(1M) pour afficher l'état du cluster.
# hastat HIGH AVAILABILITY CONFIGURATION AND STATUS ------------------------------------------- ... LOGICAL HOSTS IN MAINTENANCE STATE |
Si la sortie à l'écran affiche NONE, aucun host logique n'est en cours de maintenance. Passez à l'Étape 6.
Si un host logique est en cours de maintenance, utilisez la commande haswitch(1M) pour effectuer un basculement.
# haswitch nom_host nom_host_logique |
Indique le nom du noeud qui sera propriétaire de l'host logique
Indique le nom de l'host logique
Exécutez la commande hastat pour vérifier que le basculement a réussi.
Vérifiez que la taille du système de fichiers administratif de chaque host logique est d'au moins 10 Mo.
# df -k /nom_host_logique |
Après la mise à niveau à Sun Cluster 3.0, les systèmes de fichiers administratifs des hosts logiques dont la taille est inférieure à 10 Mo ne pourront pas être montés. Le cas échéant, reportez-vous à la documentation de votre gestionnaire de volumes pour augmenter la taille du système de fichiers concerné.
Sauvegardez votre système.
Vérifiez que tous les utilisateurs sont déconnectés du système avant de le sauvegarder.
Arrêtez le logiciel Sun Cluster 2.2 sur chaque noeud du cluster.
# scadmin stopnode |
Exécutez la commande hastat pour vérifier qu'il n'y a aucun noeud dans le cluster.
Si votre cluster utilise VERITAS Volume Manager, reportez-vous à la section "Désinstallation du logiciel VERITAS Volume Manager". Si votre cluster utilise le logiciel Solstice DiskSuite, pour mettre à niveau ou préparer l'environnement d'exploitation Solaris à la prise en charge de Sun Cluster3.0, reportez-vous à la section "Mise à niveau de l'environnement d'exploitation Solaris".
Si votre cluster utilise VERITAS Volume Manager (VxVM), effectuez cette procédure sur chaque noeud du cluster pour désinstaller de logiciel VxVM. Les groupes de disques existants sont conservés et automatiquement réimportés après la mise à niveau de tout le logiciel.
pour effectuer une mise à niveau vers le logiciel Sun Cluster 3.0, vous devez supprimer le logiciel VxVM puis le réinstaller, que vous disposiez ou non de la dernière version de VxVM.
Connectez-vous en tant que superutilisateur sur un noeud du cluster.
Déplacez tous les groupes de disques de VxVM.
Reportez-vous à la documentation de VxVM pour connaître les procédures.
assurez-vous que les disques comportant des données à conserver ne sont pas utilisés à d'autres fins lors de la mise à niveau.
Désencapsulez le disque root s'il est encapsulé.
Reportez-vous à la documentation de VxVM pour connaître les procédures.
Arrêtez VxVM.
Reportez-vous à la documentation de VxVM pour connaître les procédures.
Supprimez tous les modules logiciels de VxVM installés.
Reportez-vous à la documentation de VxVM pour connaître les procédures.
Supprimez l'espace de noms du périphérique de VxVM.
# rm -rf /dev/vx |
Pour mettre à niveau ou préparer l'environnement d'exploitation Solaris pour la prise en charge de Sun Cluster 3.0, reportez-vous à la section "Mise à niveau de l'environnement d'exploitation Solaris".
Suivez ces procédures sur chaque noeud du cluster pour mettre à niveau ou préparer l'environnement d'exploitation Solaris pour la prise en charge de Sun Cluster 3.0.
Devenez superutilisateur sur le noeud de cluster.
Si votre gestionnaire de volumes est Solstice DiskSuite et que vous utilisez des médiateurs, annulez la configuration des médiateurs.
Exécutez la commande suivante pour vérifier l'absence de problèmes de données du médiateur :
# medstat -s nom_ensemble |
Indique le nom de l'ensemble de disques
Si la valeur du champ Status est Bad, réparez l'host médiateur endommagé en suivant la procédure décrite dans la section "Correction des données du médiateur".
Reportez-vous à la page de manuel medstat(1M) pour plus d'informations.
Répertoriez tous les médiateurs.
Utilisez ces informations pour déterminer quel noeud, le cas échéant, est propriétaire de l'ensemble de disque dont vous allez supprimer les médiateurs.
# metaset -s nom_ensemble |
Enregistrez ces informations afin de les utiliser pour restaurer les médiateurs lors de la procédure décrite dans la section "Mise à niveau des modules logiciels du cluster".
Si aucun noeud n'a de propriétaire, devenez propriétaire de l'ensemble de disques.
# metaset -s nom_ensemble -t |
Attribue la propriété de l'ensemble de disques
Annulez la configuration de tous les médiateurs.
# metaset -s nom_ensemble -d -m liste_hosts_médiateurs |
Indique le nom de l'ensemble de disques
Supprime des éléments de l'ensemble de disques
Indique le nom du noeud à supprimer en tant qu'host médiateur pour l'ensemble de disques
Reportez-vous à la page de manuel mediator(7) pour plus d'informations sur les options propres au médiateur pour la commande metaset.
Supprimez le logiciel du médiateur.
# pkgrm SUNWmdm |
Votre configuration exécute-t-elle actuellement le logiciel Solaris 8 ?
Si ce n'est pas le cas, reportez-vous à l'Étape 4.
Si c'est le cas :
Créez un système de fichiers d'au moins 100 Mo et définissez son point de montage comme /globaldevices.
le système de fichiers /globaldevices est nécessaire à la réussite de l'installation logicielle de Sun Cluster 3.0.
Réaffectez de l'espace dans d'autres partitions si nécessaire pour prendre le logiciel Sun Cluster 3.0 en charge.
Reportez-vous à la section "Partitions du disque système" pour obtenir les consignes.
Passez à l'Étape 6.
Déterminez la procédure à suivre pour mettre à niveau le logiciel Solaris 8.
Gestionnaire de volumes |
Procédure à suivre |
Pour les instructions, voir... |
---|---|---|
Solstice DiskSuite |
Mise à niveau de Solaris et du logiciel Solstice DiskSuite |
Documentation d'installation de Solstice DiskSuite |
VxVM |
Installation standard du logiciel Solaris |
Documentation d'installation de Solaris 8 |
Effectuez la mise à niveau vers le logiciel Solaris 8, en suivant la procédure sélectionnée à l'Étape 4.
Pendant l'installation, apportez les modifications suivantes au projet de partitionnement sur le disque root :
Créez un système de fichiers d'au moins 100 Mo et définissez son point de montage comme /globaldevices. Le système de fichiers /globaldevices est nécessaire à la réussite de l'installation logicielle de Sun Cluster 3.0.
Réaffectez de l'espace dans d'autres partitions si nécessaire pour prendre le logiciel Sun Cluster 3.0 en charge.
Reportez-vous à la section "Partitions du disque système" pour obtenir les consignes sur la création de partitions.
la fonction de groupes d'interface de Solaris est désactivée par défaut pendant l'installation de ce logiciel. Les groupes d'interface ne sont pas pris en charge dans une configuration Sun Cluster et ne doivent pas être activés. Reportez-vous à la page de manuel ifconfig(1M) pour plus d'informations sur les groupes d'interface de Solaris.
Installez les patchs logiciels Solaris, si nécessaire.
Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.
Installez les patchs matériels requis pour votre matériel, si nécessaire.
Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.
Pour le logiciel Solstice DiskSuite, installez les patchs logiciels de Solstice DiskSuite.
Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.
L'exemple suivant présente l'host médiateur phys-schost-1 supprimé de l'ensemble de disques schost-1 avant la mise à niveau vers le logiciel Solaris 8.
(Vérifiez l'état du médiateur :) # medstat -s schost-1 (Répertoriez tous les médiateurs :) # metaset -s schost-1 (Annulez la configuration du médiateur :) # metaset -s schost-1 -d -m phys-schost-1 (Supprimez le logiciel du médiateur :) # pkgrm SUNWmdm (Commencez la mise à niveau du logiciel) |
Pour effectuer une mise à niveau vers le logiciel Sun Cluster 3.0, reportez-vous à la section "Mise à niveau des modules logiciels du cluster".
Effectuez cette procédure sur chaque noeud. Vous pouvez effectuer cette procédure sur deux noeuds en même temps si vous disposez de deux copies du CD-ROM de Sun Cluster 3.0.
la commande de mise à niveau scinstall(1M) comporte deux étapes : l'option -u begin et l'option -u finish. Cette procédure exécute l'option begin. L'option finish est exécutée dans la section "Fin de la mise à niveau du logiciel du cluster".
Connectez-vous en tant que superutilisateur sur un noeud du cluster.
Si votre gestionnaire de volumes est Solstice DiskSuite, installez le dernier module du médiateur de Solstice DiskSuite (SUNWmdm) sur chaque noeud.
Si vous effectuez une installation à partir d'un CD-ROM, insérez le CD-ROM Sun Cluster 3.0 dans le lecteur de CD-ROM d'un noeud.
Si le démon du gestionnaire de volumes vold(1M) est en cours d'exécution et configuré pour gérer les lecteurs de CD-ROM, il monte automatiquement le CD-ROM dans le répertoire /cdrom/suncluster_3_0.
Placez-vous dans le répertoire /image_cdrom/suncluster_3_0/SunCluster_3.0/Packages.
# cd /image_cdrom/suncluster_3_0/SunCluster_3.0/Packages |
Ajoutez le module SUNWmdm.
# pkgadd -d . SUNWmdm |
Réinitialisez le noeud.
# shutdown -g 0 -y -i 6 |
Répétez l'opération sur l'autre noeud.
Reconfigurez les médiateurs.
Identifiez le noeud possédant l'ensemble de disques auquel vous souhaitez ajouter les hosts médiateurs.
# metaset -s nom_ensemble |
Indique le nom de l'ensemble de disques
Si aucun noeud n'a de propriétaire, devenez propriétaire de l'ensemble de disques.
# metaset -s nom_ensemble -t |
Attribue la propriété de l'ensemble de disques
Recréez les médiateurs.
# metaset -s nom_ensemble -a -m liste_hosts_médiateurs |
Ajoute des éléments à l'ensemble de disques
Indique le nom des noeuds à ajouter en tant qu'hosts médiateurs pour l'ensemble de disques
Répétez l'opération pour chaque ensemble de disques.
Sur chaque noeud, commencez la mise à niveau vers le logiciel Sun Cluster 3.0.
Sur un noeud, placez-vous dans le répertoire /image_cdrom/suncluster_3_0/SunCluster_3.0/Tools.
# cd /image_cdrom/suncluster_3_0/SunCluster_3.0/Tools |
Mettez à niveau la structure logicielle du cluster.
Pour mettre à niveau le... |
Utilisez cette commande... |
---|---|
Premier noeud |
./scinstall -u begin -F |
Deuxième noeud |
./scinstall -u begin -N noeud_cluster_1 |
Indique qu'il s'agit du premier noeud mis à niveau dans le cluster
Indique le nom du premier noeud mis à niveau dans le cluster, pas le nom du deuxième noeud mis à niveau
Reportez-vous à la page de manuel scinstall(1M) pour plus d'informations.
Réinitialisez le noeud.
# shutdown -g 0 -y -i 6 |
Lorsque le premier noeud se réinitialise en mode cluster, il établit le cluster. Le deuxième noeud attend si nécessaire que le cluster soit établi avant de terminer ses propres processus et de rejoindre le cluster.
Répétez l'opération sur l'autre noeud du cluster.
Sur chaque noeud, installez les patchs de Sun Cluster.
Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.
L'exemple suivant présente le début du processus de mise à niveau d'un cluster à deux noeuds de Sun Cluster 2.2 vers Sun Cluster 3.0. Les noms des noeuds du cluster sont phys-schost-1, le noeud parrain, et phys-schost-2, qui rejoint le cluster établi par phys-schost-1. Le gestionnaire de volumes est Solstice DiskSuite et les deux noeuds sont utilisés en tant qu'hosts médiateurs pour l'ensemble de disque schost-1.
(Installez le dernier module du médiateur de Sun Cluster sur chaque noeud :) # cd /cdrom/suncluster_3_0/SunCluster_3.0/Packages # pkgadd -d . SUNWmdm (Restaurez le médiateur :) # metaset -s schost-1 -t # metaset -s schost-1 -a -m phys-schost-1 phys-schost-2 (Commencez la mise à niveau du premier noeud :) phys-schost-1# cd /cdrom/suncluster_3_0/SunCluster_3.0/Tools phys-schost-1# ./scinstall -u begin -F (Commencez la mise à niveau du deuxième noeud :) phys-schost-2# cd /cdrom/suncluster_3_0/SunCluster_3.0/Tools phys-schost-2# ./scinstall -u begin -N phys-schost-1 (Réinitialisez chaque noeud :) # shutdown -g 0 -y -i 6 |
Pour mettre à jour les chemins des répertoires, reportez-vous à la section "Mise à jour de l'environnement de l'utilisateur root".
Effectuez les tâches suivantes sur chaque noeud du cluster.
Définissez la variable PATH afin qu'elle contienne /usr/sbin et /usr/cluster/bin.
Pour VERITAS Volume Manager, définissez également votre variable PATH afin qu'elle contienne /etc/vx/bin. Si vous avez installé le module VRTSvmsa, ajoutez également /opt/VRTSvmsa/bin à votre variable PATH.
Modifiez la variable MANPATH afin qu'elle contienne /usr/cluster/man. Incluez également les chemins propres au gestionnaire de volumes.
Pour le logiciel Solstice DiskSuite, définissez la variable MANPATH afin qu'elle contienne /usr/share/man.
Pour le logiciel VERITAS Volume Manager, définissez la variable MANPATH afin qu'elle contienne /opt/VRTSvxvm/man. Si vous avez installé le module VRTSvmsa, ajoutez également /opt/VRTSvmsa/man à votre variable MANPATH.
(Facultatif) Afin de vous faciliter le travail d'administration, définissez le même mot de passe root sur chaque noeud.
Démarrez un nouveau shell pour activer les modifications apportées à l'environnement.
Pour effectuer une mise à niveau vers le logiciel de service de données Sun Cluster 3.0, reportez-vous à la section "Mise à niveau des modules logiciels des services de données".
Effectuez cette procédure sur chaque noeud du cluster.
Connectez-vous en tant que superutilisateur sur un noeud du cluster.
Mettez les applications à niveau et appliquez leur les patchs éventuellement requis.
Reportez-vous à la documentation de votre application pour connaître les instructions d'installation.
si les applications sont enregistrées sur des disques partagés, vous devez devenir maître des groupes de disques appropriés et monter manuellement les systèmes de fichiers adéquats avant de mettre à niveau l'application.
Ajoutez les services de données.
Insérez le CD-ROM des services de données Sun Cluster 3.0 dans le lecteur de CD-ROM du noeud.
Lancez l'utilitaire scinstall(1M).
# scinstall |
Tenez compte des points suivants lors de l'exécution de l'utilitaire scinstall interactif :
L'utilitaire scinstall tient compte de toutes les frappes au clavier. Par conséquent, n'appuyez pas sur la touche Entrée plus d'une fois si l'écran de menu suivant n'apparaît pas immédiatement.
Sauf indication contraire, l'utilisation de Control-D vous permet de retourner au début d'une série de questions connexes ou au menu principal.
Pour ajouter des services de données, tapez 4 (Add support for a new data service to this cluster node).
Suivez les invites pour ajouter les services de données.
Ejectez le CD-ROM.
Installez les patchs de services de données de Sun Cluster.
Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.
Répétez l'opération (de l'Étape 1 à l'Étape 4) sur l'autre noeud du cluster.
Arrêtez le deuxième noeud à mettre à niveau vers le logiciel Sun Cluster 3.0.
Laissez le deuxième noeud arrêté tant que le premier noeud, ou noeud parrain, n'a pas été réinitialisé.
phys-schost-2# shutdown -g 0 -y -i 0 |
Réinitialisez le premier noeud, le parrain, du cluster.
Assurez-vous que le deuxième noeud a été arrêté avant de réinitialiser le premier noeud. En effet, la réinitialisation du premier noeud alors que le deuxième est toujours actif provoque une erreur grave sur le deuxième noeud parce que les votes de quorum n'ont pas encore été affectés.
phys-schost-1# shutdown -g 6 -y -i 0 |
Une fois l'initialisation du premier noeud terminée, initialisez le deuxième noeud.
phys-schost-2# boot |
Une fois les deux noeuds réinitialisés, vérifiez à partir de l'un des noeuds que les deux noeuds sont membres du cluster.
# scstat -n Node Node Name: phys-schost-1 Status: Online Node Name: phys-schost-2 Status: Online |
Reportez-vous à la page de manuel scstat(1M) pour plus d'informations sur l'affichage de l'état du cluster.
Pour affecter un périphérique de quorum et terminer la mise à niveau, reportez-vous à la section "Fin de la mise à niveau du logiciel du cluster".
Cette procédure termine le processus de mise à niveau scinstall(1M) commencé dans la section "Mise à niveau des modules logiciels du cluster". Exécutez les étapes suivantes sur chaque noeud du cluster :
Connectez-vous en tant que superutilisateur sur chaque noeud du cluster.
Choisissez un disque partagé en tant que périphérique de quorum.
Vous pouvez utiliser n'importe quel disque partagé par les deux noeuds en tant que périphérique de quorum. A partir de l'un des noeuds, utilisez la commande scdidadm(1M) pour déterminer le nom de l'ID de périphérique (DID) du disque partagé. Le nom de ce périphérique a été spécifié à l'Étape 5, avec l'option -q globaldev=nom_périph de scinstall.
# scdidadm -L |
Si votre gestionnaire de volumes est VxVM, réinstallez le logiciel VxVM sur chaque noeud du cluster.
à tout moment, pour effectuer une réinitialisation, arrêtez le deuxième noeud du cluster avant de réinitialiser le premier noeud, ou noeud parrain. Vous pourrez réactiver le deuxième noeud après avoir réinitialisé le premier. Dans le cas contraire, la réinitialisation du premier noeud alors que le deuxième est toujours actif provoque une erreur grave sur le deuxième noeud parce que les votes de quorum n'ont pas encore été affectés.
Installez le logiciel VxVM, y compris les patchs requis, le cas échéant.
Suivez les procédures indiquées dans la section "Installation du logiciel VERITAS Volume Manager".
Configurez VxVM.
Suivez les procédures indiquées dans la section "Configuration de VxVM pour les configurations Sun Cluster".
Insérez le CD-ROM des services de données de Sun Cluster 3.0 dans le lecteur de CD-ROM du noeud.
Cette étape implique que le démon de gestion des volumes vold(1M) fonctionne et soit configuré pour gérer des périphériques de CD-ROM.
Terminez la mise à niveau du logiciel du cluster sur ce noeud.
# scinstall -u finish -q globaldev=nom_périph \ -d /image_cdrom/scdataservices_3_0 -s srvc[,srvc] |
Indique le nom du périphérique de quorum.
Indique l'emplacement du répertoire de l'image du CD-ROM
Indique le nom du service de données à configurer
un message d'erreur similaire à celui présenté ci-après peut apparaître. Vous pouvez l'ignorer sans risque.
** Installing Sun Cluster - Highly Available NFS Server ** Skipping "SUNWscnfs" - already installed |
Ejectez le CD-ROM.
Répétez l'opération (de l'Étape 4 à l'Étape 6) sur l'autre noeud.
Lorsque vous avez exécuté les opérations sur les deux noeuds, le cluster est supprimé du mode d'installation et tous les votes de quorum sont affectés.
Si votre gestionnaire de volumes est Solstice DiskSuite, démarrez les groupes de périphériques du disque préexistant à partir de n'importe quel noeud.
# scswitch -z -D groupe_périphériques_disque -h noeud |
Effectue le changement
Indique le nom du groupe d'unités de disque, qui correspond au nom de l'ensemble de disques pour le logiciel Solstice DiskSuite.
Indique le nom du noeud de cluster jouant le rôle de noeud principal pour le groupe d'unités de disque
A partir de l'un des noeuds, démarrez les groupes de ressources du service de données préexistant.
A ce stade, les hosts logiques de Sun Cluster 2.2 sont convertis en groupes de ressources de Sun Cluster 3.0 et les noms des hosts logiques sont ajoutés avec le suffixe -lh. Par exemple, un host logique appelé lhost-1 est mis à niveau en groupe de ressources appelé lhost-1-lh. Utilisez ces noms de groupes de ressources convertis dans la commande suivante :
# scswitch -z -g groupe_ressources -h noeud |
Indique le nom du groupe de ressources à démarrer
Vous pouvez utiliser la commande scrgadm -p pour afficher une liste de tous les types de ressources et groupes de ressources du cluster. La commande scrgadm -pv affiche cette liste avec plus de détails.
Si vous utilisez le produit Sun Management Center pour surveiller votre configuration Sun Cluster, installez le module de Sun Cluster pour le produit Sun Management Center.
Assurez-vous que vous utilisez la version la plus récente du logiciel Sun Management Center (anciennement Sun Enterprise SyMON).
Reportez-vous à la documentation de Sun Management Center pour connaître les procédures d'installation ou de mise à niveau.
Suivez les consignes et les procédures décrites dans la section "Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster" pour installer le module Sun Cluster.
L'exemple suivant présente la fin du processus de mise à niveau d'un cluster à deux noeuds de Sun Cluster 2.2 vers Sun Cluster 3.0. Les noms des noeuds du cluster sont phys-schost-1 et phys-schost-2, les noms des groupes de périphériques sont dg-schost-1 et dg-schost-2, et les noms des groupes de ressources du service de données sont lh-schost-1 et lh-schost-2.
(Déterminez le DID du périphérique de quorum partagé :) phys-schost-1# scdidadm -L (Terminez la mise à niveau sur chaque noeud :) phys-schost-1# scinstall -u finish -q globaldev=d1 \ -d /cdrom/suncluster_3_0 -s nfs phys-schost-2# scinstall -u finish -q globaldev=d1 \ -d /cdrom/suncluster_3_0 -s nfs (Démarrez les groupes de périphériques et les groupes de ressources de services de données sur chaque noeud :) phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2 |
Pour vérifier que tous les noeuds ont rejoint le cluster, reportez-vous à la section "Vérification des membres du cluster".
Suivez cette procédure pour vérifier que tous les noeuds ont rejoint le cluster.
Devenez superutilisateur sur un noeud du cluster.
Affichez l'état du cluster.
Vérifiez que les noeuds du cluster sont en ligne et que le périphérique de quorum, les groupes de périphériques et les groupes de ressources des services de données sont configurés et en ligne.
# scstat |
Reportez-vous à la page de manuel scstat(1M) pour plus d'informations sur l'affichage de l'état du cluster.
Sur chaque noeud, affichez une liste de tous les périphériques que le système vérifie pour vous assurer de leur connectivité avec les noeuds de cluster.
La sortie doit être la même pour chaque noeud.
# scdidadm -L |
La mise à niveau du cluster est terminée. Vous pouvez maintenant remettre le cluster en marche.