Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster (Français) |
1. Planification de la configuration de Oracle Solaris Cluster
2. Installation de logiciels sur des nuds de cluster global
3. Établissement d'un cluster global
4. Configuration du logiciel Solaris Volume Manager
5. Installation et configuration de Veritas Volume Manager
Installation et configuration du logiciel VxVM
Généralités sur la configuration d'un groupe de disques racine
Installation du logiciel Veritas Volume Manager
SPARC : encapsulation du disque racine
Création d'un groupe de disques racine sur un disque non racine
Mise en miroir du disque racine encapsulé
Création de groupes de disques dans un cluster
Création d'un groupe de disques
Enregistrement d'un groupe de disques
Assignation d'un nouveau code mineur à un groupe de périphériques
Vérification de la configuration d'un groupe de disques
6. Création d'un système de fichiers de cluster
7. Création de zones non globales et de clusters de zones
8. Installation du module Oracle Solaris Cluster sur Sun Management Center
9. Désinstallation du logiciel à partir du cluster
A. Fiches d'information sur l'installation et la configuration de Oracle Solaris Cluster
Cette section décrit la procédure d’annulation de l’encapsulation du disque racine dans une configuration Oracle Solaris Cluster.
Effectuez cette procédure pour annuler l'encapsulation du disque racine.
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que seuls les systèmes de fichiers racine Solaris se trouvent sur le disque racine. Les systèmes de fichiers racine Solaris sont (/) racine, swap, les espaces de noms de périphériques globaux, /usr, /var, /opt et /home.
Sauvegardez les systèmes de fichiers autres que ceux de Solaris et supprimez-les du disque racine.
phys-schost# clnode evacuate from-node
Indique le nom de nœud duquel doivent être évacués les groupes de ressources et de périphériques.
phys-schost# clinfo -n
phys-schost# umount /global/.devices/node@N
phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #NOTE: volume rootdiskxNvol (/global/.devices/node@N) encapsulated #partition cNtXdYsZ
phys-schost# vxedit -g rootdiskgroup -rf rm rootdiskxNvol
Remarque - N'autorisez pas la demande d'arrêt de la commande.
phys-schost# /etc/vx/bin/vxunroot
Pour plus d'informations, consultez la documentation de VxVM.
Astuce - Utilisez la même tranche que celle qui avait été allouée au système de fichiers de périphériques globaux avant l'encapsulation du disque racine, comme spécifié dans le fichier /etc/vfstab.
phys-schost# newfs /dev/rdsk/cNtXdYsZ
phys-schost# cldevice list cNtXdY dN
L'entrée d'origine doit ressembler à ce qui suit.
phys-schost# vi /etc/vfstab /dev/vx/dsk/rootdiskxNvol /dev/vx/rdsk/rootdiskxNvol /global/.devices/node@N ufs 2 no global
Une fois modifiée, vous obtenez l'entrée suivante.
/dev/did/dsk/dNsX /dev/did/rdsk/dNsX /global/.devices/node@N ufs 2 no global
phys-schost# mount /global/.devices/node@N
phys-schost# cldevice populate
Les périphériques VxVM sont recréés pendant la réinitialisation qui suit.
La commande cldevice populate s'exécute à distance sur tous les nœuds, bien qu'elle soit émise à partir d'un seul nœud. Pour savoir si la commande cldevice populate a terminé le traitement, exécutez la commande suivante sur chaque nœud du cluster.
phys-schost# ps -ef | grep scgdevs
phys-schost# shutdown -g0 -y -i6