Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster (Français) |
1. Introduction à l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
4. Méthodes de réplication de données
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un nud
Présentation de l'administration du cluster
Modification du nom du cluster
Comment modifier le nom de cluster si vous utilisez Veritas CVM
Mappage d'un ID sur le nom d'un nud
Authentification du nouveau nud du cluster
Réinitialisation de l'heure et de la date d'un cluster
SPARC : Affichage d'OpenBoot PROM (OBP) sur un nud
Modification du nom d'hôte privé d'un nud
Ajout d'un nom d'hôte privé à un nud non votant d'un cluster global
Modification du nom d'hôte privé d'un nud non votant d'un cluster global
Suppression d'un nom d'hôte privé d'un nud non votant d'un cluster global
Mise en mode de maintenance d'un nud
Arrêt du mode de maintenance d'un nud
Désinstallation de Oracle Solaris Cluster d'un nud du cluster
Dépannage de la désinstallation d'un nud
Entrées du système de fichiers du cluster non supprimées
Liste des groupes de périphériques non supprimée
Script de désinstallation manquant
Création, paramétrage et gestion de la base MIB d'événements SNMP de Oracle Solaris Cluster
Activation d'une base MIB d'événements SNMP
Désactivation d'une base MIB d'événements SNMP
Modification d'une base MIB d'événements SNMP
Activation des notifications de déroutement d'un hôte SNMP sur un nud
Désactivation des notifications de déroutement d'un hôte SNMP sur un nud
Ajout d'un utilisateur SNMP à un nud
Suppression d'un utilisateur SNMP à un nud
Configuration de limites de charge
Configuration de limites de charge sur un nud
Tâches d'administration d'un cluster de zones
Suppression d'un cluster de zones
Suppression d'un système de fichiers d'un cluster de zones
Suppression d'un périphérique de stockage d'un cluster de zones
Exécution d'une application à l'extérieur du cluster global
Restauration d'un ensemble de disques altéré
Enregistrement de la configuration du logiciel Solaris Volume Manager
Purge de l'ensemble de disques corrompus
Recréation de la configuration du logiciel Solaris Volume Manager
10. Configuration du contrôle de l'utilisation du CPU
11. Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
12. Sauvegarde et restauration d'un cluster
13. Administration de Oracle Solaris Cluster avec les interfaces graphiques
Vous pouvez effectuer les autres tâches d'administration dans un cluster de zones. Cela comprend la suppression d'un chemin d'accès de la zone, la préparation d'un cluster de zones afin d'exécuter des applications ou son clonage. Toutes ces commandes doivent être exécutées depuis le nœud de vote du cluster global.
Remarque - Les commandes Oracle Solaris Cluster devant être uniquement exécutées depuis le nœud non votant du cluster global, ne peuvent pas être utilisées dans les clusters de zones. Pour savoir comment exécuter correctement une commande dans une zone, reportez-vous à la page de manuel Oracle Solaris Cluster appropriée.
Tableau 9-3 Autres tâches du cluster de zones
|
Vous pouvez supprimer un cluster de zones spécifique ou utiliser un caractère générique pour supprimer tous les clusters de zones qui sont configurés sur le cluster global. Vous devez configurer le cluster de zones avant de le supprimer.
phys-schost# clresourcegroup delete -F -Z zoneclustername +
Remarque - Cette étape doit être effectuée depuis un nœud du cluster global. Pour effectuer cette étape plutôt depuis un nœud du cluster de zones, connectez-vous sur le nœud du cluster de zones et n'indiquez pas l'option -Zzonecluster dans la commande.
phys-schost# clzonecluster halt zoneclustername
phys-schost# clzonecluster uninstall zoneclustername
phys-schost# clzonecluster delete zoneclustername
Exemple 9-11 Suppression d'un cluster de zones d'un cluster global
phys-schost# clresourcegroup delete -F -Z sczone +
phys-schost# clzonecluster halt sczone
phys-schost# clzonecluster uninstall sczone
phys-schost# clzonecluster delete sczone
Un système de fichiers peut être exporté vers un cluster de zones à l'aide d'un montage direct ou d'un montage en boucle.
Les clusters de zones prennent en charge les montages directs des fichiers suivants :
Systèmes de fichiers local UFS
Systèmes de fichiers local VxFS
Systèmes de fichiers autonome QFS
Système de fichiers partagés QFS (uniquement lorsqu'ils sont utilisés pour prendre en charge Oracle RAC)
Systèmes de fichiers ZFS (exporté en tant qu'ensemble de données)
Systèmes de fichiers NFS à partir de périphériques NAS pris en charge
Les clusters de zones prennent en charge les montages en boucle des fichiers suivants :
Systèmes de fichiers local UFS
Systèmes de fichiers local VxFS
Systèmes de fichiers autonome QFS
Système de fichiers partagés QFS (uniquement lorsqu'ils sont utilisés pour prendre en charge Oracle RAC)
Systèmes de fichiers de cluster UFS
Systèmes de fichiers de cluster VxFS
Vous pouvez configurer une ressource HAStoragePlus ou ScalMountPoint pour gérer le montage du système de fichiers. Pour savoir comment ajouter un système de fichiers à un cluster de zones, reportez-vous la section Ajout de systèmes de fichiers à un cluster de zones du Guide d’installation du logiciel Oracle Solaris Cluster.
L'élément phys-schost# fait référence à l'invite du cluster global. Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources
phys-schost# clresource delete -F fs_global_resources
Utilisez l'option -F avec précaution : elle force la suppression de toutes les ressources spécifiées, même si vous ne les avez pas désactivées au préalable. Toutes les ressources spécifiées sont supprimées des paramètres de dépendance des autres ressources. Cela peut provoquer un arrêt du service dans le cluster. Les ressources dépendant d'autres ressources qui n'ont pas été supprimée, peuvent être conservées en tant que non valides ou erreurs. Pour plus d'informations, reportez-vous à la page de manuel clresource(1CL).
Astuce - Si le groupe de la ressource supprimée ne contient par la suite plus aucune ressource, vous pouvez le supprimer en toute sécurité.
phys-schost# clzonecluster configure zoneclustername
phys-schost# clzonecluster configure zoneclustername
clzc:zoneclustername> remove fs dir=filesystemdirectory
clzc:zoneclustername> commit
L'option dir= spécifie le point de montage du système de fichiers.
phys-schost# clzonecluster show -v zoneclustername
Exemple 9-12 Suppression d'un système de fichiers hautement disponible d'un cluster de zones
L'exemple suivant montre comment supprimer un système de fichiers avec un répertoire de point de montage (/local/ufs-1) configuré dans un cluster de zones se nommant sczone. Cette ressource se nomme hasp-rs et elle est de type HAStoragePlus.
phys-schost# clzonecluster show -v sczone ... Resource Name: fs dir: /local/ufs-1 special: /dev/md/ds1/dsk/d0 raw: /dev/md/ds1/rdsk/d0 type: ufs options: [logging] ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove fs dir=/local/ufs-1 clzc:sczone> commit phys-schost# clzonecluster show -v sczone
Exemple 9-13 Suppression d'un système de fichiers ZFS hautement disponible dans un cluster de zones
L'exemple suivant montre comment supprimer d'un pool ZFS appelé HAzpool, un système de fichiers ZFS configuré dans la ressource hasp-rs de type SUNW.HAStoragePlus du cluster de zones sczone.
phys-schost# clzonecluster show -v sczone ... Resource Name: dataset name: HAzpool ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove dataset name=HAzpool clzc:sczone> commit phys-schost# clzonecluster show -v sczone
Vous pouvez supprimer les périphériques de stockage, tels que les ensembles de disques SVM et les périphériques DID, d'un cluster de zones. Suivez cette procédure pour supprimer un périphérique de stockage d'un cluster de zones.
phys-schost# clresource delete -F -Z zoneclustername dev_zone_resources
phys-schost# clzonecluster show -v zoneclustername ... Resource Name: device match: <device_match> ...
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> remove device match=<devices_match> clzc:zoneclustername> commit clzc:zoneclustername> end
phys-schost# clzonecluster reboot zoneclustername
phys-schost# clzonecluster show -v zoneclustername
Exemple 9-14 Suppression d'un ensemble de disques SVM d'un cluster de zones
L'exemple suivant montre comment supprimer un ensemble de disques SVM apachedg configuré dans un cluster de zones se nommant sczone. Le nombre de l'ensemble de disques apachedg est égal à 3. Les périphériques sont utilisés par la ressource zc_rs configurée dans le cluster.
phys-schost# clzonecluster show -v sczone ... Resource Name: device match: /dev/md/apachedg/*dsk/* Resource Name: device match: /dev/md/shared/3/*dsk/* ... phys-schost# clresource delete -F -Z sczone zc_rs phys-schost# ls -l /dev/md/apachedg lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/apachedg -> shared/3 phys-schost# clzonecluster configure sczone clzc:sczone> remove device match=/dev/md/apachedg/*dsk/* clzc:sczone> remove device match=/dev/md/shared/3/*dsk/* clzc:sczone> commit clzc:sczone> end phys-schost# clzonecluster reboot sczone phys-schost# clzonecluster show -v sczone
Exemple 9-15 Suppression d'un périphérique DID d'un cluster de zones
L'exemple suivant montre comment supprimer des périphériques DID d10 et d11, qui sont configurés dans un cluster de zones se nommant sczone. Les périphériques sont utilisés par la ressource zc_rs configurée dans le cluster.
phys-schost# clzonecluster show -v sczone ... Resource Name: device match: /dev/did/*dsk/d10* Resource Name: device match: /dev/did/*dsk/d11* ... phys-schost# clresource delete -F -Z sczone zc_rs phys-schost# clzonecluster configure sczone clzc:sczone> remove device match=/dev/did/*dsk/d10* clzc:sczone> remove device match=/dev/did/*dsk/d11* clzc:sczone> commit clzc:sczone> end phys-schost# clzonecluster reboot sczone phys-schost# clzonecluster show -v sczone