Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster 4.1 (Français) |
1. Présentation de l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
4. Méthodes de réplication de données
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un noeud
Présentation de l'administration du cluster
Modification du nom du cluster
Mappage d'un ID de noeud sur le nom d'un noeud
Authentification du nouveau noeud du cluster
Réinitialisation de l'heure et de la date d'un cluster
SPARC : Affichage d'OpenBoot PROM (OBP) sur un noeud
Modification du nom d'hôte privé d'un noeud
Modification du nom d'un noeud
Mise en mode de maintenance d'un noeud
Arrêt du mode de maintenance d'un noeud
Désinstallation de Oracle Solaris Cluster d'un noeud du cluster
Dépannage de la désinstallation d'un noeud
Entrées du système de fichiers de cluster non supprimées
Entrée non supprimée dans la liste des groupes de périphériques
Création, paramétrage et gestion de la base MIB d'événements SNMP de Oracle Solaris Cluster
Activation d'une base MIB d'événements SNMP
Désactivation d'une base MIB d'événements SNMP
Modification d'une base MIB d'événements SNMP
Activation des notifications de déroutement d'un hôte SNMP sur un noeud
Désactivation des notifications de déroutement d'un hôte SNMP sur un noeud
Ajout d'un utilisateur SNMP à un noeud
Suppression d'un utilisateur SNMP à un noeud
Configuration de limites de charge
Configuration de limites de charge sur un noeud
Modification des numéros de port des services ou agents de gestion
Tâches d'administration d'un cluster de zones
Ajout d'une adresse réseau à un cluster de zones
Suppression d'un cluster de zones
Suppression d'un système de fichiers d'un cluster de zones
Suppression d'un périphérique de stockage d'un cluster de zones
Exécution d'une application à l'extérieur du cluster global
Restauration d'un ensemble de disques altéré
Enregistrement de la configuration du logiciel Solaris Volume Manager
Purge de l'ensemble de disques corrompus
Recréation de la configuration du logiciel Solaris Volume Manager
10. Configuration du contrôle de l'utilisation de la CPU
Vous pouvez effectuer diverses autres tâches d'administration sur un cluster de zones, comme par exemple déplacer le chemin d'une zone, préparer un cluster de zones pour l'exécution d'applications ou cloner un cluster de zones. Toutes ces commandes doivent être exécutées depuis un noeud du cluster global.
Remarque - Vous pouvez créer un nouveau cluster de zones ou ajouter un système de fichiers ou un périphérique de stockage à l'aide de l'utilitaire clsetup pour lancer l'assistant de configuration de clusters de zones. Les zones d'un cluster de zones sont configurées quand vous exécutez la commande clzonecluster install - c pour configurer les profils. Reportez-vous à la section Création et configuration d’un cluster de zones du manuel Guide d’installation du logiciel Oracle Solaris Cluster pour obtenir des instructions sur l'exécution de l'utilitaire clsetup ou de l'option -c config_profile.
Remarque - Les commandes Oracle Solaris Cluster devant être uniquement exécutées depuis un noeud du cluster global ne peuvent pas être utilisées dans les clusters de zones. Pour savoir comment exécuter correctement une commande dans une zone, reportez-vous à la page de manuel Oracle Solaris Cluster appropriée.
Tableau 9-3 Autres tâches du cluster de zones
|
Cette procédure permet d'ajouter une adresse réseau destinée à être utilisée par un cluster de zones existant. Une adresse de réseau est utilisée pour configurer les ressources de l'hôte logique ou de l'adresse IP partagée dans le cluster de zones. Vous pouvez exécuter l'utilitaire clsetup plusieurs fois pour ajouter autant d'adresses de réseau que vous le souhaitez.
Démarrez l'utilitaire clsetup.
phys-schost# clsetup
Le menu principal s'affiche.
Indique l'adresse réseau utilisée pour configurer des ressources d'hôte logique ou d'adresse IP partagée dans le cluster de zones. Par exemple, 192.168.100.101.
Les types d'adresses réseau suivants sont pris en charge :
Une adresse IPv4 valide, éventuellement suivie de / et d'une longueur de préfixe.
Une adresse IPv6 valide, qui doit être suivie par / et une longueur de préfixe.
Un nom d'hôte qui résout une adresse IPv4. Les noms d'hôte qui résolvent des adresses IPv6 ne sont pas pris en charge.
Reportez-vous à la page de manuel zonecfg(1M) pour plus d'informations sur les adresses de réseau.
Les résultats de votre modification de la configuration sont affichés. Par exemple :
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding network address to the zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add net set address=phys-schost-1 end All network address added successfully to sczone.
Vous pouvez supprimer un cluster de zones spécifique ou utiliser un caractère générique pour supprimer tous les clusters de zones qui sont configurés sur le cluster global. Vous devez configurer le cluster de zones avant de le supprimer.
Effectuez toutes les étapes de cette procédure depuis un noeud du cluster global.
phys-schost# clresourcegroup delete -F -Z zoneclustername +
Remarque - Cette étape doit être effectuée depuis un noeud du cluster global. Pour effectuer cette étape plutôt depuis un noeud du cluster de zones, connectez-vous sur le noeud du cluster de zones et n'indiquez pas l'option -Z zonecluster dans la commande.
phys-schost# clzonecluster halt zoneclustername
phys-schost# clzonecluster uninstall zoneclustername
phys-schost# clzonecluster delete zoneclustername
Exemple 9-11 Suppression d'un cluster de zones d'un cluster global
phys-schost# clresourcegroup delete -F -Z sczone +
phys-schost# clzonecluster halt sczone
phys-schost# clzonecluster uninstall sczone
phys-schost# clzonecluster delete sczone
Un système de fichiers peut être exporté vers un cluster de zones à l'aide d'un montage direct ou d'un montage loopback.
Les clusters de zones prennent en charge les montages directs des fichiers suivants :
Système de fichiers local UFS
Système de fichiers ZFS Oracle Solaris (exporté en tant qu'ensemble de données)
Système de fichiers NFS à partir de périphériques NAS pris en charge
Les clusters de zones prennent en charge les montages loopback des fichiers suivants :
Système de fichiers local UFS
Système de fichiers de cluster UFS
Vous configurez une ressource HAStoragePlus ou ScalMountPoint pour gérer le montage du système de fichiers. Pour savoir comment ajouter un système de fichiers à un cluster de zones, reportez-vous la section Ajout de systèmes de fichiers à un cluster de zones du manuel Guide d’installation du logiciel Oracle Solaris Cluster.
L'élément phys-schost# fait référence à l'invite du cluster global. Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Certaines étapes de cette procédure doivent être effectuées depuis un noeud du cluster global. Les autres tâches sont à effectuer depuis un noeud du cluster de zones.
phys-schost# clresource delete -F -Z zoneclustername fs_zone_resources
phys-schost# clresource delete -F fs_global_resources
Utilisez l'option -F avec précaution : elle force la suppression de toutes les ressources spécifiées, même si vous ne les avez pas désactivées au préalable. Toutes les ressources spécifiées sont supprimées des paramètres de dépendance des autres ressources. Cela peut provoquer un arrêt du service dans le cluster. Les ressources dépendant d'autres ressources qui n'ont pas été supprimée, peuvent être conservées en tant que non valides ou erreurs. Pour de plus amples informations, reportez-vous à la page de manuel clresource(1CL).
Astuce - Si le groupe de la ressource supprimée ne contient par la suite plus aucune ressource, vous pouvez le supprimer en toute sécurité.
Par exemple :
phys-schost# clzonecluster configure zoneclustername
phys-schost# clzonecluster configure zoneclustername
clzc:zoneclustername> remove fs dir=filesystemdirectory
clzc:zoneclustername> commit
L'option dir= spécifie le point de montage du système de fichiers.
phys-schost# clzonecluster show -v zoneclustername
Exemple 9-12 Suppression d'un système de fichiers hautement disponible d'un cluster de zones
L'exemple suivant montre comment supprimer un système de fichiers avec un répertoire de point de montage (/local/ufs-1) configuré dans un cluster de zones se nommant sczone. Cette ressource se nomme hasp-rs et elle est de type HAStoragePlus.
phys-schost# clzonecluster show -v sczone ... Resource Name: fs dir: /local/ufs-1 special: /dev/md/ds1/dsk/d0 raw: /dev/md/ds1/rdsk/d0 type: ufs options: [logging] ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove fs dir=/local/ufs-1 clzc:sczone> commit phys-schost# clzonecluster show -v sczone
Exemple 9-13 Suppression d'un système de fichiers ZFS hautement disponible dans un cluster de zones
L'exemple suivant illustre la suppression d'un système de fichiers ZFS dans un pool ZFS appelé HAzpool, lequel est configuré dans la ressource hasp-rs de type SUNW.HAStoragePlus du cluster de zones sczone.
phys-schost# clzonecluster show -v sczone ... Resource Name: dataset name: HAzpool ... phys-schost# clresource delete -F -Z sczone hasp-rs phys-schost# clzonecluster configure sczone clzc:sczone> remove dataset name=HAzpool clzc:sczone> commit phys-schost# clzonecluster show -v sczone
Vous pouvez supprimer d'un cluster de zones des périphériques de stockage, tels que les ensembles de disques Solaris Volume Manager et les périphériques DID. Suivez cette procédure pour supprimer un périphérique de stockage d'un cluster de zones.
Certaines étapes de cette procédure doivent être effectuées depuis un noeud du cluster global. Vous pouvez effectuer les autres tâches depuis un noeud du cluster de zones.
Identifiez et supprimez les types de ressources Oracle Solaris Cluster, tels que SUNW.HAStoragePlus et SUNW.ScalDeviceGroup, configurés sur les périphériques du cluster de zones à supprimer.
phys-schost# clresource delete -F -Z zoneclustername dev_zone_resources
phys-schost# clzonecluster show -v zoneclustername ... Resource Name: device match: <device_match> ...
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> remove device match=<devices_match> clzc:zoneclustername> commit clzc:zoneclustername> end
phys-schost# clzonecluster reboot zoneclustername
phys-schost# clzonecluster show -v zoneclustername
Exemple 9-14 Suppression d'un ensemble de disques SVM d'un cluster de zones
L'exemple suivant montre comment supprimer un ensemble de disques SVM apachedg configuré dans un cluster de zones se nommant sczone. Le nombre de l'ensemble de disques apachedg est égal à 3. Les périphériques sont utilisés par la ressource zc_rs configurée dans le cluster.
phys-schost# clzonecluster show -v sczone ... Resource Name: device match: /dev/md/apachedg/*dsk/* Resource Name: device match: /dev/md/shared/3/*dsk/* ... phys-schost# clresource delete -F -Z sczone zc_rs phys-schost# ls -l /dev/md/apachedg lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/apachedg -> shared/3 phys-schost# clzonecluster configure sczone clzc:sczone> remove device match=/dev/md/apachedg/*dsk/* clzc:sczone> remove device match=/dev/md/shared/3/*dsk/* clzc:sczone> commit clzc:sczone> end phys-schost# clzonecluster reboot sczone phys-schost# clzonecluster show -v sczone
Exemple 9-15 Suppression d'un périphérique DID d'un cluster de zones
L'exemple suivant montre comment supprimer des périphériques DID d10 et d11, qui sont configurés dans un cluster de zones se nommant sczone. Les périphériques sont utilisés par la ressource zc_rs configurée dans le cluster.
phys-schost# clzonecluster show -v sczone ... Resource Name: device match: /dev/did/*dsk/d10* Resource Name: device match: /dev/did/*dsk/d11* ... phys-schost# clresource delete -F -Z sczone zc_rs phys-schost# clzonecluster configure sczone clzc:sczone> remove device match=/dev/did/*dsk/d10* clzc:sczone> remove device match=/dev/did/*dsk/d11* clzc:sczone> commit clzc:sczone> end phys-schost# clzonecluster reboot sczone phys-schost# clzonecluster show -v sczone