Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster 4.1 (Français) |
1. Présentation de l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
4. Méthodes de réplication de données
Présentation de l'administration des périphériques globaux et de l'espace de noms global
Permissions du périphérique global pour Solaris Volume Manager
Reconfiguration dynamique avec les périphériques globaux
Administration des périphériques répliqués basés sur le stockage
Administration des périphériques répliqués EMC Symmetrix Remote Data Facility
Configuration d'un groupe de réplication EMC SRDF
Configuration de périphériques DID pour la réplication à l'aide d'EMC SRDF
Vérification de la configuration d'un groupe de périphériques globaux répliqués EMC SRDF
Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster
Présentation de l'administration des systèmes de fichiers de cluster
Restrictions du système de fichiers de cluster
Administration des groupes de périphériques
Mise à jour de l'espace de noms des périphériques globaux
Migration de l'espace de noms des périphériques globaux
Ajout et enregistrement de groupes de périphériques
Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager)
Ajout et enregistrement d'un groupe de périphériques (disque brut)
Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)
Maintenance des groupes de périphériques
Suppression et annulation de l'enregistrement d'un groupe de périphériques (Solaris Volume Manager)
Suppression d'un noeud de tous les groupes de périphériques
Suppression d'un noeud d'un groupe de périphériques (Solaris Volume Manager)
Suppression d'un noeud d'un groupe de périphériques de disque brut
Modification des propriétés des groupes de périphériques
Définition du nombre souhaité de noeuds secondaires pour un groupe de périphériques
Affichage sous forme de liste de la configuration d'un groupe de périphériques
Changement du noeud principal d'un groupe de périphériques
Mise en état de maintenance du groupe de périphériques
Administration des paramètres du protocole SCSI pour les périphériques de stockage
Affichage des paramètres du protocole SCSI global par défaut pour tous les périphériques de stockage
Affichage du protocole SCSI d'un seul périphérique de stockage
Modification du protocole de séparation d'un seul périphérique de stockage
Administration des systèmes de fichiers de cluster
Ajout d'un système de fichiers de cluster
Administration du contrôle de chemin de disque
Contrôle d'un chemin de disque
Désactivation du contrôle d'un chemin de disque
Impression des chemins de disques défectueux
Correction d'une erreur d'état du chemin de disque
Contrôle des chemins de disques à partir d'un fichier
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un noeud
10. Configuration du contrôle de l'utilisation de la CPU
Le système de fichiers de cluster est un système de fichiers disponible globalement, accessible et lu de n'importe quel noeud du cluster.
Tableau 5-4 Liste des tâches : administration de systèmes de fichiers de cluster
|
Effectuez cette tâche pour chaque système de fichiers de cluster que vous créez après l'installation Oracle Solaris Cluster initiale.
Attention - Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. Lorsque vous créez un système de fichiers de cluster, toutes les données sur le disque sont perdues. Si vous spécifiez un nom de périphérique incorrect, vous supprimez des données que vous souhaitez peut-être conserver. |
Avant d'ajouter un système de fichiers de cluster supplémentaire, assurez-vous que les prérequis suivants ont été satisfaits :
Le privilège du rôle root est établi sur un noeud dans le cluster.
Le gestionnaire de volumes est installé et configuré sur le cluster.
Il existe un groupe de périphériques (Solaris Volume Manager, par exemple) ou une tranche de disque en mode bloc sur lequel ou laquelle créer le système de fichiers de cluster.
Si vous avez installé des services de données à l'aide de Oracle Solaris Cluster Manager, un ou plusieurs systèmes de fichiers de cluster existent dans le cas de figure où les disques partagés sur lesquels créer les systèmes de fichiers de cluster étaient suffisants.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
Astuce - Pour accélérer la création d'un système de fichiers, connectez-vous en tant que rôle root au noeud principal actuel du périphérique global pour lequel vous créez un système de fichiers.
Caution - Lors de la création d'un système de fichiers, toutes les données présentes sur les disques sont détruites. Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. S'il ne l'est pas, vous pourriez supprimer des données que vous souhaitiez conserver. |
phys-schost# newfs raw-disk-device
Le tableau suivant contient des exemples de noms pour l'argument raw-disk-device. Notez que la convention de nommage diffère pour chaque gestionnaire de volumes.
|
Un point de montage est requis sur chaque noeud, même si vous n'accédez pas au système de fichiers de cluster sur ce noeud.
Astuce - Pour faciliter l'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de facilement distinguer les systèmes de fichiers de cluster, qui sont disponibles de façon globale, des systèmes de fichiers locaux.
phys-schost# mkdir -p /global/device-group/mount-point/
Nom du répertoire correspondant au nom du groupe de périphériques qui contient le périphérique.
Nom du répertoire sur lequel monter le système de fichiers de cluster.
Reportez-vous à la page de manuel vfstab(4) pour plus de détails.
Par exemple, admettons que phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/ et que phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 peut initialiser et monter /global/oracle/logs/ uniquement après que phys-schost-1 a initialisé et monté /global/oracle/.
phys-schost# cluster check -k vfstab
L'utilitaire de vérification de la configuration vérifie que le point de montage existe. L'utilitaire vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster. Si aucune erreur ne se produit, aucune sortie n'est renvoyée.
Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).
phys-schost# mount /global/device-group/mountpoint/
Vous pouvez utiliser soit la commande df, soit la commande mount pour répertorier les systèmes de fichiers montés. Pour plus d'informations, reportez-vous aux pages de manuel df(1M) ou mount(1M).
Exemple 5-22 Création d'un système de fichiers de cluster UFS
L'exemple suivant crée un système de fichiers de cluster UFS sur le volume Solaris Volume Manager /dev/md/oracle/rdsk/d1. Une entrée est ajoutée au fichier vfstab de chaque noeud pour le système de fichiers de cluster. La commande cluster check est ensuite exécutée à partir d'un noeud. Une fois le processus de vérification de la configuration terminé, le système de fichiers de cluster est monté sur un noeud et vérifié sur tous les noeuds.
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# cluster check -k vfstab phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005
Pour supprimer un système de fichiers de cluster, il suffit de le démonter. Pour supprimer également les données, supprimez le périphérique de disque (ou métapériphérique ou volume) sous-jacent du système.
Remarque - Les systèmes de fichiers de cluster sont automatiquement démontés dans le cadre de la fermeture du système qui intervient lorsque vous exécutez la commande cluster shutdown pour arrêter le cluster dans son intégralité. Ils ne le sont pas en revanche lorsque vous exécutez la commande shutdown pour arrêter un seul noeud. Toutefois, si le noeud en cours de fermeture n'est pas le seul à être connecté au disque, toute tentative d'accès au système de fichiers de cluster sur ce disque génère une erreur.
Avant de démonter des systèmes de fichiers de cluster, assurez-vous que les prérequis suivants ont été satisfaits :
Le privilège du rôle root est établi sur un noeud dans le cluster.
Le système de fichiers est disponible. Un système de fichiers est indisponible si un utilisateur utilise un répertoire du système de fichiers ou qu'un fichier de programme est ouvert dans le système de fichiers. L'utilisateur ou le programme pourrait être en cours d'exécution sur un noeud du cluster.
# mount -v
# fuser -c [ -u ] mountpoint
Signale les fichiers qui constituent des points de montage pour les systèmes de fichiers ainsi que tous les fichiers figurant dans ces systèmes de fichiers montés.
(Facultatif) Affiche le nom de connexion de l'utilisateur pour chaque identificateur de processus.
Spécifie le nom du système de fichiers de cluster pour lequel vous souhaitez arrêter les processus.
Arrêtez les processus selon votre méthode préférée. Si nécessaire, faites appel à la commande suivante pour mener à leur terme les processus associés au système de fichiers de cluster.
# fuser -c -k mountpoint
Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers de cluster.
# fuser -c mountpoint
# umount mountpoint
Spécifie le nom du système de fichiers de cluster à démonter. Il peut s'agir du nom du répertoire sur lequel le système de fichiers de cluster est monté ou le chemin de nom de périphérique du système de fichiers.
Effectuez cette étape sur chaque noeud du cluster dont le fichier /etc/vfstab contient une entrée pour ce système de fichiers de cluster.
Pour plus d'informations, reportez-vous à la documentation du gestionnaire de volume.
Exemple 5-23 Suppression d'un système de fichiers de cluster
Dans l'exemple suivant, le système de fichiers de cluster UFS monté sur le volume ou métapériphérique Solaris Volume Manager /dev/md/oracle/rdsk/d1 est supprimé.
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (On each node, remove the highlighted entry:) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Save and exit.]
Pour supprimer les données présentes sur le système de fichiers de cluster, supprimez le périphérique sous-jacent. Pour plus d'informations, reportez-vous à la documentation du gestionnaire de volume.
L'utilitaire cluster(1CL) vérifie la syntaxe des entrées pour les systèmes de fichiers de cluster dans le fichier /etc/vfstab. Si aucune erreur ne se produit, aucun élément n'est renvoyé.
Remarque - Exécutez la commande cluster check après toute modification de la configuration du cluster (suppression d'un système de fichiers de cluster, par exemple) ayant des répercussions sur des périphériques ou des composants de gestion de volume.