Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'administration système d'Oracle Solaris Cluster Oracle Solaris Cluster (Français) |
1. Introduction à l'administration d'Oracle Solaris Cluster
2. Oracle Solaris Cluster et RBAC
3. Fermeture et initialisation d'un cluster
4. Méthodes de réplication de données
Présentation de l'administration des périphériques globaux et de l'espace de noms global
Permissions du périphérique global pour Solaris Volume Manager
Reconfiguration dynamique avec les périphériques globaux
Considérations d'administration Veritas Volume Manager
Administration de périphériques répliqués et basés sur le stockage
Administration de périphériques répliqués Hitachi TrueCopy
Configuration d'un groupe de réplication Hitachi TrueCopy
Configuration de la réplication de périphériques DID à l'aide de Hitachi TrueCopy
Vérification de la configuration d'un groupe de périphériques global répliqué Hitachi TrueCopy
Exemple : configuration d'un groupe de réplication TrueCopy pour Oracle Solaris Cluster
Administration de périphériques répliqués EMC Symmetrix Remote Data Facility
Configuration d'un groupe de réplication EMC SRDF
Configuration de la réplication de périphériques DID à l'aide du logiciel EMC SRDF
Vérification de la configuration d'un groupe de périphériques global répliqué EMC SRFD
Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster
Présentation de l'administration des systèmes de fichiers de cluster
Restrictions du système de fichiers du cluster
Directives relatives à la prise en charge VxFS
Administration de groupes de périphériques
Mise à jour de l'espace de noms des périphériques globaux
Migration de l'espace de noms des périphériques globaux
Ajout et enregistrement de groupes de périphériques
Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager)
Ajout et enregistrement d'un groupe de périphériques (disque brut)
Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)
Création d'un groupe de disques lors de l'initialisation des disques (Veritas Volume Manager)
Maintenance des groupes de périphériques
Suppression et annulation de l'enregistrement d'un groupe de périphériques (Solaris Volume Manager)
Suppression d'un nud de tous les groupes de périphériques
Suppression d'un nud d'un groupe de périphériques (Solaris Volume Manager)
Création d'un groupe de disques lors de l'encapsulation des disques (Veritas Volume Manager)
Ajout d'un nouveau volume à un groupe de périphériques existant (Veritas Volume Manager)
Conversion d'un groupe de disques en groupe de périphériques (Veritas Volume Manager)
Assignation d'un nouveau code mineur à un groupe de périphériques (Veritas Volume Manager)
Enregistrement d'un groupe de disques en tant que groupe de périphériques (Veritas Volume Manager)
Conversion d'un groupe de disques local en groupe de périphériques (VxVM)
Conversion d'un groupe de périphériques en groupe de disques local (VxVM)
Suppression d'un volume d'un groupe de périphériques (Veritas Volume Manager)
Suppression et annulation de l'enregistrement d'un groupe de périphériques (Veritas Volume Manager)
Ajout d'un nud à un groupe de périphériques (Veritas Volume Manager)
Suppression d'un nud d'un groupe de périphériques (Veritas Volume Manager)
Suppression d'un nud d'un groupe de périphériques de disque brut
Modification des propriétés des groupes de périphériques
Définition du nombre souhaité de nuds secondaires pour un groupe de périphériques
Affichage sous forme de liste de la configuration d'un groupe de périphériques
Changement du nud principal d'un groupe de périphériques
Mise en état de maintenance du groupe de périphériques
Administration des paramètres du protocole SCSI pour les périphériques de stockage
Affichage des paramètres du protocole SCSI global par défaut pour tous les périphériques de stockage
Affichage du protocole SCSI d'un seul périphérique de stockage
Modification du protocole de séparation d'un seul périphérique de stockage
Administration des systèmes de fichiers du cluster
Ajout d'un système de fichiers du cluster
Administration du contrôle de chemin de disque
Contrôle d'un chemin de disque
Désactivation du contrôle d'un chemin de disque
Impression des chemins de disques défectueux
Correction d'une erreur d'état du chemin de disque
Contrôle des chemins de disques à partir d'un fichier
7. Administration des interconnexions de cluster et des réseaux publics
8. Ajout et suppression d'un nud
10. Configuration du contrôle de l'utilisation du CPU
11. Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster
12. Sauvegarde et restauration d'un cluster
13. Administration de Oracle Solaris Cluster avec les interfaces graphiques
Le système de fichiers du cluster est un système de fichiers disponible globalement, accessible et lu de n'importe quel nœud du cluster.
Tableau 5-5 Liste des tâches : administration de systèmes de fichiers du cluster
|
Effectuez cette tâche pour chaque système de fichiers du cluster que vous créez après l'installation Oracle Solaris Cluster initiale.
![]() | Attention - Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. Lorsque vous créez un système de fichiers du cluster, toutes les données sur le disque sont perdues. Si vous spécifiez un nom de périphérique incorrect, vous supprimez des données que vous souhaitez peut-être conserver. |
Avant d'ajouter un système de fichiers de cluster supplémentaire, assurez-vous que les prérequis suivants ont été satisfaits :
Le privilège de superutilisateur est établi sur un nœud du cluster ;
Le gestionnaire de volumes est installé et configuré sur le cluster ;
Il existe un groupe de périphériques (Solaris Volume Manager ou VxVM) ou une tranche de disque en mode bloc sur lequel ou laquelle créer le système de fichiers du cluster.
Si vous avez installé des services de données à l'aide de Oracle Solaris Cluster Manager, un ou plusieurs systèmes de fichiers du cluster existent dans le cas de figure où les disques partagés sur lesquels créer les systèmes de fichiers du cluster étaient suffisants.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.
Effectuez cette procédure à partir de la zone globale si des zones non globales sont configurées dans le cluster.
Astuce - Pour accélérer la création de système de fichiers, devenez superutilisateur sur le nœud principal actuel du périphérique global pour lequel vous créez un système de fichiers.
![]() | Caution - Lors de la création d'un système de fichiers, toutes les données présentes sur les disques sont détruites. Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. S'il ne l'est pas, vous pourriez supprimer des données que vous souhaitiez conserver. |
phys-schost# newfs raw-disk-device
Le tableau suivant contient des exemples de noms pour l'argument raw-disk-device. Notez que la convention de nommage diffère pour chaque gestionnaire de volumes.
|
Un point de montage est requis pour chaque nœud, même si vous n'accédez pas au système de fichiers du cluster à partir de ce nœud.
Astuce - Pour faciliter l'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de facilement distinguer les systèmes de fichiers du cluster, qui sont disponibles de façon globale, des systèmes de fichiers locaux.
phys-schost# mkdir -p /global/device-group/mountpoint/
Nom du répertoire correspondant au nom du groupe de périphériques qui contient le périphérique.
Nom du répertoire sur lequel monter le système de fichiers du cluster.
Pour des informations détaillées, reportez-vous à la page de manuel vfstab(4).
Remarque - Si des zones non globales sont configurées dans le cluster, assurez-vous de monter les systèmes de fichiers du cluster dans la zone globale, sur un chemin du répertoire racine de la zone globale.
Par exemple, admettons que phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/, et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 peut initialiser et monter /global/oracle/logs/ uniquement après que phys-schost-1 a initialisé et monté /global/oracle/.
phys-schost# cluster check -k vfstab
L'utilitaire de vérification de la configuration vérifie que le point de montage existe. L'utilitaire vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster. Si aucune erreur ne se produit, aucun élément n'est renvoyé.
Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).
phys-schost# mount /global/device-group/mountpoint/
De plus, démontez un système de fichiers VxFS du nœud maître actuel du device-group afin de vous assurer de la réussite du démontage du système de fichiers.
Vous pouvez utiliser soit la commande df, soit la commande mount pour répertorier les systèmes de fichiers montés. Pour plus d'informations, reportez-vous aux pages de manuel df(1M) ou mount(1M).
Les systèmes de fichiers du cluster sont accessibles depuis les zones globale et non globale.
Exemple 5-43 Création d'un système de fichiers du cluster UFS
L'exemple suivant crée un système de fichiers du cluster UFS sur le volume Solaris Volume Manager /dev/md/oracle/rdsk/d1. Une entrée est ajoutée au fichier vfstab de chaque nœud pour le système de fichiers du cluster. La commande cluster check est ensuite exécutée à partir d'un nœud. Une fois le processus de vérification de la configuration terminé, le système de fichiers du cluster est monté sur un nœud et vérifié sur tous les nœuds.
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# cluster check -k vfstab phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005
Pour supprimer un système de fichiers du cluster, il suffit de le démonter. Pour supprimer également les données, supprimez le périphérique de disque (ou métapériphérique ou volume) sous-jacent du système.
Remarque - Les systèmes de fichiers du cluster sont automatiquement démontés dans le cadre de la fermeture du système qui intervient lorsque vous exécutez la commande cluster shutdown pour arrêter le cluster dans son intégralité. Ils ne le sont pas en revanche lorsque vous exécutez la commande shutdown pour arrêter un seul nœud. Toutefois, si le nœud en cours de fermeture n'est pas le seul à être connecté au disque, toute tentative d'accès au système de fichiers du cluster sur ce disque génère une erreur.
Avant de démonter des systèmes de fichiers de cluster, assurez-vous que les prérequis suivants ont été satisfaits :
Le privilège de superutilisateur est établi sur un nœud du cluster ;
Le système de fichiers est disponible. Un système de fichiers est indisponible si un utilisateur utilise un répertoire du système de fichiers ou qu'un fichier de programme est ouvert dans le système de fichiers. L'utilisateur ou le programme pourrait être en cours d'exécution sur un nœud du cluster.
# mount -v
# fuser -c [ -u ] mountpoint
Signale les fichiers qui constituent des points de montage pour les systèmes de fichiers ainsi que tous les fichiers figurant dans ces systèmes de fichiers montés.
(Facultatif) Affiche le nom de connexion de l'utilisateur pour chaque identificateur de processus.
Spécifie le nom du système de fichiers du cluster pour lequel vous souhaitez arrêter les processus.
Arrêtez les processus selon votre méthode préférée. Si nécessaire, faites appel à la commande suivante pour mener à leur terme les processus associés au système de fichiers du cluster.
# fuser -c -k mountpoint
Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers du cluster.
# fuser -c mountpoint
# umount mountpoint
Spécifie le nom du système de fichiers du cluster à démonter. Il peut s'agir du nom du répertoire sur lequel le système de fichiers du cluster est monté ou le chemin de nom de périphérique du système de fichiers.
Effectuez cette étape sur chaque nœud du cluster dont le fichier /etc/vfstab contient une entrée pour ce système de fichiers du cluster.
Pour plus d'informations, reportez-vous à la documentation du gestionnaire de volume.
Exemple 5-44 Suppression d'un système de fichiers du cluster
Dans l'exemple suivant, le système de fichiers du cluster UFS monté sur le volume ou métapériphérique Solaris Volume Manager /dev/md/oracle/rdsk/d1 est supprimé.
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (On each node, remove the highlighted entry:) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Save and exit.]
Pour supprimer les données présentes sur le système de fichiers du cluster, supprimez le périphérique sous-jacent. Pour plus d'informations, reportez-vous à la documentation du gestionnaire de volume.
L'utilitaire cluster(1CL) vérifie la syntaxe des entrées pour les systèmes de fichiers du cluster dans le fichier /etc/vfstab. Si aucune erreur ne se produit, aucun élément n'est renvoyé.
Remarque - Exécutez la commande cluster check après toute modification de la configuration du cluster (suppression d'un système de fichiers du cluster, par exemple) ayant des répercussions sur des périphériques ou des composants de gestion de volume.