JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster 4.1 (Français)
search filter icon
search icon

Informations document

Préface

1.  Présentation de l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers de cluster

Présentation de l'administration des périphériques globaux et de l'espace de noms global

Permissions du périphérique global pour Solaris Volume Manager

Reconfiguration dynamique avec les périphériques globaux

Administration des périphériques répliqués basés sur le stockage

Administration des périphériques répliqués EMC Symmetrix Remote Data Facility

Configuration d'un groupe de réplication EMC SRDF

Configuration de périphériques DID pour la réplication à l'aide d'EMC SRDF

Vérification de la configuration d'un groupe de périphériques globaux répliqués EMC SRDF

Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster

Présentation de l'administration des systèmes de fichiers de cluster

Restrictions du système de fichiers de cluster

Administration des groupes de périphériques

Mise à jour de l'espace de noms des périphériques globaux

Modification de la taille d'un périphérique lofi utilisé pour l'espace de noms de périphériques globaux

Migration de l'espace de noms des périphériques globaux

Migration de l'espace de noms des périphériques globaux d'une partition dédiée vers un périphérique lofi

Migration de l'espace de noms des périphériques globaux d'un périphérique lofi vers une partition dédiée

Ajout et enregistrement de groupes de périphériques

Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager)

Ajout et enregistrement d'un groupe de périphériques (disque brut)

Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)

Maintenance des groupes de périphériques

Suppression et annulation de l'enregistrement d'un groupe de périphériques (Solaris Volume Manager)

Suppression d'un noeud de tous les groupes de périphériques

Suppression d'un noeud d'un groupe de périphériques (Solaris Volume Manager)

Suppression d'un noeud d'un groupe de périphériques de disque brut

Modification des propriétés des groupes de périphériques

Définition du nombre souhaité de noeuds secondaires pour un groupe de périphériques

Affichage sous forme de liste de la configuration d'un groupe de périphériques

Changement du noeud principal d'un groupe de périphériques

Mise en état de maintenance du groupe de périphériques

Administration des paramètres du protocole SCSI pour les périphériques de stockage

Affichage des paramètres du protocole SCSI global par défaut pour tous les périphériques de stockage

Affichage du protocole SCSI d'un seul périphérique de stockage

Modification des paramètres du protocole de séparation globaux par défaut pour tous les périphériques de stockage

Modification du protocole de séparation d'un seul périphérique de stockage

Administration des systèmes de fichiers de cluster

Ajout d'un système de fichiers de cluster

Suppression d'un système de fichiers de cluster

Vérification des montages globaux dans un cluster

Administration du contrôle de chemin de disque

Contrôle d'un chemin de disque

Désactivation du contrôle d'un chemin de disque

Impression des chemins de disques défectueux

Correction d'une erreur d'état du chemin de disque

Contrôle des chemins de disques à partir d'un fichier

Activation de la réinitialisation automatique d'un noeud en cas d'échec de tous les chemins contrôlés de disques partagés

Désactivation de la réinitialisation automatique d'un noeud en cas d'échec de tous les chemins contrôlés de disques partagés

6.  Gestion du quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation de la CPU

11.  Mise à jour du logiciel

12.  Sauvegarde et restauration d'un cluster

A.  Exemple

Index

Administration des systèmes de fichiers de cluster

Le système de fichiers de cluster est un système de fichiers disponible globalement, accessible et lu de n'importe quel noeud du cluster.

Tableau 5-4 Liste des tâches : administration de systèmes de fichiers de cluster

Tâche
Instructions
Ajout de systèmes de fichiers de cluster après l'installation initiale de Oracle Solaris Cluster.
Suppression d'un système de fichiers de cluster.
Vérification des points de montage globaux dans un cluster dans un souci de cohérence au niveau de l'ensemble des noeuds.

Ajout d'un système de fichiers de cluster

Effectuez cette tâche pour chaque système de fichiers de cluster que vous créez après l'installation Oracle Solaris Cluster initiale.


Attention

Attention - Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. Lorsque vous créez un système de fichiers de cluster, toutes les données sur le disque sont perdues. Si vous spécifiez un nom de périphérique incorrect, vous supprimez des données que vous souhaitez peut-être conserver.


Avant d'ajouter un système de fichiers de cluster supplémentaire, assurez-vous que les prérequis suivants ont été satisfaits :

Si vous avez installé des services de données à l'aide de Oracle Solaris Cluster Manager, un ou plusieurs systèmes de fichiers de cluster existent dans le cas de figure où les disques partagés sur lesquels créer les systèmes de fichiers de cluster étaient suffisants.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure contient la forme longue des commandes de Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.

  1. Prenez le rôle root sur n'importe quel noeud dans le cluster.

    Astuce - Pour accélérer la création d'un système de fichiers, connectez-vous en tant que rôle root au noeud principal actuel du périphérique global pour lequel vous créez un système de fichiers.


  2. Créez un système de fichiers UFS à l'aide de la commande newfs.

    Attention

    Caution - Lors de la création d'un système de fichiers, toutes les données présentes sur les disques sont détruites. Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. S'il ne l'est pas, vous pourriez supprimer des données que vous souhaitiez conserver.


    phys-schost# newfs raw-disk-device

    Le tableau suivant contient des exemples de noms pour l'argument raw-disk-device. Notez que la convention de nommage diffère pour chaque gestionnaire de volumes.


    Gestionnaire de volumes
    Exemple de nom de périphérique de disque
    Description
    Solaris Volume Manager
    /dev/md/nfs/rdsk/d1
    Périphérique de disque brut d1 de l'ensemble de disques nfs
    Aucun
    /dev/global/rdsk/d1s3
    Périphérique de disque brut d1s3
  3. Pour chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Un point de montage est requis sur chaque noeud, même si vous n'accédez pas au système de fichiers de cluster sur ce noeud.


    Astuce - Pour faciliter l'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de facilement distinguer les systèmes de fichiers de cluster, qui sont disponibles de façon globale, des systèmes de fichiers locaux.


    phys-schost# mkdir -p /global/device-group/mount-point/
    device-group

    Nom du répertoire correspondant au nom du groupe de périphériques qui contient le périphérique.

    mount-point

    Nom du répertoire sur lequel monter le système de fichiers de cluster.

  4. Pour chaque noeud du cluster, ajoutez une entrée au fichier /etc/vfstab pour le point de montage.

    Reportez-vous à la page de manuel vfstab(4) pour plus de détails.

    1. Pour chaque entrée, spécifiez les options de montage pour le type de système de fichiers que vous utilisez.
    2. Pour monter automatiquement le système de fichiers de cluster, définissez le champ mount at boot sur yes.
    3. Pour chaque système de fichiers de cluster, assurez-vous que les informations contenues dans l'entrée /etc/vfstab sont identiques dans chaque noeud.
    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.
    5. Vérifiez les dépendances de l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, admettons que phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/ et que phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 peut initialiser et monter /global/oracle/logs/ uniquement après que phys-schost-1 a initialisé et monté /global/oracle/.

  5. Exécutez l'utilitaire de vérification de la configuration sur un noeud quelconque du cluster.
    phys-schost# cluster check -k vfstab

    L'utilitaire de vérification de la configuration vérifie que le point de montage existe. L'utilitaire vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster. Si aucune erreur ne se produit, aucune sortie n'est renvoyée.

    Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).

  6. Montez le système de fichiers de cluster à partir de l'un des noeuds du cluster.
    phys-schost# mount /global/device-group/mountpoint/
  7. Sur chaque noeud du cluster, vérifiez que le système de fichiers de cluster est monté.

    Vous pouvez utiliser soit la commande df, soit la commande mount pour répertorier les systèmes de fichiers montés. Pour plus d'informations, reportez-vous aux pages de manuel df(1M) ou mount(1M).

Exemple 5-22 Création d'un système de fichiers de cluster UFS

L'exemple suivant crée un système de fichiers de cluster UFS sur le volume Solaris Volume Manager /dev/md/oracle/rdsk/d1. Une entrée est ajoutée au fichier vfstab de chaque noeud pour le système de fichiers de cluster. La commande cluster check est ensuite exécutée à partir d'un noeud. Une fois le processus de vérification de la configuration terminé, le système de fichiers de cluster est monté sur un noeud et vérifié sur tous les noeuds.

phys-schost# newfs /dev/md/oracle/rdsk/d1
…
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
…
phys-schost# cluster check -k vfstab
phys-schost# mount /global/oracle/d1
phys-schost# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

Suppression d'un système de fichiers de cluster

Pour supprimer un système de fichiers de cluster, il suffit de le démonter. Pour supprimer également les données, supprimez le périphérique de disque (ou métapériphérique ou volume) sous-jacent du système.


Remarque - Les systèmes de fichiers de cluster sont automatiquement démontés dans le cadre de la fermeture du système qui intervient lorsque vous exécutez la commande cluster shutdown pour arrêter le cluster dans son intégralité. Ils ne le sont pas en revanche lorsque vous exécutez la commande shutdown pour arrêter un seul noeud. Toutefois, si le noeud en cours de fermeture n'est pas le seul à être connecté au disque, toute tentative d'accès au système de fichiers de cluster sur ce disque génère une erreur.


Avant de démonter des systèmes de fichiers de cluster, assurez-vous que les prérequis suivants ont été satisfaits :

  1. Prenez le rôle root sur n'importe quel noeud dans le cluster.
  2. Déterminez quels systèmes de fichiers de cluster sont montés.
    # mount -v
  3. Sur chaque noeud, répertoriez tous les processus qui exploitent le système de fichiers afin d'identifier ceux que vous allez arrêter.
    # fuser -c [ -u ] mountpoint
    -c

    Signale les fichiers qui constituent des points de montage pour les systèmes de fichiers ainsi que tous les fichiers figurant dans ces systèmes de fichiers montés.

    -u

    (Facultatif) Affiche le nom de connexion de l'utilisateur pour chaque identificateur de processus.

    mountpoint

    Spécifie le nom du système de fichiers de cluster pour lequel vous souhaitez arrêter les processus.

  4. Sur chaque noeud, arrêtez tous les processus pour le système de fichiers de cluster.

    Arrêtez les processus selon votre méthode préférée. Si nécessaire, faites appel à la commande suivante pour mener à leur terme les processus associés au système de fichiers de cluster.

    # fuser -c -k mountpoint

    Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers de cluster.

  5. Sur chaque noeud, vérifiez qu'aucun processus n'utilise le système de fichiers.
    # fuser -c mountpoint
  6. A partir d'un seul noeud, démontez le système de fichiers.
    # umount mountpoint
    mountpoint

    Spécifie le nom du système de fichiers de cluster à démonter. Il peut s'agir du nom du répertoire sur lequel le système de fichiers de cluster est monté ou le chemin de nom de périphérique du système de fichiers.

  7. (Facultatif) Modifiez le fichier /etc/vfstab pour supprimer l'entrée du système de fichiers de cluster en cours de suppression.

    Effectuez cette étape sur chaque noeud du cluster dont le fichier /etc/vfstab contient une entrée pour ce système de fichiers de cluster.

  8. (Facultatif) Supprimez le périphérique de disque group/metadevice/volume/plex.

    Pour plus d'informations, reportez-vous à la documentation du gestionnaire de volume.

Exemple 5-23 Suppression d'un système de fichiers de cluster

Dans l'exemple suivant, le système de fichiers de cluster UFS monté sur le volume ou métapériphérique Solaris Volume Manager /dev/md/oracle/rdsk/d1 est supprimé.

# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(On each node, remove the highlighted entry:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[Save and exit.]

Pour supprimer les données présentes sur le système de fichiers de cluster, supprimez le périphérique sous-jacent. Pour plus d'informations, reportez-vous à la documentation du gestionnaire de volume.

Vérification des montages globaux dans un cluster

L'utilitaire cluster(1CL) vérifie la syntaxe des entrées pour les systèmes de fichiers de cluster dans le fichier /etc/vfstab. Si aucune erreur ne se produit, aucun élément n'est renvoyé.


Remarque - Exécutez la commande cluster check après toute modification de la configuration du cluster (suppression d'un système de fichiers de cluster, par exemple) ayant des répercussions sur des périphériques ou des composants de gestion de volume.


  1. Prenez le rôle root sur n'importe quel noeud dans le cluster.
  2. Vérifiez les montages globaux du cluster.
    # cluster check -k vfstab