JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Introduction à l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers du cluster

Présentation de l'administration des périphériques globaux et de l'espace de noms global

Permissions du périphérique global pour Solaris Volume Manager

Reconfiguration dynamique avec les périphériques globaux

Considérations d'administration Veritas Volume Manager

Administration de périphériques répliqués et basés sur le stockage

Administration de périphériques répliqués Hitachi TrueCopy

Configuration d'un groupe de réplication Hitachi TrueCopy

Configuration de la réplication de périphériques DID à l'aide de Hitachi TrueCopy

Vérification de la configuration d'un groupe de périphériques global répliqué Hitachi TrueCopy

Exemple : configuration d'un groupe de réplication TrueCopy pour Oracle Solaris Cluster

Administration de périphériques répliqués EMC Symmetrix Remote Data Facility

Configuration d'un groupe de réplication EMC SRDF

Configuration de la réplication de périphériques DID à l'aide du logiciel EMC SRDF

Vérification de la configuration d'un groupe de périphériques global répliqué EMC SRFD

Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster

Présentation de l'administration des systèmes de fichiers de cluster

Restrictions du système de fichiers du cluster

Directives relatives à la prise en charge VxFS

Administration de groupes de périphériques

Mise à jour de l'espace de noms des périphériques globaux

Modification de la taille d'un périphérique lofi utilisé pour l'espace de noms de périphériques globaux

Migration de l'espace de noms des périphériques globaux

Migration de l'espace de noms des périphériques globaux d'une partition dédiée vers un périphérique lofi

Migration de l'espace de noms des périphériques globaux d'un périphérique lofi vers une partition dédiée

Ajout et enregistrement de groupes de périphériques

Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager)

Ajout et enregistrement d'un groupe de périphériques (disque brut)

Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)

Création d'un groupe de disques lors de l'initialisation des disques (Veritas Volume Manager)

Maintenance des groupes de périphériques

Suppression et annulation de l'enregistrement d'un groupe de périphériques (Solaris Volume Manager)

Suppression d'un noeligud de tous les groupes de périphériques

Suppression d'un noeligud d'un groupe de périphériques (Solaris Volume Manager)

Création d'un groupe de disques lors de l'encapsulation des disques (Veritas Volume Manager)

Ajout d'un nouveau volume à un groupe de périphériques existant (Veritas Volume Manager)

Conversion d'un groupe de disques en groupe de périphériques (Veritas Volume Manager)

Assignation d'un nouveau code mineur à un groupe de périphériques (Veritas Volume Manager)

Enregistrement d'un groupe de disques en tant que groupe de périphériques (Veritas Volume Manager)

Enregistrement des modifications apportées à la configuration d'un groupe de disques (Veritas Volume Manager)

Conversion d'un groupe de disques local en groupe de périphériques (VxVM)

Conversion d'un groupe de périphériques en groupe de disques local (VxVM)

Suppression d'un volume d'un groupe de périphériques (Veritas Volume Manager)

Suppression et annulation de l'enregistrement d'un groupe de périphériques (Veritas Volume Manager)

Ajout d'un noeligud à un groupe de périphériques (Veritas Volume Manager)

Suppression d'un noeligud d'un groupe de périphériques (Veritas Volume Manager)

Suppression d'un noeligud d'un groupe de périphériques de disque brut

Modification des propriétés des groupes de périphériques

Définition du nombre souhaité de noeliguds secondaires pour un groupe de périphériques

Affichage sous forme de liste de la configuration d'un groupe de périphériques

Changement du noeligud principal d'un groupe de périphériques

Mise en état de maintenance du groupe de périphériques

Administration des paramètres du protocole SCSI pour les périphériques de stockage

Affichage des paramètres du protocole SCSI global par défaut pour tous les périphériques de stockage

Affichage du protocole SCSI d'un seul périphérique de stockage

Modification des paramètres du protocole de séparation globaux par défaut pour tous les périphériques de stockage

Modification du protocole de séparation d'un seul périphérique de stockage

Administration des systèmes de fichiers du cluster

Ajout d'un système de fichiers du cluster

Suppression d'un système de fichiers du cluster

Vérification des montages globaux dans un cluster

Administration du contrôle de chemin de disque

Contrôle d'un chemin de disque

Désactivation du contrôle d'un chemin de disque

Impression des chemins de disques défectueux

Correction d'une erreur d'état du chemin de disque

Contrôle des chemins de disques à partir d'un fichier

Activation de la réinitialisation automatique d'un noeligud en cas d'échec de tous les chemins contrôlés de disques partagés

Désactivation de la réinitialisation automatique d'un noeligud en cas d'échec de tous les chemins contrôlés de disques partagés

6.  Gestion de Quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeligud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation du CPU

11.  Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

13.  Administration de Oracle Solaris Cluster avec les interfaces graphiques

A.  exemple

Index

Administration des systèmes de fichiers du cluster

Le système de fichiers du cluster est un système de fichiers disponible globalement, accessible et lu de n'importe quel nœud du cluster.

Tableau 5-5 Liste des tâches : administration de systèmes de fichiers du cluster

Tâche
Instructions
Affichez des systèmes de fichiers du cluster après l'installation initiale de Oracle Solaris Cluster.
Supprimez un système de fichiers du cluster.
Vérifiez les points de montage globaux dans un cluster dans un souci de cohérence au niveau de l'ensemble des nœuds.

Ajout d'un système de fichiers du cluster

Effectuez cette tâche pour chaque système de fichiers du cluster que vous créez après l'installation Oracle Solaris Cluster initiale.


Attention

Attention - Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. Lorsque vous créez un système de fichiers du cluster, toutes les données sur le disque sont perdues. Si vous spécifiez un nom de périphérique incorrect, vous supprimez des données que vous souhaitez peut-être conserver.


Avant d'ajouter un système de fichiers de cluster supplémentaire, assurez-vous que les prérequis suivants ont été satisfaits :

Si vous avez installé des services de données à l'aide de Oracle Solaris Cluster Manager, un ou plusieurs systèmes de fichiers du cluster existent dans le cas de figure où les disques partagés sur lesquels créer les systèmes de fichiers du cluster étaient suffisants.

L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Devenez superutilisateur sur un nœud quelconque du cluster.

    Effectuez cette procédure à partir de la zone globale si des zones non globales sont configurées dans le cluster.


    Astuce - Pour accélérer la création de système de fichiers, devenez superutilisateur sur le nœud principal actuel du périphérique global pour lequel vous créez un système de fichiers.


  2. Créez un système de fichiers.

    Attention

    Caution - Lors de la création d'un système de fichiers, toutes les données présentes sur les disques sont détruites. Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. S'il ne l'est pas, vous pourriez supprimer des données que vous souhaitiez conserver.


    • Dans le cas d'un système de fichiers UFS, utilisez la commande newfs(1M).
      phys-schost# newfs raw-disk-device

      Le tableau suivant contient des exemples de noms pour l'argument raw-disk-device. Notez que la convention de nommage diffère pour chaque gestionnaire de volumes.


      Volume Manager
      Exemple de nom de périphérique de disque
      Description
      Solaris Volume Manager
      /dev/md/nfs/rdsk/d1
      Périphérique de disque brut d1 de l'ensemble de disques nfs
      Veritas Volume Manager
      /dev/vx/rdsk/oradg/vol01
      Périphérique de disque brut vol01 de l'ensemble de disques oradg
      Aucun
      /dev/global/rdsk/d1s3
      Périphérique de disque brut d1s3
    • Pour un système de fichiers Veritas File System (VxFS), suivez les procédures fournies dans votre documentation VxFS.
  3. Pour chaque nœud du cluster, créez un répertoire de point de montage pour le système de fichiers du cluster.

    Un point de montage est requis pour chaque nœud, même si vous n'accédez pas au système de fichiers du cluster à partir de ce nœud.


    Astuce - Pour faciliter l'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de facilement distinguer les systèmes de fichiers du cluster, qui sont disponibles de façon globale, des systèmes de fichiers locaux.


    phys-schost# mkdir -p /global/device-group/mountpoint/
    device-group

    Nom du répertoire correspondant au nom du groupe de périphériques qui contient le périphérique.

    mountpoint

    Nom du répertoire sur lequel monter le système de fichiers du cluster.

  4. Pour chaque nœud du cluster, ajoutez une entrée au fichier /etc/vfstab pour le point de montage.

    Pour des informations détaillées, reportez-vous à la page de manuel vfstab(4).


    Remarque - Si des zones non globales sont configurées dans le cluster, assurez-vous de monter les systèmes de fichiers du cluster dans la zone globale, sur un chemin du répertoire racine de la zone globale.


    1. Pour chaque entrée, spécifiez les options de montage pour le type de système de fichiers que vous utilisez.
    2. Pour monter automatiquement le système de fichiers du cluster, définissez le champ mount at boot sur yes.
    3. Assurez-vous que pour chaque système de fichiers du cluster, les informations contenues dans l'entrée /etc/vfstab sont identiques dans chaque nœud.
    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.
    5. Vérifiez les dépendances de l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, admettons que phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/, et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 peut initialiser et monter /global/oracle/logs/ uniquement après que phys-schost-1 a initialisé et monté /global/oracle/.

  5. Exécutez l'utilitaire de vérification de la configuration sur un nœud du cluster.
    phys-schost# cluster check -k vfstab

    L'utilitaire de vérification de la configuration vérifie que le point de montage existe. L'utilitaire vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster. Si aucune erreur ne se produit, aucun élément n'est renvoyé.

    Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).

  6. Montez le système de fichiers du cluster.
    phys-schost# mount /global/device-group/mountpoint/
    • Pour UFS, montez le système de fichiers du cluster à partir d'un autre nœud du cluster.
    • Pour VxFS, montez le système de fichiers du cluster à partir du nœud maître actuel du device-group afin de vous assurer de la réussite du montage du système de fichiers.

      De plus, démontez un système de fichiers VxFS du nœud maître actuel du device-group afin de vous assurer de la réussite du démontage du système de fichiers.


      Remarque - Pour gérer un système de fichiers du cluster VxFS dans un environnement Oracle Solaris Cluster, exécutez les commandes administratives uniquement à partir du nœud principal sur lequel le système de fichiers du cluster VxFS est monté.


  7. Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est monté.

    Vous pouvez utiliser soit la commande df, soit la commande mount pour répertorier les systèmes de fichiers montés. Pour plus d'informations, reportez-vous aux pages de manuel df(1M) ou mount(1M).

    Les systèmes de fichiers du cluster sont accessibles depuis les zones globale et non globale.

Exemple 5-43 Création d'un système de fichiers du cluster UFS

L'exemple suivant crée un système de fichiers du cluster UFS sur le volume Solaris Volume Manager /dev/md/oracle/rdsk/d1. Une entrée est ajoutée au fichier vfstab de chaque nœud pour le système de fichiers du cluster. La commande cluster check est ensuite exécutée à partir d'un nœud. Une fois le processus de vérification de la configuration terminé, le système de fichiers du cluster est monté sur un nœud et vérifié sur tous les nœuds.

phys-schost# newfs /dev/md/oracle/rdsk/d1
…
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
…
phys-schost# cluster check -k vfstab
phys-schost# mount /global/oracle/d1
phys-schost# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

Suppression d'un système de fichiers du cluster

Pour supprimer un système de fichiers du cluster, il suffit de le démonter. Pour supprimer également les données, supprimez le périphérique de disque (ou métapériphérique ou volume) sous-jacent du système.


Remarque - Les systèmes de fichiers du cluster sont automatiquement démontés dans le cadre de la fermeture du système qui intervient lorsque vous exécutez la commande cluster shutdown pour arrêter le cluster dans son intégralité. Ils ne le sont pas en revanche lorsque vous exécutez la commande shutdown pour arrêter un seul nœud. Toutefois, si le nœud en cours de fermeture n'est pas le seul à être connecté au disque, toute tentative d'accès au système de fichiers du cluster sur ce disque génère une erreur.


Avant de démonter des systèmes de fichiers de cluster, assurez-vous que les prérequis suivants ont été satisfaits :

  1. Devenez superutilisateur sur un nœud quelconque du cluster.
  2. Déterminez quels systèmes de fichiers du cluster sont montés.
    # mount -v
  3. Sur chaque nœud, répertoriez tous les processus qui exploitent le système de fichiers afin d'identifier ceux que vous allez arrêter.
    # fuser -c [ -u ] mountpoint
    -c

    Signale les fichiers qui constituent des points de montage pour les systèmes de fichiers ainsi que tous les fichiers figurant dans ces systèmes de fichiers montés.

    -u

    (Facultatif) Affiche le nom de connexion de l'utilisateur pour chaque identificateur de processus.

    mountpoint

    Spécifie le nom du système de fichiers du cluster pour lequel vous souhaitez arrêter les processus.

  4. Sur chaque nœud, arrêtez tous les processus pour le système de fichiers du cluster.

    Arrêtez les processus selon votre méthode préférée. Si nécessaire, faites appel à la commande suivante pour mener à leur terme les processus associés au système de fichiers du cluster.

    # fuser -c -k mountpoint

    Une commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers du cluster.

  5. Sur chaque nœud, vérifiez qu'aucun processus n'utilise le système de fichiers.
    # fuser -c mountpoint
  6. À partir d'un seul nœud, démontez le système de fichiers.
    # umount mountpoint
    mountpoint

    Spécifie le nom du système de fichiers du cluster à démonter. Il peut s'agir du nom du répertoire sur lequel le système de fichiers du cluster est monté ou le chemin de nom de périphérique du système de fichiers.

  7. (Facultatif) Modifiez le fichier /etc/vfstab pour supprimer l'entrée du système de fichiers du cluster en cours de suppression.

    Effectuez cette étape sur chaque nœud du cluster dont le fichier /etc/vfstab contient une entrée pour ce système de fichiers du cluster.

  8. (Facultatif) Supprimez le périphérique de disque group/metadevice/volume/plex.

    Pour plus d'informations, reportez-vous à la documentation du gestionnaire de volume.

Exemple 5-44 Suppression d'un système de fichiers du cluster

Dans l'exemple suivant, le système de fichiers du cluster UFS monté sur le volume ou métapériphérique Solaris Volume Manager /dev/md/oracle/rdsk/d1 est supprimé.

# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(On each node, remove the highlighted entry:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[Save and exit.]

Pour supprimer les données présentes sur le système de fichiers du cluster, supprimez le périphérique sous-jacent. Pour plus d'informations, reportez-vous à la documentation du gestionnaire de volume.

Vérification des montages globaux dans un cluster

L'utilitaire cluster(1CL) vérifie la syntaxe des entrées pour les systèmes de fichiers du cluster dans le fichier /etc/vfstab. Si aucune erreur ne se produit, aucun élément n'est renvoyé.


Remarque - Exécutez la commande cluster check après toute modification de la configuration du cluster (suppression d'un système de fichiers du cluster, par exemple) ayant des répercussions sur des périphériques ou des composants de gestion de volume.


  1. Devenez superutilisateur sur un nœud quelconque du cluster.
  2. Vérifiez les montages globaux du cluster.
    # cluster check -k vfstab