JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration système d'Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Introduction à l'administration d'Oracle Solaris Cluster

2.  Oracle Solaris Cluster et RBAC

3.  Fermeture et initialisation d'un cluster

4.  Méthodes de réplication de données

5.  Administration des périphériques globaux, du contrôle de chemin de disque et des systèmes de fichiers du cluster

Présentation de l'administration des périphériques globaux et de l'espace de noms global

Permissions du périphérique global pour Solaris Volume Manager

Reconfiguration dynamique avec les périphériques globaux

Considérations d'administration Veritas Volume Manager

Administration de périphériques répliqués et basés sur le stockage

Administration de périphériques répliqués Hitachi TrueCopy

Configuration d'un groupe de réplication Hitachi TrueCopy

Configuration de la réplication de périphériques DID à l'aide de Hitachi TrueCopy

Vérification de la configuration d'un groupe de périphériques global répliqué Hitachi TrueCopy

Exemple : configuration d'un groupe de réplication TrueCopy pour Oracle Solaris Cluster

Administration de périphériques répliqués EMC Symmetrix Remote Data Facility

Configuration d'un groupe de réplication EMC SRDF

Configuration de la réplication de périphériques DID à l'aide du logiciel EMC SRDF

Vérification de la configuration d'un groupe de périphériques global répliqué EMC SRFD

Exemple : configuration d'un groupe de réplication SRDF pour Oracle Solaris Cluster

Présentation de l'administration des systèmes de fichiers de cluster

Restrictions du système de fichiers du cluster

Directives relatives à la prise en charge VxFS

Administration de groupes de périphériques

Mise à jour de l'espace de noms des périphériques globaux

Modification de la taille d'un périphérique lofi utilisé pour l'espace de noms de périphériques globaux

Migration de l'espace de noms des périphériques globaux

Migration de l'espace de noms des périphériques globaux d'une partition dédiée vers un périphérique lofi

Migration de l'espace de noms des périphériques globaux d'un périphérique lofi vers une partition dédiée

Ajout et enregistrement de groupes de périphériques

Ajout et enregistrement de groupes de périphériques (Solaris Volume Manager)

Ajout et enregistrement d'un groupe de périphériques (disque brut)

Ajout et enregistrement d'un groupe de périphériques répliqué (ZFS)

Création d'un groupe de disques lors de l'initialisation des disques (Veritas Volume Manager)

Maintenance des groupes de périphériques

Suppression et annulation de l'enregistrement d'un groupe de périphériques (Solaris Volume Manager)

Suppression d'un noeligud de tous les groupes de périphériques

Suppression d'un noeligud d'un groupe de périphériques (Solaris Volume Manager)

Création d'un groupe de disques lors de l'encapsulation des disques (Veritas Volume Manager)

Ajout d'un nouveau volume à un groupe de périphériques existant (Veritas Volume Manager)

Conversion d'un groupe de disques en groupe de périphériques (Veritas Volume Manager)

Assignation d'un nouveau code mineur à un groupe de périphériques (Veritas Volume Manager)

Enregistrement d'un groupe de disques en tant que groupe de périphériques (Veritas Volume Manager)

Enregistrement des modifications apportées à la configuration d'un groupe de disques (Veritas Volume Manager)

Conversion d'un groupe de disques local en groupe de périphériques (VxVM)

Conversion d'un groupe de périphériques en groupe de disques local (VxVM)

Suppression d'un volume d'un groupe de périphériques (Veritas Volume Manager)

Suppression et annulation de l'enregistrement d'un groupe de périphériques (Veritas Volume Manager)

Ajout d'un noeligud à un groupe de périphériques (Veritas Volume Manager)

Suppression d'un noeligud d'un groupe de périphériques (Veritas Volume Manager)

Suppression d'un noeligud d'un groupe de périphériques de disque brut

Modification des propriétés des groupes de périphériques

Définition du nombre souhaité de noeliguds secondaires pour un groupe de périphériques

Affichage sous forme de liste de la configuration d'un groupe de périphériques

Changement du noeligud principal d'un groupe de périphériques

Mise en état de maintenance du groupe de périphériques

Administration des paramètres du protocole SCSI pour les périphériques de stockage

Affichage des paramètres du protocole SCSI global par défaut pour tous les périphériques de stockage

Affichage du protocole SCSI d'un seul périphérique de stockage

Modification des paramètres du protocole de séparation globaux par défaut pour tous les périphériques de stockage

Modification du protocole de séparation d'un seul périphérique de stockage

Administration des systèmes de fichiers du cluster

Ajout d'un système de fichiers du cluster

Suppression d'un système de fichiers du cluster

Vérification des montages globaux dans un cluster

Administration du contrôle de chemin de disque

Contrôle d'un chemin de disque

Désactivation du contrôle d'un chemin de disque

Impression des chemins de disques défectueux

Correction d'une erreur d'état du chemin de disque

Contrôle des chemins de disques à partir d'un fichier

Activation de la réinitialisation automatique d'un noeligud en cas d'échec de tous les chemins contrôlés de disques partagés

Désactivation de la réinitialisation automatique d'un noeligud en cas d'échec de tous les chemins contrôlés de disques partagés

6.  Gestion de Quorum

7.  Administration des interconnexions de cluster et des réseaux publics

8.  Ajout et suppression d'un noeligud

9.  Administration du cluster

10.  Configuration du contrôle de l'utilisation du CPU

11.  Mise à jour du logiciel ou installation d'un microprogramme Oracle Solaris Cluster

12.  Sauvegarde et restauration d'un cluster

13.  Administration de Oracle Solaris Cluster avec les interfaces graphiques

A.  exemple

Index

Administration du contrôle de chemin de disque

L'administration DPM (Disk Path Monitoring, contrôle du chemin de disque) permet de recevoir des notifications de panne de chemin de disque secondaire. Suivez les procédures décrites dans cette section pour réaliser les tâches d'administration associées au contrôle de chemin de disque. Le Chapitre 3, Key Concepts for System Administrators and Application Developers du Oracle Solaris Cluster Concepts Guide contient des informations conceptuelles sur le démon du contrôle de chemin de disque. La page de manuel cldevice(1CL) décrit les options de commande et les commandes associées. Pour plus d'informations sur le réglage du démon scdpmd, reportez-vous à la page de manuel scdpmd.conf(4). Consultez également la page de manuel syslogd(1M) pour obtenir les erreurs consignées par le démon.


Remarque - Lorsque vous ajoutez des périphériques d'E/S à un nœud à l'aide de la commande cddevice, des chemins de disques sont automatiquement ajoutés à la liste de contrôle. Le contrôle de chemin de disque est automatiquement désactivé lorsque des périphériques sont supprimés du nœud à l'aide des commandes Oracle Solaris Cluster.


Tableau 5-6 Liste des tâches : administration du contrôle de chemin de disque

Tâche
Instructions
Contrôlez un chemin de disque.
Désactivez le contrôle d'un chemin de disque.
Imprimez l'état de chemins de disques défectueux pour un nœud.
Contrôlez les chemins de disques à partir d'un fichier.
Activez ou désactivez la réinitialisation automatique d'un nœud en cas d'échec de tous les chemins de disques contrôlés.
Corrigez l'état d'un chemin de disque incorrect. L'état d'un chemin de disque incorrect peut être signalé lorsque le périphérique DID contrôlé est indisponible pendant l'initialisation et l'instance DID n'est pas téléchargée dans le pilote DID.

Les procédures, décrites dans la section suivante, qui exécutent la commande cldevice incluent l'argument de chemin de disque. L'argument de chemin de disque se compose d'un nom de nœud et d'un nom de disque. Le nom de nœud n'est pas nécessaire et sa valeur est définie par défaut sur all sans spécification de votre part.

Contrôle d'un chemin de disque

Procédez comme suit pour contrôler des chemins de disques dans votre cluster.


Attention

Attention - Le contrôle DPM n'est pas pris en charge sur les nœuds qui exécutent des versions du logiciel Sun Cluster antérieures à la version 3.1 10/03. N'utilisez pas les commandes DPM lorsqu'une mise à niveau progressive est en cours. Une fois tous les nœuds mis à niveau, vous devez les mettre en ligne avant d'utiliser les commandes DPM.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une autorisation RBAC solaris.cluster.modify sur un nœud du cluster.
  2. Contrôlez un chemin de disque.
    # cldevice monitor -n node disk
  3. Vérifiez que le chemin de disque est contrôlé.
    # cldevice status device

Exemple 5-45 Contrôle d'un chemin de disque sur un seul nœud

Dans l'exemple suivant, le chemin de disque schost-1:/dev/did/rdsk/d1 est contrôlé à partir d'un seul nœud. Seul le démon DPM situé sur le nœud schost-1 contrôle le chemin d'accès au disque /dev/did/dsk/d1.

# cldevice monitor -n schost-1 /dev/did/dsk/d1
# cldevice status d1

Device Instance   Node           Status
--------------- ---- ------
/dev/did/rdsk/d1   phys-schost-1 Ok

Exemple 5-46 Contrôle d'un chemin de disque sur tous les nœuds

Dans l'exemple suivant, le chemin de disque schost-1:/dev/did/dsk/d1 est contrôlé à partir de tous les nœuds. Le contrôle DPM démarre sur tous les nœuds pour lesquels /dev/did/dsk/d1 est un chemin valide.

# cldevice monitor /dev/did/dsk/d1
# cldevice status /dev/did/dsk/d1

Device Instance   Node           Status
--------------- ---- ------
/dev/did/rdsk/d1   phys-schost-1 Ok

Exemple 5-47 Relecture de la configuration de disque à partir du CCR

Dans l'exemple suivant, le démon est contraint à relire la configuration de disque à partir du CCR et les chemins de disques contrôlés sont imprimés avec leur état.

# cldevice monitor +
# cldevice status
Device Instance              Node               Status
---------------              ----               ------
/dev/did/rdsk/d1             schost-1           Ok
/dev/did/rdsk/d2             schost-1           Ok
/dev/did/rdsk/d3             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d4             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d5             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d6             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d7             schost-2           Ok
/dev/did/rdsk/d8             schost-2           Ok

Désactivation du contrôle d'un chemin de disque

Procédez comme suit pour désactiver le contrôle d'un chemin de disque.


Attention

Attention - Le contrôle DPM n'est pas pris en charge sur les nœuds qui exécutent des versions du logiciel Sun Cluster antérieures à la version 3.1 10/03. N'utilisez pas les commandes DPM lorsqu'une mise à niveau progressive est en cours. Une fois tous les nœuds mis à niveau, vous devez les mettre en ligne avant d'utiliser les commandes DPM.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une autorisation RBAC solaris.cluster.modify sur un nœud du cluster.
  2. Déterminez l'état du chemin de disque dont vous souhaitez désactiver le contrôle.
    # cldevice status device
  3. Sur chaque nœud, désactivez le contrôle des chemins de disques appropriés.
    # cldevice unmonitor -n node disk

Exemple 5-48 Désactivation du contrôle d'un chemin de disque

Dans l'exemple suivant, le contrôle du chemin de disque schost-2:/dev/did/rdsk/d1 est désactivé et les chemins de disques sont imprimés avec leur état pour l'ensemble du cluster.

# cldevice unmonitor -n schost2 /dev/did/rdsk/d1
# cldevice status -n schost2 /dev/did/rdsk/d1

Device Instance              Node               Status
---------------              ----               ------
/dev/did/rdsk/d1             schost-2           Unmonitored

Impression des chemins de disques défectueux

Procédez comme suit pour imprimer les chemins de disques défectueux d'un cluster.


Attention

Attention - Le contrôle DPM n'est pas pris en charge sur les nœuds qui exécutent des versions du logiciel Sun Cluster antérieures à la version 3.1 10/03. N'utilisez pas les commandes DPM lorsqu'une mise à niveau progressive est en cours. Une fois tous les nœuds mis à niveau, vous devez les mettre en ligne avant d'utiliser les commandes DPM.


  1. Devenez superutilisateur sur un nœud quelconque du cluster.
  2. Imprimez les chemins de disques défectueux à l'échelle du cluster.
    # cldevice status -s fail

Exemple 5-49 Impression des chemins de disques défectueux

Dans l'exemple suivant, les chemins de disques défectueux sont imprimés pour l'ensemble du cluster.

# cldevice status -s fail
     
Device Instance               Node              Status
---------------               ----              ------
dev/did/dsk/d4                phys-schost-1     fail

Correction d'une erreur d'état du chemin de disque

Si les événements suivants se produisent, le contrôle DPM risque de ne pas mettre à jour l'état d'un chemin défectueux lors de son retour en ligne :

L'état d'un chemin de disque incorrect est signalé parce que le périphérique DID contrôlé est indisponible pendant l'initialisation et, par conséquent, l'instance DID n'est pas téléchargée dans le pilote DID. Dans ce cas, mettez manuellement à jour les informations DID.

  1. À partir d'un nœud, mettez à jour l'espace de noms des périphériques globaux.
    # cldevice populate
  2. Sur chaque nœud, vérifiez que le traitement de la commande est arrivé à terme avant de passer à l'étape suivante.

    La commande s'applique à distance sur tous les nœuds, même si elle est exécutée à partir d'un seul nœud. Pour savoir si la commande a terminé le traitement, exécutez la commande suivante sur chaque nœud du cluster.

    # ps -ef | grep cldevice populate
  3. Dans le délai d'interrogation DPM, vérifiez que l'état du chemin de disque défectueux est à présent OK.
    # cldevice status disk-device
    
    Device Instance               Node                  Status
    ---------------               ----                  ------
    dev/did/dsk/dN                phys-schost-1         Ok

Contrôle des chemins de disques à partir d'un fichier

Procédez comme suit pour activer ou désactiver le contrôle des chemins de disques à partir d'un fichier.

Pour modifier la configuration du cluster à l'aide d'un fichier, vous devez d'abord l'exporter. L'exportation génère un fichier XML que vous pouvez alors modifier afin de définir les composants de la configuration que vous changez. L'intégralité de ce processus est décrite dans la procédure suivante.


Attention

Attention - Le contrôle DPM n'est pas pris en charge sur les nœuds qui exécutent des versions du logiciel Sun Cluster antérieures à la version 3.1 10/03. N'utilisez pas les commandes DPM lorsqu'une mise à niveau progressive est en cours. Une fois tous les nœuds mis à niveau, vous devez les mettre en ligne avant d'utiliser les commandes DPM.


L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.

Cette procédure utilise les formes longues des commandes Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. À l'exception de la forme du nom, ces commandes sont identiques.

  1. Connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une autorisation RBAC solaris.cluster.modify sur un nœud du cluster.
  2. Exportez la configuration de périphérique dans un fichier XML.
    # cldevice export -o configurationfile
    -o configurationfile

    Précisez le nom de votre fichier XML.

  3. Modifiez le fichier de configuration en vue de contrôler les chemins de périphériques.

    Recherchez les chemins de périphériques à contrôler et définissez l'attribut monitored sur true.

  4. Contrôlez les chemins de périphériques.
    # cldevice monitor -i configurationfile
    -i configurationfile

    Précisez le nom du fichier XML modifié.

  5. Vérifiez que le chemin de périphérique est à présent contrôlé.
    # cldevice status

Exemple 5-50 Contrôle des chemins de disques à partir d'un fichier

Dans l'exemple suivant, le chemin de périphérique entre le nœud phys-schost-2 et le périphérique d3 est contrôlé à l'aide d'un fichier XML.

La première étape consiste à exporter la configuration de cluster actuelle.

# cldevice export -o deviceconfig

Le fichier XML deviceconfig indique que le chemin entre phys-schost-2 et d3 n'est pas contrôlé.

<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
   <deviceList readonly="true">
    <device name="d3" ctd="c1t8d0">
      <devicePath nodeRef="phys-schost-1" monitored="true"/>
      <devicePath nodeRef="phys-schost-2" monitored="false"/>
    </device>
  </deviceList>
</cluster>

Pour le contrôler, définissez l'attribut monitored sur true, comme suit.

<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
   <deviceList readonly="true">
    <device name="d3" ctd="c1t8d0">
      <devicePath nodeRef="phys-schost-1" monitored="true"/>
      <devicePath nodeRef="phys-schost-2" monitored="true"/>
    </device>
  </deviceList>
</cluster>

Utilisez la commande cldevice pour lire le fichier et activer le contrôle.

# cldevice monitor -i deviceconfig

Utilisez la commande cldevice pour vérifier que le périphérique est maintenant contrôlé.

# cldevice status

Voir aussi

Pour plus d'informations sur l'exportation de la configuration du cluster et sa définition à l'aide du fichier XML obtenu, reportez-vous aux pages de manuel cluster(1CL) et clconfiguration(5CL).

Activation de la réinitialisation automatique d'un nœud en cas d'échec de tous les chemins contrôlés de disques partagés

L'activation de cette fonctionnalité entraîne la réinitialisation automatique d'un nœud lorsque les conditions suivantes sont vérifiées :

La réinitialisation du nœud entraîne le redémarrage de tous les groupes de ressources et groupes de périphériques de ce nœud sur un autre nœud.

Si tous les chemins contrôlés des disques partagés sur le nœud restent inaccessibles après la réinitialisation automatique du nœud, le nœud n'est pas à nouveau automatiquement réinitialisé. Toutefois, si un chemin de disque devient disponible après la réinitialisation du nœud, puis échoue à nouveau, le nœud est automatiquement réinitialisé.

Lorsque vous activez la propriété reboot_on_path_failure, l'état des chemins de disques locaux n'est pas pris en compte pour déterminer si un nœud doit être réinitialisé. Seuls les disques partagés contrôlés sont concernés.

  1. Sur un nœud du cluster, connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une autorisation RBAC solaris.cluster.modify.
  2. Pour tous les nœuds du cluster, activez la réinitialisation automatique d'un nœud en cas d'échec de tous les chemins contrôlés de disques partagés qui permettent d'y accéder.
    # clnode set -p reboot_on_path_failure=enabled +

Désactivation de la réinitialisation automatique d'un nœud en cas d'échec de tous les chemins contrôlés de disques partagés

Si vous désactivez cette fonctionnalité et que tous les chemins contrôlés de disques partagés sur un nœud échouent, le nœud n'est pas réinitialisé automatiquement.

  1. Sur un nœud du cluster, connectez-vous en tant que superutilisateur ou en tant qu'utilisateur disposant d'une autorisation RBAC solaris.cluster.modify.
  2. Pour tous les nœuds du cluster, désactivez la réinitialisation automatique d'un nœud en cas d'échec de tous les chemins contrôlés de disques partagés qui permettent d'y accéder.
    # clnode set -p reboot_on_path_failure=disabled +