Sun Cluster Software Guide d'installation pour le SE Solaris

Chapitre 6 Création de systèmes de fichiers de cluster et zones non globales

Ce chapitre présente les procédures suivantes :

Création de systèmes de fichiers de cluster

Cette rubrique décrit des procédures de création de systèmes de fichiers de cluster permettant de prendre en charge des services de données.

ProcedureCréation de systèmes de fichiers de cluster

Suivez cette procédure pour chaque système de fichiers de cluster à créer. Contrairement à un système de fichiers local, un système de fichiers de cluster est accessible à partir de n'importe quel nœud du cluster.


Remarque –

Vous pouvez également utiliser un système de fichiers local à haute disponibilité pour prendre en charge un service de données. Pour plus d'informations sur le choix entre la création d'un système de fichiers de cluster ou d'un système de fichiers local à haute disponibilité pour prendre en charge un service de données particulier, reportez-vous au guide du service de données concerné. Pour obtenir des informations générales sur la création d'un système de fichiers local à haute disponibilité, reportez-vous à la rubrique Enabling Highly Available Local File Systems du Sun Cluster Data Services Planning and Administration Guide for Solaris OS.


Avant de commencer

Effectuez les tâches suivantes :

  1. Devenez superutilisateur sur un noeud du cluster.

    Pour Solaris, suivez cette procédure à partir de la zone globale si des zones non globales sont configurées dans le cluster.


    Astuce –

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au noeud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  2. Créez un système de fichiers.


    Caution – Caution –

    toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'indiquer le nom correct du périphérique de disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.


    • Pour un système de fichiers UFS, utilisez la commande newfs(1M).


      phys-schost# newfs raw-disk-device
      

      Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

      Gestionnaire de volumes 

      Exemple de nom de périphériques de disque 

      Description 

      Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      Périphérique de disque brut d1 dans l'ensemble de disques nfs

      VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      Périphérique de disque brut vol01 dans le groupe de disques oradg

      Aucun 

      /dev/global/rdsk/d1s3

      Périphérique de disque brut d1s3

    • SPARC : pour un système de fichiers VERITAS File System (VxFS), suivez les instructions des procédures fournies dans la documentation de VxFS.

  3. Sur chaque nœud, créez un répertoire de montage pour le système de fichiers de cluster.

    Vous devez créer un point de montage sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.


    Astuce –

    Afin de vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.



    phys-schost# mkdir -p /global/device-group/mountpoint/
    
    groupe_unité

    Nom du répertoire correspondant au nom du groupe de périphériques contenant le périphérique en question.

    point_montage

    Nom du répertoire sur lequel vous devez monter le système de fichiers du cluster.

  4. Sur chaque noeud de la grappe, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.

    Reportez-vous à la page de manuel vfstab(4) pour obtenir plus d'informations.


    Remarque –

    Si des zones non globales sont configurées dans le cluster, veillez à monter des systèmes de fichiers de cluster dans la zone globale via un chemin dans le répertoire racine de la zone globale.


    1. Dans chacune des entrées, indiquez les options de montage requises pour le type de système de fichiers utilisé.


      Remarque –

      N'utilisez pas l'option de montage logging pour les volumes transactionnels Solaris Volume Manager. Les volumes transactionnels disposent d'une journalisation propre.

      En outre, Solaris Volume Manager Journalisation de volumes de transaction est supprimé du SE Solaris 10. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.


    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ monter à l'initialisation.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque noeud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disque d0 sur /global/oracle/ et phys-schost-2 monte le périphérique de disque d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs/ qu'une fois que phys-schost-1 a démarré et monté /global/oracle/.

  5. Exécutez l'utilitaire de vérification de la configuration sur un quelconque nœud du cluster.


    phys-schost# sccheck
    

    L'utilitaire de vérification de la configuration vérifie que les points de montage existent. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster. Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

    Pour plus d'informations, reportez-vous à la page de manuel sccheck(1M).

  6. Montez le système de fichiers de cluster.


    phys-schost# mount /global/device-group/mountpoint/
    
    • Pour UFS , montez le système de fichiers du cluster à partir de n'importe quel nœud.

    • SPARC : Pour VxFS, montez le système de fichiers de cluster à partir du maître actuel de device-group pour avoir l'assurance que ce système monte correctement.

      En outre, démontez un système de fichiers VxFS du maître actuel du device-group afin de garantir un démontage correct du système de fichiers.


      Remarque –

      Pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du nœud principal sur lequel le système de fichiers de cluster VxFS est monté.


  7. Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df ou mount pour afficher la liste des systèmes de fichiers montés. Pour plus d'informations, reportez-vous à la page de manuel df(1M) ou à la page de manuel mount(1M).

    Dans Solaris 10, les systèmes de fichiers de cluster sont accessibles via la zone globale et la zone non globale.


Exemple 6–1 Création d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers UFS sur le le volume Solaris Volume Manager /dev/md/oracle/rdsk/d1. Une entrée du système de fichiers de cluster est ajoutée au fichier vfstab de chaque nœud. La commande sccheck est ensuite exécutée à partir d'un nœud. Une fois le processus de vérification de la configuration terminé, le système de fichiers de cluster est monté à partir d'un nœud puis vérifié sur tous les nœuds.


phys-schost# newfs /dev/md/oracle/rdsk/d1
…
phys-schost# mkdir -p /global/oracle/d1
phys-schost# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
…
phys-schost# sccheck
phys-schost# mount /global/oracle/d1
phys-schost# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2005

Étapes suivantes

Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.

Configuration d'une zone non globale sur un nœud de cluster

Cette rubrique décrit des procédures de création d'une zone non globale sur un nœud de cluster.

ProcedureCréation d'une zone non globale sur un nœud de cluster

Suivez cette procédure pour chaque zone non globale à créer dans le cluster.


Remarque –

Pour obtenir des informations complètes sur l'installation d'une zone, reportez-vous au manuel System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.


Vous pouvez configurer une zone non globale Solaris 10, désignée ici une zone, sur un nœud de cluster lors de l'initialisation du nœud en mode cluster ou non cluster.

Avant de commencer

Effectuez les tâches suivantes :

Pour plus d'informations, reportez-vous à la rubrique Zone Components du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

  1. Devenez le superutilisateur du nœud sur lequel vous créez la zone non globale.

    Vous devez vous trouver dans la zone globale.

  2. Pour Solaris 10, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.

    Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.


    phys-schost# svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  3. Configurez, installez et initialisez la nouvelle zone.


    Remarque –

    Vous devez définir la propriété autoboot sur true pour prendre en charge la fonctionnalité de groupe de ressources dans la zone non globale.


    Suivez les procédures de la documentation suivante :

    1. Effectuez les procédures du Chapitre 18, Planning and Configuring Non-Global Zones (Tasks) du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

    2. Effectuez les procédures de la rubrique Installing and Booting Zones du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

    3. Effectuez les procédures de la rubrique How to Boot a Zone du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

  4. Vérifiez que l'état de la zone est prêt.


    phys-schost# zoneadm list -v
    ID  NAME     STATUS       PATH
     0  global   running      /
     1  my-zone  ready        /zone-path
    
  5. (Facultatif) Assignez une adresse IP privée et un nom d'hôte privé à la zone.

    La commande suivante choisit et assigne une adresse IP disponible à partir de la plage d'adresses IP privées du cluster. La commande assigne également le nom d'hôte privé spécifié, ou alias d'hôte, à la zone et le mappe à l'adresse IP privée assignée.


    phys-schost# clnode set -p zprivatehostname=hostalias node:zone
    
    -p

    Spécifie une propriété.

    zprivatehostname=hostalias

    Spécifie le nom d'hôte privé de la zone, ou alias d'hôte.

    node

    Nom du nœud.

    zone

    Nom de la zone non globale.

  6. Procédez à la configuration de la zone interne initiale.

    Suivez les procédures de la rubrique Performing the Initial Internal Zone Configuration du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones. Utilisez l'une des méthodes suivantes :

    • Se connecter à la zone

    • Utiliser un fichier /etc/sysidcfg

  7. Dans la zone non globale, modifiez le fichier nsswitch.conf.

    Vous devez apporter ces modifications pour activer la zone et résoudre les recherches de noms d'hôtes et d'adresses IP spécifiques au cluster.

    1. Connectez-vous à la zone.


      phys-schost# zogin -c zonename
      
    2. Ouvrez le fichier /etc/nsswitch.conf pour le modifier.


      phys-schost# vi /etc/nsswitch.conf
      
    3. Ajoutez le commutateur cluster au début des recherches pour les entrées hosts et netmasks.

      Les entrées modifiées doivent être similaires à ce qui suit :


      …
      hosts:      cluster files nis [NOTFOUND=return]
      …
      netmasks:   cluster files nis [NOTFOUND=return]
      …
Étapes suivantes

Pour installer une application dans une zone non globale, utilisez la procédure qui s'applique à un système autonome. Reportez-vous à la documentation d'installation de votre application pour obtenir des procédures d'installation du logiciel dans une zone non globale. Reportez-vous également à la rubrique Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map) du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.

Pour installer et configurer un service de données dans une zone non globale, reportez-vous au manuel de Sun Cluster du service de données concerné.