Guide d'installation du logiciel Sun Cluster 3.1

Configuration de la grappe

Le tableau suivant répertorie les tâches à effectuer pour configurer votre grappe. Avant de commencer ces tâches, vérifiez que vous avez effectué les tâches suivantes :

Tableau 2–10 Liste des tâches : configuration de la grappe

Tâche 

Pour les instructions, voir … 

Création et montage de systèmes de fichiers de grappe. 

Ajout de systèmes de fichiers de grappe

Configuration de groupes multi-acheminement sur réseau IP . 

Configuration des groupes multi-acheminement sur réseau IP

(Facultatif) Modification du nom d'hôte privé d'un noeud.

Modification des noms d'hôtes privés

Création ou modification du fichier de configuration NTP. 

Configuration du protocole NTP (Network Time Protocol)

(Facultatif) Installation du module Sun Cluster pour le logiciel Sun Management Center.

Installation du module Sun Cluster pour Sun Management Center

Documentation Sun Management Center 

Installation d'applications de fournisseurs tiers et configuration des applications, services de données et groupes de ressources. 

Sun Cluster 3.1 Data Services Installation and Configuration Guide

“Data Service Configuration Worksheets and Examples” dans les Sun Cluster 3.1 Release Notes

Documentation des applications de fournisseurs tiers 

Ajout de systèmes de fichiers de grappe

Exécutez cette procédure pour chaque système de fichiers de grappe à ajouter.


Attention : Attention :

toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'avoir indiqué le nom correct du périphérique de disque. Si vous indiquez un nom de périphérique incorrect, vous effacerez des données que vous n'aviez sans doute pas l'intention de supprimer.


Si vous avez utilisé SunPlex Manager pour installer des services de données, un ou plusieurs systèmes de fichiers de grappe existent déjà si le nombre de disques partagés existants était suffisant pour y créer ces systèmes.

  1. Assurez-vous que le logiciel de gestion des volumes est installé et configuré.

    Pour connaître les procédures d'installation du gestionnaire de volumes, reportez-vous à la rubrique Installation et configuration du logiciel Solstice DiskSuite/Solaris Volume Manager ou Installation et configuration du logiciel VxVM.

  2. Prévoyez-vous d'installer le logiciel VERITAS File System (VxFS) ?

    • Si ce n'est pas le cas, allez à l'Étape 3.

    • Si oui, procédez comme suit.

    1. Suivez les procédures du guide d'installation de VxFS pour installer le logiciel VxFS sur chaque noeud de la grappe.

    2. Sur chaque noeud, modifiez la valeur 0x4000 de l'entrée ci-après par 0x6000 dans le fichier /etc/system.


      set rpcmod:svc_default_stksize=0x6000

      Le logiciel Sun Cluster nécessite que la valeur du volume de la pile par défaut soit définie sur 0x6000 au moins. L'installation de VxFS modifiant cette valeur pour la passer sur 0x4000, vous devez manuellement le rétablir sur 0x6000 une fois l'installation de VxFS terminée.

  3. Devenez superutilisateur sur un noeud de la grappe.


    Astuce :

    pour accélérer la création du système de fichiers, devenez superutilisateur sur le principal du périphérique global pour lequel vous créez un système de fichiers.


  4. Créez un système de fichiers.

    • Pour un système de fichiers VxFS, suivez les procédures de la documentation de votre VxFS.

    • Pour un système de fichiers UFS, utilisez la commande newfs(1M).


      # newfs périphérique_disques_bruts
      

    Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Tableau 2–11 Exemples de noms de périphériques de disque bruts

    Gestionnaire de volumes 

    Exemple de nom de périphériques de disque 

    Description 

    Solstice DiskSuite/Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    Périphérique de disque brut d1 dans l'ensemble de disques oracle

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Périphérique de disque brut vol01 dans le groupe de disques oradg

    Aucun 

    /dev/global/rdsk/d1s3

    Périphérique de disque brut d1s3

  5. Sur chaque noeud de la grappe, créez un répertoire de point de montage pour le système de fichiers de grappe.

    Vous devez créer un point de montage sur chaque noeud, même si l'accès au système de fichiers de grappe ne se fait pas sur tous les noeuds.


    Astuce :

    pour vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers de la grappe, qui sont disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/groupe_périphériques/point_montage
    
    groupe_périphériques

    Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique

    point_montage

    Nom du répertoire sur lequel le système de fichiers de grappe doit être monté

  6. Sur chaque noeud de la grappe, ajoutez une entrée correspondant au point de montage au fichier /etc/vfstab.

    1. Utilisez les options de montage requises suivantes :


      Remarque :

      l'option logging est requise pour tous les systèmes de fichiers de grappe.


      • Journalisation UFS Solaris : utilisez les options de montage global,logging. Reportez-vous à la page de manuel mount_ufs(1M) pour de plus amples informations sur les options de montage UFS.


        Remarque :

        L'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de grappe UFS.

        • Si vous spécifiez syncdir, vous serez assuré que le système de fichiers sera compatible avec POSIX pour l'appel système write(), c'est-à-dire qu'en cas de réussite de la commande write(), vous êtes certain qu'il y a de l'espace sur le disque.

        • Si vous ne spécifiez pas syncdir, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. En effet, le fait de ne pas spécifier syncdir, peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir vous ne découvrirez que l'espace est insuffisant (ENOSPC) qu'au moment de la fermeture d'un fichier. Vous ne verrez ENOSPC durant la fermeture que pendant un très court intervalle de temps après une reprise sur panne, tandis qu'avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


      • Trans-métapériphérique Solstice DiskSuite ou volume Solaris Volume Manager de transaction : utilisez uniquement l'option de montage global. N'utilisez pas l'option de montage logging.


        Remarque :

        Les volumes de transaction devraient être supprimés de l'environnement d'exploitation Solaris dans une version ultérieure de Solaris. La Journalisation UFS Solaris, disponible depuis la version Solaris 8, offre les mêmes fonctions tout en permettant d'obtenir à la fois des performances supérieures et un entête et des exigences en matière d'administration système nettement moindres.


        Reportez-vous à la documentation de Solstice DiskSuite et de Solaris Volume Manager pour plus d'informations sur la configuration des trans-métapériphériques ou des volumes de transaction respectivement.

      • Connexion VxFS : utilisez les options de montage global, log. Reportez-vous à la page de manuel mount_vxfs de VxFS pour de plus amples informations sur les options de montage de VxFS.

    2. Pour monter automatiquement le système de fichiers de grappe, indiquez la valeur yes pour le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de grappe, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque noeud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disque d0 sur /global/oracleet phys-schost-2 monte le périphérique de disque d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs qu'une fois que phys-schost-1 a démarré et monté /global/oracle.

    Reportez-vous à la page de manuel vfstab(4) pour de plus amples informations.

  7. A partir d'un noeud quelconque, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds de la grappe.


    # sccheck
    

    Sil aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  8. A partir d'un noeud quelconque de la grappe, montez le système de fichiers de grappe.


    # mount /global/groupe_périphériques/point_montage
    


    Remarque :

    pour VERITAS File System (VxFS), montez le système de fichiers à partir du maître actuel de groupe_périphériques pour avoir l'assurance que ce système se charge correctement. En outre, démontez un système de fichiers VxFS du maître actuel du groupe-périphériques afin de garantir un démontage correct du système de fichiers.


  9. Sur chaque noeud de la grappe, vérifiez que le système de fichiers de la grappe est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.


    Remarque :

    pour gérer un système de fichier de grappe VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du noeud principal sur lequel le système de fichiers de grappe VxFS est monté.


  10. Configurez les groupes multi-acheminement sur réseau IP .

    Reportez-vous à la rubrique Configuration des groupes multi-acheminement sur réseau IP .

Exemple de création d'un système de fichiers de grappe

L'exemple suivant crée un système de fichiers de la grappe UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.


# newfs /dev/md/oracle/rdsk/d1
...
 
(sur chaque noeud)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(sauvegarder et quitter)
 
(sur un noeud)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000

Configuration des groupes multi-acheminement sur réseau IP

Effectuez cette tâche sur chaque noeud de la grappe.


Remarque :

tous les adaptateurs de réseau public doivent appartenir à un groupe multi-acheminement sur réseau IP .


  1. Conservez à portée de main la “Public Networks Worksheet” dans les Sun Cluster 3.1 Release Notes.

  2. Configurez les groupes multi-acheminement sur réseau IP .

    Exécutez les procédures relatives aux adresses IPv4 présentées dans la rubrique “Deploying Network Multipathing” du IP Network Multipathing Administration Guide ou la rubrique “Administering Network Multipathing (Task)” du System Administration Guide: IP Services. Conformez-vous également aux directives suivantes pour les groupes multi-acheminement sur réseau IP dans une configuration Sun Cluster :

    • Chaque adaptateur de réseau public doit appartenir à un groupe Multipathing.

    • La variable local-mac-address?doit être définie sur la valeur true pour les adaptateurs Ethernet. Il s'agit d'une modification de l'exigence du logiciel Sun Cluster 3.0.

    • Vous devez configurer une adresse IP de test par adaptateur de groupe Multipathing.

    • Les adresses IP de test de tous les adaptateurs d'un même groupe Multipathing doivent appartenir au même sous-réseau IP.

    • Les adresses IP de test ne doivent pas être utilisées par des applications normales, car elles ne sont pas hautement disponibles.

    • Aucune exigence ni aucune restriction ne s'applique au nom des groupes Multipathing.

  3. Prévoyez-vous de modifier des noms d'hôtes privés ?

  4. Avez-vous installé votre propre fichier /etc/inet/ntp.conf avant l'installation du logiciel Sun Cluster ?

  5. Prévoyez-vous d'utiliser Sun Management Center pour configurer des groupes de ressources ou surveiller la grappe ?

Modification des noms d'hôtes privés

Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (clusternodenodeid-priv) affectés lors de l'installation du logiciel Sun Cluster.


Remarque :

vous ne devez pas exécuter cette procédure après la configuration et le démarrage d'applications et de services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'hôte privé après renommage de celui-ci, entraînant ainsi des conflits de noms d'hôtes. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.


  1. Devenez superutilisateur sur un noeud de la grappe.

  2. Exécutez l'utilitaire scsetup(1M).


    # scsetup
    

  3. Pour travailler avec des noms d'hôte privés, tapez 5 (Private hostnames).

  4. Pour modifier un nom d'hôte privé, tapez 1 (Change a private hostname).

    Suivez les invites pour modifier le nom d'hôte privé. Répétez cette opération pour chaque nom d'hôte privé à modifier.

  5. Vérifiez les nouveaux noms d'hôtes privés.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

  6. Avez-vous installé votre propre fichier /etc/inet/ntp.conf avant l'installation du logiciel Sun Cluster ?

  7. Prévoyez-vous d'utiliser Sun Management Center pour gérer la grappe ?

Configuration du protocole NTP (Network Time Protocol)

Effectuez cette tâche pour créer ou modifier le fichier de configuration NTP après l'installation du logiciel Sun Cluster. Vous devez aussi modifier le fichier de configuration NTP lorsque vous ajoutez un noeud à une grappe existante et lorsque vous modifiez le nom d'hôte privé d'un noeud de la grappe.


Remarque :

la principale exigence lorsque vous configurez NTP, ou tout autre utilitaire de synchronisation, est que tous les noeuds de grappe soient synchronisés à la même heure. La précision de l'heure sur les noeuds individuels est secondaire par rapport à l'importance de la synchronisation de l'heure sur tous les noeuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.

Reportez-vous au Sun Cluster 3.1 Concepts Guide pour de plus amples informations sur l'heure de la grappe. Reportez-vous au fichier /etc/inet/ntp.cluster pour obtenir des directives supplémentaires sur la configuration de NTP pour configurer Sun Cluster.


  1. Avez-vous installé votre propre fichier /etc/inet/ntp.conf avant l'installation du logiciel Sun Cluster ?

    • Si oui, vous ne devez pas modifier votre fichier ntp.conf. Allez directement à l'Étape 8.

    • Sinon, allez à l'Étape 2.

  2. Connectez-vous en tant que superutilisateur sur un noeud de la grappe.

  3. Votre propre fichier /etc/inet/ntp.conf est-il à installer sur les noeuds la grappe ?

    • Si oui, copiez votre fichier /etc/inet/ntp.conf sur chaque noeud de la grappe, puis allez à l'Étape 6.


      Remarque :

      tous les noeuds de la grappe doivent être synchronisés à la même heure.


    • Sinon, allez à l'Étape 4 afin de modifier le fichier /etc/inet/ntp.conf.cluster. Le logiciel Sun Cluster crée ce fichier comme fichier de configuration NTP s'il ne détecte aucun fichier /etc/inet/ntp.conf au cours de l'installation de Sun Cluster. Ne renommez pas le fichier ntp.conf.cluster en tant que ntp.conf.

  4. Sur un noeud de la grappe, éditez les noms d'hôte privés dans le fichier /etc/inet/ntp.conf.cluster.

    Si /etc/inet/ntp.conf.cluster n'existe pas sur le noeud, il se peut que vous ayez un fichier /etc/inet/ntp.conf provenant d'une installation antérieure du logiciel Sun Cluster. Dans ce cas, effectuez les modifications suivantes sur ce fichier ntp.conf.

    1. Assurez-vous qu'il existe une entrée pour le nom d'hôte privé de chaque noeud de la grappe.

    2. Supprimez tout nom d'hôte privé inutilisé.

      Si le fichier ntp.conf.cluster contient des noms d'hôtes privés qui n'existent pas, le système produit, au moment de la réinitialisation d'un noeud, des messages d'erreur alors que le noeud tente de contacter ces noms d'hôtes privés inexistants.

    3. Si vous avez modifié le nom d'hôte privé d'un noeud, veillez à ce que le fichier de configuration NTP contienne le nouveau nom d'hôte privé.

    4. Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.

  5. Copiez le fichier de configuration NTP sur tous les noeuds de la grappe.

    Le contenu du fichier ntp.conf.cluster doit être identique pour tous les noeuds de la grappe.

  6. Arrêtez le démon NTP sur chaque noeud.

    Attendez que la commande d'arrêt se soit correctement exécutée sur chaque noeud avant de passer à l'Étape 7.


    # /etc/init.d/xntpd stop
    

  7. Redémarrez le démon NTP sur chaque noeud.

    • Pour ntp.conf.cluster, exécutez la commande suivante.


      # /etc/init.d/xntpd.cluster start
      

      Le script de démarrage xntpd.cluster recherche tout d'abord le fichier /etc/inet/ntp.conf. Si ce fichier existe, le script quitte immédiatement, sans lancer le démon NTP. Si ntp.conf n'existe pas, mais que, en revanche, ntp.conf.cluster existe, le démon NTP démarre, utilisant ntp.conf.cluster comme fichier de configuration NTP.

    • Pour ntp.conf, exécutez la commande suivante.


      # /etc/init.d/xntpd start
      
  8. Prévoyez-vous d'utiliser Sun Management Center pour gérer la grappe ?