Guide d'installation de Sun Cluster 3.0

Chapitre 2 Installation et configuration du logiciel Sun Cluster

Ce chapitre fournit des procédures détaillées pour l'installation et la configuration de votre cluster.

Les procédures détaillées décrites dans ce chapitre sont les suivantes :

Installation du logiciel

Avant de commencer, consultez les manuels suivants pour obtenir des informations qui vous aideront à planifier la configuration de votre cluster et à préparer votre stratégie d'installation :

Le tableau suivant répertorie les tâches à effectuer pour installer le logiciel.

Tableau 2-1 Plan des tâches : installation du logiciel

Tâche 

Pour les instructions, voir... 

Planification de la disposition de votre cluster. 

Chapitre 1, ainsi que les fiches de travail et les exemples de configuration fournis dans le document Sun Cluster 3.0 Release Notes.

(Facultatif) Installation du logiciel CCP (Cluster Control Panel) sur la console administrative.

"Installation du logiciel Cluster Control Panel sur la console administrative"

Installation de l'environnement d'exploitation Solaris et du logiciel Sun Cluster à l'aide de l'une des deux méthodes suivantes. 

 

 

Méthode 1 : installez le logiciel Solaris, puis le logiciel Sun Cluster à l'aide de l'utilitaire scinstall.

"Installation de l'environnement d'exploitation Solaris" et "Installation du logiciel Sun Cluster et établissement de nouveaux noeuds de cluster"

Méthode 2 : installez le logiciel Solaris et le logiciel Sun Cluster en une seule opération à l'aide de l'option d'installation personnalisée JumpStart de l'utilitaire scinstall.

"Utilisation de JumpStart pour installer l'environnement d'exploitation Solaris et établir de nouveaux noeuds de cluster"

Configuration de l'ordre de recherche des services de noms. 

"Configuration de la table de services de noms"

Installation du logiciel de gestion des volumes. 

 

 

Installation du logiciel Solstice DiskSuite. 

"Installation du logiciel Solstice DiskSuite" ainsi que la documentation de Solstice DiskSuite

Installation du logiciel VERITAS Volume Manager.  

"Installation du logiciel VERITAS Volume Manager" ainsi que la documentation de VERITAS Volume Manager

Définition des chemins d'accès des répertoires. 

"Configuration de l'environnement du superutilisateur"

Installation de modules logiciels de services de données. 

"Installation des modules logiciels de services de données"

Configuration du cluster. 

"Configuration du cluster"

Installation du logiciel Cluster Control Panel sur la console administrative

Cette procédure explique comment installer le logiciel CCP (Cluster Control Panel) sur la console administrative. CCP est une fenêtre de lancement des outils cconsole(1M), ctelnet(1M) et crlogin(1M). Chacun de ces outils fournit une connexion multifenêtre à un ensemble de noeuds, plus une fenêtre commune envoyant des entrées à tous les noeuds à la fois.

Vous pouvez utiliser tout système desktop exécutant l'environnement d'exploitation Solaris 8 comme console administrative. En outre, la console administrative peut également être utilisée en tant que console et/ou serveur Sun Management Center et en tant que serveur AnswerBook. Reportez-vous à la documentation de Sun Management Center pour plus d'informations sur l'installation du logiciel Sun Management Center. Reportez-vous au document Notes de version de Sun Cluster 3.0 pour plus d'informations sur l'installation d'un serveur AnswerBook.


Remarque :

vous n'êtes pas obligé d'utiliser une console administrative. Si vous n'en utilisez pas, effectuez les tâches administratives à partir d'un noeud désigné dans le cluster.


  1. Assurez-vous que l'environnement d'exploitation Solaris 8 et tous les patchs Solaris requis sont installés sur la console administrative.

    Solaris 8, avec au minimum le groupe de logiciels End User System Support, doit être installé sur toutes les plates-formes.

  2. Si vous effectuez une installation à partir d'un CD-ROM, insérez le CD-ROM de Sun Cluster 3.0 dans le lecteur de CD-ROM de la console administrative.

    Si le démon du gestionnaire de volumes vold(1M) est en cours d'exécution et configuré pour gérer les lecteurs de CD-ROM, il monte automatiquement le CD-ROM dans le répertoire /cdrom/suncluster_3_0.

  3. Placez-vous dans le répertoire /image_cdrom/suncluster_3_0/SunCluster_3.0/Packages.


    # cd /image_cdrom/suncluster_3_0/SunCluster_3.0/Packages
    
  4. Installez le module SUNWccon.


    # pkgadd -d . SUNWccon
    
  5. (Facultatif) Installez le module SUNWscman.


    # pkgadd -d . SUNWscman
    

    L'installation du module SUNWscman sur la console administrative vous permet de visualiser les pages de manuel de Sun Cluster à partir de la console administrative avant d'installer le logiciel Sun Cluster sur les noeuds du cluster.

  6. Si vous avez effectué une installation à partir d'un CD-ROM, éjectez-le.

  7. Créez un fichier /etc/clusters.

    Ajoutez à ce fichier le nom de votre cluster et le nom de noeud physique de chaque noeud du cluster.


    # vi /etc/clusters
    clustername node1 node2
    

    Voir la page de manuel /opt/SUNWcluster/bin/clusters(4) pour plus d'informations.

  8. Créez un fichier /etc/serialports.

    Ajoutez à ce fichier le nom de noeud physique de chaque noeud du cluster, le nom du concentrateur de terminal (TC) ou du processeur de services système (SSP), et les numéros des ports série.


    Remarque :

    utilisez les numéros de port telnet(1), pas les numéros des ports physiques, dans le fichier /etc/serialports. Pour connaître le numéro de port série, ajoutez 5000 au numéro de port physique. Par exemple, si le numéro d'un port physique est 6, le numéro du port série correspondant est 5006.



    # vi /etc/serialports
    node1 TC_hostname 500n
    node2 TC_hostname 500n
    

    Voir la page de manuel /opt/SUNWcluster/bin/serialports(4) pour plus d'informations.

  9. Pour des raisons pratiques, ajoutez le répertoire /opt/SUNWcluster/bin dans la variable PATH et le répertoire /opt/SUNWcluster/man dans la variable MANPATH sur la console administrative.

    Si vous avez installé le module SUNWscman, ajoutez également le répertoire /usr/cluster/man à la variable MANPATH.

  10. Lancez l'utilitaire CCP.


    # /opt/SUNWcluster/bin/ccp nom_cluster
    

    Reportez-vous à la procédure "Connexion à distance à Sun Cluster" dans le document Guide d'administration système de Sun Cluster 3.0 et à la page de manuel /opt/SUNWcluster/bin/ccp(1M) pour plus d'informations sur l'utilisation de CCP.

Etape suivante

Pour installer le logiciel Solaris, reportez-vous à la section "Installation de l'environnement d'exploitation Solaris". Pour installer Solaris et le logiciel Sun Cluster à l'aide de l'option JumpStart personnalisée scinstall, reportez-vous à la section "Utilisation de JumpStart pour installer l'environnement d'exploitation Solaris et établir de nouveaux noeuds de cluster".

Installation de l'environnement d'exploitation Solaris

Si vous n'utilisez pas la méthode d'installation JumpStart personnalisée scinstall(1M) pour installer le logiciel, effectuez cette tâche sur chaque noeud du cluster.

  1. Avant d'installer le logiciel Solaris, assurez-vous que l'installation du matériel est terminée et vérifiez les connexions.

    Reportez-vous au document Sun Cluster 3.0 Hardware Guide et à la documentation de votre serveur et de vos périphériques de stockage pour plus d'informations.

  2. Sur chaque noeud du cluster, assurez-vous que la variable local-mac-address est réglée sur false.


    # /usr/sbin/eeprom local-mac-address?
    
    • Si la commande renvoie local-mac-address=false, le paramétrage de la variable est correct. Passez à l'Étape 3.

    • Si la commande renvoie local-mac-address=true, définissez la variable sur false.


      # /usr/sbin/eeprom local-mac-address?=false
      

      Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système.

  3. Gardez à portée de main la fiche de disposition du système de fichiers local que vous avez remplie (cette fiche est fournie dans le document Sun Cluster 3.0 Release Notes).

  4. Mettez à jour les services d'attribution de noms.

    Ajoutez des correspondances adresse-nom pour toutes les adresses logiques et tous les noms d'host publics dans tous les services d'attribution de noms (tels que NIS, NIS+ ou DNS) que les clients utilisent pour accéder aux services de cluster. Reportez-vous à la section "Adresses IP" pour plus d'informations sur la planification.

    Ajoutez également ces adresses au fichier /etc/inet/hosts local sur chaque noeud au cours de la procédure décrite à la section "Configuration de la table de services de noms".

  5. Si vous utilisez une console administrative pour le cluster, affichez un écran de console pour chaque noeud du cluster.

    Si le logiciel CCP (Cluster Control Panel) est installé et configuré sur votre console administrative, vous pouvez afficher les écrans de console individuels à l'aide de l'utilitaire cconsole(1M). Dans le cas contraire, vous devez connecter individuellement les consoles de chaque noeud.

    Pour gagner du temps, vous pouvez installer l'environnement d'exploitation Solaris sur tous les noeuds à la fois. Vous devez pour cela lancer l'utilitaire cconsole.

  6. Etes-vous en train d'installer un nouveau noeud sur un cluster existant ?

    • Si ce n'est pas le cas, passez à l'Étape 7.

    • Si c'est le cas, suivez les étapes ci-après pour créer un point de montage sur le nouveau noeud pour chaque système de fichiers de cluster dans le cluster.

    1. A partir d'un autre noeud actif du cluster, affichez les noms de tous les systèmes de fichiers du cluster.


      % mount | grep global | egrep -v node@ | awk `{print $1}'
      
    2. Sur le noeud que vous ajoutez au cluster, créez un point de montage pour chaque système de fichiers du cluster.


      % mkdir -p point_montage
      

      Par exemple, si la commande mount a renvoyé le nom de système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le noeud ajouté au cluster.

  7. Installez l'environnement d'exploitation Solaris comme indiqué dans la documentation d'installation de Solaris.


    Remarque :

    vous devez installer la même version de l'environnement d'exploitation Solaris sur tous les noeuds du cluster.


    Vous pouvez utiliser n'importe quelle méthode habituelle d'installation de l'environnement d'exploitation Solaris pour installer le logiciel sur les noeuds ajoutés à votre environnement de cluster, y compris le programme d'installation interactive de Solaris, Solaris JumpStart et Solaris Web Start.

    Pendant l'installation, effectuez les opérations suivantes :

    • Installez au moins le groupe de logiciels End User System Support. Vous devrez peut-être installer des modules de Solaris autres que ceux du groupe de logiciels End User System Support, par exemple les modules du serveur HTTP Apache. Les logiciels d'autres éditeurs, par exemple Oracle, peuvent aussi nécessiter des modules Solaris supplémentaires. Reportez-vous à la documentation du fournisseur tiers pour connaître la configuration logicielle nécessaire de Solaris.


      Remarque :

      les Sun Enterprise E10000 servers nécessitent le groupe de logiciels Entire Distribution + OEM.


    • Créez un système de fichiers d'au moins 100 Mo avec /globaldevices comme point de montage, ainsi que toutes les partitions du système de fichiers nécessaires à la prise en charge de votre logiciel de gestion des volumes. Reportez-vous à la section "Partitions du disque système" pour plus d'informations sur les besoins du logiciel Sun Cluster en matière de partitionnement.


      Remarque :

      le système de fichiers /globaldevices est nécessaire à la réussite de l'installation du logiciel Sun Cluster.


    • Répondez no lorsque le système vous demande si vous voulez activer l'arrêt automatique associé à la fonction d'économie de l'énergie. En effet, l'arrêt automatique doit être désactivé dans les configurations Sun Cluster. Pour plus d'informations, reportez-vous aux pages de manuel pmconfig(1M) et power.conf(4).

    • Afin de vous faciliter le travail d'administration, définissez le même mot de passe root sur chaque noeud.


    Remarque :

    la fonction de groupes d'interface Solaris est désactivée par défaut pendant l'installation logicielle de Solaris. Les groupes d'interface ne sont pas pris en charge dans une configuration Sun Cluster et ne doivent pas être activés. Reportez-vous à la page de manuel ifconfig(1M) pour plus d'informations sur les groupes d'interface de Solaris.


  8. Installez les patchs logiciels Solaris, si nécessaire.

    Reportez-vous aux Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

  9. Installez les patchs relatifs au matériel requis, le cas échéant, et téléchargez les microprogrammes éventuellement contenus dans les patchs matériels.

    Reportez-vous aux Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

Etape suivante

Pour installer le logiciel Sun Cluster sur vos noeuds de cluster, procédez comme indiqué dans la section "Installation du logiciel Sun Cluster et établissement de nouveaux noeuds de cluster".

Installation du logiciel Sun Cluster et établissement de nouveaux noeuds de cluster

Après avoir installé l'environnement d'exploitation Solaris, effectuez cette tâche sur chaque noeud du cluster.


Remarque :

si vous avez utilisé la méthode JumpStart personnalisée scinstall(1M) pour installer le logiciel, le logiciel Sun Cluster est déjà installé. Passez à la section "Configuration de la table de services de noms".


  1. Conservez à portée de main les fiches de travail que vous avez remplies pour la planification de la configuration. Ces fiches, disponibles dans le document Sun Cluster 3.0 Release Notes, sont les suivantes :

    • fiche de travail relative aux noms des noeuds et du cluster ;

    • fiche de travail relative à l'interconnexion du cluster.

    Reportez-vous à la section Chapitre 1 pour plus d'informations sur la planification.

  2. Devenez superutilisateur sur le noeud de cluster.

  3. Si vous effectuez une installation à partir d'un CD-ROM, insérez le CD-ROM de Sun Cluster 3.0 dans le lecteur de CD-ROM du noeud à installer et configurer.

    Si le démon du gestionnaire de volumes vold(1M) est en cours d'exécution et configuré pour gérer les lecteurs de CD-ROM, il monte automatiquement le CD-ROM dans le répertoire /cdrom/suncluster_3_0.

  4. Placez-vous dans le répertoire /image_cdrom/suncluster_3_0/SunCluster_3.0/Tools.


    # cd /image_cdrom/suncluster_3_0/SunCluster_3.0/Tools
    
  5. Lancez l'utilitaire scinstall(1M).


    ./scinstall
    

    Tenez compte des points suivants lors de l'exécution de l'utilitaire scinstall interactif :

    • L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.

    • Sauf indication contraire, l'utilisation de Control-D vous permet de revenir au début d'une série de questions connexes ou au menu principal.

    • Les réponses de votre session sont enregistrées comme réponses par défaut pour la prochaine exécution de cette option de menu.

    • Tant que le noeud n'a pas réussi à s'initialiser en mode cluster, vous pouvez relancer scinstall et modifier les informations de configuration en fonction de vos besoins. Cependant, si des données de configuration erronées ont été entrées pour le noeud dans la portion établie du cluster, vous devez commencer par supprimer ces informations erronées. Pour ce faire, connectez-vous à l'un des noeuds de cluster actifs, puis supprimez les informations d'adaptateur, de jonction ou de câble erronées à l'aide de l'utilitaire scsetup(1M).

  6. Pour installer le premier noeud et établir le nouveau cluster, tapez 1 (Establish a new cluster).

    Suivez les invites pour installer le logiciel Sun Cluster, en utilisant les informations de vos fiches de travail relatives à la planification de la configuration. Vous devrez fournir des informations sur les points suivants :

    • Nom du cluster.

    • Nom des autres noeuds qui feront partie de ce cluster.

    • Authentification du noeud.

    • Adresse de réseau privé et netmask : vous ne pouvez pas modifier l'adresse de réseau privé après la formation du cluster.

    • Interconnexion de cluster (adaptateurs et jonctions de transport) : vous pouvez configurer un maximum de deux adaptateurs à l'aide de la commande scinstall, mais vous pourrez en configurer plus ultérieurement à l'aide de l'utilitaire scsetup.

    • Nom du système de fichiers des périphériques globaux.

    • Réinitialisation automatique : ne choisissez pas une réinitialisation automatique si vous voulez installer des patchs pour le logiciel Sun Cluster.

    Lorsque vous avez terminé de répondre aux invites, le logiciel vous demande de confirmer la commande scinstall générée à partir de vos entrées. Si vous choisissez de ne pas accepter la commande, l'utilitaire scinstall vous renvoie au menu principal. Vous pouvez alors relancer l'option de menu 1 et fournir des réponses différentes. Vos entrées précédentes apparaissent comme choix par défaut.


    Remarque :

    si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf, la commande scinstall installe automatiquement un fichier ntp.conf par défaut. Le fichier par défaut comportant des références à huit noeuds, le démon xntpd(1M) émettra peut-être des messages d'erreur sur certaines de ces références lors de la réinitialisation. Vous pouvez ignorer ces messages sans risque. Reportez-vous à la section "Mise à jour du protocole NTP (Network Time Protocol)" pour plus d'informations sur la suppression de ces messages dans des conditions de cluster normales.


  7. Pour installer le deuxième noeud du cluster, tapez 2 (Add this machine as a node).

    Vous pouvez commencer cette étape pendant l'installation du premier noeud.

    Suivez les invites pour installer le logiciel Sun Cluster, en utilisant les informations de vos fiches de travail relatives à la planification de la configuration. Vous devrez fournir des informations sur les points suivants :

    • Nom d'un noeud de cluster existant, appelé noeud parrain

    • Nom du cluster.

    • Interconnexion du cluster (adaptateurs et jonctions de transport).

    • Nom du système de fichiers des périphériques globaux.

    • Réinitialisation automatique : ne choisissez pas une réinitialisation automatique si vous voulez installer des patchs pour le logiciel Sun Cluster.

    Lorsque vous avez terminé de répondre aux invites, le logiciel vous demande de confirmer la commande scinstall générée à partir de vos entrées. Si vous choisissez de ne pas accepter la commande, l'utilitaire scinstall vous renvoie au menu principal. Vous pouvez alors relancer l'option de menu 2 et fournir des réponses différentes. Vos réponses précédentes apparaissent comme choix par défaut.

    Si vous choisissez de continuer l'installation et que le noeud parrain n'est pas encore établi, scinstall attend que ce noeud soit disponible.

  8. Répétez l'Étape 7 sur chaque noeud supplémentaire jusqu'à ce que tous les noeuds soient configurés.

    Vous n'avez pas besoin d'attendre que l'installation du deuxième noeud soit terminée pour installer d'autres noeuds.

  9. Installez les patchs du logiciel Sun Cluster, le cas échéant.

    Reportez-vous aux Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

  10. Si vous avez installé des patchs pour le logiciel Sun Cluster, arrêtez le cluster, puis réinitialisez chaque noeud dans le cluster.

    Avant de réinitialiser le premier noeud du cluster, arrêtez le cluster à l'aide de la commande scshutdown. Tant que les noeuds de cluster sont en mode installation, seul le premier noeud à former le cluster (le noeud parrain) a un vote de quorum. Dans un cluster établi mais toujours en mode installation, si vous réinitialisez le premier noeud sans avoir arrêté le cluster, les autres noeuds du cluster ne peuvent pas obtenir le quorum et le cluster rester arrêté.

    Les noeuds de cluster restent en mode installation jusqu'à ce que vous exécutiez la commande scsetup(1M) pour la première fois, au cours de la procédure indiquée à la section "Configuration post-installation".

Exemple : installation du logiciel Sun Cluster

L'exemple suivant présente les messages affichés au fur et à mesure de la progression des tâches d'installation de scinstall sur le noeud phys-schost-1, qui est le premier noeud installé dans le cluster.


** Installing SunCluster 3.0 **
        SUNWscr.....done.
        SUNWscdev...done.
        SUNWscu.....done.
        SUNWscman...done.
        SUNWscsal...done.
        SUNWscsam...done.
        SUNWscrsmop.done.
        SUNWsci.....done.
        SUNWscid....done.
        SUNWscidx...done.
        SUNWscvm....done.
        SUNWmdm.....done.
 
Initializing cluster name to "sccluster" ... done
Initializing authentication options ... done
Initializing configuration for adapter "hme2" ... done
Initializing configuration for adapter "hme4" ... done
Initializing configuration for junction "switch1" ... done
Initializing configuration for junction "switch2" ... done
Initializing configuration for cable ... done
Initializing configuration for cable ... done
Setting the node ID for "phys-schost-1" ... done (id=1)
 
Checking for global devices global file system ... done
Checking device to use for global devices file system ... done
Updating vfstab ... done
 
Verifying that NTP is configured ... done
Installing a default NTP configuration ... done
Please complete the NTP configuration after scinstall has finished.
 
Verifying that "cluster" is set for "hosts" in nsswitch.conf ... done
Adding the "cluster" switch to "hosts" in nsswitch.conf ... done
 
Verifying that "cluster" is set for "netmasks" in nsswitch.conf ... done
Adding the "cluster" switch to "netmasks" in nsswitch.conf ... done
 
Verifying that power management is NOT configured ... done
Unconfiguring power management ... done
/etc/power.conf has been renamed to /etc/power.conf.060199105132
Power management is incompatible with the HA goals of the cluster.
Please do not attempt to re-configure power management.
 
Ensure routing is disabled ... done
Network routing has been disabled on this node by creating /etc/notrouter.
Having a cluster node act as a router is not supported by Sun Cluster.
Please do not re-enable network routing.
 
Log file - /var/cluster/logs/install/scinstall.log.276
 
Rebooting ... 

Etape suivante

Pour définir l'ordre de recherche du service de noms, reportez-vous à la section "Configuration de la table de services de noms".

Utilisation de JumpStart pour installer l'environnement d'exploitation Solaris et établir de nouveaux noeuds de cluster

Suivez cette procédure pour utiliser la méthode d'installation JumpStart personnalisée. Cette méthode installe l'environnement d'exploitation Solaris et le logiciel Sun Cluster sur tous les noeuds du cluster en même temps.

  1. Avant d'installer le logiciel Solaris, assurez-vous que l'installation du matériel est terminée et vérifiez les connexions.

    Reportez-vous au manuel Sun Cluster 3.0 Hardware Guide et à la documentation de votre serveur et de vos périphériques de stockage pour plus d'informations sur la configuration du matériel.

  2. Sur chaque noeud du cluster, assurez-vous que la variable local-mac-address est réglée sur false.


    # /usr/sbin/eeprom local-mac-address?
    
    • Si la commande renvoie local-mac-address=false, le paramétrage de la variable est correct. Passez à l'Étape 3.

    • Si la commande renvoie local-mac-address=true, définissez la variable sur false.


      # /usr/sbin/eeprom local-mac-address?=false
      

      Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système.

  3. Gardez les informations suivantes à portée de main :

    • L'adresse Ethernet de chaque noeud de cluster.

    • Les fiches de travail que vous avez remplies pour la planification de la configuration. Ces fiches, disponibles dans le document Sun Cluster 3.0 Release Notes, sont les suivantes :

      • fiche de travail relative à la disposition des systèmes de fichiers locaux ;

      • fiche de travail relative aux noms des noeuds et du cluster ;

      • fiche de travail relative à l'interconnexion du cluster.

    Reportez-vous à la section Chapitre 1 pour plus d'informations sur la planification.

  4. Mettez à jour les services d'attribution de noms.

    Ajoutez des correspondances adresse-nom pour tous les noms d'host publics et adresses logiques, ainsi que l'adresse IP et le nom d'host du serveur JumpStart, à tous les services d'attribution de noms (tels que NIS, NIS+ ou DNS) utilisés par les clients pour accéder aux services de cluster. Reportez-vous à la section "Adresses IP" pour plus d'informations sur la planification. Ajoutez également ces adresses au fichier /etc/inet/hosts local sur chaque noeud pendant la procédure décrite à la section "Configuration de la table de services de noms".


    Remarque :

    si vous n'utilisez pas de service de noms, créez, sur le serveur d'installation JumpStart, un fichier rép_jumpstart/autoscinstall.d/nodes/noeud/archive/etc/inet/hostspour chaque noeud du cluster. Ajoutez ici les correspondances adresse-nom.


  5. En tant que superutilisateur, configurez le serveur d'installation JumpStart pour l'installation de l'environnement d'exploitation Solaris.

    Reportez-vous aux pages de manuel setup_install_server(1M) et add_install_client(1M) et au document Solaris Advanced Installation Guide pour plus d'informations sur la configuration d'un serveur d'installation JumpStart.

    Lorsque vous configurez le serveur d'installation, vérifiez que les conditions suivantes sont satisfaites :

    • Le serveur d'installation doit se trouver sur le même sous-réseau que les noeuds du cluster, mais sans faire partie du cluster.

    • Le serveur d'installation installe la version de l'environnement d'exploitation Solaris requise par le logiciel Sun Cluster.

    • Un répertoire JumpStart personnalisé existe pour l'installation JumpStart de Sun Cluster. Ce répertoire rép_jumpstart doit comporter une copie de l'utilitaire check(1M) et être exporté par NFS pour pouvoir être lu par le serveur d'installation JumpStart.

    • Chaque nouveau noeud de cluster est configuré comme un client d'installation JumpStart personnalisé utilisant le répertoire JumpStart personnalisé configuré pour l'installation de Sun Cluster.

  6. (Facultatif) Créez un répertoire sur le serveur d'installation JumpStart pour vos copies des CD-ROM de Sun Cluster et des services de données Sun Cluster.

    Dans l'exemple suivant, le répertoire /export/suncluster est créé à cet effet.


    # mkdir -m 755 /export/suncluster
    
  7. Copiez le CD-ROM de Sun Cluster sur le serveur d'installation JumpStart.

    1. Insérez le CD-ROM de Sun Cluster 3.0 dans le lecteur de CD-ROM du serveur d'installation JumpStart.

      Si le démon du gestionnaire de volumes vold(1M) est en cours d'exécution et configuré pour gérer les lecteurs de CD-ROM, il monte automatiquement le CD-ROM dans le répertoire /cdrom/suncluster_3_0.

    2. Placez-vous dans le répertoire /image_cdrom/suncluster_3_0/SunCluster_3.0/Tools.


      # cd /image_cdrom/suncluster_3_0/SunCluster_3.0/Tools
      

    3. Copiez le CD-ROM dans un nouveau répertoire sur le serveur d'installation JumpStart.

      La commande scinstall crée le nouveau répertoire d'installation lors de la copie des fichiers du CD-ROM. Le nom de répertoire d'installation /export/suncluster/sc30 est utilisé ici comme exemple.


      ./scinstall -a /export/suncluster/sc30
      

    4. Ejectez le CD-ROM.


      # cd /
      # eject cdrom
      
    5. Vérifiez que l'image du CD-ROM de Sun Cluster 3.0 sur le serveur d'installation JumpStart est exportée par NFS et peut être lue.

      Reportez-vous au document NFS Administration Guide et aux pages de manuel share(1M) et dfstab(4) pour plus d'informations sur le partage automatique des fichiers.

  8. A partir du serveur d'installation JumpStart, lancez l'utilitaire scinstall(1M).

    Le chemin /export/suncluster/sc30 est utilisé ici comme exemple de répertoire d'installation créé.


    # cd /export/suncluster/sc30/SunCluster_3.0/Tools./scinstall
    

    Tenez compte des points suivants lors de l'exécution de l'utilitaire scinstall interactif :

    • L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.

    • Sauf indication contraire, l'utilisation de Control-D vous permet de revenir au début d'une série de questions connexes ou au menu principal.

    • Les réponses de votre session sont enregistrées comme réponses par défaut pour la prochaine exécution de cette option de menu.

  9. Pour choisir l'installation JumpStart, tapez 3 (Configure a cluster to be JumpStarted from this install server).


    Remarque :

    si l'option 3 n'est pas précédée d'un astérisque, cela indique que l'option est désactivée parce que la configuration de JumpStart n'est pas terminée ou comporte une erreur. Quittez l'utilitaire scinstall, corrigez la configuration de JumpStart, puis redémarrez l'utilitaire scinstall.


    Suivez les invites pour indiquer les informations de configuration de Sun Cluster.

    • Nom du répertoire JumpStart.

    • Nom du cluster.

    • Nom des noeuds de cluster.

    • Authentification du noeud.

    • Adresse de réseau privé et netmask : vous ne pouvez pas modifier l'adresse de réseau privé après la formation du cluster.

    • Interconnexion de cluster (adaptateurs et jonctions de transport) : vous pouvez configurer un maximum de deux adaptateurs à l'aide de la commande scinstall, mais vous pourrez en configurer d'autres ultérieurement à l'aide de l'utilitaire scsetup.

    • Nom du système de fichiers des périphériques globaux.

    • Réinitialisation automatique : ne choisissez pas une réinitialisation automatique si vous voulez installer des patchs pour le logiciel Sun Cluster.

    Une fois la configuration terminée, le logiciel vous demande de confirmer les commandes scinstall générées. Si vous choisissez de ne pas accepter l'une d'entre elles, l'utilitaire scinstall vous renvoie au menu principal. Vous pouvez alors relancer l'option de menu 3 et fournir des réponses différentes. Vos entrées précédentes apparaissent comme choix par défaut.

  10. Si nécessaire, modifiez le fichier (ou profil) class par défaut créé par scinstall.

    La commande scinstall crée le fichier class par défaut autoscinstall.class suivant dans le répertoire rép-jumpstart/autoscinstall.d/3.0.


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750 swap
    filesys         rootdisk.s3 100  /globaldevices
    filesys         rootdisk.s7 10
    cluster         SUNWCuser       add
    package         SUNWman         add


    Remarque :

    le fichier class par défaut installe le groupe de logiciels End User System Support (SUNWCuser) du logiciel Solaris. Pour un Sun Enterprise E10000 server, vous devez installer le groupe de logiciels Entire Distribution + OEM. En outre, certains logiciels de fournisseurs tiers, tels qu'Oracle, peuvent nécessiter des modules Solaris supplémentaires. Reportez-vous à la documentation du fournisseur tiers pour connaître la configuration logicielle nécessaire de Solaris.


    Vous pouvez modifier le profil en utilisant l'une des méthodes suivantes :

    • Editez directement le fichier autoscinstall.class. Ces modifications s'appliquent à tous les noeuds de tous les clusters qui utilisent ce répertoire JumpStart personnalisé.

    • Mettez à jour le fichier rules pour qu'il indique le chemin d'autres profils, puis exécutez l'utilitaire check pour le valider.

    Tant que les exigences minimales d'allocation de système de fichiers sont respectées, aucune restriction n'est imposée sur les modifications apportées au profil d'installation de l'environnement d'exploitation Solaris. Reportez-vous à la section "Partitions du disque système" pour connaître les exigences du logiciel Sun Cluster 3.0 en matière de partitionnement.

  11. Etes-vous en train d'installer un nouveau noeud sur un cluster existant ?

    • Si ce n'est pas le cas, passez à l'Étape 12.

    • Si c'est le cas, suivez les étapes ci-après pour créer un point de montage sur le nouveau noeud pour chaque système de fichiers de cluster dans le cluster.

    1. A partir d'un autre noeud actif du cluster, affichez les noms de tous les systèmes de fichiers de cluster.


      % mount | grep global | egrep -v node@ | awk `{print $1}'
      
    2. Sur le noeud que vous ajoutez au cluster, créez un point de montage pour chaque système de fichiers de cluster.


      % mkdir -p point_montage
      

      Par exemple, si la commande mount a renvoyé le nom de système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le noeud ajouté au cluster.

  12. Définition des répertoires de patchs Solaris.

    1. Créez, sur le serveur d'installation JumpStart, un répertoire rép-jumpstart/autoscinstall.d/nodes/noeud/patches pour chaque noeud du cluster.


      # mkdir rép_jumpstart/autoscinstall.d/nodes/noeud/patches
      
    2. Placez des copies de tous les patchs Solaris dans chacun de ces répertoires. Placez également dans chacun de ces répertoires des copies des patchs liés au matériel devant être installés suite à l'installation du logiciel Solaris.

  13. Si vous n'utilisez par de service de noms, configurez les fichiers pour qu'ils contiennent les informations de nom d'host nécessaires.

    1. Sur le serveur d'installation JumpStart, créez des fichiers nommés rép_jumpstart/autoscinstall.d/nodes/noeud/archive/etc/inet/hosts.

      Créez un fichier pour chaque noeud du cluster.

    2. Ajoutez les entrées suivantes dans chaque fichier :

      • Adresse IP et nom d'host du serveur NFS qui contient une copie de l'image du CD-ROM de Sun Cluster. Il peut s'agir du serveur d'installation JumpStart ou d'une autre machine.

      • Adresse IP et nom d'host de chaque noeud du cluster.

  14. (Facultatif) Ajoutez votre propre script de post-installation.

    Vous pouvez ajouter votre propre script de fin, exécuté après le script de fin standard installé par la commande scinstall.

    1. Nommez votre script de fin finish.

    2. Copiez votre script de fin dans chaque répertoire rép_jumpstart/autoscinstall.d/nodes/noeud de noeud du cluster.

  15. Si vous utilisez une console administrative, affichez un écran de console pour chaque noeud du cluster.

    Si cconsole(1M) est installé et configuré sur votre console administrative, vous pouvez l'utiliser pour afficher les écrans de console individuels. Sinon, vous devez vous connecter individuellement aux consoles de chaque noeud.

  16. A partir de l'invite PROM ok de la console de chaque noeud, tapez la commande boot net - install pour commencer l'installation JumpStart réseau de chaque noeud.


    Remarque :

    dans cette commande, le tiret (-) doit être précédé et suivi d'un espace.



    ok boot net - install
    

    Remarque :

    si vous n'avez pas installé votre propre fichier ntp.conf dans le répertoire /etc/inet, la commande scinstall installe automatiquement un fichier ntp.conf par défaut. Le fichier par défaut comportant des références à huit noeuds, le démone xntpd(1M) émettra peut-être des messages d'erreur sur certaines de ces références lors de l'initialisation. Vous pouvez ignorer ces messages sans risque. Reportez-vous à la section "Mise à jour du protocole NTP (Network Time Protocol)" pour plus d'informations sur la suppression de ces messages dans des conditions de cluster normales.


    Une fois l'installation terminée avec succès, chaque noeud est entièrement installé en tant que nouveau noeud de cluster.


    Remarque :

    la fonction de groupes d'interface de Solaris est désactivée par défaut pendant l'installation de ce logiciel. Les groupes d'interface ne sont pas pris en charge dans une configuration Sun Cluster et ne doivent pas être activés. Reportez-vous à la page de manuel ifconfig(1M) pour plus d'informations sur les groupes d'interface de Solaris.


  17. Installez les patchs du logiciel Sun Cluster, le cas échéant.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

  18. Si vous avez installé des patchs pour le logiciel Sun Cluster, arrêtez le cluster, puis réinitialisez chaque noeud dans le cluster.

    Avant de réinitialiser le premier noeud du cluster, arrêtez le cluster à l'aide de la commande scshutdown. Tant que les noeuds de cluster sont en mode installation, seul le premier noeud à former le cluster (le noeud parrain) a un vote de quorum. Dans un cluster établi mais toujours en mode installation, si vous réinitialisez le premier noeud sans avoir arrêté le cluster, les autres noeuds du cluster ne peuvent pas obtenir le quorum et le cluster rester arrêté.

    Les noeuds de cluster restent en mode installation jusqu'à ce que vous exécutiez la commande scsetup(1M) pour la première fois, au cours de la procédure indiquée à la section "Configuration post-installation".

Etape suivante

Pour définir l'ordre de recherche du service de noms, reportez-vous à la section "Configuration de la table de services de noms".

Configuration de la table de services de noms

Effectuez cette tâche sur chaque noeud du cluster.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Editez le fichier /etc/nsswitch.conf.

    1. Vérifiez que cluster est la première source de recherche pour les entrées de base de données hosts et netmasks.

      Cet ordre est nécessaire au bon fonctionnement du logiciel Sun Cluster. La commande scinstall(1M) ajoute cluster à ces entrées pendant l'installation.

    2. (Facultatif) Pour les entrées de base de données hosts et netmasks, ajoutez files après cluster.

    3. (Facultatif) Pour toutes les autres entrées de base de données, placez files en premier dans l'ordre de recherche.


    Remarque :

    l'exécution de l'Étape b et de l'Étape c peut améliorer la disponibilité des services de données en cas d'indisponibilité du service de noms.


    L'exemple suivant présente une partie du contenu d'un fichier /etc/nsswitch.conf. L'ordre de recherche des entrées de base de données hosts et netmasks indique cluster en premier, puis files. L'ordre de recherche des autres entrées commence par files.


    # vi /etc/nsswitch.conf
    ...
    passwd:     files nis
    group:      files nis
    ...
    hosts:      cluster files nis
    ...
    netmasks:   cluster files nis
    ...

  3. Mettez à jour le fichier /etc/inet/hosts avec tous les noms d'host et les adresses logiques publics du cluster.

Etape suivante

Pour installer le logiciel de gestion des volumes Solstice DiskSuite, reportez-vous à la section "Installation du logiciel Solstice DiskSuite". Pour installer le logiciel de gestion des volumes VERITAS Volume Manager, reportez-vous à la section "Installation du logiciel VERITAS Volume Manager".

Installation du logiciel Solstice DiskSuite

Effectuez cette tâche sur chaque noeud du cluster.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Si vous effectuez une installation à partir d'un CD-ROM, insérez le CD-ROM Solaris 8 Software 2 of 2 dans le lecteur de CD-ROM du noeud.


    Remarque :

    les modules du logiciel Solstice DiskSuite sont désormais placés sur le CD-ROM du logiciel Solaris 8.


    Cette étape implique que le démon de gestion des volumes vold(1M) soit en cours d'exécution et configuré pour gérer les lecteurs de CD-ROM.

  3. Installez les modules du logiciel Solstice DiskSuite.


    Remarque :

    si vous devez installer des patchs pour le logiciel Solstice DiskSuite, n'effectuez pas de réinitisation après l'installation du logiciel Solstice DiskSuite.


    Installez les modules du logiciel dans l'ordre indiqué dans l'exemple suivant.


    # cd /cdrom_image/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packagespkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs
    

    Les modules SUNWmdr et SUNWmdu sont obligatoires pour toutes les installations de Solstice DiskSuite. Le module SUNWmdx est également obligatoire pour l'installation de la version 64 bits de Solstice DiskSuite. Reportez-vous à la documentation d'installation de Solstice DiskSuite pour plus d'informations sur les modules logiciels optionnels.

  4. Si vous avez effectué une installation à partir d'un CD-ROM, éjectez-le.

  5. Si ce n'est pas déjà fait, installez les patchs de Solstice DiskSuite éventuellement requis.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

  6. Définissez manuellement l'espace de noms des périphériques globaux pour Solstice DiskSuite en exécutant la commande /usr/cluster/bin/scgdevs.

  7. Si vous avez installé des patchs pour le logiciel Solstice DiskSuite, arrêtez le cluster, puis réinitialisez chaque noeud dans le cluster.

    Avant de réinitialiser le premier noeud du cluster, arrêtez le cluster à l'aide de la commande scshutdown. Tant que les noeuds de cluster sont en mode installation, seul le premier noeud à former le cluster (le noeud parrain) a un vote de quorum. Dans un cluster établi mais toujours en mode installation, si vous réinitialisez le premier noeud sans avoir arrêté le cluster, les autres noeuds du cluster ne peuvent pas obtenir le quorum et le cluster rester arrêté.

    Les noeuds de cluster restent en mode installation jusqu'à ce que vous exécutiez la commande scsetup(1M) pour la première fois, au cours de la procédure indiquée à la section "Configuration post-installation".

Reportez-vous à la documentation d'installation de Solstice DiskSuite pour une description complète de l'installation de ce logiciel.

Etape suivante

Pour configurer l'environnement de l'utilisateur root, reportez-vous à la section "Configuration de l'environnement du superutilisateur".

Installation du logiciel VERITAS Volume Manager

Effectuez cette tâche sur chaque noeud du cluster.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Désactivez la fonction Dynamic Multipathing (DMP).


    # mkdir /dev/vx
    # ln -s /dev/dsk /dev/vx/dmp
    # ln -s /dev/rdsk /dev/vx/rdmp
    
  3. Insérez le CD-ROM de VxVM dans le lecteur de CD-ROM du noeud.

  4. Installez les modules du logiciel VxVM.


    Remarque :

    si vous devez installer des patchs pour le logiciel VxVM, n'effectuez pas de réinitisation après l'installation du logiciel VxVM.



    # cd /cdrom_image/volume_manager_3_0_4_solaris/pkgs
    # pkgadd -d . VRTSvxvm VRTSvmdev VRTSvmman
    

    Dans la commande pkgadd(1M), placez VRTSvxvm en premier et VRTSvmdev en deuxième. Reportez-vous à la documentation d'installation de VxVM pour une description des autres modules du logiciel VxVM.


    Remarque :

    les modules VRTSvxvm et VRTSvmdev sont obligatoires pour toutes les installations VxVM.


  5. Ejectez le CD-ROM.

  6. Installez les patchs de VxVM requis, le cas échéant.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

  7. Si vous avez installé des patchs pour le logiciel VxVM, arrêtez le cluster, puis réinitialisez chaque noeud dans le cluster.

    Avant de réinitialiser le premier noeud du cluster, arrêtez le cluster à l'aide de la commande scshutdown. Tant que les noeuds de cluster sont en mode installation, seul le premier noeud à former le cluster (le noeud parrain) a un vote de quorum. Dans un cluster établi mais toujours en mode installation, si vous réinitialisez le premier noeud sans avoir arrêté le cluster, les autres noeuds du cluster ne peuvent pas obtenir le quorum et le cluster rester arrêté.

    Les noeuds de cluster restent en mode installation jusqu'à ce que vous exécutiez la commande scsetup(1M) pour la première fois, au cours de la procédure indiquée à la section "Configuration post-installation".

Reportez-vous à la documentation d'installation de VxVM pour une description complète de l'installation de ce logiciel.

Etape suivante

Pour configurer l'environnement du superutilisateur, reportez-vous à la section "Configuration de l'environnement du superutilisateur".

Configuration de l'environnement du superutilisateur

Effectuez ces tâches sur chaque noeud du cluster.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Modifiez la variable PATH afin qu'elle contienne /usr/sbin et /usr/cluster/bin.

    Pour Sun Cluster, modifiez PATH afin qu'elle contienne /etc/vx/bin. Si vous avez installé le module VRTSvmsa, ajoutez également /opt/VRTSvmsa/bin à votre variable PATH.

  3. Modifiez la variable MANPATH afin qu'elle contienne /usr/cluster/man. Incluez également les chemins propres au gestionnaire de volumes.

    • Pour le logiciel Solstice DiskSuite, définissez MANPATH afin qu'elle contienne /usr/share/man.

    • Pour le logiciel VERITAS Volume Manager, définissez MANPATH afin qu'elle contienne /opt/VRTSvxvm/man. Si vous avez installé le module VRTSvmsa, ajoutez également /opt/VRTSvmsa/man à votre variable MANPATH.

  4. (Facultatif) Pour faciliter le travail d'administration, définissez le même mot de passe de superutilisateur sur chaque noeud.

Etape suivante

Pour installer des modules logiciels de services de données, reportez-vous à la section "Installation des modules logiciels de services de données".

Installation des modules logiciels de services de données

Effectuez cette tâche sur chaque noeud du cluster.


Remarque :

vous devez installer le même ensemble de modules de services de données sur tous les noeuds, même si un noeud n'est pas supposé héberger des ressources pour un service de données installé.


  1. Devenez superutilisateur sur le noeud de cluster.

  2. Si vous effectuez une installation à partir d'un CD-ROM, insérez le CD-ROM Data Services dans le lecteur de CD-ROM du noeud.

  3. Lancez l'utilitaire scinstall(1M).


    # scinstall
    

    Tenez compte des points suivants lors de l'exécution de l'utilitaire scinstall interactif :

    • L'utilitaire scinstall mémorise toutes les frappes au clavier. Par conséquent, n'appuyez qu'une seule fois sur la touche Entrée, même si l'écran de menu suivant n'apparaît pas immédiatement.

    • Sauf indication contraire, l'utilisation de Control-D vous permet de revenir au début d'une série de questions connexes ou au menu principal.

  4. Pour ajouter des services de données, tapez 4 (Add support for a new data service to this cluster node).

    Suivez les invites pour sélectionner tous les services de données à installer.

  5. Si vous avez effectué une installation à partir d'un CD-ROM, éjectez-le.

  6. Installez les patchs de services de données de Sun Cluster.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.


    Remarque :

    sauf indication contraire dans les instructions fournies avec un patch particulier, il n'est pas nécessaire de réinitialiser le système après l'installation de patchs de services de données de Sun Cluster. Le cas échéant, avant de réinitialiser le premier noeud du cluster, vous devez arrêter ce dernier à l'aide de la commande scshutdown command. Tant que les noeuds de cluster sont en mode installation, seul le premier noeud à former le cluster (le noeud parrain) a un vote de quorum. Dans un cluster établi mais toujours en mode installation, si vous réinitialisez le premier noeud sans avoir arrêté le cluster, les autres noeuds du cluster ne peuvent pas obtenir le quorum et le cluster rester arrêté. Les noeuds de cluster restent en mode installation jusqu'à ce que vous exécutiez la commande scsetup(1M) pour la première fois, au cours de la procédure indiquée à la section "Configuration post-installation".


Etape suivante

Pour les tâches de configuration post-installation, reportez-vous à la section "Configuration du cluster".

Configuration du cluster

Le tableau suivant répertorie les tâches à effectuer pour configurer votre cluster.

Tableau 2-2 Plan des tâches : configuration du cluster

Tâche 

Pour les instructions, voir... 

Configuration après l'installation 

"Configuration post-installation"

Configuration du gestionnaire de volumes et des groupes de périphériques de Solstice DiskSuite ou de VERITAS Volume Manager. 

"Configuration du logiciel de gestion des volumes", ainsi que la documentation du gestionnaire de volumes

Création et montage de systèmes de fichiers de cluster. 

"Ajout de systèmes de fichiers de cluster"

(Facultatif) Configuration d'autres adaptateurs de réseau public.

"Configuration d'adaptateurs de réseau public supplémentaires"

Configuration de PNM (Public Network Management) et des groupes NAFO. 

"Configuration de la gestion des réseaux publics (PNM)"

(Facultatif) Modification du nom d'host privé d'un noeud.

"Modification des noms d'host privés"

Edition du fichier /etc/inet/ntp.conf pour mettre à jour les entrées de nom de noeud.

"Mise à jour du protocole NTP (Network Time Protocol)"

(Facultatif) Installation du module Sun Cluster pour le logiciel Sun Management Center.

"Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster" ainsi que la documentation de Sun Management Center

Installation d'applications de fournisseurs tiers et configuration des applications, services de données et groupes de ressources. 

Sun Cluster 3.0 Data Services Installation and Configuration Guide, ainsi que la documentation de l'application du fournisseur tiers.

Configuration post-installation

Suivez cette procédure une seule fois, après la formation complète du cluster.

  1. Vérifiez que tous les noeuds ont rejoint le cluster.

    1. A partir d'un noeud, affichez la liste des noeuds du cluster pour vérifier que tous les noeuds ont rejoint le cluster.

      Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.


      % scstat -n
      

      Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


      -- Cluster Nodes --
                         Node name      Status
                         ---------      ------
        Cluster node:    phys-schost-1  Online
        Cluster node:    phys-schost-2  Online
    2. Sur chaque noeud, affichez une liste de tous les périphériques que le système vérifie pour vous assurer de leur connectivité avec les noeuds de cluster.

      Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.


      % scdidadm -L
      

      La liste doit être la même pour chaque noeud. Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      ...
    3. Identifiez, dans les résultats affichés par scdidadm, l'ID de périphérique (DID) global de chaque disque partagé que vous allez configurer en tant que périphérique de quorum.

      Par exemple, les résultats de la sous-étape précédente indiquent que le périphérique global d2 est partagé par phys-schost-1 et phys-schost-2. Ces informations vous seront nécessaires à l'Étape 4. Reportez-vous à la section "Périphériques de quorum" pour plus d'informations sur la planification des périphériques de quorum.

  2. Devenez superutilisateur sur un noeud du cluster.

  3. Lancez l'utilitaire scsetup(1M).


    # scsetup
    

    L'écran Initial Cluster Setup apparaît.


    Remarque :

    si le logiciel affiche le menu principal à la place de cet écran, cela signifie que cette procédure a déjà été effectuée avec succès.


  4. Répondez aux invites.

    1. A l'invite Do you want to add any quorum disks?, configurez au moins un périphérique de quorum partagé si votre cluster est un cluster à deux noeuds.

      Un cluster à deux noeuds reste en mode installation jusqu'à ce qu'un périphérique de quorum partagé soit configuré. Une fois que l'utilitaire a configuré le périphérique de quorum, le message Command completed successfully apparaît. Si votre cluster comporte trois noeuds ou plus, la configuration d'un périphérique de quorum est optionnelle.

    2. A l'invite Is it okay to reset "installmode"?, répondez Yes.

      Après avoir défini les configurations de quorum et le nombre de voies pour le cluster, l'utilitaire scsetup affiche le message Cluster initialization is complete et vous renvoie au menu principal.


    Remarque :

    si le processus de configuration du quorum est interrompu ou ne se termine pas correctement, recommencez l'Étape 3 et l'Étape 4.


  5. A partir d'un noeud quelconque, vérifiez que le mode d'installation du cluster est désactivé.


    # scconf -p | grep "Cluster install mode:"
    Cluster install mode:                                  disabled

Etape suivante

Pour configurer le logiciel de gestion des volumes, reportez-vous à la section "Configuration du logiciel de gestion des volumes".

Configuration du logiciel de gestion des volumes

  1. Gardez les informations suivantes à portée de main :

    • Les associations de vos unités de disque de stockage.

    • Les fiches de travail que vous avez remplies pour la planification de la configuration. Ces fiches, disponibles dans le document Sun Cluster 3.0 Release Notes, sont les suivantes :

      • Fiche de travail relative à la disposition des systèmes de fichiers locaux.

      • Fiche de travail relative à la configuration des groupes d'unités de disque.

      • Fiche de travail relative aux configurations du gestionnaire de volumes.

      • Fiche de travail relative aux configurations des groupes d'unités de disque.

      Reportez-vous à la section Chapitre 1 pour plus d'informations sur la planification.

  2. Suivez les procédures de configuration appropriées pour votre gestionnaire de volumes.

    Gestionnaire de volumes 

    Documentation 

    Solstice DiskSuite 

    Annexe A

    Documentation de Solstice DiskSuite 

    VERITAS Volume Manager 

    Annexe B

    Documentation de VERITAS Volume Manager 

Etape suivante

Après avoir configuré votre gestionnaire de volumes, reportez-vous à la section "Ajout de systèmes de fichiers de cluster" pour créer un système de fichiers de cluster.

Ajout de systèmes de fichiers de cluster

Effectuez cette tâche pour chaque système de fichiers de cluster à ajouter.


Attention : Attention :

La création d'un système de fichiers détruit toutes les données des disques. Assurez-vous d'avoir indiqué le nom correct du périphérique de disque. Si vous indiquez le nom d'un autre périphérique, son contenu sera effacé lors de la création du nouveau système de fichiers.


  1. Devenez superutilisateur sur un noeud du cluster.


    Astuce :

    Pour accélérer la création du système de fichiers, devenez superutilisateur sur le principal du périphérique global pour lequel vous créez un système de fichiers.


  2. Créez un système de fichiers à l'aide de la commande newfs(1M).


    # newfs unité_disque_brute
    

    Le tableau suivant présente des exemples de noms pour l'argument unité_disque_brute. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

    Tableau 2-3 Exemples de noms d'unités de disque brutes

    Gestionnaire de volumes 

    Exemple de nom d'unité de disque 

    Description 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    Unité de disque brute d1 dans l'ensemble de disques oracle

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    Unité de disque brute vol01 dans le groupe de disques oradg

    Aucun 

    /dev/global/rdsk/d1s3

    Unité de disque brute d1s3

  3. Sur chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.

    Un point de montage est requis sur chaque noeud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les noeuds.


    # mkdir -p /global/groupe_unités/point_montage
    
    groupe_unités

    Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique

    point_montage

    Nom du répertoire sur lequel le système de fichiers de cluster doit être monté


    Astuce :

    Pour faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.


  4. Sur chaque noeud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.


    Remarque :

    l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. Le fait de ne pas indiquer syncdir peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, vous ne découvrirez une situation d'espace insuffisant qu'en fermant un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. Avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.


    1. Pour monter automatiquement le système de fichiers de cluster, indiquez la valeur yes pour le champ mount at boot.

    2. Utilisez les options de montage obligatoires suivantes :

      • Avec Solaris UFS logging, utilisez les options de montage global,logging.

      • Si votre système de fichiers de cluster utilise un trans-métapériphérique Solstice DiskSuite, utilisez l'option de montage global (n'utilisez pas l'option logging). Reportez-vous à la documentation de Solstice DiskSuite pour plus d'informations sur la configuration des trans-métapériphériques.


      Remarque :

      l'option logging est requise pour tous les systèmes de fichiers de cluster.


    3. Assurez-vous que, pour chaque système de fichiers de cluster, les informations de l'entrée correspondante de /etc/vfstab sont les mêmes sur chaque noeud.

    4. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginons un scénario dans lequel phys-schost-1 monte l'unité de disque d0 sur /global/oracle et phys-schost-2 monte l'unité de disque d1 sur /global/oracle/logs. Dans cette configuration, phys-schost-2 ne peut s'initialiser et monter /global/oracle/logs qu'une fois que phys-schost-1 s'est initialisé et a monté /global/oracle.

    5. Assurez-vous que les entrées des fichiers /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.

    Reportez-vous à la page de manuel vfstab(4) pour plus d'informations.

  5. A partir d'un noeud quelconque du cluster, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster.


    # sccheck
    

    Sil aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  6. A partir d'un noeud quelconque du cluster, montez le système de fichiers de cluster.


    # mount /global/groupe_unités/point_montage
    
  7. Sur chaque noeud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.

Exemple : création d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.




# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node:)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node:)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

Etape suivante

Si vos noeuds de cluster sont connectés à plusieurs sous-réseaux publics, reportez-vous à la section "Configuration d'adaptateurs de réseau public supplémentaires" pour configurer des adaptateurs de réseau public supplémentaires.

Sinon, pour configurer la PNM et définir des groupes NAFO, reportez-vous à la section "Configuration de la gestion des réseaux publics (PNM)".

Configuration d'adaptateurs de réseau public supplémentaires

Si les noeuds de ce cluster sont connectés à plusieurs sous-réseaux publics, vous pouvez configurer des adaptateurs de réseau public supplémentaires pour les sous-réseaux secondaires. Cependant, la configuration de sous-réseaux secondaires n'est pas obligatoire.


Remarque :

configurez uniquement les adaptateurs de réseau public, pas les adaptateurs de réseau privé.


  1. Gardez à portée de main la fiche de travail que vous avez remplie pour les réseaux publics. Cette fiche est disponible dans le document Sun Cluster 3.0 Release Notes.

  2. Devenez superutilisateur sur le noeud que vous configure pour ajouter des adaptateurs de réseau public supplémentaires.

  3. Créez un fichier appelé /etc/hostname.adaptateur, oy adaptateur est le nom de l'adaptateur.


    Remarque :

    dans chaque groupe NAFO, il ne doit exister de fichier /etc/hostname.adaptateur que pour un seul adaptateur du groupe.


  4. Tapez le nom d'host de l'adresse IP de l'adaptateur de réseau public dans le fichier /etc/hostname.adaptateur.

    L'exemple suivant présente le fichier /etc/hostname.hme3, créé pour l'adaptateur hme3, comportant le nom d'host phys-schost-1.


    # vi /etc/hostname.hme3
    phys-schost-1 
  5. Sur chaque noeud du cluster, assurez-vous que le fichier /etc/inet/hosts comporte l'adresse IP et le nom d'host correspondant affecté à l'adaptateur de réseau public.

    Par exemple, les lignes suivantes présentent l'entrée de phys-schost-1 :


    # vi /etc/inet/hosts
    ...
    192.29.75.101 phys-schost-1
    ...


    Remarque :

    cette information doit également figurer dans la base de données de votre service de noms (le cas échéant).


  6. Activez l'adaptateur sur chaque noeud du cluster.


    # ifconfig adapter plumb
    # ifconfig adapter hostname netmask + broadcast + -trailers up
    

  7. Vérifiez que l'adaptateur est configuré correctement.


    # ifconfig adaptateur
    

    Le résultat affiché doit comporter l'adresse IP correcte de l'adaptateur.

Etape suivante

Chaque adaptateur de réseau public devant être géré par le Gestionnaire de groupes de ressources (RGM) doit appartenir à un groupe NAFO. Pour configurer la PNM et définir des groupes NAFO, reportez-vous à la section "Configuration de la gestion des réseaux publics (PNM)".

Configuration de la gestion des réseaux publics (PNM)

Effectuez cette tâche sur chaque noeud du cluster.


Remarque :

tous les adaptateurs de réseau public doivent appartenir à un groupe de reprise sur panne de l'adaptateur réseau (ou NAFO, pour Network Adapter Failover). De plus, chaque noeud ne peut comporter qu'un groupe NAFO par sous-réseau.


  1. Gardez à portée de main la fiche de travail que vous avez remplie pour les réseaux publics. Cette fiche est disponible dans le document Sun Cluster 3.0 Release Notes.

  2. Devenez superutilisateur sur le noeud configuré pour un groupe NAFO.

  3. Créez le groupe NAFO.


    # pnmset -c nafo_group -o create adaptateur [adapter ...]
    -c group_nafo

    Configurez le groupe NAFO groupe-nafo

    -o create adaptateur

    Crée un nouveau groupe NAFO comportant un ou plusieurs adaptateurs de réseau public

    Reportez-vous à la page de manuel pnmset(1M) pour plus d'informations.

  4. Vérifiez l'état du groupe NAFO.


    # pnmstat -l
    

    Reportez-vous à la page de manuel pnmstat(1M) pour plus d'informations.

Exemple : configuration de la PNM

L'exemple suivant crée le groupe NAFO nafo0, qui utilise les adaptateurs de réseau public qfe1 et qfe5.


# pnmset -c nafo0 -o create qfe1 qfe5
# pnmstat -l
group  adapters       status  fo_time    act_adp
nafo0  qfe1:qfe5      OK      NEVER      qfe5
nafo1  qfe6           OK      NEVER      qfe6

Etape suivante

Si vous souhaitez modifier des noms d'host privés, reportez-vous à la section "Modification des noms d'host privés". Sinon, pour mettre à jour le fichier /etc/inet/ntp.conf, reportez-vous à la section "Mise à jour du protocole NTP (Network Time Protocol)".

Modification des noms d'host privés

Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'host privés par défaut (clusternodeID_noeud-priv) affectés lors de l'installation du logiciel Sun Cluster.


Remarque :

cette procédure ne doit pas être effectuée après la configuration et le démarrage d'applications et de services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'host privé après que celui-ci a été renommé, entraînant des conflits de noms d'host. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.


  1. Devenez superutilisateur sur un noeud du cluster.

  2. Lancez l'utilitaire scsetup(1M).


    # scsetup
    
  3. Pour travailler avec des noms d'host privés, tapez 4 (Private hostnames).

  4. Pour modifier un nom d'host privé, tapez 1 (Change a private hostname).

    Suivez les invites pour modifier le nom d'host privé. Répétez cette opération pour chaque nom d'host privé à modifier.

  5. Vérifiez les nouveaux noms d'host privés.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

Etape suivante

Pour mettre à jour le fichier /etc/inet/ntp.conf, reportez-vous à la section "Mise à jour du protocole NTP (Network Time Protocol)".

Mise à jour du protocole NTP (Network Time Protocol)

Effectuez cette tâche sur chaque noeud.

  1. Devenez superutilisateur sur le noeud de cluster.

  2. Editez le fichier /etc/inet/ntp.conf.

    La commande scinstall(1M) copie un fichier modèle, ntp.cluster, dans /etc/inet/ntp.conf dans le cadre de l'installation de cluster standard. Si ce répertoire contient déjà un fichier ntp.conf avant l'installation du logiciel Sun Cluster, le fichier existant n'est pas modifié. Si vous installez des modules de cluster par un autre moyen, tel que l'utilisation directe de pkgadd(1M), vous devez configurer NTP.

    1. Supprimez toutes les entrées de noms d'host privés qui ne sont pas utilisés par le cluster.

      Si le fichier ntp.conf comporte des noms d'host privés inexistants, le noeud tente de les contacter lors de sa réinitialisation, ce qui entraîne l'affichage de messages d'erreur.

    2. Si vous avez modifié des noms d'host privés après l'installation du logiciel Sun Cluster, mettez à jour chaque entrée de fichier avec le nouveau nom d'host privé.

    3. Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.

      La principale exigence à laquelle répond la configuration de NTP, ou de tout autre utilitaire de synchronisation, est que tous les noeuds de cluster soient synchronisés avec la même heure. La précision de l'heure sur les noeuds individuels est moins prioritaire que la synchronisation de tous les noeuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.

      Reportez-vous au document Sun Cluster 3.0 Concepts pour plus d'informations sur l'heure du cluster, et au modèle ntp.cluster pour des instructions de configuration de NTP pour une configuration Sun Cluster.

  3. Redémarrez le démon NTP.


    # /etc/init.d/xntpd stop
    # /etc/init.d/xntpd start
    

Etape suivante

Si vous souhaitez utiliser le produit Sun Management Center pour configurer des groupes de ressources ou surveiller le cluster, reportez-vous à la section "Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster".

Sinon, pour installer des applications de fournisseurs tiers, reportez-vous à la documentation fournie avec le logiciel d'applications et au document Sun Cluster 3.0 Data Services Installation and Configuration Guide. Pour enregistrer des types de ressources, configurer des groupes de ressources et des services de données, reportez-vous au document Sun Cluster 3.0 Data Services Installation and Configuration Guide.

Installation du module Sun Cluster pour Sun Management Center

Le tableau suivant répertorie les tâches à effectuer pour installer le logiciel du module Sun Cluster pour Sun Management Center.

Tableau 2-4 Plan des tâches : installation du module Sun Cluster pour Sun Management Center

Tâche 

Pour les instructions, voir... 

Installation du serveur, du serveur d'aide, de l'agent et des modules de console de Sun Management Center. 

Documentation de Sun Management Center 

"Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster"

Installation des modules de Sun Cluster. 

"Installation du module Sun Cluster pour Sun Management Center"

Démarrage du serveur, de la console et des processus d'agent de Sun Management Center. 

"Démarrage du logiciel Sun Management Center"

Ajout de chaque noeud de cluster en tant qu'objet host d'agent de Sun Management Center. 

"Ajout d'un noeud de cluster en tant qu'objet host d'agent de Sun Management Center"

Chargement du module Sun Cluster pour commencer la surveillance du cluster. 

"Chargement du module Sun Cluster"

Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster

Le module Sun Cluster utilisé avec Sun Management Center (anciennement Sun Enterprise SyMON) permet de configurer des groupes de ressources et de surveiller les clusters. Effectuez les tâches suivantes avant d'installer les modules de Sun Cluster :

Installation du module Sun Cluster pour Sun Management Center

Suivez cette procédure pour installer la console, le serveur et le serveur d'aide de Sun Cluster.


Remarque :

les modules d'agent de Sun Cluster (SUNWscsal et SUNWscsam) ont été ajoutés aux noeuds de cluster lors de l'installation du logiciel Sun Cluster.


  1. Assurez-vous que les modules de base de Sun Management Center sont installés.

    Cette étape comprend l'installation des modules d'agent de Sun Management Center sur chaque noeud de cluster. Reportez-vous à la documentation de Sun Management Center pour connaître les instructions d'installation.

  2. Sur la console administrative, installez le module de la console de Sun Cluster.

    1. Devenez superutilisateur.

    2. Si vous effectuez une installation à partir d'un CD-ROM, insérez le CD-ROM du module Sun Cluster dans le lecteur de CD-ROM.

    3. Placez-vous dans le répertoire /image_cdrom/SunCluster_3.0/Packages.

    4. Installez le module de la console de Sun Cluster.


      # pkgadd -d . SUNWscscn
      
    5. Si vous avez effectué une installation à partir d'un CD-ROM, éjectez-le.

  3. Sur la machine serveur, installez le module du serveur de Sun Cluster, SUNWscssv.

    Utilisez la même procédure que celle de l'Étape 2.

  4. Sur la machine serveur d'aide, installez le module du serveur d'aide de Sun Cluster, SUNWscshl.

    Utilisez la même procédure que celle de l'Étape 2.

  5. Installez les patchs du module Sun Cluster.

    Reportez-vous au document Notes de version de Sun Cluster 3.0 pour connaître l'emplacement des patchs et les instructions d'installation.

Etape suivante

Pour démarrer le logiciel Sun Management Center, reportez-vous à la section "Démarrage du logiciel Sun Management Center".

Démarrage du logiciel Sun Management Center

Suivez cette procédure pour démarrer les processus du serveur, de l'agent et de la console de Sun Management Center.

  1. En tant que superutilisateur, démarrez le processus du serveur de Sun Management Center sur la machine serveur de Sun Management Center.


    # /opt/SUNWsymon/sbin/es-start -S
    
  2. En tant que superutilisateur, sur chaque machine agent (noeud de cluster) de Sun Management Center, démarrez le processus de l'agent de Sun Management Center.


    # /opt/SUNWsymon/sbin/es-start -a
    
  3. Sur la machine de la console de Sun Management Center (console administrative), démarrez la console de Sun Management Center.

    Vous n'avez pas besoin d'être superutilisateur pour démarrer le processus de la console.


    % /opt/SUNWsymon/sbin/es-start -c
    
  4. Tapez votre nom de connexion, votre mot de passe et le nom d'host du serveur, puis cliquez sur Login.

Etape suivante

Pour ajouter des noeuds de cluster en tant qu'objets hosts surveillés, reportez-vous à la section "Ajout d'un noeud de cluster en tant qu'objet host d'agent de Sun Management Center".

Ajout d'un noeud de cluster en tant qu'objet host d'agent de Sun Management Center

Suivez cette procédure pour créer un objet host d'agent de Sun Management Center pour un noeud de cluster.


Remarque :

il suffit d'un seul objet host de noeud de cluster pour utiliser la surveillance du module Sun Cluster et ses fonctions de configuration pour tout le cluster. Cependant, si ce noeud de cluster devient indisponible, la connexion au cluster par cet objet host devient également indisponible. Il vous faudra alors un autre objet host de noeud de cluster pour vous reconnecter au cluster.


  1. Dans la fenêtre principale de Sun Management Center, sélectionnez un domaine dans la liste déroulante des domaines administratifs de Sun Management Center.

    Ce domaine comprendra l'objet host d'agent de Sun Management Center que vous créez. Pendant l'installation du logiciel Sun Management Center, un domaine par défaut a été créé automatiquement. Vous pouvez utiliser ce domaine, sélectionner un domaine existant ou en créer un nouveau.

    Reportez-vous à la documentation de Sun Management Center pour plus d'informations sur la création de domaines Sun Management Center.

  2. Sélectionnez Edit>Create an Object dans le menu déroulant.

  3. Sélectionnez l'onglet Node.

  4. Dans la liste déroulante Monitor via, sélectionnez Sun Management Center Agent - Host.

  5. Indiquez le nom du noeud de cluster (par exemple phys-schost-1) dans les zones de texte Node Label et Hostname.

    Laissez la zone de texte IP vide. La zone de texte Description est facultative.

  6. Dans la zone de texte Port, tapez le numéro de port que vous avez choisi pendant l'installation de l'agent de Sun Management Center.

  7. Cliquez sur OK.

    Un objet host d'agent de Sun Management Center est créé dans le domaine.

Etape suivante

Pour charger le module Sun Cluster, reportez-vous à la section "Chargement du module Sun Cluster".

Chargement du module Sun Cluster

Suivez cette procédure pour lancer la surveillance du cluster.

  1. Dans la fenêtre principale de Sun Management Center, cliquez deux fois sur l'objet host d'agent pour un noeud de cluster.

    L'objet host d'agent est affiché en deux endroits. Vous pouvez cliquer sur n'importe lequel des deux. La fenêtre Details de l'objet host apparaît.

  2. Sélectionnez l'ictne en haut de la hiérarchie (root) pour l'afficher en surbrillance.

    Cette ictne est libellée avec le nom de noeud du cluster.

  3. Dans le menu déroulant, sélectionnez Module>Load Module.

    La fenêtre Load Module répertorie chaque module Sun Management Center disponible et son état de chargement.

  4. Sélectionnez Sun Cluster : Not loaded (généralement à la fin de la liste) et cliquez sur OK.

    La fenêtre Module Loader présente les paramètres courants du module sélectionné.

  5. Cliquez sur OK.

    Au bout de quelques instants, le module est chargé et une ictne Sun Cluster apparaît dans la fenêtre Details.

  6. Dans la fenêtre Details, sous la catégorie Operating System, développez la sous-arborescence de Sun Cluster en procédant de l'une des manières suivantes :

    • Dans la hiérarchie de l'arborescence située dans la partie gauche de la fenêtre, placez le curseur sur l'ictne du module Sun Cluster et appuyez une fois sur le bouton gauche de la souris.

    • Dans la vue de la topologie située dans la partie droite de la fenêtre, placez le curseur sur l'ictne du module Sun Cluster et appuyez deux fois sur le bouton gauche de la souris.

Reportez-vous à l'aide en ligne du module Sun Cluster pour plus d'informations sur l'utilisation des fonctions du module Sun Cluster.


Remarque :

le bouton Help du navigateur de Sun Management Center permet d'accéder à l'aide en ligne de Sun Management Center, mais pas aux rubriques propres au module Sun Cluster.


Reportez-vous à l'aide en ligne de Sun Management Center et à votre documentation de Sun Management Center pour plus d'informations sur l'utilisation du produit Sun Management Center.

Etape suivante

Pour installer des applications de fournisseurs tiers, reportez-vous à la documentation fournie avec le logiciel d'applications et au document Sun Cluster 3.0 Data Services Installation and Configuration Guide. Pour enregistrer des types de ressources, configurer des groupes de ressources et des services de données, reportez-vous au document Sun Cluster 3.0 Data Services Installation and Configuration Guide.