Guide d'installation du logiciel Sun Cluster pour SE Solaris

Chapitre 2 Installation et configuration du logiciel Sun Cluster

Ce chapitre fournit des procédures pour l'installation et la configuration de votre cluster. Vous pouvez aussi utiliser ces procédures pour ajouter un nouveau nœud à un cluster existant. Ce chapitre comporte également les procédures de désinstallation de certains logiciels de cluster.

Ce chapitre comprend les rubriques suivantes :

Installation du logiciel

Cette rubrique fournit des informations et des procédures d'installation du logiciel sur les nœuds du cluster.

Le plan des tâches ci-dessous répertorie les procédures d'installation du logigiel sur un ou plusieurs nœuds de cluster. Effectuez les procédures dans l'ordre indiqué.

Tableau 2–1 Plan des tâches : Installation du logiciel

Tâche 

Instructions 

1. Planification de la disposition de votre cluster et préparation à l'installation du logiciel. 

Préparation de l'installation du logiciel de cluster

2. (Facultatif) Installation du logiciel CCP (Cluster Control Panel) sur la console administrative.

Procédure d'installation du logiciel Cluster Control Panel sur une console administrative

3. Installation du système d'exploitation Solaris sur tous les nœuds. 

Installation du logiciel Solaris

4. (Facultatif) SPARC : installation de Sun StorEdge Traffic Manager.

SPARC : Installation du logiciel de multiacheminement Sun

5. (Facultatif) SPARC : installation de Système de fichiers VERITAS.

SPARC : installation du logiciel Système de fichiers VERITAS

6. Installation des packages Sun Cluster et des services de données Java System de Sun sous Solaris 8 ou Solaris 9. 

Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer)

7. Définition du chemin d'accès aux répertoires. 

Configuration de l'environnement racine

8. Ajout de clusters ou de nœuds. 

Établissement du cluster

ProcedurePréparation de l'installation du logiciel de cluster

Avant de commencer à installer le logiciel, effectuez les préparations suivantes :

Étapes
  1. Vérifiez que la version de Sun Cluster prend en charge le matériel et le logiciel choisis pour la configuration de votre cluster.

    Contactez votre représentant commercial Sun pour obtenir les dernières informations sur les configurations de cluster prises en charge.

  2. Consultez les manuels suivants pour obtenir des informations qui vous aideront à planifier la configuration de votre cluster et à préparer votre stratégie d'installation.

  3. Ayez sous la main toute la documentation connexe, y compris celle de tiers.

    Voici une liste partielle de la documentation produit dont vous pourriez avoir besoin comme référence pendant l'installation du cluster :

    • Les SE Solaris

    • logiciel Solstice DiskSuite ou Solaris Volume Manager ;

    • logiciel Sun StorEdge QFS ;

    • SPARC : VERITAS Volume Manager

    • SPARC : Sun Management Center ;

    • applications de fournisseurs tiers.

  4. Planifiez la configuration de votre cluster.


    Caution – Caution –

    planifiez complètement l'installation de votre cluster. Identifiez les exigences de tous les services de données et des produits tiers avant de commencer l'installation de Solaris et de Sun Cluster. Le non-respect de cette consigne peut entraîner des erreurs d'installation qui nécessiteraient la réinstallation complète des logiciels Solaris et Sun Cluster.

    Par exemple, l'option Oracle Real Application Clusters Guard de Oracle Real Application Clusters impose certaines exigences aux noms d'hôtes utilisés dans le cluster. Sun Cluster HA pour SAP impose également certaines exigences. Vous devez prendre connaissance de ces contraintes avant de procéder à l'installation du logiciel Sun Cluster, les noms d'hôtes ne pouvant être modifiés après l'installation.

    Notez également que l'utilisation de Oracle Real Application Clusters et de Sun Cluster HA pour SAP n'est pas prise en charge par les clusters basés sur x86.


  5. Procurez-vous tous les patchs nécessaires pour votre configuration de cluster.

    Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.

    1. Copiez les patchs requis pour Sun Cluster dans un répertoire unique.

      Ce dernier doit se trouver dans un système de fichiers accessible à tous les nœuds. Le répertoire des patchs par défaut est le suivant : /var/cluster/patches.


      Astuce –

      une fois que vous avez installé le logiciel Solaris sur un nœud, vous pouvez afficher le fichier /etc/release pour voir quelle est la version exacte du logiciel Solaris installée.


    2. (Facultatif) Si vous utilisez le programme d'installation SunPlex, vous pouvez créer un fichier de liste des patchs.

      Si vous indiquez un fichier de liste des patchs, le programme d'installation SunPlex installe seulement les patchs indiqués dans celui-ci. Pour plus d'informations sur la création d'un fichier de liste des patchs, reportez-vous à la page de manuel patchadd(1M).

    3. Notez le chemin du répertoire de patchs.

Étapes suivantes

Si vous souhaitez utiliser le logiciel Cluster Control Panel pour connecter une console administrative à vos nœuds de cluster, reportez-vous à la rubrique Procédure d'installation du logiciel Cluster Control Panel sur une console administrative .

Dans le cas contraire, choisissez la méthode d'installation Solaris à utiliser.

ProcedureProcédure d'installation du logiciel Cluster Control Panel sur une console administrative


Remarque –

vous n'êtes pas obligé d'utiliser une console administrative. Si vous n'en utilisez pas, effectuez les tâches administratives à partir d'un nœud désigné dans le cluster.


Cette procédure explique comment installer le logiciel CCP (Cluster Control Panel) sur une console administrative. Le CCP offre une interface unique de lancement des outils cconsole(1M), ctelnet(1M) et crlogin(1M). Chacun de ces outils fournit une connexion à fenêtres multiples à un ensemble de nœuds, ainsi qu'une fenêtre ordinaire. Vous pouvez utiliser la fenêtre ordinaire pour envoyer simultanément des entrées vers tous les nœuds.

Vous pouvez utiliser n'importe quel ordinateur de bureau fonctionnant avec le système d'exploitation Solaris 8 ou Solaris 9 en tant que console administrative. Vous pouvez également utiliser la console administrative comme serveur de documentation. Si vous utilisez Sun Cluster sur un système SPARC, vous pouvez également utiliser la console administrative comme console Sun Management Center ou comme serveur. Reportez-vous à la documentation de Sun Management Center pour obtenir des informations sur l'installation du logiciel Sun Management Center. Reportez-vous au manuel Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris pour obtenir plus d'informations sur l'installation de la documentation Sun Cluster.

Avant de commencer

Assurez-vous qu'une version du système d'exploitation Solaris prise en charge ainsi que des patchs Solaris sont installés sur la console administrative. Toutes les plates-formes requièrent au minimum le End User Solaris Software Group.

Étapes
  1. Devenez superutilisateur de la console administrative.

  2. Insérez le CD 2 de Sun Cluster dans le lecteur de CD de la console administrative.

    Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.

  3. Déplacez-vous sur répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/, où arch représente sparc ou x86 et ver correspond à 8 pour Solaris 8, 9 pour Solaris 9 ou 10 pour Solaris 10 .


    # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
    
  4. Installez le package SUNWccon.


    # pkgadd -d . SUNWccon
    
  5. (Facultatif) Installez le package SUNWscman.


    # pkgadd -d . SUNWscman
    

    L'installation du package SUNWscman sur la console administrative vous permet de visualiser les pages man de Sun Cluster à partir de la console administrative, avant d'installer le logiciel Sun Cluster sur les nœuds de cluster.

  6. (Facultatif) Installez les packages de documentation Sun Cluster.


    Remarque –

    si vous n'installez pas la documentation sur votre console administrative, vous pouvez toujours visualiser la documentation HTML ou PDF directement à partir du CD. Utilisez un navigateur Web pour afficher le fichier Solaris_arch/Product/sun_cluster/index.html du CD 2 de Sun Cluster (arch représente sparc ou x86).


    1. Déterminez si le package SUNWsdocs est installé sur la console administrative.


      # pkginfo | grep SUNWsdocs
      application SUNWsdocs     Documentation Navigation for Solaris 9

      Dans la négative, vous devez l'installer avant les packages de documentation.

    2. Sélectionnez les packages de documentation Sun Cluster à installer.

      Les collections de documentation suivantes sont disponibles aux formats HTML et PDF :

      Titre 

      Nom du package HTML 

      Nom du package PDF 

      Collection Logiciel Sun Cluster 3.1 9/04 pour SE Solaris (édition pour plate-forme SPARC) 

      SUNWscsdoc

      SUNWpscsdoc

      Collection Logiciel Sun Cluster 3.1 9/04 pour SE Solaris (édition pour plate-forme x86) 

      SUNWscxdoc

      SUNWpscxdoc

      Collection Matériel Sun Cluster 3.x pour SE Solaris (édition pour plate-forme SPARC) 

      SUNWschw

      SUNWpschw

      Collection Matériel Sun Cluster 3.x pour SE Solaris (édition pour plate-forme x86) 

      SUNWscxhw

      SUNWpscxhw

      Collection Référence Sun Cluster 3.1 9/04 pour SE Solaris 

      SUNWscref

      SUNWpscref

    3. Installez le package SUNWsdocs si nécessaire, ainsi que les packages de documentation Sun Cluster de votre choix.


      Remarque –

      tous les packages de documentation dépendent du package SUNWsdocs. Avant d'installer un package de documentation, vous devez avoir installé SUNWsdocs sur le système.



      # pkgadd -d . SUNWsdocs pkg-list
      
  7. Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.


    # eject cdrom
    
  8. Créez un fichier /etc/clusters sur la console administrative.

    Ajoutez à ce fichier le nom de votre cluster et le nom de nœud physique de chaque nœud du cluster.


    # vi /etc/clusters
    clustername node1 node2
    

    Reportez-vous à la page de manuel /opt/SUNWcluster/bin/clusters(4) pour obtenir plus d'informations.

  9. Créez un fichier /etc/serialports.

    Ajoutez dans ce fichier une entrée pour chaque nœud du cluster. Indiquez le nom du nœud physique, le nom de l'hôte du périphérique d'accès par console et le numéro du port. Le concentrateur de terminal (CT), le SSP (System Service Processor) et le contrôleur de système Sun Fire sont des exemples de périphériques d'accès par console.


    # vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    
    node1, node2

    Noms physiques des nœuds du cluster.

    nom_hôte_périphérique_ac

    Nom d'hôte du périphérique d'accès par console.

    port

    Numéro du port série

    Pour créer un fichier /etc/serialports, tenez compte des instructions spéciales suivantes :

    • Pour un contrôleur de système Sun Fire 15000, utilisez le numéro 23 de port telnet(1) en tant que numéro de port série de chaque entrée.

    • Pour tous ces périphériques d'accès par console, utilisez le numéro de port série telnet, et non le numéro de port physique. Pour déterminer le numéro de port série telnet, ajoutez 5000 au numéro de port physique. Par exemple, si le numéro d'un port physique est 6, le numéro du port série telnet correspondant est 5006.

    • Pour les serveurs Sun Enterprise 10000, reportez-vous à la page de manuel /opt/SUNWcluster/bin/serialports(4) pour obtenir des informations spécifiques.

  10. (Facultatif) Par commodité, définissez le chemin d'accès aux répertoires sur la console administrative.

    1. Ajoutez le répertoire /opt/SUNWcluster/bin/ à la variable PATH.

    2. Ajoutez le répertoire /opt/SUNWcluster/man/ à la variable MANPATH.

    3. Si vous avez installé le package SUNWscman, ajoutez également le répertoire /usr/cluster/man/ à la variable MANPATH.

  11. Lancez l'utilitaire CCP.


    # /opt/SUNWcluster/bin/ccp &
    

    Cliquez sur le bouton cconsole, crlogin, ou ctelnet de la fenêtre CCP pour lancer cet outil. Vous pouvez également lancer chacun de ces outils directement. Par exemple, pour démarrer ctelnet, entrez la commande suivante :


    # /opt/SUNWcluster/bin/ctelnet &
    

    Reportez-vous à la procédure de connexion distante à Sun Cluster de la rubrique Prémices de l’administration du cluster du Guide d’administration système de Sun Cluster pour SE Solaris pour obtenir plus d'informations sur l'utilisation de CCP. Reportez-vous également à la page de manuel ccp(1M).

Étapes suivantes

Déterminez si le système d'exploitation Solaris répond aux exigences d'installation de Sun Cluster.

ProcedureInstallation du logiciel Solaris

Suivez ces procédures pour installer Solaris sur chaque nœud de cluster ou sur le nœud maître en créant des archives Flash pour JumpStart. Reportez-vous à la rubrique Installation de Solaris et du logiciel Sun Cluster (JumpStart) pour obtenir plus d'informations sur l'installation JumpStart d'un cluster.


Astuce –

pour gagner du temps, vous pouvez installer le système d'exploitation Solaris sur tous les nœuds à la fois.


Si les nœuds sont déjà installés avec le système d'exploitation Solaris mais que vous ne remplissez pas les exigences d'installation de Sun Cluster, vous devrez probablement réinstaller le logiciel Solaris. Veillez à suivre les étapes de cette procédure pour garantir le succès de l'installation du logiciel Sun Cluster. Reportez-vous à la rubrique Planification du SE Solaris pour obtenir des informations sur le partitionnement requis du disque racine et sur d'autres exigences d'installation de Sun Cluster.

Avant de commencer

Effectuez les tâches suivantes :

Étapes
  1. Si vous utilisez une console administrative au niveau du cluster, ouvrez un écran de console pour chaque nœud du cluster.

    • Si le logiciel Cluster Control Panel (CCP) est installé et configuré sur la console administrative, servez-vous de l'utilitaire cconsole(1M) pour afficher les écrans de console individuels.

      Utilisez la commande suivante pour démarrer l'utilitaire cconsole :


      # /opt/SUNWcluster/bin/cconsole clustername &
      

      L'utilitaire cconsole ouvre également une fenêtre principale qui vous permet d'envoyer votre saisie à tous les écrans de console individuels en même temps.

    • Si vous n'utilisez pas l'utilitaire cconsole, connectez-vous à la console de chaque nœud individuellement.

  2. Installez le système d'exploitation Solaris comme indiqué dans la documentation d'installation de Solaris.


    Remarque –

    vous devez installer la même version du système d'exploitation Solaris sur tous les nœuds du cluster.


    Vous pouvez utiliser toutes les méthodes normalement utilisées lors de l'installation de Solaris, Pendant l'installation du logiciel Solaris, effectuez les opérations suivantes :

    1. Installez au minimum le End User Solaris Software Group.


      Astuce –

      pour éviter d'avoir à installer manuellement les packages Solaris, installez la prise en charge Entire Solaris Software Group Plus OEM.


      Reportez-vous à la rubrique À propos des groupes de logiciels Solaris pour obtenir des informations sur les exigences supplémentaires du logiciel Solaris.

    2. Choisissez Disposition manuelle pour configurer les systèmes de fichiers.

      • Créez un système de fichiers d'au moins 512 Mo à utiliser par le sous-système du périphérique global.

        Si vous envisagez d'utiliser le programme d'installation SunPlex pour installer le logiciel Sun Cluster, vous devez créer le système de fichiers avec un nom de point de montage /globaldevices. Ce point de montage est celui que scinstall utilise par défaut.


        Remarque –

        un système de fichiers global-devices est nécessaire à la réussite de l’installation du logiciel Sun Cluster.


      • Indiquez que la taille de la tranche 7 est au moins égale à 20 Mo.

        Si vous envisagez d'utiliser le programme d'installation SunPlex pour installer le logiciel Solstice DiskSuite (Solaris 8) ou configurer le logiciel Solaris Volume Manager (Solaris 9 ou Solaris 10), montez également ce système de fichiers sur /sds.


        Remarque –

        si vous envisagez d'utiliser le programme d'installation SunPlex pour installer Sun Cluster HA pour NFS ou Sun Cluster HA pour Apache, le programme d'installation SunPlex doit également installer le logiciel Solstice DiskSuite (Solaris 8) ou configurer le logiciel Solaris Volume Manager (Solaris 9 ou Solaris 10).


      • Créez tout autre partitionnement nécessaire de système de fichiers. Pour ce faire, suivez la procédure de la rubrique Partitions du disque système .

    3. Afin de vous faciliter le travail d'administration, définissez le même mot de passe superutilisateur sur chaque nœud.

  3. Si vous ajoutez un nœud à un cluster existant, préparez ce dernier afin qu'il accepte ce nœud.

    1. Sur tout élément actif du cluster, démarrez l'utilitaire scsetup(1M).


      # scsetup
      

      Le menu principal apparaît.

    2. Choisissez l'élément de menu Nouveaux nœuds.

    3. Choisissez l'élément de menu Spécifier le nom d'une machine autorisée à s'auto-ajouter.

    4. Suivez les instructions pour ajouter le nom du nœud à la liste des machines reconnues.

      Une fois la tâche terminée sans erreur, l'utilitaire scsetup imprime le message Command completed successfully.

    5. Quittez l'utilitaire scsetup.

    6. Dans le nœud de cluster actif, affichez les noms de tous les systèmes de fichiers du cluster.


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      
    7. Créez un point de montage sur le nouveau nœud pour chaque système de fichiers du cluster.


      % mkdir -p mountpoint
      

      Si la commande de montage vous renvoie, par exemple, le nom de système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le nœud ajouté au cluster.

  4. Si vous ajoutez un nœud et si VxVM existe sur tous les nœuds de cluster, effectuez les tâches suivantes.

    1. Assurez-vous que le même numéro vxio est utilisé pour les nœuds installés avec VxVM.


      # grep vxio /etc/name_to_major
      vxio NNN
      
    2. Assurez-vous également que ce numéro est disponible pour chacun des nœuds installés sans VxVM.

    3. Si le numéro vxio est déjà utilisé sur un nœud non-VxVM, utilisez-en un autre pour l'entrée /etc/name_to_major.

  5. Si vous avez installé le End User Solaris Software Group, utilisez la commande pkgadd pour installer manuellement tout autre package Solaris nécessaire.

    Les packages Solaris suivants sont requis pour la prise en charge de certaines fonctions Sun Cluster.


    Remarque –

    Installez les packages en respectant l'ordre donné dans le tableau suivant.


    Fonctionnalité 

    Packages Solaris requis 

    RSMAPI, Pilotes RSMRDT ou adaptateurs SCI-PCI (clusters sous SPARC uniquement) 

    Solaris 8 ou Solaris 9 : SUNWrsm SUNWrsmx SUNWrsmo SUNWrsmox

    Solaris 10 : SUNWrsm SUNWrsmo

    Le gestionnaire SunPlex 

    SUNWapchr SUNWapchu

    • Pour le système d'exploitation Solaris 8 ou Solaris 9, utilisez la commande suivante :


      # pkgadd -d . packages
      
    • Pour le système d'exploitation Solaris 10, utilisez la commande suivante :


      # pkgadd -G -d . packages
      

      Vous ne devez ajouter ces packages que dans la zone globale. L'option -G ajoute les packages dans la zone en cours uniquement. Elle ne permet pas aux packages de se propager dans une éventuelle zone non globale existante ou créée ultérieurement.

  6. Installez tous les patchs Solaris requis ainsi que les patchs/ microprogrammes du matériel, notamment ceux de baie de stockage. Téléchargez également tout microprogramme inclus dans les patchs du matériel.

    Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.

  7. x86 : Paramétrez le fichier d'initialisation par défaut sur kadb.


    # eeprom boot-file=kadb
    

    La définition de cette valeur vous permet de réinitialiser le nœud si vous n'avez accès à aucune invite de connexion.

  8. Mettez à jour le fichier /etc/inet/hosts sur chaque nœud avec toutes les adresses IP utilisées dans le cluster.

    Exécutez cette étape, que vous utilisiez ou non un service d'attribution de noms. Reportez-vous à la rubrique Adresses IP pour obtenir la liste des composants Sun Cluster dont les adresses IP sont à ajouter.

  9. Si vous utilisez les adaptateurs ce pour l'interconnexion de cluster, ajoutez l'entrée suivante dans le fichier /etc/system.


    set ce:ce_taskq_disable=1

    Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système.

  10. (Facultatif) Sur les serveurs Sun Enterprise 10000, définissez le fichier /etc/system pour utiliser la reconfiguration dynamique.

    Ajoutez l'entrée suivante dans le fichier /etc/system de chaque nœud de cluster :


    set kernel_cage_enable=1

    Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système. Reportez-vous à la documentation de votre serveur pour de plus amples informations sur la reconfiguration dynamique.

Étapes suivantes

Si vous envisagez d'utiliser le logiciel de multiacheminement Sun, reportez-vous à la rubrique SPARC : Installation du logiciel de multiacheminement Sun .

Si vous envisagez d'installer VxFS, reportez-vous à la rubrique SPARC : installation du logiciel Système de fichiers VERITAS.

Sinon, installez les packages Sun Cluster. Voir Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .

Voir aussi

Reportez-vous au Guide d’administration système de Sun Cluster pour SE Solaris pour connaître les procédures de reconfiguration dynamique dans une configuration Sun Cluster.

ProcedureSPARC : Installation du logiciel de multiacheminement Sun

Cette procédure à effectuer sur chaque nœud de cluster permet d'installer et de configurer le logiciel de multiacheminement Sun pour le stockage Fiber Channel (FC). Le logiciel de multiacheminement gère plusieurs entrées-sorties du périphérique de stockage de cluster partagé.

Avant de commencer

Effectuez les tâches suivantes :

Étapes
  1. Prenez le rôle de superutilisateur.

  2. Pour Solaris 8 ou Solaris 9, installez le logiciel Sun StorEdge Traffic Manager et tous les patchs nécessaires sur chaque nœud.

    • Pour connaître la procédure d'installation du logiciel Sun StorEdge Traffic Manager, reportez-vous au Sun StorEdge Traffic Manager Installation and Configuration Guide depuis la page http://www.sun.com/products-n-solutions/hardware/docs/.

    • Afin d'obtenir la liste des patchs requis pour le logiciel Sun StorEdge Traffic Manager, reportez-vous aux Sun StorEdge Traffic Manager Software Release Notes depuis la page http://www.sun.com/storage/san/.

  3. Activez la fonction de multiacheminement.

    • Pour Solaris 8 ou 9, remplacez la valeur de mpxio-disable par no.

      Modifiez cette entrée dans le fichier /kernel/drv/scsi_vhci.conf de chaque nœud.


      set mpxio-disable=no
    • Pour Solaris 10, exécutez la commande ci-dessous sur chaque nœud.


      Attention – Attention –

      si le logiciel Sun Cluster est installé, n'effectuez pas cette opération. L'exécution de la commande stmsboot sur un nœud de cluster actif risque de mettre les services Solaris en état de maintenance. À la place, suivez les instructions d'exécution de stmsboot dans un environnement Sun Cluster de la page de manuel stmsboot(1M).



      # /usr/sbin/stmsboot -e
      
      -e

      Active le multiacheminement Solaris

      Reportez-vous à la page de manuel stmsboot(1M) pour obtenir plus d'informations.

  4. Pour Solaris 8 ou Solaris 9, déterminez si la version de votre logiciel Sun StorEdge SAN Foundation prend en charge votre baie de stockage.

    Dans la négative, ajoutez les entrées nécessaires dans le fichier /kernel/drv/scsi_vhci.conf de chaque nœud. Pour obtenir plus d'informations, reportez-vous aux notes de version de votre périphérique de stockage.

  5. Sous Solaris 8 ou Solaris 9, arrêtez chaque nœud et effectuez une reconfiguration au démarrage.

    La reconfiguration au démarrage entraîne la création de liens et de fichiers de périphériques Solaris.


    # shutdown -y -g0 -i0
    ok boot -r
    
  6. Après avoir effectué la reconfiguration au démarrage sur tous les nœuds, exécutez les autres tâches nécessaires à la définition de votre baie de stockage.

    Reportez-vous aux instructions de la Sun Cluster Hardware Administration Collection pour obtenir plus d'informations sur l'installation de votre baie de stockage.

Erreurs fréquentes

Si l'installation du logiciel de multiacheminement intervient après celle de Sun Cluster sur le cluster, la mise à jour des mappages DID sera probablement nécessaire. Pour régénérer l'espace de noms DID, exécutez les commandes ci-dessous sur chaque nœud de cluster.

# scdidadm -C# scdidadm -r(Solaris 8 ou 9 uniquement) # cfgadm -c configure# scgdevs

Reportez-vous aux pages de manuel scdidadm(1M) et scgdevs(1M) pour obtenir plus d'informations.

Étapes suivantes

Si vous envisagez d'installer VxFS, reportez-vous à la rubrique SPARC : installation du logiciel Système de fichiers VERITAS.

Sinon, installez les packages Sun Cluster. Reportez-vous à la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .

ProcedureSPARC : installation du logiciel Système de fichiers VERITAS

Effectuez cette procédure sur chaque nœud de cluster.

Étapes
  1. Suivez les procédures du guide d'installation de VxFS pour installer le logiciel VxFS sur chaque nœud du cluster.

  2. Installez tous les patchs Sun Cluster nécessaires à la prise en charge de VxFS.

    Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.

  3. Dans le fichier /etc/system de chaque nœud, définissez les valeurs suivantes.


    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    Ces changements seront pris en compte à la prochaine réinitialisation du système.

    • Le logiciel Sun Cluster nécessite un paramètre rpcmod:svc_default_stksize minimum de 0x8000. Étant donné que l'installation de VxFS définit la valeur de la variable rpcmod:svc_default_stksize sur 0x4000, vous devez la définir sur 0x8000 manuellement une fois l'installation de VxFS terminée.

    • De plus, vous devez définir la variable lwp_default_stksize dans le fichier /etc/system pour remplacer la valeur 0x4000 par défaut de VxFS.

Étapes suivantes

Installez les packages Sun Cluster. Reportez-vous à la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .

ProcedureInstallation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer)

Cette procédure permet d'utiliser le programme Sun JavaTM Enterprise System (Java ES) installer pour effectuer une ou plusieurs des tâches suivantes :


Remarque –

n'utilisez pas cette procédure pour installer les types suivants de packages de services de données :


Avant de commencer

Effectuez les tâches suivantes :

Étapes
  1. (Facultatif) Pour utiliser le programme installer avec une IUG, vérifiez que l'environnement du nœud de cluster à installer est défini pour afficher l'interface utilisateur graphique.


    % xhost +
    % setenv DISPLAY nodename:0.0
    
  2. Devenez superutilisateur du nœud de cluster à installer.

  3. Insérez le CD 1 de Sun Cluster dans le lecteur.

  4. Placez-vous dans le répertoire du programme installer du CD-ROM.


    # cd /cdrom/cdrom0/Solaris_arch/
    

    Dans le répertoire Solaris_arch/, arch représente sparc ou x86.

  5. Lancez le programme Java ES installer.


    # ./installer
    
  6. Pour installer le logiciel de structure Sun Cluster et les services de données sur le nœud, suivez les instructions à l'écran.

    À l'invite, choisissez de configurer le logiciel de structure Sun Cluster ultérieurement.

    Un fois l'installation terminée, vous pouvez visualiser tous les journaux d'installation disponibles. Reportez-vous au Sun Java Enterprise System 2005Q5 Installation Guide pour obtenir plus d'informations sur l'utilisation du programme Java ES installer.

  7. Installez des packages supplémentaires si vous envisagez d'utiliser l'une des fonctions suivantes.

    • Interface de programmation d'application de mémoire partagée distante (RSMAPI)

    • Adaptateurs SCI-PCI pour l'interconnexion

    • Pilotes RSMRDT


    Remarque –

    L'utilisation du pilote RSMRDT est limitée aux clusters exécutant une configuration SCI Oracle9i version 2 avec RSM activé. Reportez-vous à la documentation utilisateur d'Oracle9i version 2 pour connaître les instructions d'installation et de configuration.


    1. Déterminez quels packages vous devez installer.

      Le tableau suivant répertorie les packages Sun Cluster 3.1 8/05 requis par chaque fonctionnalité, classés selon l'ordre d'installation obligatoire de chaque groupe de packages. Le programme installer de Java ES n'installe pas automatiquement ces packages.


      Remarque –

      Installez les packages en respectant l'ordre donné dans le tableau suivant.


      Fonctionnalité 

      Packages Sun Cluster 3.1 8/05 supplémentaires à installer 

      RSMAPI 

      SUNWscrif

      Adaptateurs SCI-PCI 

      • Solaris 8 et 9 : SUNWsci SUNWscid SUNWscidx

      • Solaris 10 : SUNWscir SUNWsci SUNWscidr SUNWscid

      Pilotes RSMRDT 

      SUNWscrdt

    2. Insérez le CD 2 de Sun Cluster, si ce n'est déjà fait.

    3. Passez au répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/, où arch représente sparc ou x86 et ver correspond à 8 pour Solaris 8, 9 pour Solaris 9 ou 10 pour Solaris 10 .


      # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      
    4. Installez les autres packages.


      # pkgadd -d . packages
      
  8. Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.


    # eject cdrom
    
  9. Vérifiez que le répertoire /usr/java/ est un lien symbolique vers la version minimum ou la dernière version du logiciel Java.

    Le logiciel Sun Cluster demande au moins la version 1.4.2_03 du logiciel Java.

    1. Identifiez le répertoire auquel /usr/java/ est associé par lien symbolique.


      # ls -l /usr/java
      lrwxrwxrwx   1 root   other    9 Apr 19 14:05 /usr/java -> /usr/j2se/
    2. Identifiez la ou les versions installées du logiciel Java.

      L'exemple suivant présente les commandes que vous pouvez utiliser pour afficher les versions connexes du logiciel Java.


      # /usr/j2se/bin/java -version
      # /usr/java1.2/bin/java -version
      # /usr/jdk/jdk1.5.0_01/bin/java -version
      
    3. Si le répertoire /usr/java/ n'est pas associé par un lien symbolique à une version prise en charge du logiciel Java, recréez le lien symbolique.

      L'exemple suivant présente la création d'un lien symbolique vers le répertoire /usr/j2se/ contenant le logiciel Java 1.4.2_03.


      # rm /usr/java
      # ln -s /usr/j2se /usr/java
      
Étapes suivantes

Si vous installez le logiciel du système de fichiers Sun StorEdge QFS, suivez les procédures d'installation initiale du Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.

Sinon, reportez-vous à la rubrique Configuration de l'environnement racine pour configurer l'environnement racine.

ProcedureConfiguration de l'environnement racine


Remarque –

dans une configuration Sun Cluster, les fichiers d'initialisation utilisateur appropriés doivent vérifier qu'ils s'exécutent dans un shell interactif avant de tenter d'envoyer la sortie au terminal. Sinon, vous risquez d'obtenir un comportement inattendu ou des interférences avec les services de données. Reportez-vous au Customizing a User's Work Environment du System Administration Guide, Volume 1 (Solaris 8) ou du System Administration Guide: Basic Administration (Solaris 9 or Solaris 10) pour obtenir plus d'informations.


Suivez cette procédure sur chaque nœud du cluster.

Étapes
  1. Connectez-vous en tant que superutilisateur sur un nœud du cluster.

  2. Modifiez les entrées PATH et MANPATH dans le fichier .cshrc ou .profile.

    1. Définissez la variable PATH pour qu'elle comprenne /usr/sbin/ et /usr/cluster/bin/.

    2. Définissez la variable MANPATH pour qu'elle comprenne /usr/cluster/man/.

    Pour obtenir plus d'informations sur les autres chemins de fichier à définir, reportez-vous à la documentation du gestionnaire de volumes et à celle des autres applications.

  3. (Facultatif) Pour faciliter le travail d'administration, définissez le même mot de passe de superutilisateur sur chaque nœud.

Étapes suivantes

Configurez le logiciel Sun Cluster sur les nœuds de votre cluster. Voir Établissement du cluster.

Établissement du cluster

Cette rubrique explique comment établir un cluster ou ajouter un nœud à un cluster existant. Avant d'effectuer ces tâches, vérifiez que l'installation des packages de logiciels pour le système d'exploitation Solaris, de la structure Sun Cluster et d'autres produits est conforme aux instructions de la rubrique Installation du logiciel .

Le plan ci-dessous répertorie les tâches à effectuer. Effectuez les procédures dans l'ordre indiqué.

Tableau 2–2 Plan des tâches : Établissement du cluster

Méthode 

Instructions 

1. Utilisez l'une des méthodes suivantes pour établir un cluster ou ajouter un nœud à un cluster existant : 

  • (Nouveaux clusters uniquement) Utilisez l'utilitaire scinstall pour établir le cluster.

Procédure de configuration du logiciel Sun Cluster sur tous les nœuds (scinstall)

  • (Nouveaux clusters ou nœuds ajoutés) Définissez un serveur d'installation JumpStart, puis créez une archive Flash du système installé. Pour installer l'archive Flash sur chaque nœud et établir le cluster, utilisez l'option scinstall (JumpStart).

Installation de Solaris et du logiciel Sun Cluster (JumpStart)

  • (Nouveaux clusters à nœuds multiples uniquement) Utilisez le programme d'installation SunPlex pour établir le cluster. Vous pouvez également configurer les jeux de disques Solstice DiskSuite ou Solaris Volume Manager, le service évolutif de données Sun Cluster HA pour Apache et le service de données Sun Cluster HA pour NFS.

Utilisation du programme d'installation SunPlex pour la configuration du logiciel Sun Cluster

Configuration du logiciel Sun Cluster (programme d'installation SunPlex)

  • (Nœuds ajoutés uniquement) Configurez le logiciel Sun Cluster sur le nouveau nœud à l'aide de l'utilitaire scinstall.

Procédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (scinstall)

2. (Oracle Real Application Clusters uniquement) Si vous avez ajouté un nœud à un cluster de deux nœuds exécutant Support Sun Cluster pour Oracle Real Application Clusters et utilisant un disque SCSI partagé comme périphérique de quorum, mettez à jour les réservations SCSI.

Mise à jour des réservations SCSI après ajout d'un nœud

3. Installez les packages du logiciel de services de données. 

Installation des packages du logiciel de service de données (pkgadd)

Installation des packages du logiciel de service de données (scinstall)

Installation des packages du logiciel de service de données (Web Start installer)

4. Affectez les votes de quorum et supprimez le cluster du mode d'installation (si nécessaire). 

Configuration des périphériques de quorum

5. Validez la configuration de quorum. 

Vérification de la configuration de quorum et du mode d'installation

6. Configurez le cluster. 

Configuration du cluster

ProcedureProcédure de configuration du logiciel Sun Cluster sur tous les nœuds (scinstall)

Effectuez cette procédure à partir d'un nœud du cluster pour configurer le logiciel Sun Cluster sur tous les nœuds du cluster.

Avant de commencer

Effectuez les tâches suivantes :

Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :

Étapes
  1. Si vous avez désactivé la configuration distante au cours de l'installation du logiciel Sun Cluster, réactivez-la.

    Activez l' accès du superutilisateur par shell distant (rsh(1M)) ou par shell sécurisé (ssh(1)) à tous les nœuds de cluster.

  2. (Facultatif) Pour installer des patchs à l'aide de l'utilitaire scinstall(1M), téléchargez-les dans un répertoire de patchs.

    • Si vous installez le cluster en mode typique, placez les patchs à installer dans un répertoire appelé "/var/cluster/patches/" ou "/var/patches/".

      En mode Typique, la commande scinstall contrôle les patchs dans ces deux répertoires.

      • Si aucun de ces répertoires n'existe, aucun patch n'est ajouté.

      • Si les deux répertoires existent, seuls les patchs contenus dans /var/cluster/patches/ sont ajoutés.

    • Si vous installez le cluster en mode personnalisé, indiquez le chemin d'accès au répertoire de patchs. Ainsi, vous n'avez pas à utiliser les répertoires de patchs recherchés par scinstall en mode typique.

    Vous pouvez ajouter un fichier de liste des patchs dans le répertoire de patchs. Par défaut, le nom de ce fichier est le suivant : patchlist. Reportez-vous à la page de manuel patchadd(1M) pour obtenir des informations sur la création d'un fichier de liste des patchs.

  3. Devenez superutilisateur sur le nœud du cluster à partir duquel vous envisagez de configurer le cluster.

  4. Lancez l'utilitaire scinstall.


    # /usr/cluster/bin/scinstall
    
  5. Dans le menu principal, sélectionnez l'option Installation d'un cluster ou d'un nœud de cluster.


     *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Install a cluster or cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Add support for new data services to this cluster node
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
          * ?) Help with menu options
          * q) Quit
    
        Option:  1
    
  6. Dans le menu principal, choisissez l'option Installer tous les nœuds d'un nouveau cluster.

  7. Dans le menu du type d'installation, choisissez le mode typique ou personnalisé.

  8. Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.

    L'utilitaire scinstall installe et configure tous les nœuds du cluster, puis redémarre le cluster. Le cluster est établi une fois tous ses nœuds correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.

  9. Pour Solaris 10, vérifiez que les services multiutilisateur pour SMF sont en ligne sur chaque nœud.

    Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.


    # svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  10. À partir d'un nœud, vérifiez que tous les nœuds ont rejoint le cluster.

    Exécutez la commande scstat(1M) pour afficher la liste des nœuds du cluster. Vous n'avez pas besoin d'être superutilisateur pour exécuter cette commande.


     % scstat -n
    

    Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


    -- Cluster Nodes --
                               Node name      Status
                               ---------      ------
      Cluster node:            phys-schost-1  Online
      Cluster node:            phys-schost-2  Online
  11. Si nécessaire, installez les patchs requis pour prendre en charge le logiciel Sun Cluster.

  12. Pour réactiver le système de fichiers loopback (LOFS), supprimez l'entrée suivante du fichier /etc/system de chaque nœud du cluster.


    exclude:lofs

    La réactivation du LOFS prendra effet après le prochain redémarrage du système.


    Remarque –

    Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : si vous activez le LOFS et décidez ensuite d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local hautement disponible, vous devez effectuer l'une des opérations suivantes :

    • Replacez l'entrée exclude:lofs dans le fichier /etc/system sur chaque nœud du cluster et redémarrez chaque nœud. Cette modification désactivera le LOFS.

    • Désactivez le démon automountd.

    • Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.


    Pour plus d'informations sur les systèmes de fichiers loopback, reportez-vous au chapitre Types of File Systems du document System Administration Guide, Volume 1 (Solaris 8) ou au chapitre The Loopback File System du document System Administration Guide: Devices and File Systems (Solaris 9 ou Solaris 10).


Exemple 2–1 Configuration du logiciel Sun Cluster sur tous les nœuds

L'exemple suivant montre les messages d'état de scinstall enregistrés alors que scinstall termine les tâches de configuration sur le cluster à deux nœuds, schost. Pour installer le cluster depuis phys-schost-1, l'utilitaire scinstall est exécuté en mode typique. L'autre nœud de cluster est phys-schost-2. Les adaptateurs s'appellent qfe2 et qfe3. Par ailleurs, la sélection automatique d'un périphérique de quorum est activée.


  Installation and Configuration

    Log file - /var/cluster/logs/install/scinstall.log.24747

    Testing for "/globaldevices" on "phys-schost-1" … done
    Testing for "/globaldevices" on "phys-schost-2" … done
    Checking installation status … done

    The Sun Cluster software is already installed on "phys-schost-1".
    The Sun Cluster software is already installed on "phys-schost-2".
    Starting discovery of the cluster transport configuration.

    The following connections were discovered:

        phys-schost-1:qfe2  switch1  phys-schost-2:qfe2
        phys-schost-1:qfe3  switch2  phys-schost-2:qfe3

    Completed discovery of the cluster transport configuration.

    Started sccheck on "phys-schost-1".
    Started sccheck on "phys-schost-2".

    sccheck completed with no errors or warnings for "phys-schost-1".
    sccheck completed with no errors or warnings for "phys-schost-2".

    Removing the downloaded files … done

    Configuring "phys-schost-2" … done
    Rebooting "phys-schost-2" … done

    Configuring "phys-schost-1" … done
    Rebooting "phys-schost-1" …

Log file - /var/cluster/logs/install/scinstall.log.24747

Rebooting …

Étapes suivantes

Si vous souhaitez installer des services de données, consultez la procédure correspondant au service à installer et à la version de Solaris utilisée :

 

CD 2 de Sun Cluster 

(services de données Sun Java System) 

CD Sun Cluster Agents 

(autres services de données) 

Procédure 

Solaris 8 ou 9 

Solaris10 

Solaris 8 ou 9 

Solaris10 

Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer)

     

Installation des packages du logiciel de service de données (pkgadd)

 

   

Installation des packages du logiciel de service de données (scinstall)

   

Installation des packages du logiciel de service de données (Web Start installer)

   

X  

 

Sinon, reportez-vous à l'une des procédures suivantes.

Erreurs fréquentes

Vous ne pouvez plus modifier l'adresse et le masque de réseau privé une fois le traitement de scinstall terminé. Si vous devez utiliser une adresse ou un masque de réseau privé différent et si le nœud est toujours en mode d'installation, suivez la procédure de la rubrique Désinstallation du logiciel Sun Cluster pour corriger les problèmes d'installation , puis celles de Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) . Réinstallez le logiciel et utilisez les informations correctes pour configurer le nœud.

ProcedureInstallation de Solaris et du logiciel Sun Cluster (JumpStart)

Cette procédure explique comment configurer et utiliser la méthode d'installation JumpStart personnalisée scinstall(1M). Cette méthode installe à la fois le système d'exploitation Solaris et le logiciel Sun Cluster sur tous les nœuds du cluster en une seule opération et établit le cluster. Vous pouvez aussi utiliser cette procédure pour ajouter de nouveaux nœuds à un cluster existant.

Avant de commencer

Effectuez les tâches suivantes :

Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :

Étapes
  1. Configurez le serveur d'installation JumpStart.

  2. Si vous installez un nouveau nœud sur un cluster existant, ajoutez ce nœud à la liste des nœuds de cluster autorisés.

    1. Passez à un autre nœud de cluster actif et lancez l'utilitaire scsetup(1M).

    2. Utilisez scsetup pour ajouter le nom du nouveau nœud à la liste des nœuds de cluster autorisés.

    Pour obtenir plus d'informations, reportez-vous à la rubrique Ajout d’un nœud de cluster à la liste des nœuds autorisés du Guide d’administration système de Sun Cluster pour SE Solaris.

  3. Sur un nœud de cluster ou une autre machine de la même plate-forme de serveur, installez le système d'exploitation Solaris (si nécessaire).

    Suivez les procédures de la rubrique Installation du logiciel Solaris .

  4. Sur le système installé, installez le logiciel Sun Cluster (si nécessaire).

    Suivez les procédures de la rubrique Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer) .

  5. Définissez le démon conteneur d'agents communs pour qu'il se lance automatiquement au démarrage du système.


    # cacaoadm enable
    
  6. Sur le système installé, installez les patchs requis pour prendre en charge le logiciel Sun Cluster.

  7. Sur le système installé, mettez à jour le fichier /etc/inet/hosts avec toutes les adresses IP utilisées dans le cluster.

    Exécutez cette étape, que vous utilisiez ou non un service d'attribution de noms. Reportez-vous à la rubrique Adresses IP pour obtenir la liste des composants Sun Cluster dont les adresses IP sont à ajouter.

  8. Pour Solaris 10, mettez à jour le fichier /etc/inet/ipnodes avec toutes les adresses IP utilisées dans le cluster.

    Exécutez cette étape, que vous utilisiez ou non un service d'attribution de noms.

  9. Créez l'archive flash du système installé.


    # flarcreate -n name archive
    
    -n name

    Nom à donner à l'archive flash.

    archive

    Nom à donner à l'archive flash, avec le chemin complet. Par convention, le nom du fichier se termine par .flar.

    Suivez les procédures du manuel approprié :

  10. Vérifiez que l'archive Flash est exportée par NFS pour être lue par le serveur d'installation JumpStart.

    Reportez-vous au Solaris NFS Environment du System Administration Guide, Volume 3 (Solaris 8) ou au Managing Network File Systems (Overview), du System Administration Guide: Network Services (Solaris 9 ou Solaris 10) pour obtenir plus d'informations sur le partage automatique de fichiers.

    Reportez-vous également aux pages de manuel share(1M) et dfstab(4).

  11. Lancez l'utilitaire scinstall(1M) à partir du serveur d'installation JumpStart.

    Le chemin /export/suncluster/sc31 est utilisé ici comme exemple de répertoire d'installation créé. Dans le chemin d'accès au CD-ROM, remplacez arch par sparc ou x86 et ver par 8 (Solaris 8), 9 (Solaris 9) ou 10 (Solaris 10).


    # cd /export/suncluster/sc31/Solaris_arch/Product/sun_cluster/ \
    Solaris_ver/Tools/
    # ./scinstall
    
  12. Dans le menu principal, sélectionnez l'option de menu (Configurer un cluster à relancer à partir de ce serveur d'installation).

    Cette option permet de configurer les scripts de fin JumpStart. JumpStart utilise ces scripts de fin pour installer le logiciel Sun Cluster.


     *** Main Menu ***
     
        Please select from one of the following (*) options:
     
          * 1) Install a cluster or cluster node
          * 2) Configure a cluster to be JumpStarted from this install server
            3) Add support for new data services to this cluster node
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
     
          * ?) Help with menu options
          * q) Quit
     
        Option:  2
    
  13. Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.

    La commande scinstall stocke les informations de configuration et copie le fichier autoscinstall.class (fichier class par défaut) dans le répertoire jumpstart-dir/autoscinstall.d/3.1/. Ce fichier est similaire à celui de l'exemple ci-dessous.


    install_type    initial_install
    system_type     standalone
    partitioning    explicit
    filesys         rootdisk.s0 free /
    filesys         rootdisk.s1 750  swap
    filesys         rootdisk.s3 512  /globaldevices
    filesys         rootdisk.s7 20
    cluster         SUNWCuser        add
    package         SUNWman          add
  14. Modifiez le fichier autoscinstall.class pour que JumpStart installe l'archive Flash.

    1. Modifiez les entrées pour qu'elles correspondent aux choix de configuration effectués lors de l'installation du système d'exploitation Solaris sur la machine de l'archive Flash ou lors de l'exécution de l'utilitaire scinstall.

      Si vous affectez par exemple la tranche 4 au système de fichiers de périphériques globaux et indiquez à scinstall que le nom du système de fichiers est /gdevs, vous modifiez l'entrée /globaldevices du fichier autoscinstall.class de la manière suivante :


      filesys         rootdisk.s4 512  /gdevs
    2. Modifiez les entrées du fichier autoscinstall.class.

      Entrée à remplacer 

      Entrée à ajouter 

      install_type

      initial_install

      install_type

      flash_install

      system_type

      standalone

      archive_location

      retrieval_type location

      Reportez-vous au archive_location Keyword du Solaris 8 Advanced Installation Guide, Solaris 9 9/04 Installation Guide ou à la rubrique Solaris 10 Installation Guide: Custom JumpStart and Advanced Installations pour obtenir plus d'informations sur les valeurs correctes de retrieval_type et de location lorsqu'elles sont utilisées avec le mot-clé archive_location.

    3. Supprimez les entrées destinées à l'installation d'un package spécifique. Par exemple :


      cluster         SUNWCuser        add
      package         SUNWman          add
  15. Si vous n'avez pas encore installé les patchs sur le système concerné par l'archive Flash, définissez les répertoires de patchs Solaris.


    Remarque –

    si vous avez spécifié un répertoire de patchs à l'aide de l'utilitaire scinstall, les patchs figurant dans les répertoires de patchs Solaris ne sont pas installés.


    1. Créez les répertoires jumpstart-dir/autoscinstall.d/nodes/node/patches/ exportés par NFS pour être lus par le serveur d'installation JumpStart.

      Créez un répertoire pour chaque nœud du cluster, où nœud est le nom du nœud du cluster. Sinon, utilisez cette convention de dénomination pour créer des liens symboliques avec un répertoire de patchs partagé.


      # mkdir jumpstart-dir/autoscinstall.d/nodes/node/patches/
      
    2. Placez des copies de tous les patchs Solaris dans chacun de ces répertoires.

    3. Placez dans chacun de ces répertoires des copies des patchs liés au matériel devant être installés suite à l'installation du logiciel Solaris.

  16. Si vous utilisez une console administrative au niveau du cluster, ouvrez un écran de console pour chaque nœud du cluster.

    • Si le logiciel Cluster Control Panel (CCP) est installé et configuré sur la console administrative, servez-vous de l'utilitaire cconsole(1M) pour afficher les écrans de console individuels.

      Utilisez la commande suivante pour démarrer l'utilitaire cconsole :


      # /opt/SUNWcluster/bin/cconsole clustername &
      

      L'utilitaire cconsole ouvre également une fenêtre principale qui vous permet d'envoyer votre saisie à tous les écrans de console individuels en même temps.

    • Si vous n'utilisez pas l'utilitaire cconsole, connectez-vous à la console de chaque nœud individuellement.

  17. Arrêtez tous les nœuds.


    # shutdown -g0 -y -i0
    
  18. Initialisez chaque nœud pour lancer l'installation JumpStart.

    • Sur les systèmes SPARC, procédez comme suit :


      ok boot net - install
      

      Remarque –

      entourez le tiret (-) de la commande d'un espace de chaque côté.


    • Sur les systèmes x86, procédez comme suit :

      1. Lorsque l'écran d'informations du BIOS s'affiche, appuyez sur la touche Échap.

        L'écran de sélection du périphérique d'initialisation apparaît.

      2. Dans la liste appropriée, choisissez l'IBA connecté au réseau du serveur d'installation PXE JumpStart.

        Le chiffre le plus bas à droite des choix d'initialisation de l'IBA correspond au numéro de port Ethernet le plus bas. Le chiffre le plus élevé à droite des choix d'initialisation de l'IBA correspond au numéro de port Ethernet le plus élevé.

        Le nœud est réinitialisé et l'assistant de configuration de périphériques s'affiche.

      3. Dans l'écran d'initialisation de Solaris, choisissez Net.

      4. À l'invite suivante, choisissez JumpStart personnalisée et appuyez sur Entrée.


        Select the type of installation you want to perform:
        
                 1 Solaris Interactive
                 2 Custom JumpStart
        
        Enter the number of your choice followed by the <ENTER> key.
        
        If you enter anything else, or if you wait for 30 seconds,
        an interactive installation will be started.
      5. À l'invite, répondez aux questions et suivez les instructions affichées à l'écran.

    JumpStart installe le système d'exploitation Solaris et le logiciel Sun Cluster sur tous les nœuds. Une fois l'installation terminée avec succès, chaque nœud est entièrement installé en tant que nouveau nœud de cluster. Les informations sur l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log. N.

  19. Pour Solaris 10, vérifiez que les services multiutilisateur pour SMF sont en ligne sur chaque nœud.

    Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.


    # svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  20. Si vous installez un nouveau nœud sur un cluster existant, créez des points de montage sur le nouveau nœud pour tous les systèmes de fichiers de cluster existants.

    1. À partir d'un autre nœud actif du cluster, affichez les noms de tous les systèmes de fichiers de cluster.


      % mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. Sur le nœud que vous ajoutez au cluster, créez un point de montage pour chaque système de fichiers du cluster.


      % mkdir -p mountpoint
      

      Par exemple, si la commande mount renvoie le nom du système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le nœud ajouté au cluster.


      Remarque –

      les points de montage deviennent actifs lorsque vous réinitialisez le cluster à l'Étape 24 .


    3. Si VERITAS Volume Manager (VxVM) est installé sur des nœuds qui se trouvent déjà dans le cluster, affichez le numéro vxio sur chaque nœud installé avec VxVM.


      # grep vxio /etc/name_to_major
      vxio NNN
      
      • Assurez-vous que le même numéro vxio est utilisé pour chacun des nœuds installés avec VxVM.

      • Assurez-vous également que ce numéro est disponible pour chacun des nœuds installés sans VxVM.

      • Si le numéro vxio est déjà utilisé sur un nœud sur lequel VxVM n'est pas installé, enlevez-le de ce nœud. Modifiez l'entrée /etc/name_to_major pour utiliser un numéro différent.

  21. (Facultatif) Pour utiliser la reconfiguration dynamique sur les serveurs Sun Enterprise 10000, ajoutez l'entrée suivante au fichier /etc/system. Ajoutez-la à chaque nœud du cluster.


    set kernel_cage_enable=1

    Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système. Reportez-vous au Guide d’administration système de Sun Cluster pour SE Solaris pour connaître les procédures de reconfiguration dynamique dans une configuration Sun Cluster. Reportez-vous à la documentation de votre serveur pour de plus amples informations sur la reconfiguration dynamique.

  22. Pour réactiver le système de fichiers loopback (LOFS), supprimez l'entrée suivante du fichier /etc/system de chaque nœud du cluster.


    exclude:lofs

    La réactivation du LOFS prendra effet après le prochain redémarrage du système.


    Remarque –

    Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : si vous activez le LOFS et décidez ensuite d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local hautement disponible, vous devez effectuer l'une des opérations suivantes :

    • Replacez l'entrée exclude:lofs dans le fichier /etc/system sur chaque nœud du cluster et redémarrez chaque nœud. Cette modification désactivera le LOFS.

    • Désactivez le démon automountd.

    • Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.


    Pour plus d'informations sur les systèmes de fichiers loopback, reportez-vous au chapitre Types of File Systems du document System Administration Guide, Volume 1 (Solaris 8) ou au chapitre The Loopback File System du document System Administration Guide: Devices and File Systems (Solaris 9 ou Solaris 10).

  23. x86 : Paramétrez le fichier d'initialisation par défaut sur kadb.


    # eeprom boot-file=kadb
    

    La définition de cette valeur vous permet de réinitialiser le nœud si vous n'avez accès à aucune invite de connexion.

  24. Si une tâche effectuée demande une réinitialisation de cluster, suivez ces procédures.

    Les tâches suivantes demandent une réinitialisation :

    • Ajout d'un nouveau nœud à un cluster existant

    • Installation de patchs exigeant la réinitialisation d'un nœud ou d'un cluster

    • Modifications apportées à la configuration et qui demandent une réinitialisation pour prendre effet

    1. Arrêtez le cluster depuis un nœud.


      # scshutdown
      

      Remarque –

      ne réinitialisez pas le premier nœud installé tant que le cluster n'a pas été arrêté. tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier nœud installé, qui a établi le cluster, possède un vote de quorum. Dans un cluster établi encore en mode d'installation, s'il n'est pas fermé avant la réinitialisation du premier nœud installé, les autres nœuds ne peuvent pas obtenir de quorum. Alors tout le cluster se ferme.

      Les nœuds de cluster restent en mode d'installation jusqu'à ce que vous exécutiez la commande scsetup(1M). Vous exécutez cette commande lors de la procédure Configuration des périphériques de quorum .


    2. Réinitialisez tous les nœuds du cluster.

      • Sur les systèmes SPARC, procédez comme suit :


        ok boot
        
      • Sur les systèmes x86, procédez comme suit :


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
        Boot args:
        
        Type   b [file-name] [boot-flags] <ENTER>  to boot with options
        or     i <ENTER>                           to enter boot interpreter
        or     <ENTER>                             to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b
        

    L'utilitaire scinstall installe et configure tous les nœuds du cluster, puis redémarre le cluster. Le cluster est établi une fois tous ses nœuds correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.

Étapes suivantes

Si vous avez ajouté un nœud à un cluster à deux nœuds, reportez-vous à la rubrique Mise à jour des réservations SCSI après ajout d'un nœud.

Si vous souhaitez installer des services de données, consultez la procédure correspondant au service à installer et à la version de Solaris utilisée :

 

CD 2 de Sun Cluster 

(services de données Sun Java System) 

CD Sun Cluster Agents 

(autres services de données) 

Procédure 

Solaris 8 ou 9 

Solaris10 

Solaris 8 ou 9 

Solaris10 

Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer)

     

Installation des packages du logiciel de service de données (pkgadd)

 

   

Installation des packages du logiciel de service de données (scinstall)

   

Installation des packages du logiciel de service de données (Web Start installer)

   

X  

 

Sinon, reportez-vous à la procédure appropriée :

Erreurs fréquentes

Option scinstall désactivée : si l'option JumpStart de la commande scinstall n'est pas précédée d'un astérisque, elle est désactivée. Cette condition indique que le paramétrage de JumpStart n'est pas terminé ou qu'il comporte une erreur. Pour corriger cette condition, commencez par quitter l'utilitaire scinstall. Répétez l'Étape 1 à l'Étape 10 pour corriger l'installation JumpStart, puis relancez l'utilitaire scinstall.

messages d'erreur sur les nœuds inexistants : si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf, la commande scinstall installe un fichier ntp.conf par défaut. Ce fichier est expédié avec des références au nombre de nœuds maximum possible. Par conséquent, le démon xntpd(1M) peut émettre des messages d'erreur sur certaines de ces références pendant l'initialisation. Vous pouvez ignorer ces messages sans risque. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) pour obtenir des informations sur la suppression de ces messages dans des conditions de cluster normales par ailleurs.

Modification de l'adresse de réseau privé : vous ne pouvez pas modifier le masque et l'adresse de réseau privé après le traitement de scinstall. Si vous devez utiliser une adresse ou un masque de réseau privé différent et si le nœud est toujours en mode d'installation, suivez la procédure de la rubrique Désinstallation du logiciel Sun Cluster pour corriger les problèmes d'installation . Répétez ensuite cette procédure pour réinstaller et reconfigurer le nœud avec les informations correctes.

Utilisation du programme d'installation SunPlex pour la configuration du logiciel Sun Cluster


Remarque –

N'utilisez pas cette méthode de configuration pour :


Cette rubrique permet d'utiliser le programme d'installation SunPlex, module d'installation du gestionnaire SunPlex, pour établir un cluster. Vous pouvez également utiliser le programme d'installation SunPlex pour installer ou configurer un ou plusieurs des produits logiciels supplémentaires suivants :

Exigences d'installation

Le tableau suivant répertorie les exigences d'installation du programme d'installation SunPlex pour ces produits supplémentaires.

Tableau 2–3 Conditions d'utilisation du programme d'installation SunPlex pour l'installation du logiciel

Package logiciel 

Exigences d'installation 

Solstice DiskSuite ou Solaris Volume Manager 

Une partition utilisant /sds comme point de montage. La partition doit faire au moins 20 Mo.

service de données Sun Cluster HA pour NFS ; 

  • Au moins deux disques partagés de même taille et connectés au même ensemble de nœuds.

  • Le logiciel Solstice DiskSuite installé, ou le logiciel Solaris Volume Manager configuré par le programme d'installation SunPlex.

  • Un nom d'hôte logique à utiliser par Sun Cluster HA pour NFS. Le nom d'hôte logique doit disposer d'une adresse IP valide accessible par tous les nœuds du cluster. L'adresse IP doit être sur le réseau de tous les adaptateurs du groupe Multiacheminement sur réseau IP contenant l'adresse logique.

  • Une adresse IP de test doit exister pour chaque nœud du cluster. Le programme d'installation SunPlex utilise ces adresses IP de test pour créer des groupes de multi-acheminement sur réseau IP (Multiacheminement sur réseau IP) en vue d'une utilisation par Sun Cluster HA pour NFS.

Service de données évolutif Sun Cluster HA pour Apache 

  • Au moins deux disques partagés de même taille et connectés au même ensemble de nœuds.

  • Le logiciel Solstice DiskSuite installé, ou le logiciel Solaris Volume Manager configuré par le programme d'installation SunPlex.

  • Une adresse partagée à utiliser par Sun Cluster HA pour Apache. L'adresse partagée doit disposer d'une adresse IP valide accessible par tous les nœuds du cluster. L'adresse IP doit être sur le réseau de tous les adaptateurs du groupe Multiacheminement sur réseau IP contenant l'adresse logique.

  • Une adresse IP de test doit exister pour chaque nœud du cluster. Le programme d'installation SunPlex utilise ces adresses IP de test pour créer des groupes de multi-acheminement sur réseau IP (Multiacheminement sur réseau IP) en vue d'une utilisation par Sun Cluster HA pour Apache.

Adresses IP de test

Les adresses IP de test que vous proposez doivent remplir les conditions suivantes :

Le tableau suivant répertorie le nom de chaque méta-ensemble et le point de montage du système de fichiers de cluster créés par le programme d'installation SunPlex. Le nombre de méta-ensembles et de points de montage créés par le programme d'installation SunPlex dépend du nombre de disques partagés connectés au nœud. Par exemple, si un nœud est connecté à quatre disques partagés, le programme d'installation SunPlex crée les méta-ensembles mirror-1 et mirror-2. Cependant, le programme d'installation SunPlex ne crée pas le méta-ensemble mirror-3 car le nœud ne dispose pas de suffisamment de disques partagés pour créer un troisième méta-ensemble.

Tableau 2–4 Méta-ensembles créés par le programme d'installation SunPlex

Disques partagés 

Nom du méta-ensemble 

Point de montage du système de fichiers de cluster 

Objet 

Première paire 

mirror-1

/global/mirror-1

Service de données Sun Cluster HA pour NFS ou Sun Cluster HA pour Apache évolutif, ou les deux 

Deuxième paire 

mirror-2

/global/mirror-2

Inutilisé 

Troisième paire 

mirror-3

/global/mirror-3

Inutilisé 


Remarque –

Le programme d'installation SunPlex installe les packages Solstice DiskSuite, même si le cluster ne répond pas aux exigences minimales requises en matière de disques partagés. Cependant, sans le nombre de disques partagés requis, le programme d'installation SunPlex ne peut pas configurer les méta-ensembles, les métapériphériques ou les volumes. Par conséquent, il ne peut pas configurer les systèmes de fichiers de cluster requis pour la création des instances du service de données.


Limites de jeu de caractères

Pour une question de sécurité, le programme d'installation SunPlex ne reconnaît qu'un nombre limité de caractères. Les autres caractères sont éliminés sans avertissement lorsque les formulaires HTML sont soumis au serveur du programme d'installation SunPlex. Voici les caractères acceptés par le programme d'installation SunPlex :


()+,-./0-9:=@A-Z^_a-z{|}~

Ce filtre peut engendrer des problèmes dans deux domaines :

ProcedureConfiguration du logiciel Sun Cluster (programme d'installation SunPlex)

Cette procédure permet d'utiliser le programme d'installation SunPlex pour configurer le logiciel Sun Cluster et installer les patchs sur tous les nœuds du cluster, en une seule opération. Elle sert également à installer le logiciel et les patchs Solstice DiskSuite (Solaris 8) et à configurer les jeux de disques Solstice DiskSuite ou Solaris Volume Manager en miroir.


Remarque –

N'utilisez pas cette méthode de configuration pour :


Le processus d'installation peut prendre de 30 minutes à deux heures, voire davantage. La durée réelle dépend du nombre de nœuds du cluster, des services de données que vous avez choisi d'installer et du nombre de disques de la configuration de votre cluster.

Avant de commencer

Effectuez les tâches suivantes :

Étapes
  1. Préparez des chemins de système de fichiers vers une image du CD de chaque produit logiciel que vous prévoyez d'installer.

    Suivez ces instructions pour préparer les chemins d'accès aux systèmes de fichiers :

    • Placez chaque image du CD à un endroit accessible par chaque nœud.

    • Assurez-vous que les images du CD sont accessibles à tous les nœuds du cluster à partir du même chemin de système de fichiers. Ces chemins peuvent désigner un ou plusieurs des emplacements suivants :

      • lecteurs de CD exportés vers le réseau depuis des machines extérieures au cluster ;

      • systèmes de fichiers exportés sur des machines extérieures au cluster ;

      • images de CD copiées vers des systèmes de fichiers locaux sur chaque nœud du cluster. Le système de fichiers local doit utiliser le même nom sur chaque nœud.

  2. x86 : déterminez si vous utilisez le navigateur Netscape NavigatorTM ou Microsoft Internet Explorer sur votre console administrative.

    • Si vous utilisez Netscape Navigator, passez à l'Étape 3.

    • Si vous utilisez Internet Explorer, passez à l'Étape 4.

  3. x86 : Assurez-vous que le plug-in Java est installé et fonctionne correctement sur votre console administrative.

    1. Démarrez le navigateur Netscape sur la console administrative que vous utilisez pour vous connecter au cluster.

    2. Dans le menu Aide, choisissez About Plug-ins.

    3. Vérifiez que le plug-in Java figure bien dans la liste.

    4. Téléchargez le plug-in Java le plus récent à l'adresse http://java.sun.com/products/plugin.

    5. Installez-le sur votre console administrative.

    6. Créez un lien symbolique au plug-in.


      % cd ~/.netscape/plugins/
      % ln -s /usr/j2se/plugin/i386/ns4/javaplugin.so .
      
    7. Passez à l'Étape 5.

  4. x86 : Assurez-vous que Java 2 Platform, Standard Edition (J2SE) pour Windows est installé est fonctionne sur votre console administrative.

    1. Sur votre bureau Microsoft Windows, cliquez sur Démarrer, puis sur Paramètres, puis sur Panneau de configuration.

      La fenêtre Panneau de configuration apparaît.

    2. Vérifiez que le plug-in Java y figure.

      • Dans la négative, passez à l'Étape c.

      • Dans l'affirmative, double-cliquez sur le plug-in Java dans le panneau de configuration. Lorsque la fenêtre du panneau de configuration s'ouvre, cliquez sur l'onglet About.

        • Si une ancienne version s'affiche, passez à l'Étape c.

        • Si la version 1.4.1 ou supérieure s'affiche, passez à l'Étape 5.

    3. Téléchargez la version la plus récente de J2SE pour Windows à l'adresse http://java.sun.com/j2se/downloads.html.

    4. Installez le logiciel J2SE pour Windows sur votre console administrative.

    5. Redémarrez le système sur lequel tourne votre console administrative.

      Le panneau de configuration de J2SE pour Windows est activé.

  5. Si des patchs sont requis pour la prise en charge du logiciel Sun Cluster ou Solstice DiskSuite, déterminez comment les installer.

    • Pour installer manuellement tous les patchs avant d'utiliser le programme d'installation SunPlex, exécutez la commande patchadd.

    • Pour utiliser le programme d'installation SunPlex pour l'installation des patchs, copiez ces derniers dans un même répertoire.

      Vérifiez que le répertoire de patchs répond aux exigences suivantes :

      • Ce répertoire se trouve dans un système de fichiers disponible pour chaque nœud.

      • Ce répertoire ne doit contenir qu'une seule version de chaque patch. Si le répertoire de patchs contient plusieurs versions du même patch, le programme d'installation SunPlex ne peut pas déterminer l'ordre de dépendance des patchs.

      • Les patchs ne sont pas compressés.

  6. Lancez un navigateur à partir de la console administrative ou de toute autre machine extérieure au cluster.

  7. Désactivez le proxy web du navigateur.

    La fonctionnalité d'installation du programme d'installation SunPlex est incompatible avec les proxies Web.

  8. Assurez-vous que le cache disque et le cache mémoire sont activés.

    La taille de ces caches doit être supérieure à 0.

  9. Dans le navigateur, connectez-vous au port 3000 de l'un des nœuds du cluster.


    https://node:3000
    

    L'écran d'installation de Sun Cluster s'affiche dans la fenêtre du navigateur.


    Remarque –

    si le programme d'installation SunPlex affiche l'écran d'installation des services de données au lieu de l'écran d'installation du logiciel Sun Cluster , cela signifie que Sun Cluster est déjà installé et configuré sur ce nœud. Vérifiez que le nom du nœud dans l'URL est bien le nom du nœud de cluster à installer.


  10. Si le navigateur affiche une fenêtre de certification d'un nouveau site, suivez les instructions à l'écran pour accepter le certificat.

  11. Connectez-vous en tant que superutilisateur.

  12. Dans l'écran d'installation de Sun Cluster, vérifiez que le cluster satisfait les exigences d'utilisation du programme d'installation SunPlex répertoriées.

    Si toutes les exigences sont rencontrées, cliquez sur Suivant pour passer à l'écran suivant.

  13. Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.

  14. Cliquez sur Begin Installation pour lancer le processus d'installation.

    Pour utiliser le programme d'installation SunPlex, effectuez la procédure suivante :

    • ne fermez pas la fenêtre du navigateur et ne modifiez pas l'URL en cours d'installation.

    • Si le navigateur affiche une fenêtre de certification d'un nouveau site, suivez les instructions à l'écran pour accepter le certificat.

    • Si le navigateur demande des informations de connexion, tapez l'ID superutilisateur et le mot de passe correspondant au nœud auquel vous vous connectez.

    Le programme d'installation SunPlex installe et configure tous les nœuds du cluster, et réinitialise ce dernier. Le cluster est établi une fois que tous ses nœuds ont été correctement réinitialisés. Les informations relatives à l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log.N.

    Durant l'installation, l'écran affiche de brefs messages concernant l'état de l'installation du cluster. Une fois l'installation et la configuration terminées, le navigateur affiche l'interface de surveillance et d'administration du cluster.

    Les informations sur l'installation du programme d'installation SunPlex sont conservées dans le fichier /var/cluster/spm/messages. Les informations sur l'installation de Sun Cluster sont conservées dans le fichier /var/cluster/logs/install/scinstall.log. N.

  15. À partir d'un nœud, vérifiez que tous les nœuds ont rejoint le cluster.

    Exécutez la commande scstat(1M) pour afficher la liste des nœuds du cluster. Vous n'avez pas besoin d'être superutilisateur pour exécuter cette commande.


     % scstat -n
    

    Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


    -- Cluster Nodes --
                               Node name      Status
                               ---------      ------
      Cluster node:            phys-schost-1  Online
      Cluster node:            phys-schost-2  Online
  16. Vérifiez les affectations de quorum et modifiez-les si nécessaire.

    Si votre cluster comporte trois nœuds ou plus, la configuration d'un périphérique de quorum est facultative. L'attribution de votes de quorum aux périphériques de quorum par le programme d'installation SunPlex dépend de la disponibilité des disques partagés requis. Utilisez le gestionnaire SunPlex pour désigner des périphériques de quorum et réaffecter les votes au sein du cluster. Reportez-vous au Chapitre 5, Administration du quorum du Guide d’administration système de Sun Cluster pour SE Solaris pour plus d'informations.

  17. Pour réactiver le système de fichiers loopback (LOFS), supprimez l'entrée suivante du fichier /etc/system de chaque nœud du cluster.


    exclude:lofs

    La réactivation du LOFS prendra effet après le prochain redémarrage du système.


    Remarque –

    Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : si vous activez le LOFS et décidez ensuite d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local hautement disponible, vous devez effectuer l'une des opérations suivantes :

    • Replacez l'entrée exclude:lofs dans le fichier /etc/system sur chaque nœud du cluster et redémarrez chaque nœud. Cette modification désactivera le LOFS.

    • Désactivez le démon automountd.

    • Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.


    Pour plus d'informations sur les systèmes de fichiers loopback, reportez-vous au chapitre Types of File Systems du document System Administration Guide, Volume 1 (Solaris 8) ou au chapitre The Loopback File System du document System Administration Guide: Devices and File Systems (Solaris 9 ou Solaris 10).

Étapes suivantes

Si vous souhaitez installer des services de données, consultez la procédure correspondant au service à installer et à la version de Solaris utilisée :

 

CD 2 de Sun Cluster 

(services de données Sun Java System) 

CD Sun Cluster Agents 

(autres services de données) 

Procédure 

Solaris 8 ou 9 

Solaris10 

Solaris 8 ou 9 

Solaris10 

Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer)

     

Installation des packages du logiciel de service de données (pkgadd)

 

   

Installation des packages du logiciel de service de données (scinstall)

   

Installation des packages du logiciel de service de données (Web Start installer)

   

X  

 

Sinon, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .

Erreurs fréquentes

vous ne pouvez plus modifier l'adresse et le masque de réseau privé une fois le traitement de scinstall terminé. Si vous devez utiliser une adresse ou un masque de réseau privé différent et si le nœud est toujours en mode d'installation, suivez la procédure de la rubrique Désinstallation du logiciel Sun Cluster pour corriger les problèmes d'installation . Répétez ensuite cette procédure pour réinstaller et reconfigurer le nœud avec les informations correctes.

ProcedureProcédure de configuration du logiciel Sun Cluster sur d'autres nœuds du cluster (scinstall)

Effectuez cette procédure pour ajouter de nouveaux nœuds à un cluster existant. Pour ajouter un nœud à l'aide de JumpStart, effectuez plutôt les procédures de la rubrique Installation de Solaris et du logiciel Sun Cluster (JumpStart) .

Avant de commencer

Effectuez les tâches suivantes :

Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :

Étapes
  1. Si vous ajoutez ce nœud à un cluster d'un nœud, vérifiez que deux inteconnexions de cluster existent en affichant la configuration d'interconnexion.


    # scconf -p | grep cable
    # scconf -p | grep adapter
    

    Avant de pouvoir ajouter un nœud, vous devez avoir configuré au moins deux câbles ou deux adaptateurs.

    • Si des informations de configuration s'affichent pour deux câbles ou deux adaptateurs, passez à l'Étape 2.

    • Si les informations de configuration sont absentes ou partielles, configurez de nouvelles interconnexions de cluster.

      1. Sur le nœud de cluster existant, démarrez l'utilitaire scsetup(1M).


        # scsetup
        
      2. Choisissez l'élément de menu Interconnexions de clusters.

      3. Choisissez l'élément de menu Ajouter un câble de transport.

        Suivez les instructions pour spécifier le nœud du nœud à ajouter au cluster, le nom de l'adaptateur de transport et l'utilisation ou non d'une jonction de transport.

      4. Si nécessaire, répétez l'Étape c pour configurer une deuxième interconnexion de cluster.

        Une fois l'opération terminée, quittez l'utilitaire scsetup.

      5. Vérifiez que le cluster dispose de deux interconnexions configurées.


        # scconf -p | grep cable
        # scconf -p | grep adapter
        

        La sortie de la commande doit afficher des informations de configuration concernant au moins deux interconnexions de cluster.

  2. Si vous ajoutez le nœud à un cluster existant, vous devez l'ajouter à la liste des nœuds autorisés du cluster.

    1. Sur tout élément actif du cluster, démarrez l'utilitaire scsetup(1M).


      # scsetup
      

      Le menu principal apparaît.

    2. Choisissez l'élément de menu Nouveaux nœuds.

    3. Choisissez l'élément de menu Spécifier le nom d'une machine autorisée à s'auto-ajouter.

    4. Suivez les instructions pour ajouter le nom du nœud à la liste des machines reconnues.

      Une fois la tâche terminée sans erreur, l'utilitaire scsetup imprime le message Command completed successfully.

    5. Quittez l'utilitaire scsetup.

  3. Devenez superutilisateur du nœud de cluster à configurer.

  4. Lancez l'utilitaire scinstall.


    # /usr/cluster/bin/scinstall
    
  5. Dans le menu principal, sélectionnez l'option Installation d'un cluster ou d'un nœud de cluster.


      *** Main Menu ***
    
        Please select from one of the following (*) options:
    
          * 1) Install a cluster or cluster node
            2) Configure a cluster to be JumpStarted from this install server
            3) Add support for new data services to this cluster node
            4) Upgrade this cluster node
          * 5) Print release information for this cluster node
    
          * ?) Help with menu options
          * q) Quit
    
        Option:  1
    
  6. À partir du menu Installation, choisissez l'élément Ajouter cette machine en tant que nœud d'un cluster existant.

  7. Suivez les invites de menu pour entrer les réponses que vous avez saisies sur la la fiche de configuration.

    L'utilitaire scinstall configure le nœud et le réinitialise sur le cluster.

  8. Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.


    # eject cdrom
    
  9. Si nécessaire, installez les patchs requis pour prendre en charge le logiciel Sun Cluster.

  10. Répétez cette procédure sur tout autre nœud à ajouter au cluster jusqu'à ce que tous les nœuds supplémentaires soient entièrement configurés.

  11. Pour Solaris 10, vérifiez que les services multiutilisateur pour SMF sont en ligne sur chaque nœud.

    Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.


    # svcs multi-user-server
    STATE          STIME    FMRI
    online         17:52:55 svc:/milestone/multi-user-server:default
  12. Empêchez tout autre nœud de rejoindre le cluster à partir d'un élément actif du cluster.


    # /usr/cluster/bin/scconf -a -T node=.
    
    -a

    Spécifie la forme d'ajout de la commande

    -T

    Spécifie les options d'authentification

    node=.

    Ajoute un point (.) au nom du nœud devant figurer dans la liste d'authentification, pour empêcher tout autre nœud de s'ajouter au cluster.

    Vous pouvez également utiliser l'utilitaire scsetup(1M). Reportez-vous à la rubrique Ajout d’un nœud de cluster à la liste des nœuds autorisés du Guide d’administration système de Sun Cluster pour SE Solaris pour connaître les procédures.

  13. À partir d'un nœud, vérifiez que tous les nœuds ont rejoint le cluster.

    Exécutez la commande scstat(1M) pour afficher la liste des nœuds du cluster. Vous n'avez pas besoin d'être superutilisateur pour exécuter cette commande.


     % scstat -n
    

    Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


    -- Cluster Nodes --
                               Node name      Status
                               ---------      ------
      Cluster node:            phys-schost-1  Online
      Cluster node:            phys-schost-2  Online
  14. Pour réactiver le système de fichiers loopback (LOFS), supprimez l'entrée suivante du fichier /etc/system de chaque nœud du cluster.


    exclude:lofs

    La réactivation du LOFS prendra effet après le prochain redémarrage du système.


    Remarque –

    Vous ne pouvez pas activer le LOFS si vous utilisez Sun Cluster HA pour NFS sur un système de fichiers local à haute disponibilité et que automountd est en cours d'exécution. Le LOFS peut poser des problèmes de basculement pour Sun Cluster HA pour NFS : si vous activez le LOFS et décidez ensuite d'ajouter Sun Cluster HA pour NFS sur un système de fichiers local hautement disponible, vous devez effectuer l'une des opérations suivantes :

    • Replacez l'entrée exclude:lofs dans le fichier /etc/system sur chaque nœud du cluster et redémarrez chaque nœud. Cette modification désactivera le LOFS.

    • Désactivez le démon automountd.

    • Dans la mappe automounter, excluez tous les fichiers appartenant au système de fichiers local hautement disponible exporté par Sun Cluster HA pour NFS. : ainsi, vous pourrez activer le LOFS en même temps que le démon automountd.


    Pour plus d'informations sur les systèmes de fichiers loopback, reportez-vous au chapitre Types of File Systems du document System Administration Guide, Volume 1 (Solaris 8) ou au chapitre The Loopback File System du document System Administration Guide: Devices and File Systems (Solaris 9 ou Solaris 10).


Exemple 2–2 Configuration du logiciel Sun Cluster sur un nœud supplémentaire

L'exemple suivant montre le nœud phys-schost-3 ajouté au cluster schost. Le nœud de cautionnement est phys-schost-1.


*** Adding a Node to an Existing Cluster ***
Fri Feb  4 10:17:53 PST 2005


scinstall -ik -C schost -N phys-schost-1 -A trtype=dlpi,name=qfe2 -A trtype=dlpi,name=qfe3 
-m endpoint=:qfe2,endpoint=switch1 -m endpoint=:qfe3,endpoint=switch2


Checking device to use for global devices file system ... done

Adding node "phys-schost-3" to the cluster configuration ... done
Adding adapter "qfe2" to the cluster configuration ... done
Adding adapter "qfe3" to the cluster configuration ... done
Adding cable to the cluster configuration ... done
Adding cable to the cluster configuration ... done

Copying the config from "phys-schost-1" ... done

Copying the postconfig file from "phys-schost-1" if it exists ... done
Copying the Common Agent Container keys from "phys-schost-1" ... done


Setting the node ID for "phys-schost-3" ... done (id=1)

Setting the major number for the "did" driver ... 
Obtaining the major number for the "did" driver from "phys-schost-1" ... done
"did" driver major number set to 300

Checking for global devices global file system ... done
Updating vfstab ... done

Verifying that NTP is configured ... done
Initializing NTP configuration ... done

Updating nsswitch.conf ... 
done

Adding clusternode entries to /etc/inet/hosts ... done


Configuring IP Multipathing groups in "/etc/hostname.<adapter>" files

Updating "/etc/hostname.hme0".

Verifying that power management is NOT configured ... done

Ensure that the EEPROM parameter "local-mac-address?" is set to "true" ... done
The "local-mac-address?" parameter setting has been changed to "true".

Ensure network routing is disabled ... done

Updating file ("ntp.conf.cluster") on node phys-schost-1 ... done
Updating file ("hosts") on node phys-schost-1 ... done

Rebooting ... 

Étapes suivantes

Déterminez l'étape suivante :

Si vous avez ajouté un élément à un cluster de deux nœuds, reportez-vous à la rubrique Mise à jour des réservations SCSI après ajout d'un nœud.

Si vous souhaitez installer des services de données, consultez la procédure correspondant au service à installer et à la version de Solaris utilisée :

 

CD 2 de Sun Cluster 

(services de données Sun Java System) 

CD Sun Cluster Agents 

(autres services de données) 

Procédure 

Solaris 8 ou 9 

Solaris10 

Solaris 8 ou 9 

Solaris10 

Installation de la structure Sun Cluster et des packages du logiciel de services de données (Java ES installer)

     

Installation des packages du logiciel de service de données (pkgadd)

 

   

Installation des packages du logiciel de service de données (scinstall)

   

Installation des packages du logiciel de service de données (Web Start installer)

   

X  

 

Sinon, reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .

Erreurs fréquentes

Lorsque vous augmentez ou réduisez le nombre de liaisons entre des nœuds et un périphérique de quorum, le cluster ne recalcule pas automatiquement le nombre de votes de quorum. Pour rétablir le vote correct, exécutez l'utilitaire scsetup pour supprimer chaque périphérique de quorum et l'ajouter à nouveau à la configuration. Chargez-vous d'un périphérique de quorum à la fois.

Si le cluster ne comporte qu'un seul périphérique de quorum, configurez-en un deuxième avant de supprimer puis d'ajouter à nouveau le périphérique initial. Supprimez, ensuite, le deuxième périphérique de quorum pour rétablir la configuration initiale du cluster.

ProcedureMise à jour des réservations SCSI après ajout d'un nœud

Si vous avez ajouté un nœud à un cluster de deux nœuds utilisant un ou plusieurs disques SCSI partagés comme périphériques de quorum, vous devez mettre à jour la réservation de groupe persistante. Pour ce faire, supprimez les périphériques de quorum dotés des réservations SCSI-2. Si vous les ajoutez à nouveau, les périphériques de quorum récemment configurés seront dotés des réservations SCSI-3.

Avant de commencer

Assurez-vous de l'installation du logiciel Sun Cluster sur le nœud ajouté.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Affichez la configuration actuelle de quorum.

    L'exemple suivant montre l'état du périphérique de quorum d3.


    # scstat -q
    

    Notez le nom de chaque périphérique de quorum répertorié.

  3. Supprimez le périphérique initial de quorum.

    Effectuez cette étape pour chaque périphérique de quorum configuré.


    # scconf -r -q globaldev=devicename
    
    -r

    Supprime.

    -q globaldev=devicename

    Indique le nom du périphérique de quorum.

  4. Assurez-vous de la suppression de tous les périphériques initiaux de quorum.


    # scstat -q
    
  5. (Facultatif) Ajoute un périphérique de quorum SCSI.

    Vous pouvez configurer le périphérique initialement défini comme étant de quorum ou choisir un autre périphérique partagé.

    1. (Facultatif) Si vous optez pour la dernière solution, affichez tous les périphériques contrôlés par le système.

      Dans le cas contraire, passez à l'Étape c.


      # scdidadm -L
      

      Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      …
    2. À partir du résultat, choisissez un périphérique partagé.

    3. Configurez-le comme périphérique de quorum.


      # scconf -a -q globaldev=devicename
      
      -a

      Ajoute.

    4. Répétez l'étape pour chaque périphérique de quorum à configurer.

  6. Si vous avez procédé à l'ajout, vérifiez la nouvelle configuration de quorum.


    # scstat -q
    

    Chaque nouveau périphérique de quorum doit être Online et avoir un vote affecté.


Exemple 2–3 Mise à jour des réservations SCSI après ajout d'un nœud

L'exemple suivant identifie le périphérique initial de quorum d2, montre sa suppression, répertorie les périphériques partagés disponibles et présente la configuration de d3 comme nouveau périphérique de quorum.


(List quorum devices)
# scstat -q
…
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d2s2  1        1       Online

(Remove the original quorum device)
# scconf -r -q globaldev=d2
 
(Verify the removal of the original quorum device)
# scstat -q
…
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
 
(List available devices)
# scdidadm -L
…
3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
…
 
(Add a quorum device)
# scconf -a -q globaldev=d3
 
(Verify the addition of the new quorum device)
# scstat -q
…
-- Quorum Votes by Device --

                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d3s2 2        2       Online

Étapes suivantes

ProcedureInstallation des packages du logiciel de service de données (pkgadd)

Cette procédure permet d'installer les services de données Solaris 10 du CD 2 de Sun Cluster. Le CD 2 de Sun Cluster contient les services de données pour les applications Sun Java System. Pour installer les packages, le programme pkgadd(1M) est utilisé. Effectuez cette procédure sur chaque nœud de cluster où exécuter un service de données déterminé.


Remarque –

ne l'utilisez pas pour les types suivants de packages de services de données :


Étapes
  1. Devenez superutilisateur sur le nœud de cluster.

  2. Insérez le CD 2 de Sun Cluster dans le lecteur.

    Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.

  3. Passez sur le répertoire Solaris_arch/Product/sun_cluster_agents/Solaris_10/Packages/ (arch représente sparc ou x86).


    # cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster_agents/ \
    Solaris_10/Packages/
    
  4. Installez les packages de services de données sur la zone globale.


    # pkgadd -G -d . [packages]
    -G

    Ajoute les packages uniquement dans la zone en cours (vous ne devez ajouter les packages Sun Cluster que dans la zone globale). Elle ne permet pas aux packages de se propager dans une éventuelle zone non globale.

    -d

    Spécifie l'emplacement d'installation des packages.

    packages

    (Facultatif) Spécifie le nom d'un ou de plusieurs packages à installer. En l'absence de nom de package, le programme pkgadd affiche une liste de sélection de tous les packages disponibles pour l'installation.

  5. Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.


    # eject cdrom
    
  6. Installez tous les patchs des services de données installés.

    Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.

    Sauf indication contraire dans les instructions fournies avec un patch particulier, il n'est pas nécessaire de réinitialiser le système après l'installation de patchs des services de données de Sun Cluster. Si une instruction de patch requiert une réinitialisation, suivez les étapes suivantes :

    1. Depuis un nœud, arrêtez le cluster à l'aide de la commande scshutdown(1M).

    2. Réinitialisez tous les nœuds du cluster.


    Remarque –

    tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier nœud installé, qui a établi le cluster, possède un vote de quorum. Dans le cadre d'un cluster à nœuds multiples établi et toujours en mode d'installation, si le cluster n'est pas fermé avant que le premier nœud installé ne soit réinitialisé, les autres nœuds du cluster ne peuvent pas obtenir le quorum. Alors tout le cluster se ferme.

    Si vous avez choisi une configuration de quorum automatique lors de l'installation de Sun Cluster ou utilisé le programme d'installation SunPlex pour installer le logiciel Sun Cluster, l'utilitaire d'installation affecte automatiquement des votes de quorum et supprime le cluster du mode installation lors de la réinitialisation. Dans le cas contraire, les nœuds de cluster restent en mode installation jusqu'à l'exécution de la commande scsetup(1M) de la procédure Configuration des périphériques de quorum .


Étapes suivantes

ProcedureInstallation des packages du logiciel de service de données (scinstall)

Cette procédure permet d'installer les services de données du CD Sun Cluster Agents (version Sun Cluster 3.1 8/05). Elle s'appuie sur l'utilitaire scinstall interactif pour installer les packages. Effectuez cette procédure sur chaque nœud de cluster où exécuter un service de données déterminé.


Remarque –

ne l'utilisez pas pour les types suivants de packages de services de données :


Vous n'avez pas besoin d'effectuer cette procédure si vous avez utilisé le programme d'installation SunPlex pour installer Sun Cluster HA pour NFS et/ou Sun Cluster HA pour Apache et si vous n'envisagez pas d'installer d'autres services de données. Dans ce cas, reportez-vous à la rubrique Configuration des périphériques de quorum .

Pour installer les packages de services de données Sun Cluster 3.1 10/03 ou version antérieure, vous pouvez également utiliser le programme Web Start installer. Reportez-vous à la rubrique Installation des packages du logiciel de service de données (Web Start installer) .

Pour utiliser l'utilitaire interactif scinstall dans cette procédure, suivez ces instructions :

Étapes
  1. Devenez superutilisateur sur le nœud de cluster.

  2. Insérez le CD Sun Cluster Agents dans le lecteur de CD du nœud.

    Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.

  3. Déplacez-vous sur le répertoire où est monté le CD.


    # cd /cdrom/cdrom0/
    
  4. Lancez l'utilitaire scinstall(1M).


    # scinstall
    
  5. À partir du menu principal, choisissez l'élément Ajouter la prise en charge de nouveaux services de données à ce nœud de cluster.

  6. Suivez les invites pour sélectionner les services de données à installer.

    Vous devez installer le même ensemble de packages de services de données sur chaque nœud. Cette condition s'applique même s'il n'est pas prévu qu'un nœud héberge des ressources pour un service de données installé.

  7. Après l'installation des services de données, quittez l'utilitaire scinstall.

  8. Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.


    # eject cdrom
    
  9. Installez les patchs des services de données de Sun Cluster.

    Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.

    Sauf indication contraire dans les instructions fournies avec un patch particulier, il n'est pas nécessaire de réinitialiser le système après l'installation de patchs des services de données de Sun Cluster. Si une instruction de patch requiert une réinitialisation, suivez les étapes suivantes :

    1. Depuis un nœud, arrêtez le cluster à l'aide de la commande scshutdown(1M).

    2. Réinitialisez tous les nœuds du cluster.


    Remarque –

    tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier nœud installé, qui a établi le cluster, possède un vote de quorum. Dans le cadre d'un cluster à nœuds multiples établi et toujours en mode d'installation, si le cluster n'est pas fermé avant que le premier nœud installé ne soit réinitialisé, les autres nœuds du cluster ne peuvent pas obtenir le quorum. Cette impossibilité d'obtenir le quorum provoque la fermeture totale du cluster.

    Si vous avez choisi une configuration de quorum automatique lors de l'installation de Sun Cluster ou utilisé le programme d'installation SunPlex pour installer le logiciel Sun Cluster, l'utilitaire d'installation affecte automatiquement des votes de quorum et supprime le cluster du mode installation lors de la réinitialisation. Dans le cas contraire, les nœuds de cluster restent en mode installation jusqu'à l'exécution de la commande scsetup(1M) de la procédure Configuration des périphériques de quorum .


Étapes suivantes

ProcedureInstallation des packages du logiciel de service de données (Web Start installer)

Cette procédure permet d'installer les services de données Solaris 8/Solaris 9 du CD Sun Cluster Agents. Elle s'appuie sur le programme Web Start installer du CD-ROM pour installer les packages. Effectuez cette procédure sur chaque nœud de cluster où exécuter un service de données déterminé.


Remarque –

ne l'utilisez pas pour les types suivants de packages de services de données :

Vous n'avez pas besoin d'effectuer cette procédure si vous avez utilisé le programme d'installation SunPlex pour installer Sun Cluster HA pour NFS et/ou Sun Cluster HA pour Apache et si vous n'envisagez pas d'installer d'autres services de données. Dans ce cas, reportez-vous à la rubrique Configuration des périphériques de quorum .


Pour installer les services de données de Sun Cluster 3.1 10/03 ou version antérieure, vous pouvez également suivre la procédure de la rubrique Installation des packages du logiciel de service de données (scinstall).

Vous pouvez exécuter le programme installer à l'aide d'une interface de ligne de commande (ILC) ou d'une interface utilisateur graphique (IUG). Le contenu et l'ordre des instructions des deux méthodes sont identiques. Pour plus d'informations sur le programme installer, reportez-vous à la page de manuel installer(1M).

Avant de commencer

Si vous envisagez d'utiliser le programme installer avec une IUG, assurez-vous que la variable d'environnement DISPLAY est définie.

Étapes
  1. Devenez superutilisateur sur le nœud de cluster.

  2. Insérez le CD Sun Cluster Agents dans le lecteur.

    Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.

  3. Placez-vous dans le répertoire du programme installer du CD-ROM.


    # cd /cdrom/cdrom0/Solaris_arch/
    

    Dans le répertoire Solaris_arch/, arch représente sparc ou x86.

  4. Lancez le programme Web Start installer.


    # ./installer
    
  5. À l'invite, sélectionnez le type d'installation.

    Consultez les notes de version de Sun Cluster pour obtenir la liste des langues disponibles pour chacun des services de données.

    • Pour installer tous les services de données du CD-ROM, choisissez le mode typique.

    • Pour n'installer qu'un sous-réseau des services de données sur le CD, sélectionnez Personnalisée.

  6. À l'invite, sélectionnez la version localisée à installer.

    • Pour installer la version localisée C uniquement, sélectionnez Typique.

    • Pour en installer d'autres, sélectionnez Personnalisée.

  7. Suivez les instructions à l'écran pour installer les packages du service de données sur le nœud.

    Une fois l'installation terminée, le programme installer fournit un résumé de l'installation permettant de consulter les journaux créés par le programme pendant l'installation. Ces journaux sont situés dans le répertoire /var/sadm/install/logs/.

  8. Quittez le programme installer.

  9. Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.


    # eject cdrom
    
  10. Installez les patchs des services de données de Sun Cluster.

    Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.

    Sauf indication contraire dans les instructions fournies avec un patch particulier, il n'est pas nécessaire de réinitialiser le système après l'installation de patchs des services de données de Sun Cluster. Si une instruction de patch requiert une réinitialisation, suivez les étapes suivantes :

    1. Depuis un nœud, arrêtez le cluster à l'aide de la commande scshutdown(1M).

    2. Réinitialisez tous les nœuds du cluster.


    Remarque –

    tant que le mode d'installation du cluster n'a pas été désactivé, seul le premier nœud installé, qui a établi le cluster, possède un vote de quorum. Dans le cadre d'un cluster à nœuds multiples établi et toujours en mode d'installation, si le cluster n'est pas fermé avant que le premier nœud installé ne soit réinitialisé, les autres nœuds du cluster ne peuvent pas obtenir le quorum. Alors tout le cluster se ferme.

    Si vous avez choisi une configuration de quorum automatique lors de l'installation de Sun Cluster ou utilisé le programme d'installation SunPlex pour installer le logiciel Sun Cluster, l'utilitaire d'installation affecte automatiquement des votes de quorum et supprime le cluster du mode installation lors de la réinitialisation. Dans le cas contraire, les nœuds de cluster restent en mode installation jusqu'à l'exécution de la commande scsetup(1M) de la procédure Configuration des périphériques de quorum .


Étapes suivantes

ProcedureConfiguration des périphériques de quorum


Remarque –

il est inutile de configurer les périphériques de quorum dans les circonstances suivantes :

Passez plutôt à la rubrique Vérification de la configuration de quorum et du mode d'installation .


Suivez cette procédure une seule fois, après la formation complète du cluster. Elle permet d'assigner des votes de quorum, puis de mettre le cluster hors mode d'installation.

Avant de commencer

Si vous envisagez de définir un périphérique NAS (Network Attached Storage) Network Appliance comme étant de quorum, procédez de la manière suivante :

Étapes
  1. Si vous souhaitez utiliser un disque SCSI partagé en tant que périphérique de quorum, vérifiez la connexion aux nœuds de cluster et choisissez le périphérique à configurer.

    1. Depuis un nœud de cluster, affichez la liste de tous les périphériques contrôlés par le système.

      Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.


      % scdidadm -L
      

      Le résultat affiché par la commande ressemble à celui présenté ci-dessous.


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      …
    2. Vérifiez que le résultat contient toutes les connexions entre les nœuds de cluster et les périphériques de stockage.

    3. Déterminez le nom de l'ID de périphérique (IDP) global de chaque disque partagé que vous allez configurer en tant que périphérique de quorum.


      Remarque –

      tous les disques partagés sélectionnés doivent être qualifiés pour être utilisés en tant que périphériques de quorum. Reportez-vous à la rubrique Périphériques de quorum pour obtenir plus d'informations sur le choix des périphériques de quorum.


      Utilisez le résultat scdidadm de l'Étape a pour identifier le périphérique (nom de chaque disque partagé à configurer en tant que périphérique de quorum). Par exemple, le résultat de l'Étape a indique que le périphérique global d2 est partagé par phys-schost-1 et phys-schost-2.

  2. Devenez superutilisateur sur un nœud du cluster.

  3. Lancez l'utilitaire scsetup(1M).


    # scsetup
    

    L'écran Configuration initiale du cluster apparaît.


    Remarque –

    si le logiciel affiche le menu principal à la place de cet écran, cela signifie que la configuration initiale du cluster a déjà été effectuée avec succès. Passez à l'Étape 8.


  4. Répondez à l'invite Voulez-vous ajouter des disques de quorum ?.

    • Si votre cluster comporte deux nœuds, vous devez configurer au moins un périphérique de quorum partagé. Entrez Yes pour configurer un ou plusieurs périphériques de quorum.

    • Si votre cluster comporte trois nœuds ou plus, la configuration d'un périphérique de quorum est optionnelle.

      • Entrez No pour ne pas configurer d'autres périphériques de quorum. Passez à l'Étape 7.

      • Entrez Yes pour configurer d'autres périphériques de quorum. Passez à l'Étape 5.

  5. Indiquez le type du périphérique à définir comme étant de quorum.

    • Choisissez scsi pour configurer un disque SCSI partagé.

    • Choisissez netapp_nas pour configurer un périphérique NAS Network Appliance.

  6. Indiquez le nom du périphérique à définir comme étant de quorum.

    Pour un périphérique NAS Network Appliance, indiquez également les informations suivantes :

    • Nom du périphérique NAS

    • LUN du périphérique NAS

  7. À l'invite Is it okay to reset "installmode"?, entrez Yes.

    Une fois que l'utilitaire scsetup a défini les configurations de quorum et que le vote est pris en compte par le cluster, le message L'initialisation du cluster est terminée. s'affiche. L'utilitaire vous renvoie au Menu principal.

  8. Quittez l'utilitaire scsetup.

Étapes suivantes

Vérifiez la configuration du quorum et la désactivation du mode d'installation. Reportez-vous à la rubrique Vérification de la configuration de quorum et du mode d'installation .

Erreurs fréquentes

Traitement scsetup interrompu : si l'installation de quorum est interrompue ou a échoué, réexécutez scsetup.

Changement du nombre de votes de quorum : si vous augmentez/diminuez ultérieurement le nombre de raccordements de nœud à un périphérique de quorum, le nombre de votes de quorum n'est pas recalculé automatiquement. Vous pouvez redéfinir le nombre de votes de quorum approprié en supprimant chacun des périphériques de quorum, puis en les ajoutant de nouveau un par un. Lorsqu'il s'agit d'un cluster à deux nœuds, vous devez temporairement ajouter un nouveau périphérique de quorum avant de supprimer et de rajouter le périphérique d'origine. Supprimez ensuite le périphérique temporaire. Reportez-vous à la procédure de modification d'une liste de nœuds de périphérique de quorum du Chapitre 5, Administration du quorum du Guide d’administration système de Sun Cluster pour SE Solaris.

ProcedureVérification de la configuration de quorum et du mode d'installation

Cette procédure permet de vérifier que la configuration de quorum a réussi et que le mode d'installation du cluster est désactivé.

Étapes
  1. À partir d'un nœud quelconque, vérifiez la configuration de quorum des périphériques et des nœuds.


    % scstat -q
    
  2. Depuis tout nœud, vérifiez que le mode d'installation du cluster est désactivé.

    Vous n'avez pas besoin d'être un superutilisateur pour exécuter cette commande.


    % scconf -p | grep "install mode"
    Cluster install mode:                disabled

    L'installation du cluster est terminée.

Étapes suivantes

Reportez-vous à la rubrique Configuration du cluster pour installer le logiciel de gestion des volumes et effectuer d'autres tâches de configuration sur le cluster ou sur un nouveau nœud.


Remarque –

si vous avez ajouté un nœud à un cluster qui utilise VxVM, vous devez effectuer la procédure de la section SPARC : Installation du logiciel VERITAS Volume Manager afin :


Configuration du cluster

Cette rubrique permet de configurer les logiciels installés sur le cluster ou sur un nouveau nœud. Avant de commencer ces tâches, vérifiez que vous avez effectué les tâches suivantes :

Le tableau suivant répertorie les tâches à effectuer pour configurer votre cluster. Effectuez les procédures dans l'ordre indiqué.


Remarque –

si vous avez ajouté un nœud à un cluster qui utilise VxVM, vous devez effectuer la procédure de la section SPARC : Installation du logiciel VERITAS Volume Manager afin :


Tableau 2–5 Plan des tâches : Configuration du cluster

Tâche 

Instructions 

1. Installez et configurez le logiciel de gestion des volumes : 

  • Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager

Chapitre 3, Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager

Documentation Solstice DiskSuite ou Solaris Volume Manager 

  • SPARC : Installation et configuration du logiciel VERITAS Volume Manager.

Chapitre 4, SPARC : Installation et configuration de VERITAS Volume Manager

Documentation VERITAS Volume Manager 

2. Créez et montez les systèmes de fichiers de cluster. 

Création de systèmes de fichiers de cluster

3. (Installations Solaris 8 ou programme d'installation SunPlex) Créez les groupes multi-acheminement sur réseau IP pour chaque adaptateur de réseau public non configuré dans un groupe Multiacheminement sur réseau IP.

Configuration des groupes Multiacheminement sur réseau IP

4. (Facultatif) Modifiez le nom d'hôte privé d'un nœud.

Modification des noms d'hôtes privés

5. Créez ou modifiez le fichier de configuration NTP. 

Configuration du protocole NTP (Network Time Protocol)

6. (Facultatif) SPARC : installez le module Sun Cluster pour le logiciel Sun Management Center

SPARC : installation du module Sun Cluster pour Sun Management Center

Documentation Sun Management Center 

7. Installez les applications tierces, puis configurez les applications, les services de données et les groupes de ressources. 

Sun Cluster Data Services Planning and Administration Guide for Solaris OS

Documentation des applications de fournisseurs tiers 

ProcedureCréation de systèmes de fichiers de cluster

Suivez cette procédure pour chaque système de fichiers de cluster à créer. Contrairement à un système de fichiers local, un système de fichiers de cluster est accessible à partir de n'importe quel nœud du cluster. Si vous avez utilisé le programme d'installation SunPlex pour installer les services de données, il se peut que le programme d'installation SunPlex ait déjà créé un ou plusieurs systèmes de fichiers de cluster.


Caution – Caution –

toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'indiquer le nom correct du périphérique de disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.


Avant de commencer

Effectuez les tâches suivantes :

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.


    Astuce –

    pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.


  2. Créez un système de fichiers.

    • Pour un système de fichiers UFS, utilisez la commande newfs(1M).


      # newfs raw-disk-device
      

      Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.

      Gestionnaire de volumes 

      Exemple de nom de périphériques de disque 

      Description 

      Solstice DiskSuite ou Solaris Volume Manager 

      /dev/md/nfs/rdsk/d1

      Périphérique de disque brut d1 dans l'ensemble de disques nfs

      SPARC : VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      Périphérique de disque brut vol01 dans le groupe de disques oradg

      Aucun 

      /dev/global/rdsk/d1s3

      Périphérique de disque brut d1s3

    • Pour un système de fichiers Sun StorEdge QFS, suivez les procédures de définition de configuration du Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.

    • SPARC : pour un système de fichiers Système de fichiers VERITAS (VxFS), suivez les instructions des procédures fournies dans la documentation de VxFS.

  3. Sur chaque nœud, créez un répertoire de montage pour le système de fichiers de cluster.

    Vous devez créer un point de montage sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.


    Astuce –

    Afin de vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.



    # mkdir -p /global/device-group/mountpoint/
    
    groupe_unité

    Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique.

    point_montage

    Nom du répertoire sur lequel le système de fichiers du cluster doit être monté.

  4. Sur chaque nœud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.

    Reportez-vous à la page de manuel vfstab(4) pour obtenir plus d'informations.

    1. Dans chacune des entrées, indiquez les options de montage requises pour le type de système de fichiers utilisé.


      Remarque –

      n'utilisez pas l'option de montage logging pour les trans-métapériphériques Solstice DiskSuite ou les volumes transactionnels Solaris Volume Manager. Les trans-métapériphériques et volumes transactionnels fournissent leur propre consignation.

      En outre, Solaris Volume Manager Journalisation de volumes de transaction (anciennement Solstice DiskSuite Journalisation de trans-métapériphériques) sera supprimée du système d'exploitation Solaris dans une version à venir. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.


    2. Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.

    3. Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.

    4. Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.

    5. Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.

      Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/ et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs/ qu'une fois que phys-schost-1 a démarré et monté /global/oracle/.

  5. Sur un nœud du cluster, exécutez l'utilitaire sccheck(1M).

    L'utilitaire sccheck vérifie que le point de montage existe. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster.


    # sccheck
    

    Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.

  6. Montez le système de fichiers de cluster.


    # mount /global/device-group/mountpoint/
    
    • Pour UFS et QFS, montez le système de fichiers de cluster à partir de n'importe quel nœud.

    • SPARC : pour VxFS, montez le système de fichiers de cluster à partir du maître actuel de device-group pour avoir l'assurance que ce système se monte correctement. En outre, démontez un système de fichiers VxFS du maître actuel du groupe-périphériques afin de garantir un démontage correct du système de fichiers.


      Remarque –

      pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du nœud principal sur lequel le système de fichiers de cluster VxFS est monté.


  7. Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.

    Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.


Exemple 2–4 Création d'un système de fichiers de cluster

L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.


# newfs /dev/md/oracle/rdsk/d1
…
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

Étapes suivantes

Si vous avez installé le logiciel Sun Cluster sous Solaris 8 ou utilisé le programme d'installation SunPlex pour installer le cluster, reportez-vous à la rubrique Configuration des groupes Multiacheminement sur réseau IP .

Si vous souhaitez changer un nom d'hôte privé, reportez-vous à la rubrique Modification des noms d'hôtes privés .

Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) .

SPARC : si vous souhaitez surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .

Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Suivez les procédures du document Sun Cluster Data Services Planning and Administration Guide for Solaris OS et de la documentation fournie avec votre logiciel d'application.

ProcedureConfiguration des groupes Multiacheminement sur réseau IP

Effectuez cette tâche sur chaque nœud du cluster. Si vous avez utilisé le programme d'installation SunPlex pour installer Sun Cluster HA pour Apache ou Sun Cluster HA pour NFS, le programme d'installation SunPlex a configuré les groupes Multiacheminement sur réseau IP pour les adaptateurs de réseau public utilisés par les services de données. Vous devez en configurer pour les autres adaptateurs de réseau public.


Remarque –

tous les adaptateurs de réseau public doivent appartenir à un groupe Multiacheminement sur réseau IP.


Avant de commencer

Tenez la Fiche de travail relative aux réseaux publics renseignée à votre disposition.

Étape

    Configurez les groupes Multiacheminement sur réseau IP.

    • Suivez les procédures du Deploying Network Multipathing du IP Network Multipathing Administration Guide (Solaris 8), de la rubrique Configuring Multipathing Interface Groups du System Administration Guide: IP Services (Solaris 9) ou de la rubrique Configuring IPMP Groups du System Administration Guide: IP Services (Solaris 10).

    • Tenez compte de ces exigences supplémentaires pour configurer les groupes Multiacheminement sur réseau IP dans une configuration Sun Cluster :

      • Chaque adaptateur de réseau public doit appartenir à un groupe de multi-acheminement.

      • Dans les types de groupe de multiacheminement suivants, vous devez configurer une adresse IP de test pour chaque adaptateur du groupe :

        • Sous Solaris 8, chacun des adaptateurs de chacun des groupes de multiacheminement nécessite une adresse IP de test.

        • Sous Solaris 9 ou Solaris 10, seuls les groupes de multiacheminement comprenant deux adaptateurs ou plus nécessitent des adresses IP de test. Si un groupe de multi-acheminement contient un seul adaptateur, vous n'avez pas besoin de configurer une adresse IP de test.

      • Les adresses IP de test de tous les adaptateurs du même groupe de multiacheminement doivent appartenir au même sous-réseau IP.

      • Les adresses IP de test ne doivent pas être utilisées par des applications normales car elles ne sont pas hautement disponibles.

      • Dans le fichier /etc/default/mpathd, la valeur de TRACK_INTERFACES_ONLY_WITH_GROUPS doit être yes.

      • Le nom d'un groupe de multiacheminement ne fait l'objet d'aucune exigence ni restriction.

Étapes suivantes

Si vous souhaitez changer un nom d'hôte privé, reportez-vous à la rubrique Modification des noms d'hôtes privés .

Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) .

Si vous utilisez Sun Cluster sur un système SPARC et que vous souhaitez vous servir de Sun Management Center pour contrôler le cluster, installez le module Sun Cluster pour Sun Management Center. Reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .

Dans le cas contraire, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Suivez les procédures du document Sun Cluster Data Services Planning and Administration Guide for Solaris OS et de la documentation fournie avec votre logiciel d'application.

ProcedureModification des noms d'hôtes privés

Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (clusternodenodeid-priv) affectés lors de l'installation du logiciel Sun Cluster.


Remarque –

vous ne devez pas exécuter cette procédure après la configuration et le démarrage d'applications et des services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'hôte privé après renommage de celui-ci, entraînant ainsi des conflits de noms d'hôtes. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.


Effectuez cette procédure sur un nœud actif du cluster.

Étapes
  1. Devenez superutilisateur sur un nœud du cluster.

  2. Lancez l'utilitaire scsetup(1M).


    # scsetup
    
  3. Dans le menu principal, sélectionnez l'option Noms d'hôte privés.

  4. Dans le menu Noms d'hôte privés, sélectionnez l'option Modifier un nom d'hôte privé.

  5. Suivez les invites pour modifier le nom d'hôte privé.

    Répétez cette opération pour chaque nom d'hôte privé à modifier.

  6. Vérifiez les nouveaux noms d'hôtes privés.


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv
Étapes suivantes

Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) .

SPARC : si vous souhaitez surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .

Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.

ProcedureConfiguration du protocole NTP (Network Time Protocol)


Remarque –

si vous avez installé votre propre fichier /etc/inet/ntp.conf avant le logiciel Sun Cluster, vous n'êtes pas obligé d'effectuer cette procédure. Déterminez l'étape suivante :


Créez ou modifiez le fichier de configuration NTP après avoir effectué l'une des tâches suivantes :

Si vous avez ajouté un nœud à un cluster d'un nœud, vous devez vérifier que le fichier de configuration NTP utilisé est copié sur le nœud de cluster initial et sur le nouveau.

la principale exigence lorsque vous configurez NTP, ou tout autre utilitaire de synchronisation, est que tous les nœuds de cluster soient synchronisés à la même heure. La précision de l'heure sur les nœuds individuels est secondaire par rapport à l'importance de la synchronisation de l'heure sur tous les nœuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.

Reportez-vous au Guide des notions fondamentales de Sun Cluster pour SE Solaris pour obtenir plus d'informations sur l'heure du cluster. Reportez-vous au fichier /etc/inet/ntp.cluster pour obtenir des directives supplémentaires sur la configuration de NTP pour configurer Sun Cluster.

Étapes
  1. Connectez-vous en tant que superutilisateur sur un nœud du cluster.

  2. Si vous disposez de votre propre fichier, copiez-le sur chaque nœud de cluster.

  3. Si vous n'installez pas votre propre fichier /etc/inet/ntp.conf, utilisez le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP.


    Remarque –

    ne renommez pas le fichier ntp.conf.cluster en tant que ntp.conf.


    Si /etc/inet/ntp.conf.cluster n'existe pas sur le nœud, il se peut que vous ayez un fichier /etc/inet/ntp.conf provenant d'une installation antérieure du logiciel Sun Cluster. Le logiciel Sun Cluster crée le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP si un fichier /etc/inet/ntp.conf n'est pas déjà présent sur le nœud. Dans ce cas, effectuez les modifications suivantes sur ce fichier ntp.conf.

    1. Utilisez l'éditeur de texte de votre choix pour ouvrir le fichier /etc/inet/ntp.conf.cluster à modifier sur un nœud de cluster.

    2. Assurez-vous qu'il existe une entrée pour le nom d'hôte privé de chaque nœud de cluster.

      Si vous avez modifié le nom d'hôte privé d'un nœud, veillez à ce que le fichier de configuration NTP contienne le nouveau nom d'hôte privé.

    3. Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.

  4. Copiez le fichier de configuration NTP sur tous les nœuds du cluster.

    Le contenu du fichier de configuration NTP doit être identique sur tous les nœuds du cluster.

  5. Arrêtez le démon NTP sur chaque nœud.

    Avant de passer à l' Étape 6, attendez que la commande soit exécutée sur chaque nœud.

    • Pour le système d'exploitation Solaris 8 ou Solaris 9, utilisez la commande suivante :


      # /etc/init.d/xntpd stop
      
    • Pour le système d'exploitation Solaris 10, utilisez la commande suivante :


      # svcadm disable ntp
      
  6. Redémarrez le démon NTP sur chaque nœud.

    • Si vous utilisez le fichier ntp.conf.cluster, exécutez la commande ci-dessous.


      # /etc/init.d/xntpd.cluster start
      

      Le script de démarrage xntpd.cluster recherche tout d'abord le fichier /etc/inet/ntp.conf.

      • Si le fichier ntp.conf existe, le script s'arrête immédiatement, sans lancer le démon NTP.

      • Si le fichier ntp.conf n'existe pas alors que ntp.conf.cluster existe, le script lance le démon NTP. Dans ce cas, le script utilise le fichier ntp.conf.cluster comme fichier de configuration NTP.

    • Si vous utilisez le fichier ntp.conf, exécutez l'une des commandes suivantes :

      • Pour le système d'exploitation Solaris 8 ou Solaris 9, utilisez la commande suivante :


        # /etc/init.d/xntpd start
        
      • Pour le système d'exploitation Solaris 10, utilisez la commande suivante :


        # svcadm enable ntp
        
Étapes suivantes

SPARC : pour surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .

Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.

SPARC : installation du module Sun Cluster pour Sun Management Center

Cette rubrique permet d'installer le logiciel du module Sun Cluster pour Sun Management Center.

Le module Sun Cluster pour Sun Management Center vous permet d'utiliser Sun Management Center pour contrôler le cluster. Le tableau suivant répertorie les tâches à effectuer pour installer le logiciel du module Sun Cluster pour Sun Management Center.

Tableau 2–6 Plan des tâches : installation du module Sun Cluster pour Sun Management Center

Tâche 

Instructions 

1. Installez le serveur Sun Management Center, le serveur d'aide, l'agent et les packages de console. 

Documentation Sun Management Center 

SPARC : Configuration minimale requise pour la surveillance de Sun Cluster

2. Installez les packages du module Sun Cluster. 

SPARC : installation du module Sun Cluster pour Sun Management Center

3. Lancez le serveur Sun Management Center, la console et les processus d'agent. 

SPARC : Démarrage de Sun Management Center

4. Ajoutez chaque nœud de cluster comme objet hôte d'agent Sun Management Center. 

SPARC : Ajout d'un nœud de cluster en tant qu'objet hôte d'agent de Sun Management Center

5. Chargez le module Sun Cluster pour commencer à surveiller le cluster. 

SPARC : Chargement du module Sun Cluster

SPARC : Configuration minimale requise pour la surveillance de Sun Cluster

Le module Sun Cluster utilisé avec Sun Management Center sert à surveiller une configuration Sun Cluster. Effectuez les tâches suivantes avant d'installer les packages des modules Sun Cluster.

ProcedureSPARC : installation du module Sun Cluster pour Sun Management Center

Suivez cette procédure pour installer le serveur et le serveur d'aide du module Sun Cluster.


Remarque –

les packages de l'agent du module de Sun Cluster (SUNWscsal et SUNWscsam) ont déjà été ajoutés aux nœuds de cluster lors de l'installation du logiciel Sun Cluster.


Avant de commencer

Vérifiez que tous les packages Sun Management Center de base sont installés sur les machines appropriées. Cette tâche comprend l'installation des packages de l'agent Sun Management Center sur chaque nœud de cluster. Reportez-vous à la documentation de Sun Management Center pour connaître les instructions d'installation.

Étapes
  1. Sur la machine serveur, installez le package du serveur du module de Sun Cluster, SUNWscssv.

    1. Prenez le rôle de superutilisateur.

    2. Insérez le CD 2 de Sun Cluster pour la plate-forme SPARC dans le lecteur.

      Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il soit configuré pour gérer les périphériques de CD-ROM, il monte automatiquement le CD-ROM sur le répertoire /cdrom/cdrom0/.

    3. Passez sur le répertoire Solaris_sparc/Product/sun_cluster/Solaris_ver/Packages/ (ver représente 8 pour Solaris 8, 9 pour Solaris 9 ou 10 pour Solaris 10).


      # cd /cdrom/cdrom0/Solaris_sparc/Product/sun_cluster/Solaris_ver/Packages/
      
    4. Installez le package du serveur de module de Sun Cluster.


      # pkgadd -d . SUNWscssv
      
    5. Allez dans un répertoire ne figurant pas sur le CD-ROM, puis éjectez ce dernier.


      # eject cdrom
      
  2. Sur le serveur d'aide Sun Management Center 3.0 ou Sun Management Center 3.5, installez le package SUNWscshl du module Sun Cluster.

    Procédez comme à l'étape précédente.

  3. Installez les patchs du module de Sun Cluster.

    Pour obtenir plus d'informations sur l'emplacement et l'installation des patchs, reportez-vous à la section Patchs et niveaux de microprogrammes requis du Notes de version de Sun Cluster 3.1 8/05 pour SE Solaris.

Étapes suivantes

Lancez Sun Management Center. Reportez-vous à la rubrique SPARC : Démarrage de Sun Management Center .

ProcedureSPARC : Démarrage de Sun Management Center

Suivez cette procédure pour démarrer les processus du serveur, de l'agent et de la console de Sun Management Center.

Étapes
  1. En tant que superutilisateur, démarrez le processus du serveur de Sun Management Center sur la machine serveur de Sun Management Center.

    Le répertoire d'installation du logiciel Sun Management Center est install-dir. Par défaut, il représente /opt.


    # /install-dir/SUNWsymon/sbin/es-start -S
    
  2. En tant que superutilisateur, sur chaque machine agent (nœud de cluster) de Sun Management Center, démarrez le processus de l'agent de Sun Management Center.


    # /install-dir/SUNWsymon/sbin/es-start -a
    
  3. Sur chaque Sun Management Center machine agent (nœud de cluster), veillez à ce que le démon scsymon_srv fonctionne.


    # ps -ef | grep scsymon_srv
    

    Si un nœud de cluster ne fonctionne pas encore avec le démon scsymon_srv, démarrez le démon sur ce nœud.


    # /usr/cluster/lib/scsymon/scsymon_srv
    
  4. Sur la machine de la console de Sun Management Center (console administrative), démarrez la console de Sun Management Center.

    Vous n'avez pas besoin d'être superutilisateur pour faire démarrer le processus de la console.


    % /install-dir/SUNWsymon/sbin/es-start -c
    
Étapes suivantes

Ajoutez un nœud de cluster en tant qu'objet hôte surveillé. Reportez-vous à la rubrique SPARC : Ajout d'un nœud de cluster en tant qu'objet hôte d'agent de Sun Management Center .

ProcedureSPARC : Ajout d'un nœud de cluster en tant qu'objet hôte d'agent de Sun Management Center

Suivez cette procédure pour créer un objet hôte d'agent de Sun Management Center pour un nœud de cluster.

Étapes
  1. Connectez-vous à Sun Management Center.

    Reportez-vous à la documentation fournie avec votre Sun Management Center.

  2. Dans la fenêtre principale de Sun Management Center, sélectionnez un domaine dans la liste déroulante des domaines administratifs de Sun Management Center.

    Ce domaine comprendra l'objet hôte d'agent de Sun Management Center que vous créez. Pendant l'installation du logiciel Sun Management Center, un domaine par défaut a été créé automatiquement. Vous pouvez utiliser ce domaine, sélectionner un domaine existant ou en créer un nouveau.

    Reportez-vous à la documentation de Sun Management Center pour de plus amples informations sur la création de domaines Sun Management Center.

  3. Sélectionnez Edit⇒Create an Objectdans le menu déroulant.

  4. Cliquez sur l'onglet Node.

  5. Dans la liste déroulante Monitor Via, sélectionnez Sun Management Center Agent - Host.

  6. Indiquez le nom du nœud de cluster (par exemple phys-schost-1) dans les zones de texte Node Label et Hostname.

    Laissez la zone de texte IP vide. La zone de texte Description est facultative.

  7. Dans la zone de texte Port, tapez le numéro de port que vous avez choisi lors de l'installation de l'agent de Sun Management Center.

  8. Cliquez sur OK.

    Un objet hôte d'agent de Sun Management Center est créé dans le domaine.

Étapes suivantes

Chargez le module de Sun Cluster. Reportez-vous à la rubrique SPARC : Chargement du module Sun Cluster .

Erreurs fréquentes

il suffit d'un seul objet hôte du nœud de cluster pour utiliser la surveillance du module Sun Cluster et ses fonctions de configuration pour tout le cluster. Cependant, si ce nœud de cluster devient indisponible, la connexion au cluster par cet objet hôte devient également indisponible. Il vous faudra alors un autre objet hôte du nœud de cluster pour vous reconnecter au cluster.

ProcedureSPARC : Chargement du module Sun Cluster

Suivez cette procédure pour lancer la surveillance du cluster.

Étapes
  1. Dans la fenêtre principale de Sun Management Center, cliquez avec le bouton droit sur l'icône d'un nœud de cluster.

    Le menu déroulant s'affiche.

  2. Sélectionnez Load Module.

    La fenêtre Load Module répertorie chaque module Sun Management Center disponible et son état de chargement.

  3. Choisissez Sun Cluster: Not Loaded et cliquez sur OK.

    La fenêtre Module Loader présente les paramètres courants du module sélectionné.

  4. Cliquez sur OK.

    Après quelques instants, le module est chargé. Une icône Sun Cluster s'affiche dans la fenêtre Details.

  5. Assurez-vous du chargement du module Sun Cluster.

    Sous la catégorie Operating System, développez la sous-arborescence de Sun Cluster en procédant de l'une des manières suivantes :

    • Dans la hiérarchie de l'arborescence située dans la partie gauche de la fenêtre, placez le curseur sur l'icône du module Sun Cluster et appuyez une fois sur le bouton de gauche de la souris.

    • Dans la vue de la topologie située dans la partie droite de la fenêtre, placez le curseur sur l'icône du module Sun Cluster et appuyez deux fois sur le bouton gauche de la souris.

Voir aussi

Reportez-vous à l'aide en ligne du module Sun Cluster pour obtenir des informations sur l'utilisation des fonctionnalités de celui-ci.


Remarque –

le bouton Help du navigateur Sun Management Center accède à l'aide en ligne de Sun Management Center, mais pas aux sujets spécifiques au module Sun Cluster.


Reportez-vous à l'aide en ligne et à la documentation de Sun Management Center pour de plus amples informations sur l'utilisation de Sun Management Center.

Étapes suivantes

Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.

Désinstallation du logiciel

Cette rubrique propose les procédures de désinstallation et de suppression du logiciel Sun Cluster :

ProcedureDésinstallation du logiciel Sun Cluster pour corriger les problèmes d'installation

Exécutez cette procédure si le nœud installé ne peut rejoindre le cluster ou si vous devez corriger les informations de configuration, par exemple celles des adaptateurs de transport ou de l'adresse de réseau privé.


Remarque –

si le nœud est déjà associé au cluster et n'est plus en mode d'installation (voir Étape 2 de la rubrique Vérification de la configuration de quorum et du mode d'installation ), ne suivez pas cette procédure. Reportez-vous plutôt à la rubrique Ajout et suppression d’un nœud de cluster du Guide d’administration système de Sun Cluster pour SE Solaris pour connaître la procédure de désinstallation de Sun Cluster d'un nœud de cluster.


Avant de commencer

Essayez de réinstaller le nœud. Vous pouvez corriger certaines installations ayant échoué en répétant l'installation du logiciel Sun Cluster sur le nœud.

Étapes
  1. Ajoutez le nœud à désinstaller dans la liste d'authentification du cluster.

    Si vous désinstallez un cluster à nœud unique, passez à l'Étape 2.

    1. Devenez superutilisateur sur un élément actif du cluster autre que le nœud que vous allez désinstaller.

    2. Indiquez le nom du nœud à ajouter dans la liste d'authentification.


      # /usr/cluster/bin/scconf -a -T node=nodename
      
      -a

      Ajouter

      -T

      Spécifie les options d'authentification

      node=nom_nœud

      Spécifie le nom du nœud à ajouter à la liste d'authentification

      Pour effectuer cette tâche, vous pouvez également exécuter l'utilitaire scsetup(1M). Reportez-vous à la rubrique Ajout d’un nœud de cluster à la liste des nœuds autorisés du Guide d’administration système de Sun Cluster pour SE Solaris pour connaître les procédures.

  2. Devenez superutilisateur sur le nœud que vous souhaitez désinstaller.

  3. Fermez-le.


    # shutdown -g0 -y -i0
    
  4. Réinitialisez le nœud en mode non-cluster.

    • Sur les systèmes SPARC, procédez comme suit :


      ok boot -x
      
    • Sur les systèmes x86, procédez comme suit :


                          <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
      Boot args:
      
      Type   b [file-name] [boot-flags] <ENTER>  to boot with options
      or     i <ENTER>                           to enter boot interpreter
      or     <ENTER>                             to boot with defaults
      
                       <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      
  5. Déplacez-vous sur un autre répertoire, tel que le répertoire root (/), ne contenant aucun fichier provenant des packages Sun Cluster.


    # cd /
    
  6. Désinstallez le logiciel Sun Cluster du nœud.


    # /usr/cluster/bin/scinstall -r
    

    Reportez-vous à la page de manuel scinstall(1M) pour obtenir plus d'informations.

  7. Réinstallez et reconfigurez le logiciel Sun Cluster sur le nœud.

    Reportez-vous au Tableau 2–1 pour obtenir la liste des tâches d'installation et leur ordre d'exécution.

ProcedureDésinstallation du package SUNWscrdt

Suivez cette procédure sur chaque nœud du cluster.

Avant de commencer

Vérifiez qu'aucune application n'utilise le pilote RSMRDT avant d'effectuer cette procédure.

Étapes
  1. Devenez superutilisateur sur le nœud sur lequel vous souhaitez désinstaller le package SUNWscrdt.

  2. Désinstallez le package SUNWscrdt.


    # pkgrm SUNWscrdt
    

ProcedureDéchargement manuel du pilote RSMRDT

Cette procédure s'applique au pilote encore chargé en mémoire après la procédure Désinstallation du package SUNWscrdt.

Étapes
  1. Lancez l'utilitaire adb.


    # adb -kw
    
  2. Définissez la variable de noyau clifrsmrdt_modunload_ok sur 1.


    physmem NNNN 
    clifrsmrdt_modunload_ok/W 1
    
  3. Quittez l'utilitaire adb en appuyant sur Control-D.

  4. Recherchez les ID des modules clif_rsmrdt et rsmrdt.


    # modinfo | grep rdt
    
  5. Déchargez le module clif_rsmrdt.

    Vous devez décharger le module clif_rsmrdt avant le module rsmrdt.


    # modunload -i clif_rsmrdt_id
    
    clif_rsmrdt_id

    Spécifie l'ID numérique du module en cours de déchargement.

  6. Déchargez le module rsmrdt.


    # modunload -i rsmrdt_id
    
    rsmrdt_id

    Spécifie l'ID numérique du module en cours de déchargement.

  7. Vérifiez que le module est bien déchargé.


    # modinfo | grep rdt
    

Exemple 2–5 Déchargement du pilote RSMRDT

L'exemple suivant affiche les informations sur la console une fois le pilote RSMRDT déchargé manuellement.


# adb -kw
physmem fc54
clifrsmrdt_modunload_ok/W 1
clifrsmrdt_modunload_ok: 0x0 = 0x1
^D
# modinfo | grep rsm
 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1)
 93 f08e07d4 b95 - 1 clif_rsmrdt (CLUSTER-RSMRDT Interface module)
 94 f0d3d000 13db0 194 1 rsmrdt (Reliable Datagram Transport dri)
# modunload -i 93
# modunload -i 94
# modinfo | grep rsm
 88 f064a5cb 974 - 1 rsmops (RSMOPS module 1.1)
#

Erreurs fréquentes

Si la commande modunload échoue, cela signifie que des applications utilisent probablement actuellement le pilote. Fermez les applications avant d'exécuter à nouveau la commande modunload.