Guide d'installation du logiciel Sun Cluster pour SE Solaris

Chapitre 2 Installation du logiciel sur le cluster

Ce chapitre décrit des procédures d'installation du logiciel sur des nœuds de cluster et la console d'administration.

Installation du logiciel

Cette rubrique fournit des informations et des procédures d'installation du logiciel sur les nœuds du cluster.

Le plan des tâches ci-dessous répertorie les procédures d'installation du logigiel sur un ou plusieurs nœuds de cluster. Effectuez les procédures dans l'ordre indiqué.

Tableau 2–1 Liste des tâches : installation du logiciel

Tâche 

Instructions 

1. Planification de la disposition de votre cluster et préparation à l'installation du logiciel. 

Préparation de l'installation du logiciel de cluster

2. (Facultatif) Installation et configuration d'un serveur de quorum.

Guide d’installation du logiciel Sun Cluster pour SE Solaris

3. (Facultatif) Installation du logiciel Cluster Control Panel (CCP) sur la console administrative.

Procédure d'installation du logiciel Cluster Control Panel sur une console administrative

4. Installation du système d'exploitation Solaris sur tous les nœuds. 

Installation du logiciel Solaris

5. (Facultatif) Configuration de la mise en miroir du disque interne.

Configuration de la mise en miroir de disque interne

6. (Facultatif) SPARC : Installation et configuration du logiciel de multiacheminement Sun.

Installation du logiciel de multiacheminement Sun

7. (Facultatif) SPARC : Installation du logiciel VERITAS File System (VxFS).

SPARC : installation du logiciel VERITAS File System (VxFS)

8. Installation du logiciel Sun Cluster et des services de données que vous utiliserez. 

Comment installer les packages de logiciels de structure et de services de données Sun Cluster

9. Définition des chemins d'accès des répertoires. 

Configuration de l'environnement racine

10.(Facultatif) Configuration de Solaris IP Filter.

Configuration de Solaris IP Filter

ProcedurePréparation de l'installation du logiciel de cluster

Avant de commencer à installer le logiciel, effectuez les préparations suivantes :

  1. Veillez à ce que la combinaison matériel/logiciel choisie pour votre cluster soit une configuration de Sun Cluster prise en charge.

    Contactez votre représentant commercial Sun pour obtenir les dernières informations sur les configurations de cluster prises en charge.

  2. Consultez les manuels suivants pour obtenir des informations qui vous aideront à planifier la configuration de votre cluster et à préparer votre stratégie d'installation.

  3. Ayez sous la main toute la documentation connexe, y compris celle de tiers.

    Voici une liste partielle de la documentation produit dont vous pourriez avoir besoin comme référence pendant l'installation du cluster :

    • SE Solaris

    • logiciel Solaris Volume Manager ;

    • logiciel Sun StorEdge QFS ;

    • VERITAS Volume Manager

    • applications de fournisseurs tiers.

  4. Planifiez la configuration de votre cluster.


    Caution – Caution –

    planifiez complètement l'installation de votre cluster. Identifiez les exigences de tous les services de données et des produits tiers avant de commencer l'installation de Solaris et de Sun Cluster. Le non-respect de cette consigne peut entraîner des erreurs d'installation qui nécessiteraient la réinstallation complète des logiciels Solaris et Sun Cluster.

    Par exemple, l'option Oracle Real Application Clusters Guard de Oracle RAC impose certaines exigences aux noms d'hôtes utilisés dans le cluster. Sun Cluster HA pour SAP impose également certaines exigences. Vous devez prendre connaissance de ces contraintes avant de procéder à l'installation du logiciel Sun Cluster, les noms d'hôtes ne pouvant être modifiés après l'installation.


  5. Procurez-vous tous les patchs nécessaires pour votre configuration de cluster.

    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la rubrique Patches and Required Firmware Levels du manuel Sun Cluster 3.2 2/08 Release Notes for Solaris OS.

Étapes suivantes

Si vous souhaitez utiliser le logiciel Cluster Control Panel pour connecter une console administrative à vos nœuds de cluster, reportez-vous à la rubrique Procédure d'installation du logiciel Cluster Control Panel sur une console administrative.

Dans le cas contraire, choisissez la méthode d'installation Solaris à utiliser.

ProcedureComment installer et configurer le logiciel de serveur de quorum

Effectuez cette procédure pour configurer un serveur hôte en tant que serveur de quorum.

Avant de commencer

Effectuez les tâches suivantes :

  1. Devenez superutilisateur de l'ordinateur sur lequel le logiciel de serveur de quorum doit être installé.

  2. (Facultatif) Pour utiliser le programme installer avec une IUG, vérifiez que l'environnement du serveur hôte sur lequel l'installation doit avoir lieu est défini pour afficher l'interface utilisateur graphique.


    # xhost +
    # setenv DISPLAY nodename:0.0
    
  3. Chargez le support d'installation dans l'unité.

    Si le démon de gestion de volumes (vold(1M)) est en cours d'exécution et qu'il est configuré pour gérer les périphériques de CD-ROM ou de DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0/.

  4. Modifiez le répertoire de l'assistant d'installation du support.

    • Si vous installez les packages du logiciel sur une plate-forme SPARC, exécutez la commande suivante :


      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
      
    • Si vous installez les packages du logiciel sur une plate-forme x86, exécutez la commande suivante :


      phys-schost# cd /cdrom/cdrom0/Solaris_x86
      
  5. Lancez l'assistant d'installation.


    phys-schost# ./installer
    
  6. Suivez les instructions à l'écran pour installer le logiciel de serveur de quorum sur le serveur hôte.

    Choisissez l'option Configurer plus tard.


    Remarque –

    Si le programme d'installation ne vous permet pas de choisir cette option, choisissez l'option Configurer maintenant.


    Un fois l'installation terminée, vous pouvez visualiser tous les journaux d'installation disponibles. Reportez-vous au manuel Sun Java Enterprise System 2006Q4 Installation Guide for UNIX pour plus d'informations sur l'utilisation du programme d'installation Java Enterprise System.

  7. Déchargez le support d'installation de l'unité.

    1. Afin de vous assurer que le support d'installation n'est pas en cours d'utilisation, déplacez-vous sur un répertoire ne résidant pas sur le support.

    2. Éjectez le support.


      phys-schost# eject cdrom
      
  8. Appliquez les patchs nécessaires à la prise en charge du logiciel de serveur de quorum.

    Reportez-vous à Patches and Required Firmware Levels dans le manuel Sun Cluster 3.2 12/07 Release Notes for Solaris OS pour obtenir plus d'informations sur l'emplacement des patchs et les instructions d'installation.

  9. (Facultatif) Ajoutez l'emplacement binaire du serveur de quorum à votre variable d'environnement PATH.


    # PATH=$PATH:/usr/cluster/bin
  10. (Facultatif) Ajoutez l'emplacement de la page de manuel du serveur de quorum à votre variable d'environnement MANPATH.


    # MANPATH=$MANPATH:/usr/cluster/man
  11. configuration du serveur de quorum.

    Ajoutez l'entrée suivante au fichier /etc/scqsd/scqsd.conf afin de spécifier les informations de configuration relatives au serveur de quorum.

    Identifiez le serveur de quorum en utilisant au moins un nom d'instance ou un numéro de port. Vous devez fournir le numéro de port, mais le nom d'instance est facultatif. Si vous indiquez un nom d'instance, il doit être unique sur vos serveurs de quorum. Si vous ne fournissez pas de nom, faites toujours référence au serveur de quorum par le port depuis lequel il écoute.


    /usr/cluster/lib/sc/scqsd [-d /var/scqsd] [-i instancename] -p port
    
    -d /var/scqsd

    Chemin du répertoire de quorum dans lequel le serveur de quorum peut stocker des données de quorum.

    Le traitement du serveur de quorum crée un fichier par cluster dans ce répertoire, afin de stocker les informations de quorum relatives au cluster.

    Par défaut, la valeur de cette option est /var/scqsd. Ce répertoire doit être unique pour chaque serveur de quorum que vous configurez.

    -i instancename

    Nom unique que vous choisissez pour l'instance de serveur de quorum.

    -p port

    Numéro du port depuis lequel le serveur de quorum écoute les requêtes du cluster.

  12. (Facultatif) Pour servir plusieurs clusters mais utiliser une instance ou un numéro de port différent, configurez une entrée supplémentaire pour chaque instance supplémentaire du serveur de quorum dont vous avez besoin.

  13. Enregistrer et fermer le fichier /etc/scqsd/scqsd.conf.

  14. Lancez le serveur de quorum qui vient d'être configuré.


    # /usr/cluster/bin/clquorumserver start quorumserver
    
    quorumserver

    Identifie le serveur de quorum. Vous pouvez utiliser le numéro de port depuis lequel le serveur de quorum écoute. Si vous avez fourni un nom d'instance dans le fichier de configuration, vous pouvez utiliser ce nom à la place.

    • Pour démarrer un serveur de quorum unique, fournissez le nom d'instance ou le numéro de port.

    • Pour démarrer tous les serveurs de quorum lorsque plusieurs serveurs de quorum sont configurés, utilisez l'opérande +.

Erreurs fréquentes

Le programme d'installation exécute une installation pkgadd simple des packages Serveur de quorum Sun Cluster et définit les répertoires nécessaires. Le logiciel se compose des packages suivants :

L'installation de ces packages ajoute le logiciel aux répertoires /usr/cluster et /etc/scqsd. Vous ne pouvez pas modifier l'emplacement du logiciel Serveur de quorum Sun Cluster.

Si vous recevez un message d'erreur d'installation à propos du logiciel Serveur de quorum Sun Cluster, vérifiez que les packages ont été correctement installés.

Étapes suivantes

Si vous souhaitez utiliser une console administrative pour communiquer avec les nœuds de cluster, reportez-vous à la rubrique Procédure d'installation du logiciel Cluster Control Panel sur une console administrative.

Sinon, reportez-vous à la rubrique Installation du logiciel Solaris.

ProcedureProcédure d'installation du logiciel Cluster Control Panel sur une console administrative


Remarque –

vous n'êtes pas obligé d'utiliser une console administrative. Si vous n'en utilisez pas, effectuez les tâches administratives à partir d'un nœud désigné dans le cluster.


Cette procédure explique comment installer le logiciel CCP (Cluster Control Panel) sur une console administrative. Le logiciel CCP fournit une interface unique à partir de laquelle vous pouvez lancer cconsole, Outils cssh, ctelnet, et crlogin. Chacun de ces outils fournit une connexion à fenêtres multiples à un ensemble de noeuds, ainsi qu'une fenêtre ordinaire. Vous pouvez utiliser la fenêtre ordinaire pour envoyer simultanément des entrées vers tous les noeuds. Pour plus d'informations, consultez la page ccp(1M) du manuel.

Vous pouvez utiliser un quelconque ordinateur de bureau exécutant une version du système d'exploitation Solaris prise en charge par le logiciel Sun Cluster 3.2 2/08 comme console administrative. Si vous utilisez le logiciel Sun Cluster sur un système SPARC, vous pouvez également utiliser la console administrative comme console Sun Management Center ou comme serveur. Reportez-vous à la documentation de Sun Management Center pour obtenir des informations sur l'installation du logiciel Sun Management Center.

Avant de commencer

Assurez-vous qu'une version du système d'exploitation Solaris prise en charge ainsi que des patchs Solaris sont installés sur la console administrative. Toutes les plates-formes requièrent au minimum le End User Solaris Software Group.

  1. Devenez superutilisateur de la console administrative.

  2. Chargez le DVD-ROM Sun Java Availability Suite dans le lecteur DVD-ROM\~;.

    Si le démon de gestion de volumesvold(1M) est en cours d'exécution et qu'il est configuré pour gérer les périphériques de CD-ROM ou de DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0/ .

  3. Déplacez-vous sur Répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/, où arch est sparc ou x86 (Solaris 10 uniquement) et où ver est égal à 9 pour Solaris 9 ou 10 pour Solaris 10 .


    adminconsole# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
    
  4. Installez le package SUNWccon.


    adminconsole# pkgadd -d . SUNWccon
    
  5. (Facultatif) Installez les packages de pages de manuel de Sun Cluster.


    adminconsole# pkgadd -d . pkgname
    

    Nom du package 

    Description 

    SUNWscman

    Pages de manuel de la structure Sun Cluster 

    SUNWscdsman

    Pages de manuel du service de données Sun Cluster 

    SUNWscqsman

    Pages de manuel Serveur de quorum Sun Cluster 

    Lorsque vous installez les packages de pages de manuel Sun Cluster sur la console administrative, vous pouvez les afficher à partir de la console administrative avant d'installer le logiciel Sun Cluster sur les nœuds de cluster ou sur le serveur de quorum.

  6. Retirez le DVD-ROM Sun Java Availability Suite du lecteur DVD-ROM\~;.

    1. Afin de vous assurer que le DVD-ROM\~; n'est pas utilisé, déplacez-vous sur un répertoire ne résidant pas sur le DVD-ROM\~;.

    2. Éjectez le DVD-ROM\~;.


      adminconsole# eject cdrom
      
  7. Création d'un fichier /etc/clusters sur la console administrative.

    Ajoutez à ce fichier le nom de votre cluster et le nom de nœud physique de chaque nœud du cluster.


    adminconsole# vi /etc/clusters
    clustername node1 node2
    

    Reportez-vous à la page de manuel /opt/SUNWcluster/bin/clusters(4) pour obtenir plus d'informations.

  8. Création d'un fichier /etc/serialports.

    Ajoutez dans ce fichier une entrée pour chaque noeud du cluster. Indiquez le nom du nœud physique, le nom de l'hôte du périphérique d'accès par console et le numéro du port. Le concentrateur de terminal (CT), le SSP (System Service Processor) et le contrôleur de système Sun Fire sont des exemples de périphériques d'accès par console.


    adminconsole# vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    
    node1, node2

    Noms physiques des nœuds du cluster.

    nom_hôte_périphérique_ac

    Nom d'hôte du périphérique d'accès par console.

    port

    Numéro de port série, ou le numéro de port Secure Shell pour les connexions Secure Shell.

    Pour créer un fichier /etc/serialports, tenez compte des instructions spéciales suivantes :

    • Pour un contrôleur de système Sun Fire 15000, utilisez le port telnet(1) numéro 23 pour le numéro de port de chaque entrée.

    • Pour tous les autres périphériques d'accès par console, pour vous connecter à l'aide d'une connexion telnet, utilisez le numéro de port série telnet et non le numéro de port physique. Pour déterminer le numéro de port série telnet, ajoutez 5000 au numéro de port physique. Par exemple, si le numéro d'un port physique est 6, le numéro du port série telnet correspondant est 5006.

    • Pour les serveurs Sun Enterprise 10000, reportez-vous également à la page de manuel /opt/SUNWcluster/bin/serialports(4) pour obtenir des informations spécifiques.

    • Pour les connexions Secure Shell aux consoles de nœud, précisez pour chaque nœud le nom du périphérique de la console de nœud et le numéro de port à utiliser pour la connexion sécurisée. Le numéro de port par défaut pour Secure Shell est le 22.

    • Pour connecter directement la console administrative aux nœuds de cluster ou via un réseau de gestion, indiquez le nom d'hôte et le numéro de port utilisé par chaque nœud pour se connecter à la console administrative ou au réseau de gestion.

  9. (Facultatif) Par commodité, définissez les chemins d'accès aux répertoires sur la console administrative.

    1. Ajoutez le répertoire /opt/SUNWcluster/bin/ à la variable PATH.

    2. Ajoutez le répertoire /opt/SUNWcluster/man/ à la variable MANPATH.

    3. Si vous avez installé le package SUNWscman, ajoutez également le répertoire /usr/cluster/man/ à la variable MANPATH.

  10. Démarrage de l'utilitaire CCP.


    adminconsole# /opt/SUNWcluster/bin/ccp &
    

    Cliquez sur le bouton cconsole, cssh, crlogin ou ctelnet dans la fenêtre de CCP pour lancer cet outil. Vous pouvez également lancer chacun de ces outils directement. Par exemple, pour démarrer ctelnet, saisissez la commande suivante :


    adminconsole# /opt/SUNWcluster/bin/ctelnet &
    

    Le logiciel CCP prend en charge les connexions Secure Shell suivantes :

    • Pour une connexion sécurisée aux consoles de nœud, lancez l'outil cconsole. Activez ensuite la case Utiliser SSH dans le menu Options de la fenêtre Console Cluster.

    • Pour une connexion sécurisée aux nœuds de cluster, utilisez l'outil cssh.

    Reportez-vous à la procédure de connexion distante à Sun Cluster de la rubrique Beginning to Administer the Cluster du Sun Cluster System Administration Guide for Solaris OS pour obtenir plus d'informations sur l'utilisation de CCP. Reportez-vous également à la page de manuel ccp(1M).

Étapes suivantes

Déterminez si le système d'exploitation Solaris répond aux exigences d'installation de Sun Cluster. Reportez-vous à la rubrique Planification du SE Solaris pour obtenir des informations sur les exigences d'installation de Sun Cluster sous Solaris.

ProcedureInstallation du logiciel Solaris

Si vous n'utilisez pas la méthode d'installation JumpStart personnalisée de l'utilitaire scinstall pour installer le logiciel, suivez cette procédure pour installer l'environnement d'exploitation Solaris sur chaque nœud du cluster. Reportez-vous à la rubrique Installation de Solaris et du logiciel Sun Cluster (JumpStart) pour obtenir plus d'informations sur l'installation JumpStart d'un cluster.


Astuce –

pour gagner du temps, vous pouvez installer le système d'exploitation Solaris sur tous les nœuds à la fois.


Si les nœuds sont déjà installés avec le système d'exploitation Solaris mais que vous ne remplissez pas les exigences d'installation de Sun Cluster, vous devrez probablement réinstaller le logiciel Solaris. Veillez à suivre les étapes de cette procédure pour garantir le succès de l'installation du logiciel Sun Cluster. Reportez-vous à la rubrique Planification du SE Solaris pour obtenir des informations sur le partitionnement requis du disque racine et sur d'autres exigences d'installation de Sun Cluster.

Avant de commencer

Effectuez les tâches suivantes :

  1. Si vous utilisez une console d'administration pour le cluster, affichez un écran de console pour chaque noeud du cluster.

    • Si le logiciel Cluster Control Panel (CCP) est installé et configuré sur votre console d'administration, l'utilitaire cconsole(1M) vous permet d'afficher les écrans individuels de la console.

      En tant que superutilisateur, utilisez les commandes suivantes pour lancer l'utilitaire cconsole :


      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &
      

      L'utilitaire cconsole ouvre également une fenêtre principale qui vous permet d'envoyer votre saisie à tous les écrans de console individuels en même temps.

    • Si vous n'utilisez pas l'utilitaire cconsole, connectez-vous aux consoles de chaque noeud individuellement.

  2. Installez le système d'exploitation Solaris comme indiqué dans la documentation d'installation de Solaris.


    Remarque –

    vous devez installer la même version du système d'exploitation Solaris sur tous les nœuds du cluster.


    Vous pouvez utiliser toutes les méthodes normalement utilisées lors de l'installation de Solaris, Pendant l'installation du logiciel Solaris, effectuez les opérations suivantes :

    1. Installez au minimum le End User Solaris Software Group.


      Astuce –

      Pour éviter d'avoir à installer manuellement les packages Solaris, installez la prise en charge Entire Solaris Software Group Plus OEM.


      Reportez-vous à la rubrique À propos des groupes de logiciels Solaris pour obtenir des informations sur les exigences supplémentaires du logiciel Solaris.

    2. Choisissez Disposition manuelle pour configurer les systèmes de fichiers.

      • Créez un fichier d'au moins 512 Mo à utiliser par le sous-système du périphérique global.


        Remarque –

        un système de fichiers global-devices est nécessaire à la réussite de l’installation du logiciel Sun Cluster.


      • Indiquez que la tranche 7 fait au moins 20 Mo.

      • Créez tout autre partitionnement nécessaire de système de fichiers. Pour ce faire, suivez la procédure de la rubrique Partitions du disque système.

    3. Afin de vous faciliter le travail d'administration, définissez le même mot de passe superutilisateur sur chaque nœud.

  3. Si vous envisagez d'utiliser un contrôle d'accès basé sur le rôle (RBAC) plutôt qu'un superutilisateur pour accéder aux nœuds de cluster, définissez un rôle RBAC doté des autorisations pour toutes les commandes Sun Cluster.

    Cet ensemble de procédures d'installation nécessite les autorisations RBAC Sun Cluster suivantes si vous n'êtes pas superutilisateur :

    • solaris.cluster.modify

    • solaris.cluster.admin

    • solaris.cluster.read

    Reportez-vous à la rubrique Role-Based Access Control (Overview) du System Administration Guide: Security Services pour plus d'informations sur l'utilisation des rôles RBAC. Reportez-vous aux pages de manuel Sun Cluster pour connaître l'autorisation RBAC nécessaire à chaque sous-commande Sun Cluster.

  4. Si vous ajoutez un nœud à un cluster existant, ajoutez des points de montage de systèmes de fichiers de cluster au nouveau nœud.

    1. Dans le nœud de cluster actif, affichez les noms de tous les systèmes de fichiers du cluster.


      phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}'
      
    2. Créez un point de montage sur le nouveau noeud pour chaque système de fichiers du cluster.


      phys-schost-new# mkdir -p mountpoint
      

      Si la commande de montage vous renvoie, par exemple, le nom de système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le noeud ajouté au cluster.

  5. Si vous ajoutez un nœud et si VxVM existe sur tous les nœuds de cluster, effectuez les tâches suivantes.

    1. Assurez-vous que le même numéro vxio est utilisé pour les nœuds installés avec VxVM.


      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
      
    2. Assurez-vous également que ce numéro est disponible pour chacun des nœuds installés sans VxVM.

    3. Si le nombre vxio est déjà utilisé sur un nœud ne disposant pas de VxVM, modifiez l'entrée /etc/name_to_major pour avoir un nombre différent.

  6. Si vous avez installé le groupe de logiciels End User Solaris Software Group (groupe de logiciels Solaris pour utilisateur final) et que vous souhaitez utiliser l'une des fonctionnalités de Sun Cluster suivantes, installez les packages Solaris supplémentaires pour prendre en charge ces fonctionnalités.

    • Interface de programmation d'application de mémoire partagée distante (RSMAPI)

    • Pilotes RSMRDT

    • SPARC : Adaptateurs SCI-PCI

    • SPARC : Sous Solaris 9, utilisez la commande suivante :


      phys-schost# pkgadd -d . SUNWrsm SUNWrsmc SUNWrsmo SUNWrsmox
      
    • Sous Solaris 10, utilisez la commande suivante :


      phys-schost# pkgadd -G -d . SUNWrsm SUNWrsmo
      

      Vous ne devez ajouter ces packages que dans la zone globale. L'option -G ajoute les packages dans la zone en cours uniquement. Elle ne permet pas aux packages de se propager dans une éventuelle zone non globale existante ou créée ultérieurement.

  7. Installez tous les patchs Solaris requis ainsi que les patchs/ microprogrammes du matériel, notamment ceux de baie de stockage. Téléchargez également tout microprogramme inclus dans les patchs du matériel.

    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la rubrique Patches and Required Firmware Levels du manuel Sun Cluster 3.2 2/08 Release Notes for Solaris OS.

  8. x86 : Définissez le fichier d'initialisation par défaut.

    La définition de cette valeur vous permet de réinitialiser le nœud si vous n'avez accès à aucune invite de connexion.

    • Sur le système d'exploitation Solaris 9, définissez la valeur par défaut kadb.


      phys-schost# eeprom boot-file=kadb
      
    • Dans le SE Solaris 10, définissez la valeur par défaut sur kmdb dans le menu des paramètres d'initialisation GRUB.


      grub edit> kernel /platform/i86pc/multiboot kmdb
      
  9. Mettez à jour le fichier /etc/inet/hosts ou /etc/inet/ipnodes sur chaque nœud à l'aide de toutes les adresses IP publiques utilisées dans le cluster.

    Exécutez cette étape, que vous utilisiez ou non un service d'attribution de noms. Le fichier ipnodes peut contenir des adresses IPv4 et IPv6. Reportez-vous à la rubrique Adresses IP réseau public pour obtenir une liste des composants Sun Cluster dont vous devez ajouter les adresses IP.


    Remarque –

    Pendant la définition d'un nouveau cluster ou d'un nouveau nœud de cluster, l'utilitaire scinstall ajoute automatiquement l'adresse IP publique de chaque nœud en cours de configuration dans le fichier /etc/inet/hosts. L'ajout de ces adresses IP au fichier /etc/inet/ipnodes est facultatif.


  10. Si vous souhaitez utiliser les adaptateurs ce pour l'interconnexion du cluster, ajoutez l'entrée suivante au fichier /etc/system.


    set ce:ce_taskq_disable=1

    Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système.

  11. (Facultatif) Sur les serveurs Sun Enterprise 10000, configurez le fichier /etc/system pour utiliser la reconfiguration dynamique.

    Ajoutez l'entrée suivante au fichier /etc/system sur chaque nœud du cluster :


    set kernel_cage_enable=1

    Ce nouveau paramétrage sera pris en compte à la prochaine réinitialisation du système. Reportez-vous à la documentation de votre serveur pour de plus amples informations sur la reconfiguration dynamique.

  12. (Facultatif) Configurez des adaptateurs réseau public dans des groupes IPMP.

    Pour ne pas utiliser les groupes IPMP à plusieurs adaptateurs configurés par l'utilitaire scinstall pendant la création d'un cluster, configurez des groupes IPMP personnalisés comme dans un système autonome. Pour plus d'informations, reportez-vous au Chapitre 8, Administering IPMP du System Administration Guide: Network Interfaces and Network Virtualization.

    Pendant la création d'un cluster, l'utilitaire scinstall configure tous les jeux d'adaptateurs réseau public utilisant le même sous-réseau et qui ne sont pas déjà configurés dans un groupe IPMP, dans un groupe IPMP unique à plusieurs adaptateurs. L'utilitaire scinstall ignore les groupes IPMP existants.

Étapes suivantes

Si votre serveur prend en charge la mise en miroir de disques durs internes et que vous souhaitez configurer cette fonction, reportez-vous à la rubrique Configuration de la mise en miroir de disque interne.

Sinon, pour utiliser le logiciel de multiacheminement Sun, reportez-vous à la rubrique Installation du logiciel de multiacheminement Sun.

Sinon, pour installer VxFS, reportez-vous à la rubrique SPARC : installation du logiciel VERITAS File System (VxFS).

Sinon, installez les packages Sun Cluster. Reportez-vous à la rubrique Comment installer les packages de logiciels de structure et de services de données Sun Cluster.

Voir aussi

Reportez-vous au manuelSun Cluster System Administration Guide for Solaris OS pour connaître les procédures de reconfiguration dynamique dans une configuration Sun Cluster.

ProcedureConfiguration de la mise en miroir de disque interne

Suivez cette procédure sur chaque nœud du cluster pour configurer la mise en miroir de disque RAID matériel interne afin de mettre en miroir le disque système. Cette procédure est facultative.


Remarque –

Veillez à ne pas exécuter cette procédure dans les cas suivants :


Avant de commencer

Vérifiez que le système d'exploitation Solaris et les patchs nécessaires sont installés.

  1. Prenez le rôle de superutilisateur.

  2. Configurez un miroir interne.


    phys-schost# raidctl -c clt0d0 clt1d0 
    
    -c clt0d0 clt1d0

    Crée le miroir du disque principal vers le disque miroir. Entrez le nom de votre disque principal comme premier argument. Entrez le nom du disque miroir comme second argument.

    Pour plus d'informations sur la configuration de la mise en miroir du disque interne de votre serveur, consultez les documents fournis avec le serveur et la page de manuel raidctl(1M).

Étapes suivantes

Pour utiliser le logiciel de multiacheminement Sun, reportez-vous à la rubrique Installation du logiciel de multiacheminement Sun.

Sinon, pour installer VxFS, reportez-vous à la rubrique SPARC : installation du logiciel VERITAS File System (VxFS).

Sinon, installez les packages Sun Cluster. Reportez-vous à la rubrique Comment installer les packages de logiciels de structure et de services de données Sun Cluster.

ProcedureInstallation du logiciel de multiacheminement Sun

Cette procédure à effectuer sur chaque nœud de cluster permet d'installer et de configurer le logiciel de multiacheminement Sun pour le stockage Fiber Channel (FC). Le logiciel de multiacheminement gère plusieurs entrées-sorties du périphérique de stockage de cluster partagé. Cette procédure est facultative.

Avant de commencer

Effectuez les tâches suivantes :

  1. Prenez le rôle de superutilisateur.

  2. SPARC : Pour Solaris 9, installez sur chaque nœud le logiciel Sun StorEdge Traffic Manager, ainsi que les patchs nécessaires.

    • Pour connaître la procédure d'installation du logiciel Sun StorEdge Traffic Manager, reportez-vous au Sun StorEdge Traffic Manager Installation and Configuration Guide depuis la page http://www.sun.com/products-n-solutions/hardware/docs/.

    • Afin d'obtenir la liste des patchs requis pour le logiciel Sun StorEdge Traffic Manager, reportez-vous aux Sun StorEdge Traffic Manager Software Release Notes depuis la page http://www.sun.com/storage/san/.

  3. Activez la fonctionnalité de multiacheminement.

    • SPARC : Pour Solaris 9, remplacez la valeur du paramètre mpxio-disable par no.

      Modifiez cette entrée dans le fichier /kernel/drv/scsi_vhci.conf de chaque nœud.


      set mpxio-disable=no
    • Pour Solaris 10, exécutez la commande ci-dessous sur chaque nœud.


      Attention – Attention –

      si le logiciel Sun Cluster est installé, n'effectuez pas cette opération. L'exécution de la commande stmsboot sur un nœud de cluster actif risque de mettre les services Solaris en état de maintenance. À la place, suivez les instructions de Page de manuel stmsboot(1M) sur l'utilisation de la commande stmsboot dans un environnement Sun Cluster.



      phys-schost# /usr/sbin/stmsboot -e
      
      -e

      Active le multiacheminement Solaris.

      Reportez-vous à la page de manuel stmsboot(1M) pour obtenir plus d'informations.

  4. SPARC : Pour Solaris 9, déterminez si votre version du logiciel Sun StorEdge SAN Foundation comprend la prise en charge de votre baie de stockage.

    Dans la négative, ajoutez les entrées nécessaires dans le fichier /kernel/drv/scsi_vhci.conf de chaque nœud. Pour obtenir plus d'informations, reportez-vous aux notes de version de votre périphérique de stockage.

  5. SPARC : Pour Solaris 9, arrêtez chaque nœud et procédez à une initialisation de reconfiguration.

    La reconfiguration au démarrage entraîne la création de liens et de fichiers de périphériques Solaris.


    phys-schost# shutdown -y -g0 -i0
    ok boot -r
    
  6. Après avoir effectué la reconfiguration au démarrage sur tous les nœuds, exécutez les autres tâches nécessaires à la définition de votre baie de stockage.

    Reportez-vous aux instructions de la Sun Cluster Hardware Administration Collection pour obtenir plus d'informations sur l'installation de votre baie de stockage.

Erreurs fréquentes

Si vous avez installé le logiciel Sun de multiacheminement après l'installation du logiciel Sun Cluster sur le cluster, les mappages DID peuvent exiger une mise à jour. Pour régénérer l'espace de noms DID, exécutez les commandes ci-dessous sur chaque nœud de cluster.

phys-schost# cldevice clearphys-schost# cldevice refresh(Solaris 9 uniquement) phys-schost# cfgadm -c configurephys-schost# cldevice populate

Reportez-vous aux pages de manuel cfgadm(1M) et cldevice(1CL) pour plus d'informations.

Étapes suivantes

Pour installer VxFS, reportez-vous à la rubrique SPARC : installation du logiciel VERITAS File System (VxFS).

Sinon, installez les packages Sun Cluster. Reportez-vous à la rubrique Comment installer les packages de logiciels de structure et de services de données Sun Cluster.

ProcedureSPARC : installation du logiciel VERITAS File System (VxFS)

Pour utiliser le logiciel VERITAS File System (VxFS) (VxFS) dans le cluster, suivez cette procédure sur chaque nœud du cluster.

  1. Suivez les procédures du guide d'installation de VxFS pour installer le logiciel VxFS sur chaque nœud du cluster.

  2. Installez tous les patchs Sun Cluster nécessaires à la prise en charge de VxFS.

    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la rubrique Patches and Required Firmware Levels du manuel Sun Cluster 3.2 2/08 Release Notes for Solaris OS.

  3. Dans le fichier /etc/system de chaque nœud, définissez les valeurs suivantes.


    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    Ces changements seront pris en compte à la prochaine réinitialisation du système.

    • Le logiciel Sun Cluster nécessite un paramètre rpcmod:svc_default_stksize minimum de 0x8000. Étant donné que l'installation de VxFS définit la valeur de la variable rpcmod:svc_default_stksize sur 0x4000, vous devez la définir sur 0x8000 manuellement une fois l'installation de VxFS terminée.

    • De plus, vous devez définir la variable lwp_default_stksize dans le fichier /etc/system pour remplacer la valeur 0x4000 par défaut de VxFS.

Étapes suivantes

Installez les packages Sun Cluster. Reportez-vous à la rubrique Comment installer les packages de logiciels de structure et de services de données Sun Cluster.

ProcedureComment installer les packages de logiciels de structure et de services de données Sun Cluster


Remarque –

Vous pouvez également déployer le plug-in Sun Cluster pour Sun N1TM Service Provisioning System afin d'installer le logiciel de service de données et de structure Sun Cluster. Suivez les instructions de la documentation fournie avec le plug-in. Vous pouvez également accéder à ces informations à l'adresse .


Cette procédure permet d'utiliser le programme Sun JavaTM Enterprise System (Java ES) installer pour effectuer une ou plusieurs des tâches suivantes :


Remarque –

Cette procédure utilise la forme interactive du programme installer. Pour utiliser la forme non interactive du programme installer, pour la création de scripts d'installation par exemple, reportez-vous au Chapitre 5, Installing in Silent Mode du Sun Java Enterprise System 5 Installation Guide for UNIX.


Avant de commencer

Effectuez les tâches suivantes :

  1. (Solaris 10 11/06 et Solaris 10 8/07 uniquement) Restaurez l'accès externe à la communication RPC et si vous le souhaitez, à Sun Java Web Console.

    Pendant l'installation de Solaris 10 11/06 ou de Solaris 10 8/07, si vous choisissez de ne pas activer les services de réseaux pour les clients distants, vous disposerez d'un profil réseau restreint qui désactive l'accès externe pour certains services de réseaux. Les services restreints comprennent les services suivants (affectent la fonctionnalité du cluster) :

    • Le service de communication RPC, nécessaire à la communication de cluster

    • Le service Sun Java Web Console, nécessaire pour l'utilisation de l'interface utilisateur Sun Cluster Manager

    Les étapes suivantes permettent de restaurer la fonctionnalité Solaris utilisée par la structure Sun Cluster, mais qui est interdite si un profil réseau restreint est utilisé.

    1. Exécutez les commandes suivantes pour restaurer l'accès externe à la communication RPC.


      phys-schost# svccfg
      svc:> select network/rpc/bind
      svc:/network/rpc/bind> setprop config/local_only=false
      svc:/network/rpc/bind> quit
      phys-schost# svcadm refresh network/rpc/bind:default
      phys-schost# svcprop network/rpc/bind:default | grep local_only
      

      La sortie de la dernière commande doit indiquer que la propriété local_only est maintenant définie sur false.

    2. (Facultatif) Exécutez les commandes suivantes pour restaurer l'accès externe à Sun Java Web Console.


      phys-schost# svccfg
      svc:> select system/webconsole
      svc:/system/webconsole> setprop options/tcp_listen=true
      svc:/system/webconsole> quit
      phys-schost# /usr/sbin/smcwebserver restart
      phys-schost# netstat -a | grep 6789
      

      La sortie de la dernière commande doit renvoyer une entrée pour 6789, qui représente le numéro de port utilisé pour se connecter à Sun Java Web Console.

      Pour plus d'informations sur les services que le profil réseau restreint limite aux connexions locales, reportez-vous à Planning Network Security du Solaris 10 11/06 Installation Guide: Planning for Installation and Upgrade.

  2. (Facultatif) Pour utiliser le programme installer avec une IUG, vérifiez que l'environnement du nœud de cluster à installer est défini pour afficher l'interface utilisateur graphique.


    % xhost +
    % setenv DISPLAY nodename:0.0
    

    Si vous ne procédez pas à ces réglages, le programme installer est exécuté en mode texte.

  3. Devenez superutilisateur du noeud de cluster à installer.

  4. Chargez le DVD-ROM Sun Java Availability Suite dans le lecteur DVD-ROM\~;.

    Si le démon de gestion de volumesvold(1M) est en cours d'exécution et qu'il est configuré pour gérer les périphériques de CD-ROM ou de DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0/ .

  5. Déplacez-vous sur le répertoire assistant d'installation du DVD-ROM\~;.

    • Si vous installez les packages du logiciel sur une plate-forme SPARC, exécutez la commande suivante :


      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
      
    • Si vous installez les packages du logiciel sur une plate-forme x86, exécutez la commande suivante :


      phys-schost# cd /cdrom/cdrom0/Solaris_x86
      
  6. Démarrez le programme assistant d'installation.


    phys-schost# ./installer
    

    Reportez-vous au manuel Sun Java Enterprise System 5 Installation Guide for UNIX pour plus d'informations sur l'utilisation des différentes formes et fonctions du programme Java ES installer.

  7. Pour installer le logiciel de structure Sun Cluster et les services de données sur le nœud, suivez les instructions à l'écran.

    • Si vous ne souhaitez pas installer Sun Cluster Manager, anciennement SunPlex Manager, désélectionnez-le.


      Remarque –

      Vous devez obligatoirement installer Sun Cluster Manager sur tous les nœuds du cluster.


    • Si vous souhaitez installer le logiciel Sun Cluster Geographic Edition, sélectionnez-le.

      Une fois le cluster établi, reportez-vous au manuel Sun Cluster Geographic Edition Installation Guide pour la suite des procédures d'installation.

    • À l'invite, choisissez la configuration ultérieure du logiciel de structure de Sun Cluster.

    Un fois l'installation terminée, vous pouvez visualiser tous les journaux d'installation disponibles.

  8. Installez des packages supplémentaires pour utiliser l'une des fonctionnalités suivantes.

    • Interface de programmation d'application de mémoire partagée distante (RSMAPI)

    • Adaptateurs SCI-PCI pour l'interconnexion

    • Pilotes RSMRDT


    Remarque –

    L'utilisation du pilote RSMRDT est limitée aux clusters exécutant une configuration SCI Oracle9i version 2 avec RSM activé. Reportez-vous à la documentation utilisateur d'Oracle9i version 2 pour connaître les instructions d'installation et de configuration.


    1. Déterminez quels packages vous devez installer.

      Le tableau suivant répertorie les packages Sun Cluster 3.2 2/08 requis par chaque fonctionnalité, classés selon l'ordre d'installation obligatoire de chaque groupe de packages. Le programme installer de Java ES n'installe pas automatiquement ces packages.


      Remarque –

      Installez les packages en respectant l'ordre donné dans le tableau suivant.


      Fonction 

      Packages Sun Cluster 3.2 2/08 supplémentaires à installer 

      RSMAPI 

      SUNWscrif

      Adaptateurs SCI-PCI 

      • Solaris 9: SUNWsci SUNWscid SUNWscidx

      • Solaris 10 : SUNWscir SUNWsci SUNWscidr SUNWscid

      Pilotes RSMRDT 

      SUNWscrdt

    2. Déplacez-vous sur Répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/, où arch est sparc ou x86 (Solaris 10 uniquement) et où ver est égal à 9 pour Solaris 9 ou 10 pour Solaris 10 .


      phys-schost# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
      
    3. Installez les autres packages.

      • SPARC : Sous Solaris 9, utilisez la commande suivante :


        phys-schost# pkgadd -d . packages
        
      • Sous Solaris 10, utilisez la commande suivante :


        phys-schost# pkgadd -G -d . packages
        
  9. Retirez le DVD-ROM Sun Java Availability Suite du lecteur DVD-ROM\~;.

    1. Afin de vous assurer que le DVD-ROM\~; n'est pas utilisé, déplacez-vous sur un répertoire ne résidant pas sur le DVD-ROM\~;.

    2. Éjectez le DVD-ROM\~;.


      phys-schost# eject cdrom
      
  10. Appliquez les patchs nécessaires à la prise en charge du logiciel Sun Cluster.

    Pour connaître l'emplacement des patchs et les instructions d'installation, reportez-vous à la rubrique Patches and Required Firmware Levels du manuel Sun Cluster 3.2 2/08 Release Notes for Solaris OS.

Étapes suivantes

Si vous souhaitez installer le logiciel de système de fichiers Sun StorEdge QFS, suivez les procédures de première installation dans le manuel Sun StorEdge QFS Installation and Upgrade Guide.

Sinon, pour définir l'environnement utilisateur racine, reportez-vous à la rubrique Configuration de l'environnement racine.

ProcedureConfiguration de l'environnement racine


Remarque –

Dans une configuration Sun Cluster, les fichiers d'initialisation utilisateur pour les différents shell doivent vérifier qu'ils sont bien exécutés à partir d'un shell interactif. avant de tenter d'envoyer la sortie au terminal. Sinon, vous risquez d'obtenir un comportement inattendu ou des interférences avec les services de données. Reportez-vous à Personnalisation de l'environnement de travail de l'utilisateur dans Guide d'administration système : administration de base (Solaris 9 ou Solaris 10) pour plus d'informations.


Suivez cette procédure sur chaque noeud du cluster.

  1. Connectez-vous en tant que superutilisateur sur un noeud du cluster.

  2. Modifiez les entrées PATH et MANPATH dans le fichier .cshrc ou .profile.

    1. Ajoutez /usr/sbin/ et /usr/cluster/bin/ à PATH.

    2. Ajoutez /usr/cluster/man/ à l'entrée MANPATH.

    Pour obtenir plus d'informations sur les autres chemins de fichier à définir, reportez-vous à la documentation du système d'exploitation Solaris et à celle des autres applications.

  3. (Facultatif) Pour faciliter le travail d'administration, définissez le même mot de passe de superutilisateur sur chaque noeud.

Étapes suivantes

Si vous souhaitez utiliser Solaris IP Filter, reportez-vous à Configuration de Solaris IP Filter.

Sinon, configurez le logiciel Sun Cluster sur les nœuds de cluster. Reportez-vous à la rubrique Établissement d'un cluster ou d'un nœud.

ProcedureConfiguration de Solaris IP Filter

Exécutez cette procédure pour configurer Solaris IP Filter sur le cluster.


Remarque –

Utilisez uniquement Solaris IP Filter avec les services de données de basculement. L'utilisation de Solaris IP Filter avec des services de données évolutifs n'est pas prise en charge.


Observez les recommandations suivantes :

Pour plus d'informations sur la fonctionnalité Solaris IP Filter, reportez-vous à Partie IV, IP Security du System Administration Guide: IP Services.

  1. (Solaris 10 11/06 uniquement) Modifiez les entrées dans le fichier /etc/iu.ap pour vous assurer que le filtre IP fonctionne en mode non cluster

    1. Modifiez les entrées NIC publiques pour répertorier clhbsndr pfil comme liste de module.

      pfil doit être le dernier module de la liste.


      Remarque –

      Si vous avez le même type d'adaptateur pour le réseau privé et public, les modifications apportées au fichier /etc/iu.ap pousseront pfil dans les flux des réseaux privés. Le module de transport de clusters supprime automatiquement tous les modules indésirables à la création du flux, pfil sera donc supprimé des flux des réseaux privés.


    2. Ajoutez des interfaces de réseau public au fichier /etc/ipf/pfil.ap.

      Reportez-vous à Chapitre 26, Solaris IP Filter (Tasks) du System Administration Guide: IP Services pour plus d'informations.

    3. Réinitialisez tous les nœuds affectés.

      Vous pouvez initialiser les nœuds par roulement.

  2. Ajoutez des règles de filtre au fichier /etc/ipf/ipf.conf sur tous les nœuds affectés.

    Observez les recommandations et les conditions suivantes lorsque vous ajoutez des règles de filtre aux nœuds Sun Cluster.

    • (Solaris 10 8/07 uniquement) Dans le fichier ipf.conf de chaque nœud, ajoutez des règles pour autoriser explicitement le non filtrage du trafic d'interconnexion du cluster. Les règles qui ne sont pas propres à l'interface sont appliquées à toutes les interfaces, y compris les interconnexions de cluster. Vérifiez que le trafic sur ces interfaces n'a pas été bloqué par erreur. Par exemple, supposons que les règles suivantes sont actuellement utilisées :


      # Default block TCP/UDP unless some later rule overrides
      block return-rst in proto tcp/udp from any to any
      
      # Default block ping unless some later rule overrides
      block return-rst in proto icmp all

      Pour débloquer le trafic d'interconnexion de cluster, ajoutez les règles suivantes. Les sous-réseaux utilisés sont fournis à titre d'exemple uniquement. Dérivez les sous-réseaux à utiliser à l'aide de la commande ifconfig interface.


      # Unblock cluster traffic on 172.16.0.128/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.0.128/25 to any
      pass out quick proto tcp/udp from 172.16.0.128/25 to any
      
      # Unblock cluster traffic on 172.16.1.0/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.1.0/25 to any
      pass out quick proto tcp/udp from 172.16.1.0/25 to any
      
      # Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet)
      pass in quick proto tcp/udp from 172.16.4.0/23 to any
      pass out quick proto tcp/udp from 172.16.4.0/23 to any
    • Le logiciel Sun Cluster bascule les adresses réseau de nœud à nœud. Aucun code ou procédure spécial(e) n'est nécessaire lors du basculement.

    • Toutes les règles de filtrage relatives aux adresses IP de noms d'hôtes logiques et aux ressources d'adresses partagées doivent être identiques sur tous les nœuds de cluster.

    • Les règles d'un nœud de réserve font référence à une adresse IP inexistante. Cette règle fait toujours partie de l'ensemble de règles actives du filtre IP et prendra effet lorsque les nœuds recevront l'adresse après un basculement.

    • Toutes les règles de filtrage doivent être identiques pour tous les NICs du même groupe IPMP. En d'autres termes, si une règle est propre à l'interface, la même règle doit également exister pour toutes les autres interfaces du même groupe IPMP.

    Pour plus d'informations sur les règles Solaris IP Filter, consultez la page de manuel ipf(4).

  3. Activez le service SMF ipfilter.


    phys-schost# svcadm enable /network/ipfilter:default
    
Étapes suivantes

Configurez le logiciel Sun Cluster sur les nœuds de votre cluster. Reportez-vous à la rubrique Établissement d'un cluster ou d'un nœud.