JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'installation du logiciel Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Planification de la configuration de Oracle Solaris Cluster

2.  Installation de logiciels sur des noeliguds de cluster global

Installation du logiciel

Préparation de l'installation du logiciel de cluster

Installation et configuration du logiciel Serveur de quorum

Installation du logiciel Cluster Control Panel sur une console d'administration

Installation du logiciel Solaris

Configuration de la mise en miroir du disque interne

SPARC : Installation du logiciel Sun Logical Domains et création de domaines

Installation du logiciel Veritas File System

Installation des logiciels de service de données et de structure Oracle Solaris Cluster

Installation du logiciel Sun QFS

Configuration de l'environnement root

Configuration de Solaris IP Filter

3.  Établissement d'un cluster global

4.  Configuration du logiciel Solaris Volume Manager

5.  Installation et configuration de Veritas Volume Manager

6.  Création d'un système de fichiers de cluster

7.  Création de zones non globales et de clusters de zones

8.  Installation du module Oracle Solaris Cluster sur Sun Management Center

9.  Désinstallation du logiciel à partir du cluster

A.  Fiches d'information sur l'installation et la configuration de Oracle Solaris Cluster

Index

Installation du logiciel

Cette section fournit les informations et procédures nécessaires à l’installation de logiciels sur les nœuds de cluster.

La liste suivante répertorie les tâches à exécuter lors de l’installation de logiciels sur des clusters globaux monohôtes ou multihôtes. Effectuez les procédures dans l’ordre dans lequel elles sont indiquées.

Tableau 2-1 Liste des tâches : installation du logiciel

Tâche
Instructions
Planifiez la configuration du cluster et préparez l’installation du logiciel.
(Facultatif) Installez et configurez un serveur de quorum.
(Facultatif) Installez le logiciel Cluster Control Panel (CCP) sur la console d’administration.
Installez le SE Solaris sur tous les nœuds. Activez éventuellement le multiacheminement d'E/S Solaris.
(Facultatif) Configurez la mise en miroir du disque interne.
(Facultatif) Installez le logiciel Sun Logical Domains (LDoms) et créez des domaines.
(Facultatif) SPARC : installez le logiciel Veritas File System.
Installez le logiciel Oracle Solaris Cluster et tous les services de données que vous utiliserez.
(Facultatif) Installez le logiciel Sun QFS.
Configurez les chemins de répertoire.
(Facultatif) Configurez Solaris IP Filter.

Préparation de l’installation du logiciel de cluster

Avant de commencer l’installation logicielle, effectuez les préparatifs suivants :

  1. Vérifiez que la combinaison logicielle et matérielle que vous choisissez pour votre cluster correspond à une configuration Oracle Solaris Cluster prise en charge.

    Sollicitez auprès de votre représentant commercial Oracle les toutes dernières informations concernant les configurations de cluster prises en charge.

  2. Les manuels suivants contiennent des informations qui vous aideront à planifier la configuration de votre cluster et à préparer votre stratégie d’installation.
  3. Vous devez disposer de toute la documentation connexe, documentation tierce comprise.

    La liste suivante répertorie quelques-uns des produits dont vous devrez consulter la documentation lors de l’installation du cluster :

    • SE Solaris

    • Logiciel Solaris Volume Manager

    • Logiciel Sun QFS

    • Veritas Volume Manager

    • Applications tierces

  4. Planifiez la configuration du cluster.

    Attention

    Caution - Planifiez toute l’installation du cluster. Identifiez la configuration requise de l’ensemble des services de données et des produits tiers avant de commencer à installer Solaris et Oracle Solaris Cluster. Faute de quoi, des erreurs pourraient se produire et vous devriez réinstaller entièrement les logiciels Solaris et Oracle Solaris Cluster. Vous devez répondre aux conditions requises avant d’installer Oracle Solaris Cluster, car il ne vous sera alors plus possible de modifier les noms d’hôtes, par exemple.


  5. Procurez-vous tous les patchs nécessaires à la configuration de votre cluster.

    Reportez-vous à la section Patchs et niveaux des microprogrammes requis du Notes de version d’Oracle Solaris Cluster 3.3 5/11 pour connaître l'emplacement des patchs et des instructions d'installation.

Étapes suivantes

Pour vous connecter aux nœuds de votre cluster à partir d’une console d’administration à l’aide du logiciel Cluster Control Panel, reportez-vous à la section Installation du logiciel Cluster Control Panel sur une console d'administration.

Sinon, choisissez la procédure d’installation Solaris à utiliser.

Installation et configuration du logiciel Serveur de quorum

Procédez comme suit pour configurer un serveur hôte en tant que serveur de quorum.

Avant de commencer

Effectuez les tâches suivantes :

  1. Connectez-vous en tant que superutilisateur pour installer le logiciel Serveur de quorum.
  2. (Facultatif) Pour utiliser le programme installer avec une interface graphique, assurez-vous que l'environnement d'affichage du serveur hôte à installer est configuré de sorte à pouvoir afficher l'interface graphique.
    # xhost +
    # setenv DISPLAY nodename:0.0
  3. Chargez le support d’installation dans le lecteur.

    Si le démon de gestion du volume vold(1M) est en cours d’exécution et qu’il est configuré pour gérer les périphériques CD-ROM ou DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0.

  4. Placez-vous dans le répertoire de l’assistant d’installation du support.
    • Si vous installez les logiciels sur la plate-forme SPARC, entrez la commande suivante :

      phys-schost# cd /cdrom/cdrom0Solaris_sparc
    • Si vous installez les logiciels sur la plate-forme x86, entrez la commande suivante :

      phys-schost# cd /cdrom/cdrom0Solaris_x86
  5. Lancez l’assistant d’installation.
    phys-schost# ./installer
  6. Suivez les instructions à l’écran pour installer le logiciel Serveur de quorum sur le serveur hôte.

    Choisissez l’option Configure Later (Configurer ultérieurement).


    Remarque - Si le programme d’installation ne vous permet pas de sélectionner l’option Configure Later (Configurer ultérieurement), choisissez Configure Now (Configurer maintenant).


    Une fois l’installation terminée, vous pouvez afficher les journaux d’installation qui sont disponibles. Le document Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX contient des informations supplémentaires sur l’utilisation du programme installer.

  7. Appliquez les patchs nécessaires au Serveur de quorum.
  8. Retirez le support d’installation du lecteur.
    1. Pour vous assurer que le support d’installation n’est pas en cours d’utilisation, placez-vous dans un répertoire qui ne réside pas sur le support.
    2. Éjectez le support.
      phys-schost# eject cdrom
  9. Appliquez les patchs nécessaires à la prise en charge du logiciel Serveur de quorum.

    Reportez-vous à la section Patchs et niveaux des microprogrammes requis du Notes de version d’Oracle Solaris Cluster 3.3 5/11 pour connaître l'emplacement des patchs et des instructions d'installation.

  10. (Facultatif) Ajoutez l’emplacement binaire du Serveur de quorum à la variable d’environnement PATH.
    quorumserver# PATH=$PATH:/usr/cluster/bin
  11. (Facultatif) Ajoutez l’emplacement de la page de manuel du Serveur de quorum à la variable d’environnement MANPATH.
    quorumserver# MANPATH=$MANPATH:/usr/cluster/man
  12. Configurez le serveur de quorum.

    Ajoutez l’entrée suivante au fichier /etc/scqsd/scqsd.conf pour spécifier les informations de configuration concernant le serveur de quorum.

    Identifiez le serveur de quorum en utilisant soit un nom d’instance, soit un numéro de port. Le numéro de port est obligatoire, tandis que le nom d’instance est facultatif.

    • Si vous fournissez un nom d’instance, il ne peut s’appliquer qu’à un seul serveur de quorum.

    • Pour faire référence à ce serveur de quorum, utilisez toujours son port d’écoute si vous ne fournissez pas de nom d’instance.

    /usr/cluster/lib/sc/scqsd [-d quorumdirectory] [-i instancename] -p port
    -d quorumdirectory

    Chemin d’accès au répertoire dans lequel le serveur de quorum peut stocker les données de quorum

    Le processus de serveur de quorum crée un fichier par cluster dans ce répertoire pour enregistrer des informations de quorum spécifiques au cluster.

    La valeur par défaut de cette option est /var/scqsd. Chaque serveur de quorum que vous configurez doit posséder son répertoire.

    -i instancename

    Nom unique que vous attribuez à l’instance de serveur de quorum

    -p port

    Numéro du port sur lequel le serveur de quorum écoute les demandes du cluster

  13. (Facultatif) Pour prendre en charge plusieurs clusters, mais utiliser un port ou une instance différent(e), configurez une entrée pour chaque instance supplémentaire du serveur de quorum dont vous avez besoin.
  14. Enregistrez le fichier /etc/scqsd/scqsd.conf et fermez-le.
  15. Démarrez le serveur de quorum que vous venez de configurer.
    quorumserver# /usr/cluster/bin/clquorumserver start quorumserver
    quorumserver

    Identifie le serveur de quorum. Vous pouvez utiliser le numéro du port d’écoute du serveur de quorum. Vous pouvez aussi utiliser le nom d’instance que vous avez éventuellement indiqué dans le fichier de configuration.

    • Pour démarrer un seul serveur de quorum, fournissez le nom d’instance ou le numéro de port.

    • Pour démarrer tous les serveurs de quorum (dans le cas de figure où vous en avez configuré plusieurs), utilisez l’opérande +.

Erreurs fréquentes

Le programme d’installation exécute une installation pkgadd simple des packages du Serveur de quorum et configure les répertoires nécessaires. Le logiciel contient les packages suivants :

L’installation de ces packages ajoute le logiciel dans les répertoires /usr/cluster et /etc/scqsd. Il est impossible de modifier l’emplacement du logiciel Serveur de quorum.

Si vous recevez un message d’erreur à propos de l’installation de Serveur de quorum, vérifiez que les packages ont été installés correctement.

Étapes suivantes

Pour communiquer avec les nœuds de cluster à l’aide d’une console d’administration, reportez-vous à la section Installation du logiciel Cluster Control Panel sur une console d'administration.

Sinon, passez à la section Installation du logiciel Solaris.

Installation du logiciel Cluster Control Panel sur une console d’administration


Remarque - Il n’est pas nécessaire d’utiliser une console d’administration. Sans console d’administration, vous réalisez les tâches administratives à partir d’un nœud spécifique du cluster.

Ce logiciel ne permet pas de connecter des domaines invités Sun Logical Domains (LDoms).


La procédure suivante décrit l’installation du logiciel Cluster Control Panel (CCP) sur une console d’administration. Le logiciel CCP fournit une interface unique à partir de laquelle lancer les outils cconsole, cssh, ctelnet et crlogin. Chacun de ces outils offre une connexion multifenêtre à un jeu de nœuds et à une fenêtre commune. Cette dernière permet l’envoi simultané d’entrée à l’ensemble des nœuds. Pour plus d’informations, reportez-vous à la page de manuel ccp(1M).

Tous les ordinateurs de bureau peuvent servir de console d’administration, à la condition qu’ils exécutent une version du SE Solaris qui soit prise en charge par le logiciel Oracle Solaris Cluster 3.3 5/11. Si vous utilisez le logiciel Oracle Solaris Cluster sur un système SPARC, la console d’administration peut également vous servir de serveur ou console Sun Management Center. Pour plus d’informations sur l’installation du logiciel Sun Management Center, reportez-vous à la documentation correspondante.

Avant de commencer

Vérifiez que la console d’administration possède une version prise en charge du SE Solaris ainsi que tous les patchs Solaris. Toutes les plates-formes requièrent au moins le groupe de logiciels Solaris utilisateur final.

  1. Devenez superutilisateur sur la console d’administration.
  2. Insérez le DVD-ROM dans le lecteur DVD-ROM.

    Si le démon de gestion du volume vold(1M) est en cours d'exécution et s'il est configuré pour gérer les périphériques CD-ROM ou DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0.

  3. Placez-vous dans le répertoire Répertoire Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/ dans lequel arch a pour valeur sparc ou x86 et ver a pour valeur 10 pour Solaris 10 .
    adminconsole# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Packages/
  4. Installez le package SUNWccon.
    adminconsole# pkgadd -d . SUNWccon
  5. (Facultatif) Installez les packages de pages de manuel Oracle Solaris Cluster.
    adminconsole# pkgadd -d . pkgname

    Nom de package
    Description
    SUNWscman
    Pages de manuel de la structure Oracle Solaris Cluster
    SUNWscdsman
    Pages de manuel du service de données Oracle Solaris Cluster
    SUNWscqsman
    Pages de manuel Serveur de quorum

    Lorsque vous installez les packages de pages de manuel Oracle Solaris Cluster sur la console d’administration, celle-ci vous permet de les afficher avant que vous n’installiez le logiciel Oracle Solaris Cluster sur les nœuds du cluster ou le serveur de quorum.

  6. Retirez le DVD-ROM du lecteur DVD-ROM.
    1. Pour vous assurer que le DVD-ROM n’est pas en cours d’utilisation, placez-vous dans un répertoire qui ne réside pas sur le DVD-ROM.
    2. Éjectez le DVD-ROM.
      adminconsole# eject cdrom
  7. Créez un fichier /etc/clusters sur la console d’administration.

    Ajoutez le nom du cluster et le nom physique de chaque nœud du cluster dans le fichier.

    adminconsole# vi /etc/clusters
    clustername node1 node2

    Pour plus d’informations, reportez-vous à la page de manuel/opt/SUNWcluster/bin/clusters(4).

  8. Créez un fichier /etc/serialports.

    Ajoutez une entrée pour chaque nœud du cluster dans le fichier. Spécifiez le nom physique de nœud, le nom d’hôte du périphérique d’accès à la console et le numéro de port. Par exemple, un concentrateur de terminaux (TC), un processeur de services système (SSP) et un contrôleur système Sun Fire constituent des périphériques d’accès à la console.

    adminconsole# vi /etc/serialports
    node1 ca-dev-hostname port
    node2 ca-dev-hostname port
    node1, node2

    Noms physiques des nœuds du cluster

    ca-dev-hostname

    Nom d’hôte du périphérique d’accès à la console

    port

    Numéro du port série, ou numéro de port Secure Shell pour les connexions Secure Shell.

    Notez les instructions spécifiques à la création du fichier /etc/serialports :

    • Pour le contrôleur système Sun Fire 15000, utilisez le numéro de port telnet(1) 23 comme numéro de port série de chaque entrée.

    • Pour tous les autres périphériques d’accès à la console, utilisez le numéro de port série telnet en lieu et place du numéro de port physique lors de la connexion à la console via le protocole telnet. En ajoutant 5000 au numéro de port physique, vous obtiendrez le numéro de port série telnet. Par exemple, le numéro de port série telnet 5006 correspond au numéro de port série physique 6.

    • Pour les serveurs Sun Enterprise 10000, reportez-vous également à la page de manuel /opt/SUNWcluster/bin/serialports(4) qui contient des informations spécifiques et des points à prendre en considération.

    • Afin de garantir des connexions sécurisées aux consoles de nœuds via le protocole Secure Shell, précisez le nom du périphérique d’accès à la console et le numéro de port pour chaque nœud. Par défaut, le numéro de port pour les connexions Secure Shell est 22.

    • Si vous souhaitez connecter la console d’administration aux nœuds du cluster directement ou par le biais d’un réseau de gestion, spécifiez le nom d’hôte et le numéro de port que chaque nœud utilise pour se connecter à la console d’administration ou au réseau de gestion.

  9. (Facultatif) Pour des raisons pratiques, définissez les chemins d’accès aux répertoires dans la console d’administration.
    1. Ajoutez le répertoire /opt/SUNWcluster/bin/ à la variable PATH.
    2. Ajoutez le répertoire /opt/SUNWcluster/man/ à la variable MANPATH.
    3. Si vous avez installé le package SUNWscman, ajoutez également le répertoire /usr/cluster/man/ à la variable MANPATH.
  10. Démarrez l’utilitaire CCP.
    adminconsole# /opt/SUNWcluster/bin/ccp &

    Cliquez sur le bouton cconsole, cssh, crlogin ou ctelnet dans la fenêtre CCP pour lancer l’outil correspondant. Vous pouvez également démarrer ces outils directement. Par exemple, pour démarrer ctelnet, tapez la commande suivante :

    adminconsole# /opt/SUNWcluster/bin/ctelnet &

    Le logiciel CCP prend en charge les connexions Secure Shell suivantes :

    • Pour sécuriser la connexion aux consoles de nœuds, démarrez l’outil cconsole. Ensuite, dans le menu Options de la fenêtre Cluster Console (Console du cluster), sélectionnez la case à cocher Use SSH (Utiliser SSH).

    • Pour sécuriser la connexion aux nœuds du cluster, utilisez l’outil cssh.

    Pour plus d’informations sur l’utilisation de l’utilitaire CCP, reportez-vous à la procédure de connexion à distance à Oracle Solaris Cluster dans la section Établissement d’une connexion distante au cluster du Guide d’administration système d’Oracle Solaris Cluster. Consultez également la page de manuel ccp(1M).

Étapes suivantes

Vérifiez si le SE Solaris installé répond aux exigences du logiciel Oracle Solaris Cluster. Pour plus d’informations sur les conditions requises par l'installation de Oracle Solaris Cluster, reportez-vous à la section Planification du SE Oracle Solaris.

Installation du logiciel Solaris

Si vous n’avez pas recours à la méthode d’installation de logiciels JumpStart personnalisée scinstall, installez le SE Solaris sur chaque nœud du cluster global comme indiqué dans la procédure ci-après. Pour plus d’informations sur l’installation JumpStart d’un cluster, reportez-vous à la section Installation de Solaris et Oracle Solaris Cluster (JumpStart).


Astuce - Pour une installation rapide, installez le SE Solaris sur chaque nœud simultanément.


Si les nœuds déjà installés avec le SE Solaris ne répondent pas à la configuration d’installation requise, vous risquez de devoir réinstaller le logiciel Solaris. Pour garantir la réussite de l’installation du logiciel Oracle Solaris Cluster, suivez la procédure ci-dessous étape par étape. Pour plus d’informations sur le partitionnement du disque racine et les autres configurations requises pour l’installation de Oracle Solaris Cluster, reportez-vous à la section Planification du SE Oracle Solaris.

Avant de commencer

Effectuez les tâches suivantes :

  1. Si vous utilisez une console d'administration de cluster, ouvrez un écran de console pour chaque nœud du cluster.
    • Si le logiciel Cluster Control Panel (CCP) est installé et configuré sur votre console d'administration, utilisez l'utilitaire cconsole(1M) pour afficher les écrans de console individuels.

      En tant que superutilisateur, utilisez les commandes suivantes pour démarrer l'utilitaire cconsole :

      adminconsole# /opt/SUNWcluster/bin/cconsole clustername &

      L'utilitaire cconsole ouvre également une fenêtre principale à partir de laquelle vous pouvez envoyer vos données en entrée à toutes les fenêtres de console individuelles en même temps.

    • Si vous n'utilisez pas l'utilitaire cconsole, connectez-vous individuellement aux consoles de chaque nœud.
  2. Installez le SE Solaris selon la procédure décrite dans la documentation relative à l’installation Solaris.

    Remarque - Vous devez utiliser une seule et même version du SE Solaris pour installer l’ensemble des nœuds d’un cluster.


    Appliquez l’une des méthodes classiques d’installation du logiciel Solaris. Au cours de l’installation du logiciel Solaris, procédez comme suit :

    1. Installez au moins le groupe de logiciels Solaris utilisateur final.

      Astuce - Pour éviter de devoir installer manuellement les packages logiciels Solaris, installez la prise en charge OEM Entire Plus du groupe de logiciels Solaris.


      Pour plus d’informations sur les exigences supplémentaires du logiciel Solaris, reportez-vous à la section Éléments à prendre en compte concernant le groupe de logiciels Oracle Solaris.

    2. Choisissez Manual Layout (Configuration manuelle) pour configurer les systèmes de fichiers.
      • Spécifiez une taille minimale de 20 Mo pour la tranche 7.
      • (Facultatif) Créez un système de fichiers de 512 Mo minimum pour le sous-système du périphérique global.

        Remarque - Vous pouvez également utiliser un périphérique lofi au lieu de créer ce système de fichiers dédié. Indiquez l’utilisation d’un périphérique lofi à la commande scinstall lors de la création du cluster.


      • Partitionnez le système de fichiers selon vos besoins, en suivant la procédure décrite à la section Partitions de disque système.
    3. Définir le même mot de passe root sur chaque nœud facilite l’administration du cluster.
  3. Si vous envisagez d’accéder aux nœuds du cluster à l’aide du contrôle d’accès basé sur les rôles (RBAC) plutôt qu’en tant que superutilisateur, configurez un rôle RBAC fournissant l’autorisation pour toutes les commandes Oracle Solaris Cluster.

    Les procédures d’installation suivantes nécessitent les autorisations RBAC Oracle Solaris Cluster si l’utilisateur n’est pas superutilisateur :

    • solaris.cluster.modify

    • solaris.cluster.admin

    • solaris.cluster.read

    Pour plus d’informations sur les rôles RBAC, reportez-vous à la section Role-Based Access Control (Overview) du System Administration Guide: Security Services. Reportez-vous aux pages de manuel de Oracle Solaris Cluster pour les autorisations RBAC que nécessite chaque sous-commande de Oracle Solaris Cluster.

  4. Créez des points de montage pour les systèmes de fichiers de cluster sur les nœuds que vous ajoutez éventuellement au cluster.
    1. À partir du nœud actif du cluster, affichez le nom de tous les systèmes de fichiers du cluster.
      phys-schost-1# mount | grep global | egrep -v node@ | awk '{print $1}'
    2. Sur le nouveau nœud, créez un point de montage pour chaque système de fichiers du cluster.
      phys-schost-new# mkdir -p mountpoint

      Par exemple, si la commande de montage indique le nom de système de fichiers /global/dg-schost-1, exécutez mkdir -p /global/dg-schost-1 sur le nœud que vous ajoutez au cluster.

  5. Si vous ajoutez un nœud au cluster et que VxVM est installé sur un ou plusieurs nœuds existants de celui-ci, effectuez les tâches suivantes.
    1. Assurez-vous que le même nombre vxio est utilisé pour les nœuds sur lesquels VxVM est installé.
      phys-schost# grep vxio /etc/name_to_major
      vxio NNN
    2. Vérifiez que le nombre vxio peut être utilisé pour tous les nœuds sur lesquels VxVM n’est pas installé.
    3. Si le nombre vxio est déjà utilisé pour un nœud sur lequel VxVM n’est pas installé, modifiez l’entrée /etc/name_to_major pour utiliser un nombre différent.
  6. Si vous avez installé le groupe de logiciels Solaris pour les utilisateurs finaux et si vous souhaitez utiliser l'une des fonctions Oracle Solaris Cluster, installez les autres packages logiciels Solaris prenant en charge ces fonctions.
    Fonction
    Packages logiciels Solaris obligatoires
    scsnapshot
    SUNWp15u SUNWp15v SUNWp15p
    Oracle Solaris Cluster Manager
    SUNWapchr SUNWapchu
    phys-schost# pkgadd -G -d . package

    Vous devez ajouter ces packages dans la zone globale uniquement. L’option -G ajoute des packages à la zone active uniquement. Cette option spécifie également que les packages ne sont pas propagés à une zone non globale existante ni à une zone non globale créée ultérieurement.

  7. Installez les patchs du SE Solaris et les patchs et microprogrammes matériels nécessaires.

    Incluez ces patchs pour la prise en charge de la baie de stockage. Téléchargez également les microprogrammes nécessaires, contenus dans les patchs matériels.

    Reportez-vous à la section Patchs et niveaux des microprogrammes requis du Notes de version d’Oracle Solaris Cluster 3.3 5/11 pour connaître l'emplacement des patchs et des instructions d'installation.

  8. x86 : définissez le fichier d’initialisation par défaut.

    Paramétrer cette valeur vous permet de réinitialiser le nœud s’il vous est impossible d’accéder à une invite de connexion.

    grub edit> kernel /platform/i86pc/multiboot kmdb
  9. Mettez à jour le fichier /etc/inet/hosts sur chaque nœud avec toutes les adresses IP publiques utilisées dans le cluster.

    Effectuez cette étape, que vous utilisiez ou non un service de nommage.


    Remarque - Lors de la création d’un cluster ou d’un nœud de cluster, l’utilitaire scinstall ajoute automatiquement l’adresse IP publique de chaque nœud configuré dans le fichier /etc/inet/hosts.


  10. (Facultatif) Sur les serveurs Sun Enterprise 10000, configurez le fichier /etc/system pour utiliser la reconfiguration dynamique.

    Ajoutez l’entrée suivante au fichier /etc/system sur chaque nœud du cluster :

    set kernel_cage_enable=1

    Cette entrée devient active à la prochaine réinitialisation du système. Pour plus d’informations sur la reconfiguration dynamique, consultez la documentation du serveur.

  11. (Facultatif) Configurez des adaptateurs de réseau public dans les groupes IPMP.

    Si vous ne souhaitez pas utiliser les groupes IPMP multiadaptateurs que l’utilitaire scinstall configure au cours de la création du cluster, configurez des groupes IPMP personnalisés comme pour un système autonome. Pour plus d’informations, reportez-vous au Chapitre 31, Administration d’IPMP (tâches) du Guide d’administration système : services IP.

    Au cours de la création du cluster, l’utilitaire scinstall configure chaque jeu d’adaptateurs de réseau public, qui utilisent le même sous-réseau et ne sont pas déjà configurés dans un groupe IPMP, dans un seul groupe IPMP multiadaptateur. L’utilitaire scinstall ignore les groupes IPMP existants.

  12. Si vous souhaitez utiliser le multiacheminement d'E/S Solaris, activez la fonction de multiacheminement sur chaque nœud.

    Attention

    Attention - Si le logiciel Oracle Solaris Cluster est déjà installé, n’exécutez pas la commande. Exécuter la commande stmsboot sur un nœud actif du cluster risque d’entraîner l’état de maintenance des services Solaris. Suivez plutôt les instructions décrites dans la page de manuel stmsboot(1M) pour utiliser la commande stmsboot dans un environnement Oracle Solaris Cluster.


    phys-schost# /usr/sbin/stmsboot -e
    -e

    Active le multiacheminement d’E/S Solaris.

    Pour plus d’informations, reportez-vous à la page de manuel stmsboot(1M).

Étapes suivantes

Pour configurer la mise en miroir des disques durs internes, dans la mesure où elle est prise en charge par votre serveur, reportez-vous à la section Configuration de la mise en miroir du disque interne.

Sinon, pour installer VxFS, reportez-vous à la section Installation du logiciel Veritas File System.

Sinon, installez les logiciels Oracle Solaris Cluster. Reportez-vous à la section Installation des logiciels de service de données et de structure Oracle Solaris Cluster.

Voir aussi

Le Guide d’administration système d’Oracle Solaris Cluster présente les procédures permettant d’exécuter des tâches de reconfiguration dynamique dans une configuration Oracle Solaris Cluster.

Configuration de la mise en miroir du disque interne

Pour configurer la mise en miroir du disque RAID matériel afin de mettre en miroir le disque système, effectuez la procédure suivante sur chaque nœud du cluster global. Elle est facultative.


Remarque - Vous ne devez pas effectuer cette procédure dans les cas suivants :


Avant de commencer

Vérifiez que le système d’exploitation Solaris et les patchs nécessaires sont installés.

  1. Connectez-vous en tant que superutilisateur.
  2. Configurez un miroir interne.
    phys-schost# raidctl -c clt0d0 clt1d0 
    -c clt0d0 clt1d0

    Crée le miroir du disque principal sur le disque miroir. Entrez le nom du disque principal comme premier argument. Entrez le nom du disque miroir comme second argument.

    Pour plus d’informations sur la configuration de la mise en miroir du disque interne de votre serveur, reportez-vous à la documentation qui accompagne votre serveur et à la page de manuel raidctl(1M).

Étapes suivantes

SPARC : pour créer des Sun Logical Domains (LDoms), reportez-vous à la section SPARC : Installation du logiciel Sun Logical Domains et création de domaines.

Sinon, pour installer VxFS, reportez-vous à la section Installation du logiciel Veritas File System.

Sinon, installez les logiciels Oracle Solaris Cluster. Reportez-vous à la section Installation des logiciels de service de données et de structure Oracle Solaris Cluster.

SPARC : Installation du logiciel Sun Logical Domains et création de domaines

Effectuez la procédure suivante pour installer le logiciel Sun Logical Domains (LDoms) sur une machine en cluster physique et créer des domaines invités et des E/S.

Avant de commencer

Effectuez les tâches suivantes :

  1. Connectez-vous en tant que superutilisateur.
  2. Installez le logiciel LDoms et configurez des domaines.
    • Suivez la procédure décrite à la section Installing and Enabling Software du Logical Domains (LDoms) 1.0.3 Administration Guide.

      Si vous créez des domaines invités dans votre cluster, respectez les directives Oracle Solaris Cluster à ce sujet.

    • Exécutez l’option mode=sc pour tous les périphériques de commutation virtuels qui connectent les périphériques réseau virtuels utilisés en tant qu’interconnexion de cluster.
    • Pour le stockage partagé, mappez uniquement les disques SCSI saturés aux domaines invités.

Étapes suivantes

Pour configurer la mise en miroir des disques durs internes, dans la mesure où elle est prise en charge par votre serveur, reportez-vous à la section Configuration de la mise en miroir du disque interne.

Sinon, pour installer VxFS, reportez-vous à la section Installation du logiciel Veritas File System.

Sinon, installez les logiciels Oracle Solaris Cluster. Reportez-vous à la section Installation des logiciels de service de données et de structure Oracle Solaris Cluster.

Installation du logiciel Veritas File System

Pour utiliser le logiciel Veritas File System (VxFS) dans le cluster, effectuez la procédure suivante sur chaque nœud du cluster global.

  1. Pour installer VxFS sur chaque nœud du cluster, suivez la procédure décrite dans la documentation relative à l’installation de ce logiciel.
  2. Installez les patchs Oracle Solaris Cluster nécessaires à la prise en charge de VxFS.

    Reportez-vous à la section Patchs et niveaux des microprogrammes requis du Notes de version d’Oracle Solaris Cluster 3.3 5/11 pour connaître l'emplacement des patchs et des instructions d'installation.

  3. Dans le fichier /etc/system sur chaque nœud, définissez les valeurs suivantes.
    set rpcmod:svc_default_stksize=0x8000
    set lwp_default_stksize=0x6000

    Ces modifications prennent effet dès la réinitialisation suivante du système.

    • Le logiciel Oracle Solaris Cluster nécessite un paramètre rpcmod:svc_default_stksize minimum de 0x8000. Dans la mesure où l’installation de VxFS définit la variable rpcmod:svc_default_stksize sur 0x4000, vous devez remplacer manuellement cette valeur par 0x8000 une fois VxFS installé.

    • Vous devez définir la variable lwp_default_stksize dans le fichier /etc/system pour remplacer la valeur 0x4000 par défaut de VxFS.

Étapes suivantes

Installez les logiciels Oracle Solaris Cluster. Reportez-vous à la section Installation des logiciels de service de données et de structure Oracle Solaris Cluster.

Installation des logiciels de service de données et de structure Oracle Solaris Cluster

Suivez cette procédure pour effectuer une ou plusieurs tâches d’installation à l’aide du programme installer :


Remarque - Cette procédure utilise la forme interactive du programme d’installation installer. Pour utiliser la forme non interactive du programme d’installation installer, notamment lorsque vous développez des scripts d’installation, reportez-vous au Chapitre 5, Installing in Silent Mode du Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX.


Avant de commencer

Effectuez les tâches suivantes :

  1. Restaurez l'accès externe aux communications RPC et à la Console Web Java Oracle, le cas échéant.

    Lors de l'installation du SE Solaris, un profil d'accès réseau limité permet de désactiver l'accès externe de certains services de réseau. Parmi les services restreints, les services suivants ont une incidence sur la fonctionnalité de cluster :

    • Le service de communication RPC, nécessaire à la communication du cluster ;

    • Le service Console Web Java Oracle nécessaire à l’utilisation de l’interface graphique Oracle Solaris Cluster Manager.

    La procédure suivante permet de restaurer la fonctionnalité Solaris que la structure Oracle Solaris Cluster utilise, mais qu’un profil réseau restreint peut empêcher.

    1. Pour restaurer l’accès externe aux communications RPC, exécutez les commandes suivantes :
      phys-schost# svccfg
      svc:> select network/rpc/bind
      svc:/network/rpc/bind> setprop config/local_only=false
      svc:/network/rpc/bind> quit
      phys-schost# svcadm refresh network/rpc/bind:default
      phys-schost# svcprop network/rpc/bind:default | grep local_only

      La sortie de la dernière commande doit indiquer que la propriété local_only est à présent définie sur false.

    2. (Facultatif) Exécutez les commandes suivantes pour restaurer l'accès externe à la Console Web Java Oracle.
      phys-schost# svccfg
      svc:> select system/webconsole
      svc:/system/webconsole> setprop options/tcp_listen=true
      svc:/system/webconsole> quit
      phys-schost# /usr/sbin/smcwebserver restart
      phys-schost# netstat -a | grep 6789

      La sortie de la dernière commande doit indiquer une entrée pour 6789. Ce chiffre correspond au numéro du port utilisé pour se connecter à la Console Web Java Oracle.

      Pour plus d’informations sur les services restreints aux connexions locales par le profil réseau restreint, reportez-vous à la section Planification de la sécurité réseau du Guide d’installation de Solaris 10 10/09 : planification d’installation et de mise à niveau.

  2. (Facultatif) Pour utiliser le programme d’installation installer avec une interface graphique, assurez-vous que l’environnement d’affichage du nœud de cluster à installer est paramétré pour afficher l’interface graphique.
    % xhost +
    % setenv DISPLAY nodename:0.0

    Faute de quoi, le programme d’installation installer s’exécute en mode texte.

  3. Connectez-vous en tant que superutilisateur au nœud du cluster à installer.

    Remarque - Si vos machines en cluster physique sont configurées sur LDoms, installez le logiciel Oracle Solaris Cluster uniquement dans les domaines d’E/S ou les domaines invités.


  4. Insérez le DVD-ROM dans le lecteur DVD-ROM.

    Si le démon de gestion du volume vold(1M) est en cours d'exécution et s'il est configuré pour gérer les périphériques CD-ROM ou DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0.

  5. Placez-vous dans le répertoire assistant d?installation du DVD-ROM.
    • Si vous installez les logiciels sur la plate-forme SPARC, entrez la commande suivante :

      phys-schost# cd /cdrom/cdrom0/Solaris_sparc
    • Si vous installez les logiciels sur la plate-forme x86, entrez la commande suivante :

      phys-schost# cd /cdrom/cdrom0/Solaris_x86
  6. Lancez le programme assistant d?installation.
    phys-schost# ./installer

    Le document Sun Java Enterprise System 5 Update 1 Installation Guide for UNIX contient de plus amples informations sur l’utilisation des différentes formes et fonctions du programme d’installation.

  7. Suivez les instructions à l’écran pour installer les services de données et le logiciel de structure Oracle Solaris Cluster sur le nœud.
    • Si vous ne voulez pas installer Oracle Solaris Cluster Manager (anciennement SunPlex Manager), désélectionnez-le.


      Remarque - Vous devez installer Oracle Solaris Cluster Manager sur tous les nœuds du cluster ou sur aucun.


    • Pour installer le logiciel Oracle Solaris Cluster Geographic Edition, sélectionnez-le.

      Une fois le cluster établi, reportez-vous au Oracle Solaris Cluster Geographic Edition Installation Guide contenant des procédures d’installation supplémentaires.

    • Choisissez Configure Later (Configurer ultérieurement) lorsque vous êtes invité à configurer le logiciel de structure Oracle Solaris Cluster.

    Une fois l’installation terminée, vous pouvez afficher les journaux d’installation qui sont disponibles.

  8. Retirez le DVD-ROM du lecteur DVD-ROM.
    1. Pour vous assurer que le DVD-ROM n'est pas en cours d'utilisation, placez-vous dans un répertoire qui ne réside PAS sur le DVD-ROM.
    2. Éjectez le DVD-ROM.
      phys-schost# eject cdrom
  9. Appliquez les patchs nécessaires à la prise en charge du logiciel Oracle Solaris Cluster.

    Reportez-vous à la section Patchs et niveaux des microprogrammes requis du Notes de version d’Oracle Solaris Cluster 3.3 5/11 pour connaître l'emplacement des patchs et des instructions d'installation.

  10. Si vous utilisez l'un des adaptateurs suivants pour l'interconnexion de cluster, annulez le commentaire de l'entrée correspondante dans le fichier /etc/system de chaque nœud.
    Adaptateur
    Entrée
    ipge
    set ipge:ipge_taskq_disable=1
    ixge
    set ixge:ixge_taskq_disable=1

    Cette entrée sera effective à la prochaine réinitialisation du système.

Étapes suivantes

Pour installer le logiciel de système de fichiers Sun QFS, suivez les procédures de l’installation initiale. Reportez-vous à la section Installation du logiciel Sun QFS.

Sinon, pour configurer l’environnement de l’utilisateur root, reportez-vous à la section Configuration de l'environnement root.

Installation du logiciel Sun QFS

Effectuez cette procédure sur chaque nœud du cluster global.

  1. Vérifiez que le logiciel Oracle Solaris Cluster est installé.

    Reportez-vous à la section Installation des logiciels de service de données et de structure Oracle Solaris Cluster.

  2. Connectez-vous en tant que superutilisateur sur un nœud du cluster.
  3. Installez le logiciel de système de fichiers Sun QFS.

    Suivez les procédures de l’installation initiale décrites sur la page Installing Sun QFS.

Étapes suivantes

Configurez l’environnement de l’utilisateur root. Passez à la section Configuration de l'environnement root.

Configuration de l’environnement root


Remarque - Dans une configuration Oracle Solaris Cluster, les fichiers d’initialisation utilisateur des divers shells doivent s'assurer qu’ils sont exécutés à partir d’un shell interactif. Cette vérification doit avoir lieu avant la tentative de sortie vers le terminal. Dans le cas contraire, un comportement inattendu ou un conflit avec les services de données pourrait se produire. Pour plus d’informations, reportez-vous à la section Customizing a User’s Work Environment du System Administration Guide: Basic Administration.


Effectuez cette procédure sur chaque nœud du cluster global.

  1. Connectez-vous en tant que superutilisateur sur un nœud du cluster.
  2. Modifiez les entrées PATH et MANPATH dans le fichier .cshrc ou .profile.
    1. Ajoutez /usr/sbin/ et /usr/cluster/bin/ à la variable PATH.
    2. Ajoutez /usr/cluster/man/ à la variable MANPATH.

    Les documentations du SE Solaris, du gestionnaire de volume et d’autres applications fournissent des chemins d’accès aux fichiers supplémentaires à définir.

  3. (Facultatif) Définir le même mot de passe root sur chaque nœud, si ce n’est déjà fait, simplifie l’administration.

Étapes suivantes

Pour utiliser Solaris IP Filter, reportez-vous à la section Configuration de Solaris IP Filter.

Sinon, configurez le logiciel Oracle Solaris Cluster sur les nœuds du cluster. Reportez-vous à la section Établissement d'un nouveau cluster global ou d'un nouveau noeligud de cluster global.

Configuration de Solaris IP Filter

Pour configurer Solaris IP Filter sur le cluster global, suivez la procédure ci-dessous.


Remarque - Utilisez Solaris IP Filter uniquement avec les services de données de basculement. L’utilisation de Solaris IP Filter avec des services de données évolutifs n’est pas prise en charge.


Pour plus d’informations sur la fonction Solaris IP Filter, reportez-vous à la Partie IV, IPsec du Guide d’administration système : services IP.

Avant de commencer

Lisez les directives et les instructions à suivre lorsque vous configurez le filtre IP Solaris dans un cluster. Reportez-vous à la puce "Filtre IP" de la section Restrictions concernant les fonctions du SE Oracle Solaris.

  1. Connectez-vous en tant que superutilisateur.
  2. Ajoutez des règles de filtre au fichier /etc/ipf/ipf.conf sur tous les nœuds concernés.

    Tenez compte de la configuration requise et des directives suivantes lorsque vous ajoutez des règles de filtre aux nœuds Oracle Solaris Cluster.

    • Dans le fichier ipf.conf sur chaque nœud, ajoutez des règles autorisant explicitement le trafic des interconnexions de cluster à transiter sans filtrage. Les règles qui ne sont pas spécifiques à une interface sont appliquées à toutes les interfaces, connexions de cluster comprises. Veillez à ce que le trafic sur ces interfaces ne soit pas bloqué par mégarde. Si le trafic des interconnexions est bloqué, la configuration du filtre IP interfère avec les opérations des infrastructures et des protocoles de transfert du cluster.

      Imaginons, par exemple, que les règles suivantes sont utilisées :

      # Default block TCP/UDP unless some later rule overrides
      block return-rst in proto tcp/udp from any to any
      
      # Default block ping unless some later rule overrides
      block return-rst in proto icmp all

      Pour débloquer le trafic d’interconnexions de cluster, ajoutez les règles suivantes. Les sous-réseaux utilisés sont à titre d’exemple uniquement. Dérivez les sous-réseaux à utiliser à l’aide de la commande ifconfiginterface.

      # Unblock cluster traffic on 172.16.0.128/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.0.128/25 to any
      pass out quick proto tcp/udp from 172.16.0.128/25 to any
      
      # Unblock cluster traffic on 172.16.1.0/25 subnet (physical interconnect)
      pass in quick proto tcp/udp from 172.16.1.0/25 to any
      pass out quick proto tcp/udp from 172.16.1.0/25 to any
      
      # Unblock cluster traffic on 172.16.4.0/23 (clprivnet0 subnet)
      pass in quick proto tcp/udp from 172.16.4.0/23 to any
      pass out quick proto tcp/udp from 172.16.4.0/23 to any
    • Vous pouvez spécifier soit le nom de l'adaptateur, soit l'adresse IP d'un réseau privé de clusters. Par exemple, la règle suivante spécifie un réseau privé de clusters par le nom de son adaptateur :

      # Allow all traffic on cluster private networks.
      pass in quick on e1000g1 all
      …
    • Le logiciel Oracle Solaris Cluster bascule les adresses réseau d’un nœud à l’autre. Aucune procédure ni aucun code n’est nécessaire lors du basculement.

    • Toutes les règles de filtrage indiquant des adresses IP de nom d’hôte logique et des ressources d’adresses partagées doivent être identiques sur tous les nœuds du cluster.

    • Les règles sur un nœud passif indiqueront une adresse IP non existante. Cette règle fait toujours partie du jeu de règles actif du filtre IP et entre en vigueur lorsque le nœud reçoit l’adresse après un basculement.

    • Toutes les règles de filtrage doivent être identiques pour tous les NIC appartenant au même groupe IPMP. En d’autres termes, si une règle est spécifique à une interface, elle doit également exister pour toutes les autres interfaces appartenant au même groupe IPMP.

    Pour plus d’informations sur les règles Solaris IP Filter, reportez-vous à la page de manuel ipf(4).

  3. Activez le service SMF ipfilter.
    phys-schost# svcadm enable /network/ipfilter:default

Étapes suivantes

Configurez le logiciel Oracle Solaris Cluster sur les nœuds du cluster. Reportez-vous à la section Établissement d'un nouveau cluster global ou d'un nouveau noeligud de cluster global.