6 Installation de Solaris Cluster 4.2

L'installation de Solaris Cluster est abordée en détail dans le Oracle Solaris Cluster Software Installation Guide disponible dans la bibliothèque Oracle Technology Network (voir Téléchargement des packages logiciels dans ce document).

ACSLSHA 8.4 est pris en charge sur Solaris 11.2 avec Oracle Solaris Cluster 4.2.

Installation du package Cluster

Suivez cette procédure pour installer le logiciel Cluster.

  1. Créez le répertoire /opt/OSC.

    # mkdir /opt/OSC
    
  2. Vous avez peut-être téléchargé une ou deux images ISO pour le package Solaris Cluster, en fonction de la version du système d'exploitation définie dans Téléchargement d'Oracle Cluster 4.2. Déplacez chaque package Cluster téléchargé dans le répertoire /opt/OSC.

  3. Décompressez les packages. Identifiez une image ISO pour chaque package décompressé.

  4. Créez un pseudopériphérique pour chaque image ISO.

    #  /usr/sbin/lofiadm -a /opt/OSC/V46190-01.iso
    
    #  /usr/sbin/lofiadm -a /opt/OSC/osc-4_2_5_1_0-repo-incr.iso
    

    Effectuez le suivi des numéros d'instance /dev/lofi créés pour chacune de ces images.

  5. Dans le répertoire /opt/OSC, créez un point de montage pour chaque pseudopériphérique.

    # mkdir mnt
    
    # mkdir mnt1
    
  6. Montez les pseudopériphériques sur ces points de montage.

    # mount –F hsfs –o ro /dev/lofi/1 /opt/OSC/mnt
    
    # mount –F hsfs –o ro /dev/lofi/2 /opt/OSC/mnt1
    
  7. Effectuez l'une des opérations suivantes :

    • Si vous avez installé Solaris version 11.2.13 ou ultérieure, passez à l'étape 8.

    • Si vous avez installé Solaris version 11.2.12 ou antérieure et que vous avez téléchargé l'image Cluster de base uniquement, vous pouvez maintenant publier le référentiel pour cette image de base.

      #  pkg set publisher –G  ’*’  –g  file:/opt/OSC/mnt/repo  ha-cluster
      

      Passez à l'étape 13 figurant dans cette section pour installer le package.

  8. Les étapes suivantes permettent de copier le package de base OSC dans un système de fichiers en lecteur/écriture pour fusionner le patch de mise à jour avec le package de base.

    Créez un système de fichiers en lecture/écriture pour la fusion des packages OSC.

    # cd /opt/OSC
    
    # mkdir merged_iso
    
  9. Copiez le référentiel de l'image OSC de base dans le répertoire créé.

    # cp –r  mnt/repo  merged_iso
    
  10. Synchronisez les deux images ensemble dans le répertoire fusionné.

    # rsync –aP mnt1/repo  merged_iso
    
  11. Reconstituez les index de recherche pour le référentiel

    # pkgrepo rebuild –s  merged_iso/repo
    
  12. Publiez le référentiel ha-cluster des packages fusionnés.

    # pkg set-publisher –g file:/opt/OSC/merged_iso/repo ha-cluster
    
  13. Installez le package Oracle Solaris Cluster.

    # pkg install -–accept ha-cluster-full
    

Répétez les étapes 1 à 13 sur le noeud adjacent.

La routine scinstall

La routine d'installation de Solaris Cluster effectue une série de contrôles entre les deux noeuds pour s'assurer qu'il peut surveiller le fonctionnement du système à partir des deux serveurs et qu'il peut contrôler les actions de démarrage et de basculement.

Etapes préliminaires :

  1. Avant d'exécuter scinstall, il est utile de créer un environnement pour root qui inclut le chemin vers les utilitaires du cluster qui viennent juste d'être installés. Editez le fichier /root/.profile. Modifiez l'intitulé du chemin pour inclure /usr/cluster/bin.

    export PATH=/usr/cluster/bin:/usr/bin:/usr/sbin
    

    Assurez-vous de bien effectuer cette modification sur chaque noeud. Pour hériter d'un nouveau chemin, fermez votre session et rouvrez-la, ou exécutez simplement su -.

  2. Vérifiez que la propriété config/local_only pour rpc/bind est false

    # svccfg -s network/rpc/bind listprop config/local_only
    

    Si cette propriété renvoie true, vous devez la définir sur false.

    # svccfg -s network/rpc/bind setprop config/local_only=false
    

    A présent, vérifiez :

    # svccfg -s network/rpc/bind listprop config/local_only
    
  3. Un élément essentiel de la configuration matérielle requise pour le logiciel Cluster est l'existence de deux connexions réseau privées, réservées afin d'assurer la communication ininterrompue pour le fonctionnement du cluster entre les deux noeuds.

    La Figure 2-1, Carte unique d'interface de bibliothèque HBCr vers deux ports Ethernet sur chaque noeud de serveur présente ces connexions physiques, indiquées par (2). Chaque connexion provient d'un adaptateur de réseau séparé pour garantir qu'aucun point de défaillance ne peut interrompre la communication interne de Cluster. La routine scinstall vérifie chacune des deux connexions afin de s'assurer qu'aucun autre trafic réseau n'est visible sur le câble. Enfin, scinstall vérifie que la communication entre les deux lignes est fonctionnelle. Une fois la connexion physique vérifiée, la routine monte chaque interface vers une adresse interne privée qui commence par 172.16.

    Avant d'exécuter scinstall, vérifiez l'ID du périphérique réseau attribué pour les deux ports réseau sur chaque serveur configuré pour la connexion privée. Exécutez dladm show-phys pour afficher les affectations des interfaces.

    # dladm show-phys
    
  4. Un nom d'hôte logique et une adresse IP doivent être établis afin de représenter le cluster depuis chaque noeud. Cet hôte logique répond sans faute à la communication du réseau, indépendamment du fait que l'hôte actif est exécuté depuis le noeud 1 ou le noeud 2.

    Actualisez le fichier /etc/hosts sur chaque noeud pour qu'il inclue le nom d'hôte logique et l'adresse IP logique. Cet hôte devient actif lorsque vous démarrez ACSLS HA (Configuration d'ACSLS HA).

  5. Pour réussir l'installation du cluster, activez le conteneur de l'agent commun Solaris. Vérifiez que le conteneur de l'agent est activé.

    # cacaoadm status
    

    Si la réponse sur l'état indique que le conteneur de l'agent est désactivé au démarrage du système, activez-le comme suit :

    # cacaoadm enable
    

Exécutez scinstall

A partir de l'un des deux noeuds, exécutez la commande scinstall puis suivez cette procédure :

  1. A partir du menu principal, sélectionnez Créez un nouveau cluster.

  2. A partir du sous-menu, sélectionnez Créez un nouveau cluster.

  3. Acceptez les paramètres initiaux par défaut.

  4. Sélectionnez Installation standard.

  5. Attribuez un nom pour le cluster, p.ex. acsls_cluster.

  6. Lors de l'invite des noeuds du cluster, saisissez le nom d'hôte du noeud adjacent. Acceptez la liste de noeud si elle est correcte.

  7. Définissez les deux interconnexions privées entre les noeuds identifiées dans ce but. Autorisez la routine d'installation à monter les liaisons TCP aux connexions physiques.

  8. Suivez les invites pour créer le cluster. A moins d'avoir identifié un périphérique spécifique pour qu'il serve de périphérique de quorum, autorisez la routine scinstall à sélectionner le ou les périphériques de quorum.

  9. Ne paniquez pas si l'utilitaire indique que le contrôle du cluster a échoué sur les deux noeuds. Une défaillance est indiquée mêmes pour les avertissements insignifiants. Consultez le rapport pour chaque noeud et recherchez les éventuelles erreurs ou violations graves qui peuvent être signalées. La routine affiche le chemin vers le fichier journal qui signale les détails associés aux erreurs ou avertissements rencontrés pendant cette opération. Passez le fichier journal en revue et corrigez tous les problèmes graves ou modérés qui ont été identifiés.

    La routine scinstall s'exécute à partir d'un noeud et installe Solaris Cluster sur les deux noeuds. Observez la routine qui configure et réinitialise le premier noeud puis le second.

Vérification de la configuration du cluster

  1. Vérifiez que les deux noeuds sont inclus dans le cluster.

    # clnode list -v
    Node                Type
    ----                ----
    node1               cluster
    node2               cluster
    
  2. Affichez la liste des périphériques disponibles pour Solaris Cluster.

    # cldevice list -v
    DID Device   Full Device Path
    d1           node1:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d1           node2:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d2           node1:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d2           node2:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d3           node1:/dev/rdsk/c1t0d0
    d4           node1:/dev/rdsk/c1t1d0
    d5           node2:/dev/rdsk/c1t0d0
    d6           node2:/dev/rdsk/c1t1d0
    

    Dans cet exemple, les périphériques de disques partagés sont d1 et d2, tandis que d3 et d4 sont les unités d'initialisation du noeud 1 et d5 et d6 sont les unités d'initialisation du noeud 2. Notez que d1 et d2 sont accessibles depuis les deux noeuds.

  3. Un quorum est composé de trois périphériques ou plus. Il est utilisé pendant les démarrages pour déterminer le noeud qui doit devenir le noeud actif.

    Confirmez qu'un quorum complet a bien été configuré.

    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    node1               node
    node2               node
    

    Un second disque partagé peut être ajouté de manière facultative à la liste des périphériques de quorum.

    # clquorum add d2
    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    d2                  shared_disk
    node1               node
    node2               node
    

    Si les périphériques de disques partagés ne sont pas listés, déterminez leurs ID de périphérique et ajoutez-les au quorum.

    1. Identifiez l'ID de périphérique pour chaque disque partagé.

      # cldevice list -v
      
    2. Exécutez clsetup pour ajouter les périphériques de quorum.

      # clsetup
      
      Select '1' for quorum.
      Select '1' to dd a quorum device.
      Select 'yes' to continue.
      Select 'Directly attached shared disk'
      Select 'yes' to continue.
      Enter the device id (d<n>) for the first shared drive.
      Answer 'yes' to add another quorum device.
      Enter the device id for the second shared drive.
      
    3. Exécutez clquorum show pour confirmer l'appartenance du quorum.

      # clquorum show
      
  4. Passez en revue toute la configuration du cluster.

    # cluster check -v | egrep -v "not applicable|passed"
    

    Recherchez toutes les instances violated dans la liste.

  5. Vérifiez la liste des types de ressources enregistrées.

    # clrt list
    SUNW.LogicalHostname:4
    SUNW.SharedAddress:2
    SUNW.gds:6
    

    Si SUNW.gds n'est pas dans la liste, enregistrez-le.

    # clrt register SUNW.gds
    

    Confirmez avec clrt list.