Skip Headers
StorageTek Automated Cartridge System Library Software Installation, configuration et fonctionnement du cluster 8.3 en haute disponibilité
Version 8.3
E54097-01
  Accéder à la table des matières
Sommaire
Accéder à l'index
Index

Précédent
Précédent
 
Suivant
Suivant
 

6 Installation de Solaris Cluster 4.1

L'installation de Solaris Cluster est abordée en détail dans le Oracle Solaris Cluster Software Installation Guide disponible dans la bibliothèque Oracle Technology Network (voir dans ce document).

ACSLSHA 8.3 est pris en charge sur Solaris 11 avec Oracle Solaris Cluster 4.1 et la mise à jour du référentiel su support (Support Repository Update) SRU-4 pour OSC-4.1.

Installation du package Cluster

Cette procédure décrit l'installation du logiciel Cluster.

  1. Créez le répertoire /opt/OSC.

    # mkdir /opt/OSC
    
  2. Déplacez l'image iso téléchargée de Cluster 4.1 (osc-4_1-ga-repo-full.iso) vers le répertoire /opt/OSC.

  3. Déplacez l'image du patch SRU-4 OSC 4.1 vers le répertoire /opt/OSC et décompressez le fichier.

  4. Copiez l'image iso Cluster en lecture seule vers un système de fichiers lecture/écriture.

    1. Créez un pseudopériphérique pour l'image iso :

      # /usr/sbin/lofiadm -a /opt/OSC/osc-4_1-ga-repo-full.iso
      

      Notez le chemin du périphérique qui s'affiche et utilisez-le à l'étape c.

    2. Créez un point de montage :

      # mkdir /opt/OSC/mnt
      
    3. Montez le pseudopériphérique sur le point de montage :

      # mount -F hsfs -o ro /dev/lofi/1 /opt/OSC/mnt
      
    4. Copiez l'image iso vers un système de fichiers lecture/écriture provisoire.

      # mkdir /opt/OSC/merged_iso
      # cp -r /opt/OSC/mnt/repo /opt/OSC/merged_iso
      
  5. Montez l'image SRU-4 ISO vers un système de fichiers.

    # mount -F hsfs /opt/OSC/osc-4_1_4-1-repo-incr.iso /mnt
    
  6. Fusionnez les changements dans SRU-4 vers la version Cluster 4.1 de base.

    1. Synchronisez les deux images iso vers le système de fichiers provisoire.

      # rsync -aP /mnt/repo /opt/OSC/merged_iso
      
    2. Reconstituez les index de recherche pour le référentiel.

      # pkgrepo rebuild -s /opt/OSC/merged_iso/repo
      
  7. Installez Solaris Cluster à partir de l'image iso mise à jour.

    # pkg set-publisher -g file:///opt/OSC/merged_iso/repo ha-cluster
    # pkg install ha-cluster-full
    
  8. Répétez les étapes 1 à 7 sur le noeud adjacent.

La routine scinstall

La routine d'installation de Solaris Cluster effectue une série de contrôles entre les deux noeuds pour s'assurer qu'il peut surveiller le fonctionnement du système à partir des deux serveurs et qu'il peut contrôler les actions de démarrage et de basculement.

Etapes préliminaires :

  1. Avant d'exécuter scinstall, il est utile de créer un environnement pour root qui inclut le chemin vers les utilitaires du cluster qui viennent juste d'être installés. Editez le fichier /root/.profile. Modifiez l'intitulé du chemin pour inclure /usr/cluster/bin.

    export PATH=/usr/cluster/bin:/usr/bin:/usr/sbin
    

    Assurez-vous de bien faire cette modification sur chaque noeud. Pour hériter d'un nouveau chemin, vous pouvez fermer votre session et la rouvrir ou exécuter simplement su -.

  2. Confirmez que la propriété config/local_only pour rpc/bind est false

    # svccfg -s network/rpc/bind listprop config/local_only
    

    Si cette propriété renvoie true, vous devez la définir sur false.

    # svccfg -s network/rpc/bind setprop config/local_only=false
    

    A présent, confirmez :

    # svccfg -s network/rpc/bind listprop config/local_only
    
  3. L'une des exigences de configuration matérielle essentielles pour le logiciel Cluster est l'existence de deux connexions réseau privées réservées afin de garantir la communication ininterrompue entre les deux noeuds pour que Cluster fonctionne. affiche trois connexions physiques indiquées par la référence (2). Chaque connexion provient d'un adaptateur de réseau (NIC) séparé pour garantir qu'aucun point de défaillance ne peut interrompre la communication interne de Cluster. La routine scinstall vérifie chacune des deux connexions afin de s'assurer qu'aucun autre trafic réseau n'est visible sur le câble. Enfin, scinstall vérifie que la communication entre les deux lignes est fonctionnelle. Une fois la connexion physique vérifiée, la routine monte chaque interface vers une adresse interne privée qui commence par 172.16.

    Avant d'exécuter scinstall, vous devez vérifier l'ID du périphérique réseau attribué pour les deux ports réseau sur chaque serveur que vous avez configuré pour la connexion privée. Exécutez dladm show-phys pour afficher les affectations des interfaces.

    # dladm show-phys
    
  4. Un nom d'hôte logique et une adresse IP doivent être établis afin de représenter le cluster depuis chaque noeud. Cet hôte logique répond sans faute à la communication du réseau, indépendamment du fait que l'hôte actif est exécuté depuis le noeud 1 ou le noeud 2.

    Actualisez le fichier /etc/hosts sur chaque noeud pour qu'il inclue le nom d'hôte logique et l'adresse IP logique. Cet hôte devient actif lorsque vous démarrez ACSLS-HA ().

  5. Pour réussir l'installation du cluster, vous devez avoir activé le conteneur de l'agent commun Solaris. Vérifiez que le conteneur de l'agent est activé.

    # cacaoadm status
    

    Si la réponse sur l'état indique que le conteneur de l'agent est désactivé au démarrage du système, activez-le comme suit :

    # cacaoadm enable
    

Exécutez scinstall

A partir de l'un des deux noeuds, exécutez la commande scinstall puis suivez cette procédure :

  1. A partir du menu principal, sélectionnez Créez un nouveau cluster.

  2. A partir du sous-menu, sélectionnez Créez un nouveau cluster.

  3. Acceptez les paramètres initiaux par défaut.

  4. Sélectionnez Installation standard.

  5. Attribuez un nom pour le cluster, p.ex. acsls_cluster.

  6. Lors de l'invite des noeuds du cluster, saisissez le nom d'hôte du noeud adjacent. Acceptez la liste de noeud si elle est correcte.

  7. Définissez les deux interconnexions privées entre les noeuds que vous avez identifiées dans ce but. Autorisez la routine d'installation à monter les liaisons tcp aux connexions physiques.

  8. Suivez les invites pour créer le cluster. A moins d'avoir identifié un périphérique spécifique pour qu'il serve de périphérique de quorum, autorisez la routine scinstall à sélectionner le ou les périphériques de quorum.

  9. Ne paniquez pas si l'utilitaire indique que le contrôle du cluster a échoué sur les deux noeuds. Une défaillance est indiquée mêmes pour les avertissements insignifiants. Consultez le rapport pour chaque noeud et recherchez les éventuelles erreurs ou violations graves qui peuvent être signalées. La routine affiche le chemin vers le fichier journal qui signale les détails associés aux erreurs ou avertissements rencontrés pendant cette opération. Passez le fichier journal en revue et corrigez tous les problèmes graves ou modérés qui ont été identifiés.

Vérification de la configuration du cluster

  1. Vérifiez que les deux noeuds sont inclus dans le cluster.

    # clnode list -v
    Node                Type
    ----                ----
    node1               cluster
    node2               cluster
    
  2. Affichez la liste des périphériques disponibles pour Solaris Cluster.

    # cldevice list -v
    DID Device   Full Device Path
    d1           node1:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d1           node2:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    d2           node1:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d2           node2:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0
    d3           node1:/dev/rdsk/c1t0d0
    d4           node1:/dev/rdsk/c1t1d0
    d5           node2:/dev/rdsk/c1t0d0
    d6           node2:/dev/rdsk/c1t1d0
    

    Dans cet exemple, les périphériques de disques partagés sont d1 et d2, tandis que d3 et d4 sont les unités d'initialisation du noeud 1 et d5 et d6 sont les unités d'initialisation du noeud 2. Notez que d1 et d2 sont accessibles depuis les deux noeuds.

  3. Un quorum est composé de trois périphériques ou plus. Il est utilisé pendant les démarrages pour déterminer le noeud qui doit devenir le noeud actif.

    Confirmez qu'un quorum complet a bien été configuré.

    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    node1               node
    node2               node
    

    Vous pouvez (en option) ajouter le deuxième disque partagé à la liste des périphériques de quorum.

    # clquorum add d2
    # clquorum list -v
    Quorum              Type
    ------              ----
    d1                  shared_disk
    d2                  shared_disk
    node1               node
    node2               node
    

    Si les périphériques de disques partagés ne sont pas listés, vous devez déterminer leurs ID de périphérique et les ajouter au quorum.

    1. Identifiez l'ID de périphérique pour chaque disque partagé.

      # cldevice list -v
      
    2. Exécutez clsetup pour ajouter les périphériques de quorum.

      # clsetup
      
      Select '1' for quorum.
      Select '1' to dd a quorum device.
      Select 'yes' to continue.
      Select 'Directly attached shared disk'
      Select 'yes' to continue.
      Enter the device id (d<n>) for the first shared drive.
      Answer 'yes' to add another quorum device.
      Enter the device id for the second shared drive.
      
    3. Exécutez clquorum show pour confirmer l'appartenance du quorum.

      # clquorum show
      
  4. Passez en revue toute la configuration du cluster.

    # cluster check -v | egrep -v "not applicable|passed"
    

    Recherchez toutes les instances violated dans la liste.

  5. Vérifiez la liste des types de ressources enregistrées.

    # clrt list
    SUNW.LogicalHostname:4
    SUNW.SharedAddress:2
    SUNW.gds:6
    

    Si SUNW.gds n'est pas dans la liste, enregistrez-le.

    # clrt register SUNW.gds
    

    Confirmez avec clrt list.