StorageTek Automated Cartridge System Library Software Installation, configuration et fonctionnement du cluster 8.3 en haute disponibilité Version 8.3 E54097-01 |
|
![]() Précédent |
![]() Suivant |
L'installation de Solaris Cluster est abordée en détail dans le Oracle Solaris Cluster Software Installation Guide disponible dans la bibliothèque Oracle Technology Network (voir dans ce document).
ACSLSHA 8.3 est pris en charge sur Solaris 11 avec Oracle Solaris Cluster 4.1 et la mise à jour du référentiel su support (Support Repository Update) SRU-4 pour OSC-4.1.
Cette procédure décrit l'installation du logiciel Cluster.
Créez le répertoire /opt/OSC
.
# mkdir /opt/OSC
Déplacez l'image iso téléchargée de Cluster 4.1 (osc-4_1-ga-repo-full.iso) vers le répertoire /opt/OSC
.
Déplacez l'image du patch SRU-4 OSC 4.1 vers le répertoire /opt/OSC
et décompressez le fichier.
Copiez l'image iso Cluster en lecture seule vers un système de fichiers lecture/écriture.
Créez un pseudopériphérique pour l'image iso :
# /usr/sbin/lofiadm -a /opt/OSC/osc-4_1-ga-repo-full.iso
Notez le chemin du périphérique qui s'affiche et utilisez-le à l'étape c.
Créez un point de montage :
# mkdir /opt/OSC/mnt
Montez le pseudopériphérique sur le point de montage :
# mount -F hsfs -o ro /dev/lofi/1 /opt/OSC/mnt
Copiez l'image iso vers un système de fichiers lecture/écriture provisoire.
# mkdir /opt/OSC/merged_iso # cp -r /opt/OSC/mnt/repo /opt/OSC/merged_iso
Montez l'image SRU-4 ISO vers un système de fichiers.
# mount -F hsfs /opt/OSC/osc-4_1_4-1-repo-incr.iso /mnt
Fusionnez les changements dans SRU-4 vers la version Cluster 4.1 de base.
Synchronisez les deux images iso vers le système de fichiers provisoire.
# rsync -aP /mnt/repo /opt/OSC/merged_iso
Reconstituez les index de recherche pour le référentiel.
# pkgrepo rebuild -s /opt/OSC/merged_iso/repo
Installez Solaris Cluster à partir de l'image iso mise à jour.
# pkg set-publisher -g file:///opt/OSC/merged_iso/repo ha-cluster # pkg install ha-cluster-full
Répétez les étapes 1 à 7 sur le noeud adjacent.
scinstall
La routine d'installation de Solaris Cluster effectue une série de contrôles entre les deux noeuds pour s'assurer qu'il peut surveiller le fonctionnement du système à partir des deux serveurs et qu'il peut contrôler les actions de démarrage et de basculement.
Etapes préliminaires :
Avant d'exécuter scinstall
, il est utile de créer un environnement pour root
qui inclut le chemin vers les utilitaires du cluster qui viennent juste d'être installés. Editez le fichier /root/.profile
. Modifiez l'intitulé du chemin pour inclure /usr/cluster/bin
.
export PATH=/usr/cluster/bin:/usr/bin:/usr/sbin
Assurez-vous de bien faire cette modification sur chaque noeud. Pour hériter d'un nouveau chemin, vous pouvez fermer votre session et la rouvrir ou exécuter simplement su -
.
Confirmez que la propriété config/local_only
pour rpc/bind
est false
# svccfg -s network/rpc/bind listprop config/local_only
Si cette propriété renvoie true, vous devez la définir sur false.
# svccfg -s network/rpc/bind setprop config/local_only=false
A présent, confirmez :
# svccfg -s network/rpc/bind listprop config/local_only
L'une des exigences de configuration matérielle essentielles pour le logiciel Cluster est l'existence de deux connexions réseau privées réservées afin de garantir la communication ininterrompue entre les deux noeuds pour que Cluster fonctionne. affiche trois connexions physiques indiquées par la référence (2). Chaque connexion provient d'un adaptateur de réseau (NIC) séparé pour garantir qu'aucun point de défaillance ne peut interrompre la communication interne de Cluster. La routine scinstall
vérifie chacune des deux connexions afin de s'assurer qu'aucun autre trafic réseau n'est visible sur le câble. Enfin, scinstall
vérifie que la communication entre les deux lignes est fonctionnelle. Une fois la connexion physique vérifiée, la routine monte chaque interface vers une adresse interne privée qui commence par 172.16.
Avant d'exécuter scinstall
, vous devez vérifier l'ID du périphérique réseau attribué pour les deux ports réseau sur chaque serveur que vous avez configuré pour la connexion privée. Exécutez dladm show-phys
pour afficher les affectations des interfaces.
# dladm show-phys
Un nom d'hôte logique et une adresse IP doivent être établis afin de représenter le cluster depuis chaque noeud. Cet hôte logique répond sans faute à la communication du réseau, indépendamment du fait que l'hôte actif est exécuté depuis le noeud 1 ou le noeud 2.
Actualisez le fichier /etc/hosts
sur chaque noeud pour qu'il inclue le nom d'hôte logique et l'adresse IP logique. Cet hôte devient actif lorsque vous démarrez ACSLS-HA ().
Pour réussir l'installation du cluster, vous devez avoir activé le conteneur de l'agent commun Solaris. Vérifiez que le conteneur de l'agent est activé.
# cacaoadm status
Si la réponse sur l'état indique que le conteneur de l'agent est désactivé au démarrage du système, activez-le comme suit :
# cacaoadm enable
scinstall
A partir de l'un des deux noeuds, exécutez la commande scinstall
puis suivez cette procédure :
A partir du menu principal, sélectionnez Créez un nouveau cluster.
A partir du sous-menu, sélectionnez Créez un nouveau cluster.
Acceptez les paramètres initiaux par défaut.
Sélectionnez Installation standard.
Attribuez un nom pour le cluster, p.ex. acsls_cluster
.
Lors de l'invite des noeuds du cluster, saisissez le nom d'hôte du noeud adjacent. Acceptez la liste de noeud si elle est correcte.
Définissez les deux interconnexions privées entre les noeuds que vous avez identifiées dans ce but. Autorisez la routine d'installation à monter les liaisons tcp aux connexions physiques.
Suivez les invites pour créer le cluster. A moins d'avoir identifié un périphérique spécifique pour qu'il serve de périphérique de quorum, autorisez la routine scinstall
à sélectionner le ou les périphériques de quorum.
Ne paniquez pas si l'utilitaire indique que le contrôle du cluster a échoué sur les deux noeuds. Une défaillance est indiquée mêmes pour les avertissements insignifiants. Consultez le rapport pour chaque noeud et recherchez les éventuelles erreurs ou violations graves qui peuvent être signalées. La routine affiche le chemin vers le fichier journal qui signale les détails associés aux erreurs ou avertissements rencontrés pendant cette opération. Passez le fichier journal en revue et corrigez tous les problèmes graves ou modérés qui ont été identifiés.
Vérifiez que les deux noeuds sont inclus dans le cluster.
# clnode list -v Node Type ---- ---- node1 cluster node2 cluster
Affichez la liste des périphériques disponibles pour Solaris Cluster.
# cldevice list -v DID Device Full Device Path d1 node1:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0 d1 node2:/dev/rdsk/c0t600A0B800049EDD600000C9952CAA03Ed0 d2 node1:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0 d2 node2:/dev/rdsk/c0t600A0B800049EE1A0000832652CAA899d0 d3 node1:/dev/rdsk/c1t0d0 d4 node1:/dev/rdsk/c1t1d0 d5 node2:/dev/rdsk/c1t0d0 d6 node2:/dev/rdsk/c1t1d0
Dans cet exemple, les périphériques de disques partagés sont d1 et d2, tandis que d3 et d4 sont les unités d'initialisation du noeud 1 et d5 et d6 sont les unités d'initialisation du noeud 2. Notez que d1 et d2 sont accessibles depuis les deux noeuds.
Un quorum est composé de trois périphériques ou plus. Il est utilisé pendant les démarrages pour déterminer le noeud qui doit devenir le noeud actif.
Confirmez qu'un quorum complet a bien été configuré.
# clquorum list -v Quorum Type ------ ---- d1 shared_disk node1 node node2 node
Vous pouvez (en option) ajouter le deuxième disque partagé à la liste des périphériques de quorum.
# clquorum add d2 # clquorum list -v Quorum Type ------ ---- d1 shared_disk d2 shared_disk node1 node node2 node
Si les périphériques de disques partagés ne sont pas listés, vous devez déterminer leurs ID de périphérique et les ajouter au quorum.
Identifiez l'ID de périphérique pour chaque disque partagé.
# cldevice list -v
Exécutez clsetup
pour ajouter les périphériques de quorum.
# clsetup Select '1' for quorum. Select '1' to dd a quorum device. Select 'yes' to continue. Select 'Directly attached shared disk' Select 'yes' to continue. Enter the device id (d<n>) for the first shared drive. Answer 'yes' to add another quorum device. Enter the device id for the second shared drive.
Exécutez clquorum
show
pour confirmer l'appartenance du quorum.
# clquorum show
Passez en revue toute la configuration du cluster.
# cluster check -v | egrep -v "not applicable|passed"
Recherchez toutes les instances violated dans la liste.
Vérifiez la liste des types de ressources enregistrées.
# clrt list SUNW.LogicalHostname:4 SUNW.SharedAddress:2 SUNW.gds:6
Si SUNW.gds
n'est pas dans la liste, enregistrez-le.
# clrt register SUNW.gds
Confirmez avec clrt list
.