Le tableau suivant répertorie les tâches à effectuer pour configurer votre cluster.
Tableau 2-2 Plan des tâches : configuration du cluster
Tâche |
Pour les instructions, voir... |
---|---|
Configuration après l'installation | |
Configuration du gestionnaire de volumes et des groupes de périphériques de Solstice DiskSuite ou de VERITAS Volume Manager. |
"Configuration du logiciel de gestion des volumes", ainsi que la documentation du gestionnaire de volumes |
Création et montage de systèmes de fichiers de cluster. | |
(Facultatif) Configuration d'autres adaptateurs de réseau public. |
"Configuration d'adaptateurs de réseau public supplémentaires" |
Configuration de PNM (Public Network Management) et des groupes NAFO. | |
(Facultatif) Modification du nom d'host privé d'un noeud. | |
Edition du fichier /etc/inet/ntp.conf pour mettre à jour les entrées de nom de noeud. | |
(Facultatif) Installation du module Sun Cluster pour le logiciel Sun Management Center. |
"Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster" ainsi que la documentation de Sun Management Center |
Installation d'applications de fournisseurs tiers et configuration des applications, services de données et groupes de ressources. |
Sun Cluster 3.0 Data Services Installation and Configuration Guide, ainsi que la documentation de l'application du fournisseur tiers. |
Suivez cette procédure une seule fois, après la formation complète du cluster.
Vérifiez que tous les noeuds ont rejoint le cluster.
A partir d'un noeud, affichez la liste des noeuds du cluster pour vérifier que tous les noeuds ont rejoint le cluster.
Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.
% scstat -n |
Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
Sur chaque noeud, affichez une liste de tous les périphériques que le système vérifie pour vous assurer de leur connectivité avec les noeuds de cluster.
Vous n'avez pas besoin d'être connecté en tant que superutilisateur pour exécuter cette commande.
% scdidadm -L |
La liste doit être la même pour chaque noeud. Le résultat affiché par la commande ressemble à celui présenté ci-dessous.
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 ... |
Identifiez, dans les résultats affichés par scdidadm, l'ID de périphérique (DID) global de chaque disque partagé que vous allez configurer en tant que périphérique de quorum.
Par exemple, les résultats de la sous-étape précédente indiquent que le périphérique global d2 est partagé par phys-schost-1 et phys-schost-2. Ces informations vous seront nécessaires à l'Étape 4. Reportez-vous à la section "Périphériques de quorum" pour plus d'informations sur la planification des périphériques de quorum.
Devenez superutilisateur sur un noeud du cluster.
Lancez l'utilitaire scsetup(1M).
# scsetup |
L'écran Initial Cluster Setup apparaît.
si le logiciel affiche le menu principal à la place de cet écran, cela signifie que cette procédure a déjà été effectuée avec succès.
Répondez aux invites.
A l'invite Do you want to add any quorum disks?, configurez au moins un périphérique de quorum partagé si votre cluster est un cluster à deux noeuds.
Un cluster à deux noeuds reste en mode installation jusqu'à ce qu'un périphérique de quorum partagé soit configuré. Une fois que l'utilitaire a configuré le périphérique de quorum, le message Command completed successfully apparaît. Si votre cluster comporte trois noeuds ou plus, la configuration d'un périphérique de quorum est optionnelle.
A l'invite Is it okay to reset "installmode"?, répondez Yes.
Après avoir défini les configurations de quorum et le nombre de voies pour le cluster, l'utilitaire scsetup affiche le message Cluster initialization is complete et vous renvoie au menu principal.
si le processus de configuration du quorum est interrompu ou ne se termine pas correctement, recommencez l'Étape 3 et l'Étape 4.
A partir d'un noeud quelconque, vérifiez que le mode d'installation du cluster est désactivé.
# scconf -p | grep "Cluster install mode:" Cluster install mode: disabled |
Pour configurer le logiciel de gestion des volumes, reportez-vous à la section "Configuration du logiciel de gestion des volumes".
Gardez les informations suivantes à portée de main :
Les associations de vos unités de disque de stockage.
Les fiches de travail que vous avez remplies pour la planification de la configuration. Ces fiches, disponibles dans le document Sun Cluster 3.0 Release Notes, sont les suivantes :
Fiche de travail relative à la disposition des systèmes de fichiers locaux.
Fiche de travail relative à la configuration des groupes d'unités de disque.
Fiche de travail relative aux configurations du gestionnaire de volumes.
Fiche de travail relative aux configurations des groupes d'unités de disque.
Reportez-vous à la section Chapitre 1 pour plus d'informations sur la planification.
Suivez les procédures de configuration appropriées pour votre gestionnaire de volumes.
Gestionnaire de volumes |
Documentation |
---|---|
Solstice DiskSuite |
Documentation de Solstice DiskSuite |
VERITAS Volume Manager |
Documentation de VERITAS Volume Manager |
Après avoir configuré votre gestionnaire de volumes, reportez-vous à la section "Ajout de systèmes de fichiers de cluster" pour créer un système de fichiers de cluster.
Effectuez cette tâche pour chaque système de fichiers de cluster à ajouter.
La création d'un système de fichiers détruit toutes les données des disques. Assurez-vous d'avoir indiqué le nom correct du périphérique de disque. Si vous indiquez le nom d'un autre périphérique, son contenu sera effacé lors de la création du nouveau système de fichiers.
Devenez superutilisateur sur un noeud du cluster.
Pour accélérer la création du système de fichiers, devenez superutilisateur sur le principal du périphérique global pour lequel vous créez un système de fichiers.
Créez un système de fichiers à l'aide de la commande newfs(1M).
# newfs unité_disque_brute |
Le tableau suivant présente des exemples de noms pour l'argument unité_disque_brute. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.
Tableau 2-3 Exemples de noms d'unités de disque brutes
Gestionnaire de volumes |
Exemple de nom d'unité de disque |
Description |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
Unité de disque brute d1 dans l'ensemble de disques oracle |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Unité de disque brute vol01 dans le groupe de disques oradg |
Aucun |
/dev/global/rdsk/d1s3 |
Unité de disque brute d1s3 |
Sur chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.
Un point de montage est requis sur chaque noeud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les noeuds.
# mkdir -p /global/groupe_unités/point_montage |
Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique
Nom du répertoire sur lequel le système de fichiers de cluster doit être monté
Pour faciliter le travail d'administration, créez le point de montage dans le répertoire /global/groupe_périphériques. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.
Sur chaque noeud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.
l'option de montage syncdir n'est pas obligatoire pour les systèmes de fichiers de cluster. Si vous indiquez syncdir, vous êtes assuré d'un comportement du système de fichiers conforme POSIX. Dans le cas contraire, vous aurez le même comportement qu'avec les systèmes de fichiers UFS. Le fait de ne pas indiquer syncdir peut considérablement améliorer les performances des écritures qui allouent des blocs de disque, par exemple lors de l'ajout de données à la fin d'un fichier. Cependant, dans certains cas, si vous n'utilisez pas syncdir, vous ne découvrirez une situation d'espace insuffisant qu'en fermant un fichier. Les cas dans lesquels vous risquez d'avoir des problèmes si vous n'indiquez pas syncdir sont rares. Avec syncdir (et le comportement POSIX), la situation d'espace insuffisant serait découverte avant la fermeture.
Pour monter automatiquement le système de fichiers de cluster, indiquez la valeur yes pour le champ mount at boot.
Utilisez les options de montage obligatoires suivantes :
Avec Solaris UFS logging, utilisez les options de montage global,logging.
Si votre système de fichiers de cluster utilise un trans-métapériphérique Solstice DiskSuite, utilisez l'option de montage global (n'utilisez pas l'option logging). Reportez-vous à la documentation de Solstice DiskSuite pour plus d'informations sur la configuration des trans-métapériphériques.
l'option logging est requise pour tous les systèmes de fichiers de cluster.
Assurez-vous que, pour chaque système de fichiers de cluster, les informations de l'entrée correspondante de /etc/vfstab sont les mêmes sur chaque noeud.
Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.
Par exemple, imaginons un scénario dans lequel phys-schost-1 monte l'unité de disque d0 sur /global/oracle et phys-schost-2 monte l'unité de disque d1 sur /global/oracle/logs. Dans cette configuration, phys-schost-2 ne peut s'initialiser et monter /global/oracle/logs qu'une fois que phys-schost-1 s'est initialisé et a monté /global/oracle.
Assurez-vous que les entrées des fichiers /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.
Reportez-vous à la page de manuel vfstab(4) pour plus d'informations.
A partir d'un noeud quelconque du cluster, vérifiez que les points de montage existent et que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster.
# sccheck |
Sil aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
A partir d'un noeud quelconque du cluster, montez le système de fichiers de cluster.
# mount /global/groupe_unités/point_montage |
Sur chaque noeud du cluster, vérifiez que le système de fichiers du cluster est bien monté.
Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.
L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.
|
# newfs /dev/md/oracle/rdsk/d1 ... (on each node:) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node:) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 1999 |
Si vos noeuds de cluster sont connectés à plusieurs sous-réseaux publics, reportez-vous à la section "Configuration d'adaptateurs de réseau public supplémentaires" pour configurer des adaptateurs de réseau public supplémentaires.
Sinon, pour configurer la PNM et définir des groupes NAFO, reportez-vous à la section "Configuration de la gestion des réseaux publics (PNM)".
Si les noeuds de ce cluster sont connectés à plusieurs sous-réseaux publics, vous pouvez configurer des adaptateurs de réseau public supplémentaires pour les sous-réseaux secondaires. Cependant, la configuration de sous-réseaux secondaires n'est pas obligatoire.
configurez uniquement les adaptateurs de réseau public, pas les adaptateurs de réseau privé.
Gardez à portée de main la fiche de travail que vous avez remplie pour les réseaux publics. Cette fiche est disponible dans le document Sun Cluster 3.0 Release Notes.
Devenez superutilisateur sur le noeud que vous configure pour ajouter des adaptateurs de réseau public supplémentaires.
Créez un fichier appelé /etc/hostname.adaptateur, oy adaptateur est le nom de l'adaptateur.
dans chaque groupe NAFO, il ne doit exister de fichier /etc/hostname.adaptateur que pour un seul adaptateur du groupe.
Tapez le nom d'host de l'adresse IP de l'adaptateur de réseau public dans le fichier /etc/hostname.adaptateur.
L'exemple suivant présente le fichier /etc/hostname.hme3, créé pour l'adaptateur hme3, comportant le nom d'host phys-schost-1.
# vi /etc/hostname.hme3 phys-schost-1 |
Sur chaque noeud du cluster, assurez-vous que le fichier /etc/inet/hosts comporte l'adresse IP et le nom d'host correspondant affecté à l'adaptateur de réseau public.
Par exemple, les lignes suivantes présentent l'entrée de phys-schost-1 :
# vi /etc/inet/hosts ... 192.29.75.101 phys-schost-1 ... |
cette information doit également figurer dans la base de données de votre service de noms (le cas échéant).
Activez l'adaptateur sur chaque noeud du cluster.
# ifconfig adapter plumb # ifconfig adapter hostname netmask + broadcast + -trailers up |
Vérifiez que l'adaptateur est configuré correctement.
# ifconfig adaptateur |
Le résultat affiché doit comporter l'adresse IP correcte de l'adaptateur.
Chaque adaptateur de réseau public devant être géré par le Gestionnaire de groupes de ressources (RGM) doit appartenir à un groupe NAFO. Pour configurer la PNM et définir des groupes NAFO, reportez-vous à la section "Configuration de la gestion des réseaux publics (PNM)".
Effectuez cette tâche sur chaque noeud du cluster.
tous les adaptateurs de réseau public doivent appartenir à un groupe de reprise sur panne de l'adaptateur réseau (ou NAFO, pour Network Adapter Failover). De plus, chaque noeud ne peut comporter qu'un groupe NAFO par sous-réseau.
Gardez à portée de main la fiche de travail que vous avez remplie pour les réseaux publics. Cette fiche est disponible dans le document Sun Cluster 3.0 Release Notes.
Devenez superutilisateur sur le noeud configuré pour un groupe NAFO.
Créez le groupe NAFO.
# pnmset -c nafo_group -o create adaptateur [adapter ...] |
Configurez le groupe NAFO groupe-nafo
Crée un nouveau groupe NAFO comportant un ou plusieurs adaptateurs de réseau public
Reportez-vous à la page de manuel pnmset(1M) pour plus d'informations.
Vérifiez l'état du groupe NAFO.
# pnmstat -l |
Reportez-vous à la page de manuel pnmstat(1M) pour plus d'informations.
L'exemple suivant crée le groupe NAFO nafo0, qui utilise les adaptateurs de réseau public qfe1 et qfe5.
# pnmset -c nafo0 -o create qfe1 qfe5 # pnmstat -l group adapters status fo_time act_adp nafo0 qfe1:qfe5 OK NEVER qfe5 nafo1 qfe6 OK NEVER qfe6 |
Si vous souhaitez modifier des noms d'host privés, reportez-vous à la section "Modification des noms d'host privés". Sinon, pour mettre à jour le fichier /etc/inet/ntp.conf, reportez-vous à la section "Mise à jour du protocole NTP (Network Time Protocol)".
Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'host privés par défaut (clusternodeID_noeud-priv) affectés lors de l'installation du logiciel Sun Cluster.
cette procédure ne doit pas être effectuée après la configuration et le démarrage d'applications et de services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'host privé après que celui-ci a été renommé, entraînant des conflits de noms d'host. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.
Devenez superutilisateur sur un noeud du cluster.
Lancez l'utilitaire scsetup(1M).
# scsetup |
Pour travailler avec des noms d'host privés, tapez 4 (Private hostnames).
Pour modifier un nom d'host privé, tapez 1 (Change a private hostname).
Suivez les invites pour modifier le nom d'host privé. Répétez cette opération pour chaque nom d'host privé à modifier.
Vérifiez les nouveaux noms d'host privés.
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
Pour mettre à jour le fichier /etc/inet/ntp.conf, reportez-vous à la section "Mise à jour du protocole NTP (Network Time Protocol)".
Effectuez cette tâche sur chaque noeud.
Devenez superutilisateur sur le noeud de cluster.
Editez le fichier /etc/inet/ntp.conf.
La commande scinstall(1M) copie un fichier modèle, ntp.cluster, dans /etc/inet/ntp.conf dans le cadre de l'installation de cluster standard. Si ce répertoire contient déjà un fichier ntp.conf avant l'installation du logiciel Sun Cluster, le fichier existant n'est pas modifié. Si vous installez des modules de cluster par un autre moyen, tel que l'utilisation directe de pkgadd(1M), vous devez configurer NTP.
Supprimez toutes les entrées de noms d'host privés qui ne sont pas utilisés par le cluster.
Si le fichier ntp.conf comporte des noms d'host privés inexistants, le noeud tente de les contacter lors de sa réinitialisation, ce qui entraîne l'affichage de messages d'erreur.
Si vous avez modifié des noms d'host privés après l'installation du logiciel Sun Cluster, mettez à jour chaque entrée de fichier avec le nouveau nom d'host privé.
Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.
La principale exigence à laquelle répond la configuration de NTP, ou de tout autre utilitaire de synchronisation, est que tous les noeuds de cluster soient synchronisés avec la même heure. La précision de l'heure sur les noeuds individuels est moins prioritaire que la synchronisation de tous les noeuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.
Reportez-vous au document Sun Cluster 3.0 Concepts pour plus d'informations sur l'heure du cluster, et au modèle ntp.cluster pour des instructions de configuration de NTP pour une configuration Sun Cluster.
Redémarrez le démon NTP.
# /etc/init.d/xntpd stop # /etc/init.d/xntpd start |
Si vous souhaitez utiliser le produit Sun Management Center pour configurer des groupes de ressources ou surveiller le cluster, reportez-vous à la section "Exigences concernant l'installation du logiciel Sun Management Center pour la surveillance de Sun Cluster".
Sinon, pour installer des applications de fournisseurs tiers, reportez-vous à la documentation fournie avec le logiciel d'applications et au document Sun Cluster 3.0 Data Services Installation and Configuration Guide. Pour enregistrer des types de ressources, configurer des groupes de ressources et des services de données, reportez-vous au document Sun Cluster 3.0 Data Services Installation and Configuration Guide.