Cette rubrique permet de configurer les logiciels installés sur le cluster ou sur un nouveau nœud. Avant de commencer ces tâches, vérifiez que vous avez effectué les tâches suivantes :
Installation de packages de logiciels pour le système d'exploitation Solaris, la structure Sun Cluster et d'autres produits conformément à la rubrique Installation du logiciel
Établissement d'un cluster ou ajout d'un nœud conformément à la rubrique Établissement du cluster
Le tableau suivant répertorie les tâches à effectuer pour configurer votre cluster. Effectuez les procédures dans l'ordre indiqué.
si vous avez ajouté un nœud à un cluster qui utilise VxVM, vous devez effectuer la procédure de la section SPARC : Installation du logiciel VERITAS Volume Manager afin :
d'installer VxVM sur ce nœud ou
de modifier le fichier /etc/name_to_major de ce nœud à des fins de coexistence avec VxVM.
Tâche |
Instructions |
---|---|
1. Installez et configurez le logiciel de gestion des volumes : |
|
|
Chapitre 3, Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager Documentation Solstice DiskSuite ou Solaris Volume Manager |
|
Chapitre 4, SPARC : Installation et configuration de VERITAS Volume Manager Documentation VERITAS Volume Manager |
2. Créez et montez les systèmes de fichiers de cluster. | |
3. (Installations Solaris 8 ou programme d'installation SunPlex) Créez les groupes multi-acheminement sur réseau IP pour chaque adaptateur de réseau public non configuré dans un groupe Multiacheminement sur réseau IP. | |
4. (Facultatif) Modifiez le nom d'hôte privé d'un nœud. | |
5. Créez ou modifiez le fichier de configuration NTP. | |
6. (Facultatif) SPARC : installez le module Sun Cluster pour le logiciel Sun Management Center |
SPARC : installation du module Sun Cluster pour Sun Management Center Documentation Sun Management Center |
7. Installez les applications tierces, puis configurez les applications, les services de données et les groupes de ressources. |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS Documentation des applications de fournisseurs tiers |
Suivez cette procédure pour chaque système de fichiers de cluster à créer. Contrairement à un système de fichiers local, un système de fichiers de cluster est accessible à partir de n'importe quel nœud du cluster. Si vous avez utilisé le programme d'installation SunPlex pour installer les services de données, il se peut que le programme d'installation SunPlex ait déjà créé un ou plusieurs systèmes de fichiers de cluster.
toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'indiquer le nom correct du périphérique de disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.
Effectuez les tâches suivantes :
Assurez-vous que le logiciel de gestion des volumes est installé et configuré. Pour connaître les procédures d'installation du gestionnaire de volumes, reportez-vous à la rubrique Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager ou SPARC : Installation et configuration du logiciel VxVM .
Déterminez les options de montage à utiliser pour chaque système de fichiers de cluster à créer. Respectez les exigences et les restrictions des options de montage Sun Cluster décrites dans les tableaux ci-dessous.
Options de montage pour les systèmes de fichiers de cluster UFS
Reportez-vous à la page de manuel mount_ufs(1M) pour obtenir plus d'informations sur les options de montage UFS.
Paramètres de montage pour systèmes de fichiers partagés Sun StorEdge QFS
Paramètre de montage |
Description |
---|---|
shared |
Requis. Cette option indique qu'il s'agit d'un système de fichiers partagés, qui est de ce fait visible par tous les nœuds du cluster. |
vérifiez que les paramètres du fichier /etc/vfstab sont compatibles avec ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd. Les paramètres du fichier /etc/vfstab remplacent ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd.
Reportez-vous à la page de manuel mount_samfs(1M) pour obtenir plus d'informations sur les paramètres de montage QFS.
Certains services de données tels que Support Sun Cluster pour Oracle Real Application Clusters possèdent d'autres exigences et directives concernant les paramètres de montage QFS. Reportez-vous à votre manuel de service de données pour connaître ces exigences.
un paramètre de montage /etc/vfstab n'active pas la consignation. Par ailleurs, Sun Cluster ne nécessite pas de consignation pour les systèmes de fichiers partagés QFS.
Options de montage pour les systèmes de fichiers de cluster VxFS
Option de montage |
Description |
---|---|
global |
Requise. Cette option rend le système de fichiers globalement visible de tous les nœuds du cluster. |
log |
Requise. Cette option active la consignation. |
Reportez-vous à la page de manuel sur mount_vxfs et à la rubrique Administration de systèmes de fichiers de cluster : présentation du Guide d’administration système de Sun Cluster pour SE Solaris pour obtenir plus d'informations sur les options de montage VxFS.
Devenez superutilisateur sur un nœud du cluster.
pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.
Créez un système de fichiers.
Pour un système de fichiers UFS, utilisez la commande newfs(1M).
# newfs raw-disk-device |
Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.
Gestionnaire de volumes |
Exemple de nom de périphériques de disque |
Description |
---|---|---|
Solstice DiskSuite ou Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
Périphérique de disque brut d1 dans l'ensemble de disques nfs |
SPARC : VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Périphérique de disque brut vol01 dans le groupe de disques oradg |
Aucun |
/dev/global/rdsk/d1s3 |
Périphérique de disque brut d1s3 |
Pour un système de fichiers Sun StorEdge QFS, suivez les procédures de définition de configuration du Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.
SPARC : pour un système de fichiers Système de fichiers VERITAS (VxFS), suivez les instructions des procédures fournies dans la documentation de VxFS.
Sur chaque nœud, créez un répertoire de montage pour le système de fichiers de cluster.
Vous devez créer un point de montage sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.
Afin de vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.
# mkdir -p /global/device-group/mountpoint/ |
Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique.
Nom du répertoire sur lequel le système de fichiers du cluster doit être monté.
Sur chaque nœud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.
Reportez-vous à la page de manuel vfstab(4) pour obtenir plus d'informations.
Dans chacune des entrées, indiquez les options de montage requises pour le type de système de fichiers utilisé.
n'utilisez pas l'option de montage logging pour les trans-métapériphériques Solstice DiskSuite ou les volumes transactionnels Solaris Volume Manager. Les trans-métapériphériques et volumes transactionnels fournissent leur propre consignation.
En outre, Solaris Volume Manager Journalisation de volumes de transaction (anciennement Solstice DiskSuite Journalisation de trans-métapériphériques) sera supprimée du système d'exploitation Solaris dans une version à venir. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.
Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ mount at boot.
Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.
Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.
Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.
Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/ et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs/ qu'une fois que phys-schost-1 a démarré et monté /global/oracle/.
Sur un nœud du cluster, exécutez l'utilitaire sccheck(1M).
L'utilitaire sccheck vérifie que le point de montage existe. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster.
# sccheck |
Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
Montez le système de fichiers de cluster.
# mount /global/device-group/mountpoint/ |
Pour UFS et QFS, montez le système de fichiers de cluster à partir de n'importe quel nœud.
SPARC : pour VxFS, montez le système de fichiers de cluster à partir du maître actuel de device-group pour avoir l'assurance que ce système se monte correctement. En outre, démontez un système de fichiers VxFS du maître actuel du groupe-périphériques afin de garantir un démontage correct du système de fichiers.
pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du nœud principal sur lequel le système de fichiers de cluster VxFS est monté.
Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.
Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.
L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.
# newfs /dev/md/oracle/rdsk/d1 … (on each node) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |
Si vous avez installé le logiciel Sun Cluster sous Solaris 8 ou utilisé le programme d'installation SunPlex pour installer le cluster, reportez-vous à la rubrique Configuration des groupes Multiacheminement sur réseau IP .
Si vous souhaitez changer un nom d'hôte privé, reportez-vous à la rubrique Modification des noms d'hôtes privés .
Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) .
SPARC : si vous souhaitez surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Suivez les procédures du document Sun Cluster Data Services Planning and Administration Guide for Solaris OS et de la documentation fournie avec votre logiciel d'application.
Effectuez cette tâche sur chaque nœud du cluster. Si vous avez utilisé le programme d'installation SunPlex pour installer Sun Cluster HA pour Apache ou Sun Cluster HA pour NFS, le programme d'installation SunPlex a configuré les groupes Multiacheminement sur réseau IP pour les adaptateurs de réseau public utilisés par les services de données. Vous devez en configurer pour les autres adaptateurs de réseau public.
tous les adaptateurs de réseau public doivent appartenir à un groupe Multiacheminement sur réseau IP.
Tenez la Fiche de travail relative aux réseaux publics renseignée à votre disposition.
Configurez les groupes Multiacheminement sur réseau IP.
Suivez les procédures du Deploying Network Multipathing du IP Network Multipathing Administration Guide (Solaris 8), de la rubrique Configuring Multipathing Interface Groups du System Administration Guide: IP Services (Solaris 9) ou de la rubrique Configuring IPMP Groups du System Administration Guide: IP Services (Solaris 10).
Tenez compte de ces exigences supplémentaires pour configurer les groupes Multiacheminement sur réseau IP dans une configuration Sun Cluster :
Chaque adaptateur de réseau public doit appartenir à un groupe de multi-acheminement.
Dans les types de groupe de multiacheminement suivants, vous devez configurer une adresse IP de test pour chaque adaptateur du groupe :
Sous Solaris 8, chacun des adaptateurs de chacun des groupes de multiacheminement nécessite une adresse IP de test.
Sous Solaris 9 ou Solaris 10, seuls les groupes de multiacheminement comprenant deux adaptateurs ou plus nécessitent des adresses IP de test. Si un groupe de multi-acheminement contient un seul adaptateur, vous n'avez pas besoin de configurer une adresse IP de test.
Les adresses IP de test de tous les adaptateurs du même groupe de multiacheminement doivent appartenir au même sous-réseau IP.
Les adresses IP de test ne doivent pas être utilisées par des applications normales car elles ne sont pas hautement disponibles.
Dans le fichier /etc/default/mpathd, la valeur de TRACK_INTERFACES_ONLY_WITH_GROUPS doit être yes.
Le nom d'un groupe de multiacheminement ne fait l'objet d'aucune exigence ni restriction.
Si vous souhaitez changer un nom d'hôte privé, reportez-vous à la rubrique Modification des noms d'hôtes privés .
Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) .
Si vous utilisez Sun Cluster sur un système SPARC et que vous souhaitez vous servir de Sun Management Center pour contrôler le cluster, installez le module Sun Cluster pour Sun Management Center. Reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Dans le cas contraire, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Suivez les procédures du document Sun Cluster Data Services Planning and Administration Guide for Solaris OS et de la documentation fournie avec votre logiciel d'application.
Effectuez cette tâche si vous ne souhaitez pas utiliser les noms d'hôtes privés par défaut (clusternodenodeid-priv) affectés lors de l'installation du logiciel Sun Cluster.
vous ne devez pas exécuter cette procédure après la configuration et le démarrage d'applications et des services de données. En effet, une application ou un service de données risquerait de continuer à utiliser l'ancien nom d'hôte privé après renommage de celui-ci, entraînant ainsi des conflits de noms d'hôtes. Si des applications ou services de données sont ouverts, arrêtez-les avant d'effectuer cette procédure.
Effectuez cette procédure sur un nœud actif du cluster.
Devenez superutilisateur sur un nœud du cluster.
Lancez l'utilitaire scsetup(1M).
# scsetup |
Dans le menu principal, sélectionnez l'option Noms d'hôte privés.
Dans le menu Noms d'hôte privés, sélectionnez l'option Modifier un nom d'hôte privé.
Suivez les invites pour modifier le nom d'hôte privé.
Répétez cette opération pour chaque nom d'hôte privé à modifier.
Vérifiez les nouveaux noms d'hôtes privés.
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
Si vous n'avez pas installé votre propre fichier /etc/inet/ntp.conf avant d'installer le logiciel Sun Cluster, installez ou créez un fichier de configuration NTP. Reportez-vous à la rubrique Configuration du protocole NTP (Network Time Protocol) .
SPARC : si vous souhaitez surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
si vous avez installé votre propre fichier /etc/inet/ntp.conf avant le logiciel Sun Cluster, vous n'êtes pas obligé d'effectuer cette procédure. Déterminez l'étape suivante :
SPARC : si vous souhaitez surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Créez ou modifiez le fichier de configuration NTP après avoir effectué l'une des tâches suivantes :
Installez le logiciel Sun Cluster.
Ajoutez un nœud à un cluster existant.
Changez le nom d'hôte privé d'un nœud de cluster.
Si vous avez ajouté un nœud à un cluster d'un nœud, vous devez vérifier que le fichier de configuration NTP utilisé est copié sur le nœud de cluster initial et sur le nouveau.
la principale exigence lorsque vous configurez NTP, ou tout autre utilitaire de synchronisation, est que tous les nœuds de cluster soient synchronisés à la même heure. La précision de l'heure sur les nœuds individuels est secondaire par rapport à l'importance de la synchronisation de l'heure sur tous les nœuds. Vous êtes libre de configurer NTP en fonction de vos besoins individuels tant que vous respectez cette exigence de base pour la synchronisation.
Reportez-vous au Guide des notions fondamentales de Sun Cluster pour SE Solaris pour obtenir plus d'informations sur l'heure du cluster. Reportez-vous au fichier /etc/inet/ntp.cluster pour obtenir des directives supplémentaires sur la configuration de NTP pour configurer Sun Cluster.
Connectez-vous en tant que superutilisateur sur un nœud du cluster.
Si vous disposez de votre propre fichier, copiez-le sur chaque nœud de cluster.
Si vous n'installez pas votre propre fichier /etc/inet/ntp.conf, utilisez le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP.
ne renommez pas le fichier ntp.conf.cluster en tant que ntp.conf.
Si /etc/inet/ntp.conf.cluster n'existe pas sur le nœud, il se peut que vous ayez un fichier /etc/inet/ntp.conf provenant d'une installation antérieure du logiciel Sun Cluster. Le logiciel Sun Cluster crée le fichier /etc/inet/ntp.conf.cluster comme fichier de configuration NTP si un fichier /etc/inet/ntp.conf n'est pas déjà présent sur le nœud. Dans ce cas, effectuez les modifications suivantes sur ce fichier ntp.conf.
Utilisez l'éditeur de texte de votre choix pour ouvrir le fichier /etc/inet/ntp.conf.cluster à modifier sur un nœud de cluster.
Assurez-vous qu'il existe une entrée pour le nom d'hôte privé de chaque nœud de cluster.
Si vous avez modifié le nom d'hôte privé d'un nœud, veillez à ce que le fichier de configuration NTP contienne le nouveau nom d'hôte privé.
Si nécessaire, apportez d'autres modifications pour répondre à vos exigences NTP.
Copiez le fichier de configuration NTP sur tous les nœuds du cluster.
Le contenu du fichier de configuration NTP doit être identique sur tous les nœuds du cluster.
Arrêtez le démon NTP sur chaque nœud.
Avant de passer à l' Étape 6, attendez que la commande soit exécutée sur chaque nœud.
Pour le système d'exploitation Solaris 8 ou Solaris 9, utilisez la commande suivante :
# /etc/init.d/xntpd stop |
Pour le système d'exploitation Solaris 10, utilisez la commande suivante :
# svcadm disable ntp |
Redémarrez le démon NTP sur chaque nœud.
Si vous utilisez le fichier ntp.conf.cluster, exécutez la commande ci-dessous.
# /etc/init.d/xntpd.cluster start |
Le script de démarrage xntpd.cluster recherche tout d'abord le fichier /etc/inet/ntp.conf.
Si le fichier ntp.conf existe, le script s'arrête immédiatement, sans lancer le démon NTP.
Si le fichier ntp.conf n'existe pas alors que ntp.conf.cluster existe, le script lance le démon NTP. Dans ce cas, le script utilise le fichier ntp.conf.cluster comme fichier de configuration NTP.
Si vous utilisez le fichier ntp.conf, exécutez l'une des commandes suivantes :
Pour le système d'exploitation Solaris 8 ou Solaris 9, utilisez la commande suivante :
# /etc/init.d/xntpd start |
Pour le système d'exploitation Solaris 10, utilisez la commande suivante :
# svcadm enable ntp |
SPARC : pour surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center .
Sinon, installez les applications de fournisseurs tiers, enregistrez les types de ressource, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.