Ce chapitre présente les procédures suivantes :
Cette rubrique décrit des procédures de création de systèmes de fichiers de cluster permettant de prendre en charge des services de données.
Suivez cette procédure pour chaque système de fichiers de cluster à créer. Contrairement à un système de fichiers local, un système de fichiers de cluster est accessible à partir de n'importe quel nœud du cluster.
Vous pouvez également utiliser un système de fichiers local à haute disponibilité pour prendre en charge un service de données. Pour plus d'informations sur le choix entre la création d'un système de fichiers de cluster ou d'un système de fichiers local à haute disponibilité pour prendre en charge un service de données particulier, reportez-vous au guide du service de données concerné. Pour obtenir des informations générales sur la création d'un système de fichiers local à haute disponibilité, reportez-vous à la rubrique Enabling Highly Available Local File Systems du Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Effectuez les tâches suivantes :
Vérifiez que vous avez installé des packages de logiciels pour le système d'exploitation Solaris, la structure Sun Cluster et d'autres produits conformément à la rubrique Installation du logiciel.
Vérifiez que vous avez défini le nouveau cluster ou nœud de cluster comme décrit dans la rubrique Établissement d'un cluster ou d'un nœud.
Si vous utilisez un gestionnaire de volumes, vérifiez que le logiciel de gestion des volumes est installé et configuré. Pour obtenir des procédures d'installation du gestionnaire de volumes, reportez-vous à la rubrique Configuration du logiciel Solaris Volume Manager ou à la rubrique Installation et configuration du logiciel VxVM.
Si vous avez ajouté un nouveau nœud à un cluster utilisant VxVM, vous devez effectuer l'une des tâches suivantes :
installer VxVM sur ce nœud ou
modifier le fichier /etc/name_to_major de ce nœud à des fins de coexistence avec VxVM.
Suivez les procédures de la section Installation du logiciel VERITAS Volume Manager pour effectuer l'une de ces tâches requises.
Déterminez les options de montage à utiliser pour chaque système de fichiers de cluster à créer. Reportez-vous à la rubrique Sélection d'options de montage pour des systèmes de fichiers de cluster.
Devenez superutilisateur sur un noeud du cluster.
Pour Solaris, suivez cette procédure à partir de la zone globale si des zones non globales sont configurées dans le cluster.
pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au noeud principal actuel du périphérique global pour lequel vous créez le système de fichiers.
Créez un système de fichiers.
toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'indiquer le nom correct du périphérique de disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.
Pour un système de fichiers UFS, utilisez la commande newfs(1M).
phys-schost# newfs raw-disk-device |
Le tableau suivant présente des exemples de noms pour l'argument périphérique_disques_bruts. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.
Gestionnaire de volumes |
Exemple de nom de périphériques de disque |
Description |
---|---|---|
Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
Périphérique de disque brut d1 dans l'ensemble de disques nfs |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Périphérique de disque brut vol01 dans le groupe de disques oradg |
Aucun |
/dev/global/rdsk/d1s3 |
Périphérique de disque brut d1s3 |
SPARC : pour un système de fichiers VERITAS File System (VxFS), suivez les instructions des procédures fournies dans la documentation de VxFS.
Sur chaque nœud, créez un répertoire de montage pour le système de fichiers de cluster.
Vous devez créer un point de montage sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.
Afin de vous faciliter le travail d'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.
phys-schost# mkdir -p /global/device-group/mountpoint/ |
Nom du répertoire correspondant au nom du groupe de périphériques contenant le périphérique en question.
Nom du répertoire sur lequel vous devez monter le système de fichiers du cluster.
Sur chaque noeud de la grappe, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.
Reportez-vous à la page de manuel vfstab(4) pour obtenir plus d'informations.
Si des zones non globales sont configurées dans le cluster, veillez à monter des systèmes de fichiers de cluster dans la zone globale via un chemin dans le répertoire racine de la zone globale.
Dans chacune des entrées, indiquez les options de montage requises pour le type de système de fichiers utilisé.
N'utilisez pas l'option de montage logging pour les volumes transactionnels Solaris Volume Manager. Les volumes transactionnels disposent d'une journalisation propre.
En outre, Solaris Volume Manager Journalisation de volumes de transaction est supprimé du SE Solaris 10. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.
Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur oui dans le champ monter à l'initialisation.
Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque noeud.
Assurez-vous que les entrées du fichier /etc/vfstab de chaque noeud répertorient les périphériques dans le même ordre.
Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.
Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disque d0 sur /global/oracle/ et phys-schost-2 monte le périphérique de disque d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs/ qu'une fois que phys-schost-1 a démarré et monté /global/oracle/.
Exécutez l'utilitaire de vérification de la configuration sur un quelconque nœud du cluster.
phys-schost# sccheck |
L'utilitaire de vérification de la configuration vérifie que les points de montage existent. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster. Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
Pour plus d'informations, reportez-vous à la page de manuel sccheck(1M).
Montez le système de fichiers de cluster.
phys-schost# mount /global/device-group/mountpoint/ |
Pour UFS , montez le système de fichiers du cluster à partir de n'importe quel nœud.
SPARC : Pour VxFS, montez le système de fichiers de cluster à partir du maître actuel de device-group pour avoir l'assurance que ce système monte correctement.
En outre, démontez un système de fichiers VxFS du maître actuel du device-group afin de garantir un démontage correct du système de fichiers.
Pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du nœud principal sur lequel le système de fichiers de cluster VxFS est monté.
Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.
Vous pouvez utiliser la commande df ou mount pour afficher la liste des systèmes de fichiers montés. Pour plus d'informations, reportez-vous à la page de manuel df(1M) ou à la page de manuel mount(1M).
Dans Solaris 10, les systèmes de fichiers de cluster sont accessibles via la zone globale et la zone non globale.
L'exemple suivant crée un système de fichiers UFS sur le le volume Solaris Volume Manager /dev/md/oracle/rdsk/d1. Une entrée du système de fichiers de cluster est ajoutée au fichier vfstab de chaque nœud. La commande sccheck est ensuite exécutée à partir d'un nœud. Une fois le processus de vérification de la configuration terminé, le système de fichiers de cluster est monté à partir d'un nœud puis vérifié sur tous les nœuds.
phys-schost# newfs /dev/md/oracle/rdsk/d1 … phys-schost# mkdir -p /global/oracle/d1 phys-schost# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging … phys-schost# sccheck phys-schost# mount /global/oracle/d1 phys-schost# mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2005 |
Déterminez, à partir de la liste suivante, la tâche suivante qui s'applique à la configuration de votre cluster. Pour effectuer plusieurs tâches de cette liste, accédez à la première de la liste.
Pour créer des zones non globales sur un nœud, reportez-vous à la rubrique Création d'une zone non globale sur un nœud de cluster.
SPARC : pour surveiller le cluster à l'aide de Sun Management Center, reportez-vous à la rubrique SPARC : installation du module Sun Cluster pour Sun Management Center.
Installez les applications de fournisseurs tiers, enregistrez les types de registres, définissez les groupes de ressources et configurez les services de données. Reportez-vous à la documentation fournie avec le logiciel d'application ainsi qu'au Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Cette rubrique décrit des procédures de création d'une zone non globale sur un nœud de cluster.
Suivez cette procédure pour chaque zone non globale à créer dans le cluster.
Pour obtenir des informations complètes sur l'installation d'une zone, reportez-vous au manuel System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Vous pouvez configurer une zone non globale Solaris 10, désignée ici une zone, sur un nœud de cluster lors de l'initialisation du nœud en mode cluster ou non cluster.
Si vous créez une zone pendant l'initialisation du nœud en mode non cluster, le logiciel du cluster reconnaît la zone lorsque le nœud est associé au cluster.
Si vous créez ou supprimez une zone alors que le nœud est en mode cluster, le logiciel du cluster modifie dynamiquement sa liste de zones capables de contrôler des groupes de ressources.
Effectuez les tâches suivantes :
Planifiez la configuration de votre zone non globale. Consultez les exigences et restrictions dans Procédures relatives aux zones non globales d'un cluster.
Ayez à disposition les informations suivantes :
Le nombre total de zones non globales à créer.
L'adaptateur public et l'adresse IP publique de chaque zone.
Le chemin de chaque zone. Ce chemin doit être un système de fichiers local et non un système de fichiers de cluster ou un système de fichiers local à haute disponibilité.
Un ou plusieurs périphériques doivent apparaître dans chaque zone.
(Facultatif) Le nom attribué à chaque zone.
Si vous attribuez une adresse IP privée à la zone, vérifiez que la plage d'adresses IP de cluster peut prendre en charge les adresses IP privées supplémentaires que vous allez configurer. Utilisez la commande cluster show-netprops pour afficher la configuration réseau privé actuelle.
Si la plage d'adresses IP actuelles ne permet pas de prendre en charge les adresses IP privées supplémentaires qui seront configurées, suivez les procédures dans Procédure de modification de la configuration de réseau privé lors de l'ajout de nœuds ou de réseaux privés pour reconfigurer la plage d'adresses IP privées.
Pour plus d'informations, reportez-vous à la rubrique Zone Components du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Devenez le superutilisateur du nœud sur lequel vous créez la zone non globale.
Vous devez vous trouver dans la zone globale.
Pour Solaris 10, vérifiez sur chaque nœud que les services multiutilisateur de SMF (Service Management Facility) sont en ligne.
Attendez qu'ils le soient sur tous les nœuds avant de passer à l'étape suivante.
phys-schost# svcs multi-user-server STATE STIME FMRI online 17:52:55 svc:/milestone/multi-user-server:default |
Configurez, installez et initialisez la nouvelle zone.
Vous devez définir la propriété autoboot sur true pour prendre en charge la fonctionnalité de groupe de ressources dans la zone non globale.
Suivez les procédures de la documentation suivante :
Effectuez les procédures du Chapitre 18, Planning and Configuring Non-Global Zones (Tasks) du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Effectuez les procédures de la rubrique Installing and Booting Zones du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Effectuez les procédures de la rubrique How to Boot a Zone du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Vérifiez que l'état de la zone est prêt.
phys-schost# zoneadm list -v ID NAME STATUS PATH 0 global running / 1 my-zone ready /zone-path |
(Facultatif) Assignez une adresse IP privée et un nom d'hôte privé à la zone.
La commande suivante choisit et assigne une adresse IP disponible à partir de la plage d'adresses IP privées du cluster. La commande assigne également le nom d'hôte privé spécifié, ou alias d'hôte, à la zone et le mappe à l'adresse IP privée assignée.
phys-schost# clnode set -p zprivatehostname=hostalias node:zone |
Spécifie une propriété.
Spécifie le nom d'hôte privé de la zone, ou alias d'hôte.
Nom du nœud.
Nom de la zone non globale.
Procédez à la configuration de la zone interne initiale.
Suivez les procédures de la rubrique Performing the Initial Internal Zone Configuration du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones. Utilisez l'une des méthodes suivantes :
Se connecter à la zone
Utiliser un fichier /etc/sysidcfg
Dans la zone non globale, modifiez le fichier nsswitch.conf.
Vous devez apporter ces modifications pour activer la zone et résoudre les recherches de noms d'hôtes et d'adresses IP spécifiques au cluster.
Connectez-vous à la zone.
phys-schost# zogin -c zonename |
Ouvrez le fichier /etc/nsswitch.conf pour le modifier.
phys-schost# vi /etc/nsswitch.conf |
Ajoutez le commutateur cluster au début des recherches pour les entrées hosts et netmasks.
Les entrées modifiées doivent être similaires à ce qui suit :
… hosts: cluster files nis [NOTFOUND=return] … netmasks: cluster files nis [NOTFOUND=return] … |
Pour installer une application dans une zone non globale, utilisez la procédure qui s'applique à un système autonome. Reportez-vous à la documentation d'installation de votre application pour obtenir des procédures d'installation du logiciel dans une zone non globale. Reportez-vous également à la rubrique Adding and Removing Packages and Patches on a Solaris System With Zones Installed (Task Map) du System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Pour installer et configurer un service de données dans une zone non globale, reportez-vous au manuel de Sun Cluster du service de données concerné.