Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster 4.0 (Français) |
1. Planification de la configuration d'Oracle Solaris Cluster
2. Installation de logiciels sur des noeuds de cluster global
3. Etablissement d'un cluster global
4. Configuration du logiciel Solaris Volume Manager
Configuration du logiciel Solaris Volume Manager
Création de répliques de la base de données d'état
Création d'ensembles de disques dans un cluster
Création d'un ensemble de disques
Ajout d'unités à un ensemble de disques
Ajout d'unités à un ensemble de disques
Configuration d'hôtes médiateurs
Exigences des hôtes médiateurs
Vérification de la présence de données de médiateur et correction de ces données
5. Création d'un système de fichiers de cluster
6. Création de clusters de zones
Cette section décrit la procédure de création d'ensembles de disques pour une configuration en cluster. Lorsque vous créez un ensemble de disques Solaris Volume Manager dans un environnement Oracle Solaris Cluster, l'ensemble de disques est enregistré automatiquement sur le logiciel Oracle Solaris Cluster en tant que groupe de périphériques de type svm. Pour créer ou supprimer un groupe de périphériques svm, vous devez utiliser les commandes et utilitaires Solaris Volume Manager pour créer ou supprimer l'ensemble de disques sous-jacent au groupe de périphériques.
Le tableau suivant répertorie les tâches à effectuer pour créer des ensembles de disques. Effectuez les procédures dans l'ordre dans lequel elles sont indiquées.
Tableau 4-2 Liste des tâches : configuration d'ensembles de disques Solaris Volume Manager
|
Avant de commencer
L'ensemble de disques que vous voulez créer doit répondre à l'un des critères suivants :
Si l'ensemble de disques est configuré exactement sur deux chaînes de disques, ce dernier doit être connecté à exactement deux noeuds et utiliser deux ou trois hôtes médiateurs. Ces derniers doivent inclure les deux hôtes reliés aux boîtiers contenant l'ensemble de disques. Pour plus d'informations sur la configuration d'hôtes médiateurs, reportez-vous à la section Configuration d'hôtes médiateurs.
Si l'ensemble de disques est configuré avec plus de deux chaînes de disques, assurez-vous que, pour deux chaînes de disques S1 et S2, le nombre total d'unités sur ces chaînes n'excède pas le nombre total d'unités sur la troisième chaîne S3. Autrement dit, vous devez respecter la formule suivante : total(S1) + total(S2) > total(S3)
Vous pouvez exécuter cette commande sur tous les noeuds du cluster à la fois.
phys-schost# cldevice populate
Pour plus d'informations, reportez-vous à la page de manuel cldevice(1CL).
La commande s'applique à distance sur tous les noeuds, même si elle est exécutée à partir d'un seul noeud. Pour savoir si la commande a terminé le traitement, exécutez la commande suivante sur chaque noeud du cluster :
phys-schost# ps -ef | grep scgdevs
Pour des instructions, reportez-vous à la section Création de répliques de la base de données d'état.
La commande suivante permet de créer l'ensemble de disques et de l'enregistrer en tant que groupe de périphériques Oracle Solaris Cluster.
phys-schost# metaset -s setname -a -h node1 node2
Spécifie le nom de l'ensemble de disques.
Ajoute (crée) l'ensemble de disques.
Indique le nom du noeud principal qui contrôlera l'ensemble de disques.
Indique le nom du noeud secondaire qui contrôlera l'ensemble de disques.
Remarque - Lorsque vous exécutez la commande metaset pour configurer un groupe de périphériques Solaris Volume Manager sur un cluster, celle-ci désigne un noeud secondaire par défaut. Après la création du groupe de périphériques, vous pouvez modifier le nombre de noeuds secondaires souhaité dans ce groupe à l'aide de l'utilitaire clsetup. Pour plus d'informations sur la modification de la propriété Administration des groupes de périphériques du manuel Guide d’administration système d’Oracle Solaris ClusterOracle Solaris Cluster System Administration Guide.
phys-schost# cldevicegroup sync device-group-name
Pour plus d'informations sur la réplication de données, reportez-vous au Chapitre 4, Méthodes de réplication de données du manuel Guide d’administration système d’Oracle Solaris Cluster.
phys-schost# metaset -s setname
phys-schost# cldevicegroup set -p name=value device-group
Indique une propriété du groupe de périphériques.
Indique le nom d'une propriété.
Indique la valeur ou le paramètre de la propriété.
Indique le nom du groupe de périphériques. Le nom du groupe de périphériques correspond au nom de l'ensemble de disques.
Pour plus d'informations sur les propriétés des groupes de périphériques, reportez-vous à la page de manuel cldevicegroup(1CL).
Exemple 4-2 Création d'un ensemble de disques
La commande suivante crée deux ensembles de disques, dg-schost-1 et dg-schost-2, dont les noeuds phys-schost-1 et phys-schost-2 constituent les noeuds principaux.
phys-schost# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2 phys-schost# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2
Étapes suivantes
Ajoutez des unités à l'ensemble de disques. Passez à la section Ajout d'unités à un ensemble de disques.
Lorsque vous ajoutez une unité à un ensemble de disques, le logiciel de gestion du volume repartitionne l'unité de manière à ce que la base de données d'état de l'ensemble de disques puisse être placée sur l'unité.
Une petite portion de chaque unité est réservée au fonctionnement du logiciel Solaris Volume Manager. Dans les périphériques étiquetés Interface de microprogramme extensible (EFI), il s'agit de la tranche 6. L'espace restant sur chaque unité est placé dans la tranche 0.
Les unités sont repartitionnées lors de leur ajout à l'ensemble de disques, uniquement si la tranche cible n'est pas configurée correctement.
Le repartitionnement provoque la perte des données existant sur les unités.
Si la tranche cible démarre au cylindre 0 et si la partition de l'unité est suffisamment grande pour contenir une réplique de la base de données d'état, l'unité n'est pas repartitionnée.
Avant de commencer
Vérifiez que l'ensemble de disques a été créé. Pour obtenir des instructions, reportez-vous à la section Création d'un ensemble de disques.
phys-schost# cldevice show | grep Device
Choisissez des unités partagées par les noeuds du cluster qui administreront ou seront susceptibles d'administrer l'ensemble de disques.
Lors de l'ajout d'une unité à l'ensemble de disques, utilisez le nom complet de périphérique DID dont la forme est /dev/did/rdsk/d N.
Dans l'exemple ci-dessous, les entrées du périphérique DID /dev/did/rdsk/d3 indiquent que l'unité est partagée par phys-schost-1 et phys-schost-2.
=== DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t0d0 DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c0t6d0 DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-1:/dev/rdsk/c1t1d0 Full Device Path: phys-schost-2:/dev/rdsk/c1t1d0 …
phys-schost# cldevicegroup switch -n node devicegroup
Indique le noeud qui deviendra propriétaire du groupe de périphériques.
Indique le nom du groupe de périphériques, identique à celui de l'ensemble de disques.
Utilisez le nom de chemin DID complet.
phys-schost# metaset -s setname -a /dev/did/rdsk/dN
Spécifie le nom de l'ensemble de disques, qui correspond à celui du groupe de périphériques.
Ajoute l'unité à l'ensemble de disques.
Remarque - N'utilisez pas le nom de périphérique de niveau inférieur (cNtXdY) lorsque vous ajoutez une unité à un ensemble de disques. Etant local et non unique à l'échelle du cluster, le nom de périphérique de niveau inférieur risque d'empêcher la commutation de metaset.
phys-schost# metaset -s setname
Exemple 4-3 Ajout d'unités à un ensemble de disques
La commande metaset ajoute les unités /dev/did/rdsk/d1 et /dev/did/rdsk/d2 à l'ensemble de disques dg-schost-1.
phys-schost# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2
Étapes suivantes
Pour repartitionner des unités à utiliser dans des volumes, passez à la section Repartitionnement d'unités dans un ensemble de disques.
Sinon, passez à la section Création d'un fichier md.tab pour connaître la procédure de définition de métapériphériques ou de volumes à l'aide du fichier md.tab.
La commande metaset(1M) repartitionne des unités dans un ensemble de disques de manière à réserver une petite portion de chaque unité au fonctionnement du logiciel Solaris Volume Manager. Dans les périphériques étiquetés Interface de microprogramme extensible (EFI), il s'agit de la tranche 6. L'espace restant sur chaque unité est placé dans la tranche 0. Pour une utilisation plus efficace de l'unité, suivez cette procédure afin de modifier l'organisation des disques. Si vous allouez de l'espace aux tranches EFI 1 à 5, vous pouvez utiliser ces tranches lorsque vous configurez des volumes Solaris Volume Manager.
Lorsque vous repartitionnez une unité, prenez des mesures pour éviter que la commande metaset ne repartitionne l'unité.
N'autorisez pas le chevauchement de la tranche cible par une autre tranche de l'unité.
Pour déterminer la taille de la réplique de base de données d'état correspondant à votre version du logiciel de gestion du volume, reportez-vous au Guide d'administration de Solaris Volume Manager.
Ne définissez pas ce champ sur read-only (lecture seule).
Pour plus d'informations, reportez-vous à la page de manuel format(1M).
Étapes suivantes
Définissez des volumes à l'aide d'un fichier md.tab. Passez à la section Création d'un fichier md.tab.
Créez un fichier /etc/lvm/md.tab sur chaque noeud du cluster. Utilisez le fichier md.tab pour définir les volumes Solaris Volume Manager pour les ensembles de disques que vous avez créés.
Remarque - Si vous utilisez des volumes locaux, vérifiez que les noms des volumes locaux sont différents de ceux des ID de périphérique qui constituent les ensembles de disques. Par exemple, si l'ID de périphérique /dev/did/dsk/d3 sert à un ensemble de disques, n'utilisez pas le nom /dev/md/dsk/d3 pour un volume local. Cette exigence ne concerne pas les volumes partagés, qui utilisent la convention de nommage /dev/md/setname/{r}dsk/d#.
Utilisez les noms de périphérique DID dans le fichier md.tab au lieu des noms de périphérique de niveau inférieur (cN tXdY). Le nom de périphérique DID prend la forme suivante : /dev/did/rdsk/dN.
phys-schost# cldevice show | grep Device
=== DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t0d0 DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c0t6d0 DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-1:/dev/rdsk/c1t1d0 Full Device Path: phys-schost-2:/dev/rdsk/c1t1d0 …
Reportez-vous à l'Exemple 4-4 pour consulter un exemple de fichier md.tab.
Remarque - Si des données existent sur les unités devant servir pour les sous-miroirs, sauvegardez-les avant de configurer les volumes. Ensuite, restaurez les données sur le miroir.
Dans un environnement de cluster, pour éviter toute confusion entre les volumes locaux des différents noeuds, utilisez un schéma de nommage dans lequel chaque nom de volume local présent sur le cluster possède un nom unique. Par exemple, pour le noeud 1, choisissez des noms compris entre d100 et d199. Pour le noeud 2, utilisez les noms d200 à d299.
Pour plus d'informations sur la création d'un fichier md.tab, reportez-vous à la documentation de votre logiciel Solaris Volume Manager ainsi qu'à la page de manuel md.tab(4).
Exemple 4-4 Exemple de fichier md.tab
L'exemple de fichier md.tab suivant définit l'ensemble de disques nommé dg-schost-1. L'ordre des lignes dans le fichier md.tab n'est pas important.
dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20 dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0
Cet exemple de fichier md.tab est construit comme suit.
La première ligne définit le périphérique d0 en tant que miroir des volumes d10 et d20. La lettre -m signifie que ce périphérique est un périphérique miroir.
dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20
La seconde ligne définit le volume d10, premier sous-miroir de d0, comme bande unidirectionnelle.
dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
La troisième ligne définit le volume d20, second sous-miroir de d0, comme bande unidirectionnelle.
dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0
Étapes suivantes
Activez les volumes définis dans les fichiers md.tab. Passez à la section Activation de volumes.
Effectuez cette procédure pour activer les volumes Solaris Volume Manager définis dans des fichiers md.tab.
phys-schost# cldevicegroup switch -n node device-group
Indique le noeud qui deviendra propriétaire.
Spécifie le nom de l'ensemble de disques.
phys-schost# metainit -s setname -a
Spécifie le nom de l'ensemble de disques.
Active tous les volumes définis dans le fichier md.tab.
Si besoin est, exécutez la commande metainit(1M) à partir d'un autre noeud connecté aux unités. Cette étape est requise dans les topologies de paires de cluster, où les unités ne sont pas accessibles par tous les noeuds.
phys-schost# metastat -s setname
Pour plus d'informations, reportez-vous à la page de manuel metastat(1M).
phys-schost# prtvtoc /dev/rdsk/cNtXdYsZ > filename
Stockez ce fichier en dehors du cluster. Si vous modifiez la configuration des disques, exécutez de nouveau cette commande pour capturer la nouvelle configuration. Si un disque tombe en panne et doit être remplacé, vous pouvez utiliser ces informations pour restaurer la configuration de la partition de disque. Pour plus d'informations, reportez-vous à la page de manuel prtvtoc(1M).
Une sauvegarde archivée de votre configuration en cluster facilite la récupération de celle-ci. Pour plus d'informations, reportez-vous à la section Sauvegarde de la configuration du cluster du manuel Guide d’administration système d’Oracle Solaris Cluster.
Exemple 4-5 Activation des volumes définis dans le fichier md.tab
Dans l'exemple suivant, tous les volumes définis dans le fichier md.tab de l'ensemble de disques dg-schost-1 sont activés.
phys-schost# metainit -s dg-schost-1 -a
Étapes suivantes
Si votre cluster contient des ensembles de disques configurés avec exactement deux boîtiers de disques et deux noeuds, ajoutez des hôtes médiateurs. Passez à la section Configuration d'hôtes médiateurs.
Sinon, passez à la section Création de systèmes de fichiers de cluster pour connaître la procédure de création d'un système de fichiers de cluster.