Installez et configurez vos disques locaux et multihôtes pour le logiciel Solstice DiskSuite ou Solaris Volume Manager en vous référant aux procédures décrites dans ce chapitre, ainsi qu'aux informations de planification de la rubrique Planification de la gestion des volumes . Reportez-vous à la documentation de Solstice DiskSuite ou Solaris Volume Manager pour de plus amples informations.
DiskSuite Tool (Solstice DiskSuite metatool) et le module de stockage amélioré de la console de gestion Solaris (Solaris Volume Manager) ne sont pas compatibles avec le logiciel Sun Cluster. Pour configurer le logiciel Solstice DiskSuite ou Solaris Volume Manager, utilisez l'interface de ligne de commande ou les utilitaires Sun Cluster.
Ce chapitre fournit les informations et procédures suivantes :
Exemple de configuration de Solstice DiskSuite ou Solaris Volume Manager
Définition du nombre de noms de métapériphériques ou de volumes et de jeux de disques
Mise en miroir de systèmes de fichiers pouvant être démontés
Modification des partitions de disques dans un jeu de disques
Le tableau suivant répertorie les tâches à effectuer pour installer et configurer les fonctions du logiciel Solstice DiskSuite ou Solaris Volume Manager pour Sun Cluster. Vous pouvez ignorer certaines procédures dans les cas suivants :
Si vous avez utilisé SunPlex Installer pour installer le logiciel Solstice DiskSuite (Solaris 8), les procédures décrites dans les rubriques Installation du logiciel Solstice DiskSuite et suivantes jusqu'à la rubrique Création de répliques de base de données d'état ont déjà été exécutées. Reportez-vous à la rubrique Mise en miroir du disque racine ou Création de jeux de disques dans un cluster pour continuer la configuration du logiciel Solstice DiskSuite.
Si vous avez installé le logiciel Solaris 9, Solaris Volume Manager est déjà installé. Vous pouvez commencer la configuration à partir de la rubrique Définition du nombre de noms de métapériphériques ou de volumes et de jeux de disques .
Si vous envisagez de créer un jeu de disques multipropriétaire Solaris Volume Manager pour Sun Cluster afin qu'il soit utilisé par Oracle Real Application Clusters, n'utilisez pas les procédures décrites dans les rubriques Création d'un jeu de disques et suivantes jusqu'à la rubrique Activation des métapériphériques ou volumes pour le créer.
Suivez plutôt les procédures décrites sous la rubrique “Creating a Multi-Owner Disk Set in Solaris Volume Manager for Sun Cluster for the Oracle Real Application Clusters Database” (Création d'un jeu de disques multipropriétaire dans le gestionnaire de volumes Solaris pour Sun Cluster pour la base de données Oracle Real Application Clusters) du manuel Sun Cluster Data Service for Oracle Real Application Clusters Guide for Solaris OS.
Tâche |
Instructions |
---|---|
1. Installez et configurez le logiciel Solstice DiskSuite ou Solaris Volume Manager. |
|
1a. Planifiez la présentation de la configuration de Solstice DiskSuite ou Solaris Volume Manager. | |
1b. (Solaris 8 uniquement) Installez le logiciel Solstice DiskSuite. | |
1c. Calculez le nombre de noms métapériphériques et de jeux de disques nécessaires à la configuration et modifiez le fichier /kernel/drv/md.conf. |
Définition du nombre de noms de métapériphériques ou de volumes et de jeux de disques |
1d. Créez des répliques de la base de données d'état sur les disques locaux. | |
1e. (Facultatif) Mettez les systèmes de fichiers en miroir sur le disque racine. | |
2. Créez des jeux de disques. |
|
2a. Créez des jeux de disques à l'aide de la commande metaset. | |
2b. Ajoutez des disques aux jeux de disques. | |
2c. (Facultatif) Répartissez les disques dans un jeu de disques pour affecter de l'espace aux tranches 1 à 6. |
Modification des partitions de disques dans un jeu de disques |
2d. Répertoriez les mappages de pseudo-pilotes d'ID de périphérique et définissez les métapériphériques ou les volumes dans les fichiers /etc/lvm/md.tab. | |
2e. Initialisez les fichiers md.tab. | |
3. (Configurations à deux chaînes uniquement) Configurez les hôtes de médiateur à deux chaînes, vérifiez l'état des données du médiateur et, si nécessaire, corrigez les données incorrectes. | |
4. Configurez le cluster. |
Cette section contient les informations et procédures ci-dessous pour installer et configurer le logiciel Solstice DiskSuite ou Solaris Volume Manager :
Exemple de configuration de Solstice DiskSuite ou Solaris Volume Manager
Définition du nombre de noms de métapériphériques ou de volumes et de jeux de disques
Mise en miroir de systèmes de fichiers pouvant être démontés
L'exemple ci-dessous aide à comprendre le processus permettant de déterminer le nombre de disques à placer dans chacun des jeux. Dans cet exemple, trois dispositifs de stockage sont utilisés. Les applications existantes tournent sur NFS (deux systèmes de fichiers de 5 Go chacun) ainsi que deux bases de données Oracle (une de 5 Go et l'autre de 10 Go).
Le tableau ci-dessous présente les calculs utilisés pour déterminer le nombre de disques nécessaires dans l'exemple de configuration. Dans une configuration à trois périphériques de stockage, 28 unités de disque sont nécessaires et sont réparties de façon aussi égale que possible entre les trois périphériques. Notez que les systèmes de fichiers de 5 Go ont reçu 1 Go d'espace disque supplémentaire, le nombre d'unités de disque nécessaires ayant été arrondi.
Tableau 3–2 Détermination du nombre d'unités de disque requises pour une configuration
Utilisation |
Données |
Espace disque nécessaire |
Lecteurs nécessaires |
---|---|---|---|
nfs1 |
5 Go |
3 disques de 2,1 Go * 2 (miroir) |
6 |
nfs2 |
5 Go |
3 disques de 2,1 Go * 2 (miroir) |
6 |
SPARC : oracle1 |
5 Go |
3 disques de 2,1 Go * 2 (miroir) |
6 |
SPARC : oracle2 |
10 Go |
5 disques de 2,1 Go * 2 (miroir) |
10 |
Le tableau ci-après indique l'allocation de disques dans les deux jeux de disques et les quatre services de données.
Tableau 3–3 Division des jeux de disques
Jeu de disques |
Services de données |
Disques |
Périphérique de stockage 1 |
Périphérique de stockage 2 |
Périphérique de stockage 3 |
---|---|---|---|---|---|
dg-schost-1 |
nfs1, oracle1 |
12 |
4 |
4 |
4 |
dg-schost-2 |
nfs2, oracle2 |
16 |
5 |
6 |
5 |
Au départ, quatre disques sont affectés à dg-schost-1 sur chaque périphérique de stockage (12 disques au total) et cinq ou six disques sont affectés à dg-schost-2 sur chaque périphérique de stockage (16 disques au total).
Aucun disque hot spare n'est affecté à un jeu de disques. En utilisant au moins un disque hot spare par périphérique de stockage et par jeu de disques, un disque peut devenir hot spare, ce qui permet de restaurer la mise en miroir à deux voies complète.
Veillez à ne pas exécuter cette procédure dans les cas suivants :
Si vous avez utilisé SunPlex Installer pour installer le logiciel Solstice DiskSuite.
Si vous envisagez de créer d'autres jeux de disques, passez à la rubrique Définition du nombre de noms de métapériphériques ou de volumes et de jeux de disques .
Si vous n'envisagez pas de créer d'autres jeux de disques, reportez-vous à la rubrique Mise en miroir du disque racine .
Vous avez installé le logiciel Solaris 9.
Le logiciel Solaris Volume Manager est automatiquement installé avec le logiciel Solaris 9. Reportez-vous plutôt à la rubrique Définition du nombre de noms de métapériphériques ou de volumes et de jeux de disques .
Effectuez cette tâche sur chaque nœud de cluster.
Gardez les informations suivantes à portée de main.
Mappages de vos unités de disque de stockage.
Les fiches de planification de configuration complétées indiquées ci-après. Reportez-vous à la rubrique Planification de la gestion des volumes pour connaître les directives de planification.
Fiche de travail de configuration des systèmes de fichiers locaux
Fiche de travail relative aux configurations des groupes de périphériques de disque
Fiche de travail relative à la configuration du gestionnaire de volumes
Fiche de travail relative aux métapériphériques (Solstice DiskSuite ou Solaris Volume Manager)
Devenez superutilisateur sur le nœud du cluster.
Si vous procédez à l'installation à partir du CD, insérez le deuxième CD-ROM de Solaris 8 dans le lecteur de CD sur le nœud.
Cette étape implique que le démon de gestion des volumes vold(1M) soit en cours d'exécution et configuré pour gérer les lecteurs de CD.
Installez les packages du logiciel Solstice DiskSuite dans l'ordre indiqué dans l'exemple suivant.
# cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packages # pkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] packages_facultatifs |
si vous devez installer des patchs pour le logiciel Solstice DiskSuite, ne réinitialisez pas le système après l'installation de Solstice DiskSuite.
Les packages SUNWmdr et SUNWmdu sont nécessaires pour toutes les installations de Solstice DiskSuite. Le package SUNWmdx est également nécessaire pour l'installation de Solstice DiskSuite 64 bits.
Reportez-vous à la documentation d'installation de Solstice DiskSuite pour de plus amples informations sur les packages facultatifs.
Si vous avez effectué une installation à partir d'un CD, éjectez-le.
Installez les patchs de Solstice DiskSuite.
Reportez-vous à la rubrique “Patchs et niveaux de microprogrammes requis” du document Notes de version de Sun Cluster 3.1 pour connaître l'emplacement des patchs et les consignes d'installation.
Répétez la procédure de l'Étape 1 à l'Étape 6 sur les autres nœuds du cluster.
À partir d'un nœud du cluster, renseignez manuellement l'espace de noms de périphériques globaux de Solstice DiskSuite.
# scgdevs |
la commande scgdevs peut envoyer un message similaire à celui-ci :
Could not open /dev/rdsk/c0t6d0s2 to verify device id, Device busy |
Si le périphérique répertorié est un lecteur CD, vous pouvez ignorer ce message en toute sécurité.
Définissez le nombre de noms de métapériphériques et de jeux de disques attendus dans le cluster.
Reportez-vous à la rubrique Définition du nombre de noms de métapériphériques ou de volumes et de jeux de disques .
Si vous avez utilisé SunPlex Installer pour installer Solstice DiskSuite, n'exécutez pas cette procédure. Reportez-vous plutôt à la rubrique Mise en miroir du disque racine .
Cette procédure permet de déterminer le nombre de métapériphériques Solstice DiskSuite ou de noms de volumes Solaris Volume Manager et de jeux de disques requis pour la configuration et de modifier le fichier /kernel/drv/md.conf pour spécifier ces nombres.
Par défaut, le nombre de noms de métapériphériques ou de volumes par jeu de disques est de 128, mais de nombreuses configurations en requièrent davantage. Pour gagner du temps sur l'administration ultérieurement, augmentez ce nombre avant de mettre en oeuvre une configuration.
Parallèlement, définissez la valeur des champs nmd et md_nsets sur la valeur la plus basse possible. Les structures de mémoire existent pour tous les périphériques possibles conformément aux commandes nmd et md_nsets, même si vous n'avez pas créé ces périphériques. Pour des performances optimales, configurez la valeur de nmd et de md_nsets de sorte qu'elle soit légèrement supérieure au nombre de métapériphériques ou de volumes que vous utiliserez.
Gardez la Fiche de travail relative aux configurations des groupes de périphériques de disque à portée de main.
Déterminez le nombre total de jeux de disques dont vous pensez avoir besoin sur le cluster, puis ajoutez-en un autre pour la gestion de disques privée.
Le cluster peut comprendre un maximum de 32 jeux de disques dont 31 sont dédiés à une utilisation d'ordre général et 1 est dédié à la gestion de disques privée. Le nombre de jeux de disques par défaut est de 4. Vous devez entrer cette valeur dans le champ md_nsets à l'Étape 4.
Déterminez la longueur maximale des noms de métapériphérique ou de volume dont vous pensez avoir besoin pour les jeux de disques du cluster.
Chaque jeu de disques peut comprendre un maximum de 8 192 noms de métapériphérique ou de volume. Vous devez saisir cette valeur dans le champ nmd de l'Étape 4.
Déterminez la quantité de noms de métapériphérique ou de volume dont vous pensez avoir besoin par jeu de disques.
Si vous utilisez des noms de métapériphériques ou de volumes locaux, assurez-vous que chaque nom de métapériphérique ou de volume local est unique dans le cluster et n'est identique à aucun nom IDP utilisé.
choisissez une série de numéros à utiliser exclusivement pour les noms IDP et, pour chaque nœud, une série à utiliser exclusivement pour ses noms de métapériphériques locaux. Par exemple, les noms IDP peuvent utiliser la tranche d1 à d100. Les métapériphériques ou volumes locaux peuvent utiliser sur le nœud 1 des noms de la tranche d100 à d199. Sur le nœud 2, les métapériphériques ou volumes locaux peuvent utiliser des noms de la tranche d200 à d299.
Déterminez le nombre maximum de noms de métapériphérique ou de volume que vous pensez utiliser dans un jeu de disques.
La quantité de noms de métapériphériques ou de volumes à définir est basée sur la valeur des noms de métapériphériques ou de volume plutôt que sur leur quantité réelle. Par exemple, si vos noms de métapériphériques ou de volumes vont de d950 à d1000, vous devez configurer la valeur sur 1000 noms au lieu de 50 dans le logiciel Solstice DiskSuite ou Solaris Volume Manager.
Devenez superutilisateur sur chaque nœud et modifiez le fichier /kernel/drv/md.conf.
Tous les nœuds de cluster (ou paires de clusters dans la topologie de paires de clusters) doivent disposer des mêmes fichiers /kernel/drv/md.conf, quel que soit le nombre de jeux de disques desservis par chaque nœud. Le non-respect de cette consigne peut occasionner de graves erreurs de Solstice DiskSuite ou Solaris Volume Manager et un risque de pertes de données.
Sur chaque nœud, effectuez une réinitialisation de reconfiguration.
# touch /reconfigure # shutdown -g0 -y -i6 |
Les modifications apportées au fichier /kernel/drv/md.conf prennent effet après une réinitialisation de reconfiguration.
Créez des répliques de base de données d'état.
Reportez-vous à la rubrique Création de répliques de base de données d'état .
Si vous avez utilisé SunPlex Installer pour installer Solstice DiskSuite, n'exécutez pas cette procédure. Reportez-vous plutôt à la rubrique Mise en miroir du disque racine .
Suivez cette procédure sur chaque nœud du cluster.
Devenez superutilisateur sur le nœud de cluster.
Créez des répliques de base de données d'état sur un ou plusieurs périphériques locaux pour chacun des nœuds du cluster.
Utilisez le nom physique (cNtXdYsZ) et non l'ID de périphérique (dN) pour spécifier les tranches à utiliser.
# metadb -af tranche_1 tranche_2 tranche_3 |
pour protéger les données d'état, opération nécessaire pour exécuter le logiciel Solstice DiskSuite ou Solaris Volume Manager, créez au moins trois répliques par nœud. Vous pouvez également placer des répliques sur plusieurs périphériques pour bénéficier d'une protection en cas d'échec de l'un des périphériques.
Reportez-vous à la page man metadb(1M) et à votre documentation Solstice DiskSuite ou Solaris Volume Manager pour de plus amples informations.
Vérifiez les répliques.
# metadb |
La commande metadb affiche la liste des répliques.
Si vous souhaitez mettre les systèmes de fichiers en miroir sur le disque racine, reportez-vous à la rubrique Mise en miroir du disque racine .
Sinon, reportez-vous à la rubrique Création de jeux de disques dans un cluster pour créer les jeux de disques Solstice DiskSuite ou Solaris Volume Manager.
L'exemple suivant montre trois répliques de bases de données d'état Solstice DiskSuite. Chaque réplique est créée sur un périphérique différent. La réplique doit être plus grande pour Solaris Volume Manager.
# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7 # metadb flags first blk block count a u 16 1034 /dev/dsk/c0t0d0s7 a u 16 1034 /dev/dsk/c0t1d0s7 a u 16 1034 /dev/dsk/c1t0d0s7 |
La mise en miroir du disque racine permet d'éviter que le nœud du cluster lui-même s'arrête en cas de panne du disque système. Quatre types de systèmes de fichiers peuvent résider sur le disque racine. Chaque système de fichiers est mis en miroir à l'aide d'une méthode différente.
Suivez les procédures présentées pour mettre en miroir chaque type de système de fichiers.
certaines des étapes de mise en miroir sont susceptibles de provoquer un message d'erreur similaire au message suivant, sans risque et pouvant être ignoré :
metainit: dg-schost-1: d1s0: not a metadevice |
pour la mise en miroir d'un disque local, n'utilisez pas le chemin /dev/global lorsque vous indiquez le nom du disque. Si vous spécifiez ce chemin pour autre chose que des systèmes de fichiers de clusters, le système ne peut pas s'initialiser.
Utilisez cette procédure pour mettre en miroir le système de fichiers racine (/).
Connectez-vous en tant que superutilisateur sur le nœud.
Utilisez la commande metainit(1M) pour mettre la tranche racine dans une concaténation à une seule tranche (simple).
Indiquez le nom du disque physique de la tranche racine (cNtXdYsZ).
# metainit -f sous_miroir1 1 1 tranche_disque_racine |
Créez une deuxième concaténation.
# metainit sous_miroir2 1 1 tranche_disque_sous_miroir |
Créez un miroir à une voie avec un sous-miroir.
# metainit miroir -m sous_miroir1 |
le nom de métapériphérique ou de volume du miroir doit être unique sur tout le cluster.
Exécutez la commande metaroot(1M).
Cette commande édite les fichiers /etc/vfstab et /etc/system de sorte que le système puisse être initialisé avec le système de fichiers racine (/) sur un métapériphérique ou un volume.
# metaroot miroir |
Exécutez la commande lockfs(1M).
Cette commande supprime toutes les transactions du journal et les écrit dans le système de fichiers maître sur tous les systèmes de fichiers UFS montés.
# lockfs -fa |
Déplacez tous les groupes de ressources ou groupes de périphériques du nœud.
# scswitch -S -h nœud_origine |
Déplace tous les groupes de ressources et groupes de périphériques.
Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.
Réinitialisez le nœud.
Cette commande remonte le système de fichiers racine (/) nouvellement mis en miroir.
# shutdown -g0 -y -i6 |
Utilisez la commande metattach(1M)) pour attacher le deuxième sous-miroir au miroir.
# metattach miroir sous_miroir2 |
Si le disque utilisé pour mettre le disque racine en miroir est connecté physiquement à plusieurs nœuds (multihôte), activez la propriété localonly.
Pour activer la propriété localonly du groupe de périphériques de disques bruts pour l'unité de disque utilisée pour mettre en miroir le disque racine, exécutez les étapes ci-dessous. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un nœud de son périphérique de démarrage si ce dernier est connecté à plusieurs nœuds.
Si nécessaire, utilisez la commande scdidadm(1M) -L pour afficher le nom de chemin IDP complet du groupe de périphériques de disques bruts.
Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 apparaît dans la troisième colonne des résultats, correspondant au nom de chemin IDP complet.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
Visualisez la liste des nœuds du groupe de périphériques de disques bruts.
Le résultat sera similaire à ce qui suit.
# scconf -pvv | grep dsk/d2 Nom du groupe de périphériques : dsk/d2 … (dsk/d2) Liste de nœuds du groupe de périphériques : phys-schost-1, phys-schost-3 … |
Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.
Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.
# scconf -r -D name=dsk/dN,nodelist=nœud |
Indique le nom du groupe de périphériques de disques bruts unique du cluster.
Spécifie le nom du ou des nœuds à supprimer de la liste des nœuds.
Utilisez la commande scconf(1M) pour activer la propriété localonly.
Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire d'un nœud de son périphérique de démarrage si celui-ci est connecté à plusieurs nœuds.
# scconf -c -D name=nom_groupe_disques_bruts,localonly=true |
Indique le nom du groupe de périphériques de disques bruts.
Pour de plus amples informations sur la propriété localonly, reportez-vous à la page man scconf_dg_rawdisk(1M).
Enregistrez l'autre chemin d'initialisation à utiliser éventuellement par la suite.
Si le périphérique de démarrage principal échoue, vous pouvez ainsi procéder à l'initialisation à partir de cet autre périphérique de démarrage. Reportez-vous à la rubrique “Troubleshooting the System” du document Solstice DiskSuite 4.2.1 User's Guide ou à la rubrique “Mirroring root (/) Special Considerations” du document Solaris Volume Manager Administration Guide pour de plus amples informations sur les autres périphériques de démarrage.
# ls -l /dev/rdsk/tranche_disque_racine |
Répétez l'opération (de l'Étape 1 à l'Étape 11) sur chaque nœud restant du cluster.
Assurez-vous que chaque nom de métapériphérique ou de volume pour un miroir est unique sur tout le cluster.
(Facultatif) Pour mettre en miroir l'espace de noms global, /global/.devices/node@idnœud, reportez-vous à la rubrique Mise en miroir de l'espace de noms global .
(Facultatif) Pour mettre en miroir des systèmes de fichiers indémontables, reportez-vous à la rubrique Mise en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés.
(Facultatif) Pour mettre en miroir des systèmes de fichiers définis par l'utilisateur, reportez-vous à la rubrique Mise en miroir de systèmes de fichiers pouvant être démontés.
Reportez-vous à la rubrique Création de jeux de disques dans un cluster pour créer un jeu de disques.
L'exemple suivant illustre la création du miroir d0 sur le nœud phys-schost-1, constitué du sous-miroir d10 sur la partition c0t0d0s0 et du sous-miroir d20 sur la partition c2t2d0s0. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.
(Créez le miroir) # metainit -f d10 1 1 c0t0d0s0 d11: Concaténation/Entrelacement configuré # metainit d20 1 1 c2t2d0s0 d12: Concaténation/Entrelacement configuré # metainit d0 -m d10 d10: miroir configuré # metaroot d0 # lockfs -fa (Déplacez les groupes de ressources et les groupes de périphériques à partir de phys-schost-1) # scswitch -S -h phys-schost-1 (Redémarrez le nœud) # shutdown -g0 -y -i6 (Attachez le deuxième sous-miroir) # metattach d0 d20 d0: sous-miroir d20 attaché (Affichez la liste de nœuds du groupe de périphériques) # scconf -pvv | grep dsk/d2 Nom du groupe de périphériques : dsk/d2 … (dsk/d2) Liste de nœuds du groupe de périphériques : phys-schost-1, phys-schost-3 … (Supprimez le nœud phys-schost-3 de la liste de nœuds) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Activez la propriété localonly) # scconf -c -D name=dsk/d2,localonly=true (Enregistrez l'autre chemin de démarrage) # ls -l /dev/rdsk/c2t2d0s0 lrwxrwxrwx 1 root root 57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 –> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw |
Suivez cette procédure pour mettre en miroir l'espace de noms global, /global/.devices/node@id_nœud/.
Devenez superutilisateur sur un nœud du cluster.
Placez la tranche de l'espace de noms global dans une concaténation à une seule tranche (une seule voie).
Utilisez le nom du disque physique de la tranche du disque (cNtXdYsZ).
# metainit -f sous_miroir1 1 1 tranche_disque |
Créez une deuxième concaténation.
# metainit sous_miroir2 1 1 tranche_disque_sous_miroir |
Créez un miroir à une voie avec un sous-miroir.
# metainit miroir -m sous_miroir1 |
le nom de métapériphérique ou de volume du miroir doit être unique sur tout le cluster.
Attachez le deuxième sous-miroir au miroir.
Cet attachement lance une synchronisation des sous-miroirs.
# metattach miroir sous_miroir2 |
Éditez l'entrée de fichier /etc/vfstab pour le système de fichiers /global/.devices/node@id_nœud.
Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/miroir /dev/md/rdsk/miroir /global/.devices/node@ID_nœud ufs 2 no global |
Répétez l'opération de l'Étape 1 à l'Étape 6 sur chaque nœud restant du cluster.
Attendez que la synchronisation des miroirs, lancée à l'Étape 5, soit terminée.
Utilisez la commande metastat(1M) pour visualiser le statut de miroir et pour vous assurer que la synchronisation de la mise en miroir est terminée.
# metastat miroir |
Si le disque utilisé pour mettre l'espace de noms global en miroir est connecté physiquement à plusieurs nœuds (multihôte), activez la propriété localonly.
Pour activer la propriété localonly du groupe de périphériques de disques bruts pour l'unité de disque utilisée pour mettre en miroir l'espace de noms global, exécutez les étapes ci-dessous. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un nœud de son périphérique de démarrage si ce dernier est connecté à plusieurs nœuds.
Si nécessaire, utilisez la commande scdidadm(1M) pour afficher le nom de chemin IDP complet du groupe de périphériques de disques bruts.
Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 apparaît dans la troisième colonne des résultats, correspondant au nom de chemin IDP complet.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
Visualisez la liste des nœuds du groupe de périphériques de disques bruts.
Le résultat sera similaire à ce qui suit.
# scconf -pvv | grep dsk/d2 Nom du groupe de périphériques : dsk/d2 … (dsk/d2) Liste de nœuds du groupe de périphériques : phys-schost-1, phys-schost-3 … |
Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud dont le disque est mis en miroir.
Seul le nœud dont le disque est mis en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.
# scconf -r -D name=dsk/dN,nodelist=nœud |
Indique le nom du groupe de périphériques de disques bruts unique du cluster.
Spécifie le nom du ou des nœuds à supprimer de la liste des nœuds.
Utilisez la commande scconf(1M) pour activer la propriété localonly.
Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire d'un nœud de son périphérique de démarrage si celui-ci est connecté à plusieurs nœuds.
# scconf -c -D name=nom_groupe_disques_bruts,localonly=true |
Indique le nom du groupe de périphériques de disques bruts.
Pour de plus amples informations sur la propriété localonly, reportez-vous à la page man scconf_dg_rawdisk(1M).
(Facultatif) Pour mettre en miroir des systèmes de fichiers autres que racine (/) et indémontables, reportez-vous à la rubrique Mise en miroir des systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés.
(Facultatif) Pour mettre en miroir des systèmes de fichiers définis par l'utilisateur, reportez-vous à la rubrique Mise en miroir de systèmes de fichiers pouvant être démontés.
Reportez-vous à la rubrique Création de jeux de disques dans un cluster pour créer un jeu de disques.
L'exemple suivant illustre la création du miroir d101, constitué du sous-miroir d111 sur la partition c0t0d0s3 et du sous-miroir d121 sur la partition c2t2d0s3. L'entrée de fichier /etc/vfstab pour /global/.devices/node@1 est mise à jour pour utiliser le nom de miroir d101. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.
(Créez le miroir) # metainit -f d111 1 1 c0t0d0s3 d111: Concaténation/Entrelacement configuré # metainit d121 1 1 c2t2d0s3 d121: Concaténation/Entrelacement configuré # metainit d101 -m d111 d101: Miroir configuré # metattach d101 d121 d101: sous-miroir d121 attaché (Modifiez le fichier /etc/vfstab) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global (Affichez l'état de synchronisation) # metastat d101 d101: miroir Sous-miroir 0: d111 État : correct Sous-miroir 1: d121 État : resynchronisation en cours Resynchronisation en cours : 15 % effectués … (Identifiez le nom IDP du groupe de périphériques de disques bruts correspondant au disque mis en miroir) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Affichez la liste de nœuds du groupe de périphériques) # scconf -pvv | grep dsk/d2 Nom du groupe de périphériques : dsk/d2 … (dsk/d2) Liste de nœuds du groupe de périphériques : phys-schost-1, phys-schost-3 … (Supprimez phys-schost-3 de la liste de nœuds) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Activez la propriété localonly) # scconf -c -D name=dsk/d2,localonly=true |
Cette procédure permet de mettre en miroir les systèmes de fichiers autres que les systèmes de fichiers racine (/) ne pouvant pas être démontés tandis que le système est utilisé normalement, comme /usr, /opt ou swap.
Devenez superutilisateur sur un nœud du cluster.
Placez la tranche sur laquelle réside un système de fichiers non démontable dans une concaténation à une seule tranche (une seule voie).
Indiquez le nom du disque physique de la tranche de disque (cNtXdYsZ).
# metainit -f sous_miroir1 1 1 tranche_disque |
Créez une deuxième concaténation.
# metainit sous_miroir2 1 1 tranche_disque_sous_miroir |
Créez un miroir à une voie avec un sous-miroir.
# metainit miroir -m sous_miroir1 |
il n'est pas nécessaire que le nom de métapériphérique ou du volume du miroir soit unique sur tout le cluster.
Répétez la procédure de l'Étape 1 à l'Étape 4 pour chaque système de fichiers non démontable que vous souhaitez mettre en miroir.
Sur chaque nœud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers non démontable mis en miroir.
Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/miroir /dev/md/rdsk/miroir /système_de_fichiers ufs 2 no global |
Déplacez tous les groupes de ressources ou groupes de périphériques du nœud.
# scswitch -S -h nœud_origine |
Déplace tous les groupes de ressources et groupes de périphériques.
Indique le nom du nœud à partir duquel déplacer les groupes de ressources ou de périphériques.
Réinitialisez le nœud.
# shutdown -g0 -y -i6 |
Attachez le deuxième sous-miroir à chaque miroir.
Cet attachement lance une synchronisation des sous-miroirs.
# metattach miroir sous_miroir2 |
Attendez que la synchronisation des miroirs, lancée à l'Étape 9, soit terminée.
Utilisez la commande metastat(1M) pour visualiser le statut de miroir et pour vous assurer que la synchronisation de la mise en miroir est terminée.
# metastat miroir |
Si le disque utilisé pour mettre en miroir le système de fichiers démontable est connecté physiquement à plusieurs nœuds (multihôte), activez la propriété localonly.
Pour activer la propriété localonly du groupe de périphériques de disques bruts pour l'unité de disque utilisée pour mettre en miroir le système de fichiers démontable, exécutez les étapes ci-dessous. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un nœud de son périphérique de démarrage si ce dernier est connecté à plusieurs nœuds.
Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom de chemin IDP complet du groupe de périphériques de disques bruts.
Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d2 apparaît dans la troisième colonne des résultats, correspondant au nom de chemin IDP complet.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
Visualisez la liste des nœuds du groupe de périphériques de disques bruts.
Le résultat sera similaire à ce qui suit.
# scconf -pvv | grep dsk/d2 Nom du groupe de périphériques : dsk/d2 … (dsk/d2) Liste de nœuds du groupe de périphériques : phys-schost-1, phys-schost-3 … |
Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.
Seul le nœud dont le disque racine est mis en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.
# scconf -r -D name=dsk/dN,nodelist=nœud |
Indique le nom du groupe de périphériques de disques bruts unique du cluster.
Spécifie le nom du ou des nœuds à supprimer de la liste des nœuds.
Utilisez la commande scconf(1M) pour activer la propriété localonly.
Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire d'un nœud de son périphérique de démarrage si celui-ci est connecté à plusieurs nœuds.
# scconf -c -D name=nom_groupe_disques_bruts,localonly=true |
Indique le nom du groupe de périphériques de disques bruts.
Pour de plus amples informations sur la propriété localonly, reportez-vous à la page man scconf_dg_rawdisk(1M).
(Facultatif) Pour mettre en miroir des systèmes de fichiers définis par l'utilisateur, reportez-vous à la rubrique Mise en miroir de systèmes de fichiers pouvant être démontés.
Reportez-vous à la rubrique Création de jeux de disques dans un cluster pour créer un jeu de disques.
L'exemple suivant illustre la création du miroir d1 sur le nœud phys-schost-1 pour dupliquer /usr, résidant sur c0t0d0s1. Le miroir d1 est constitué du sous-miroir d11 sur la partition c0t0d0s1 et du sous-miroir d21 sur la partition c2t2d0s1. L'entrée de fichier /etc/vfstab pour /usr est mise à jour pour utiliser le nom de miroir d1. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.
(Créez le miroir) # metainit -f d11 1 1 c0t0d0s1 d11: Concaténation/Entrelacement configuré # metainit d21 1 1 c2t2d0s1 d21: Concaténation/Entrelacement configuré # metainit d1 -m d11 d1: Miroir configuré (Éditez le fichier /etc/vfstab) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs 2 no global (Déplacez les groupes de ressources et groupes de périphériques de phys-schost-1) # scswitch -S -h phys-schost-1 (Réinitialisez le nœud) # shutdown -g0 -y -i6 (Attachez le deuxième sous-miroir) # metattach d1 d21 d1: sous-miroir d21 attaché (Affichez l'état de synchronisation) # metastat d1 d1: Miroir Sous-miroir 0 : d11 État : correct Sous-miroir 1: d21 État : resynchronisation en cours Resynchronisation en cours : 15 % terminé … (Identifiez le nom d'IDP du groupe de périphériques de disques bruts du disque mis en miroir) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Affichez la liste de nœuds du groupe de périphériques) # scconf -pvv | grep dsk/d2 Nom du groupe de périphériques : dsk/d2 … (dsk/d2) Liste de nœuds du groupe de périphériques : phys-schost-1, phys-schost-3 … (Supprimez phys-schost-3 de la liste de nœuds) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Activez la propriété localonly) # scconf -c -D name=dsk/d2,localonly=true |
Cette procédure permet de mettre en miroir des systèmes de fichiers pouvant être démontés et définis par l'utilisateur. Dans cette procédure, il n'est pas nécessaire de réinitialiser les nœuds.
Devenez superutilisateur sur un nœud du cluster.
Démontez le système de fichiers à mettre en miroir.
Assurez-vous qu'aucun processus n'est en cours sur le système de fichiers.
# umount /point_montage |
Reportez-vous à la page man umount(1M) et à la rubrique “Mounting and Unmounting File Systems” du manuel System Administration Guide: Basic Administration pour de plus amples informations.
Placez dans une concaténation à une seule tranche (simple), la tranche contenant le système de fichiers défini par l'utilisateur pouvant être démonté.
Indiquez le nom du disque physique de la tranche de disque (cNtXdYsZ).
# metainit -f sous_miroir1 1 1 tranche_disque |
Créez une deuxième concaténation.
# metainit sous_miroir2 1 1 tranche_disque_sous_miroir |
Créez un miroir à une voie avec un sous-miroir.
# metainit miroir -m sous_miroir1 |
il n'est pas nécessaire que le nom de métapériphérique ou du volume du miroir soit unique sur tout le cluster.
Répétez la procédure de l'Étape 1 à l'Étape 5 pour chaque système de fichiers démontable à mettre en miroir.
Sur chaque nœud, éditez l'entrée de fichier /etc/vfstab pour chaque système de fichiers mis en miroir.
Remplacez les noms des colonnes device to mount et device to fsck par le nom du miroir.
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/miroir /dev/md/rdsk/miroir /système_de_fichiers ufs 2 no global |
Attachez le deuxième sous-miroir au miroir.
Cet attachement lance une synchronisation des sous-miroirs.
# metattach miroir sous_miroir2 |
Attendez que la synchronisation des miroirs démarrée à l'Étape 8 soit terminée.
Utilisez la commande metastat(1M) pour afficher l'état des miroirs.
# metastat miroir |
Si le disque utilisé pour mettre en miroir le système de fichiers défini par l'utilisateur est connecté physiquement à plusieurs nœuds (multihôte), activez la propriété localonly.
Pour activer la propriété localonly du groupe de périphériques de disques bruts pour l'unité de disque utilisée pour mettre en miroir le système de fichiers défini par l'utilisateur, exécutez les étapes ci-dessous. Vous devez activer la propriété localonly pour éviter la séparation involontaire d'un nœud de son périphérique de démarrage si ce dernier est connecté à plusieurs nœuds.
Si nécessaire, utilisez la commande scdidadm -L pour afficher le nom de chemin IDP complet du groupe de périphériques de disques bruts.
Dans l'exemple suivant, le nom du groupe de périphériques de disques bruts dsk/d4 apparaît dans la troisième colonne des résultats, qui correspond au nom de chemin IDP complet.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
Visualisez la liste des nœuds du groupe de périphériques de disques bruts.
Le résultat sera similaire à ce qui suit.
# scconf -pvv | grep dsk/d2 Nom du groupe de périphériques : dsk/d2 … (dsk/d2) Liste de nœuds du groupe de périphériques : phys-schost-1, phys-schost-3 … |
Si la liste de nœuds contient plusieurs noms de nœud, supprimez tous les nœuds, à l'exception du nœud correspondant au disque racine mis en miroir.
Seul le nœud dont vous avez mis le disque racine en miroir doit figurer dans la liste de nœuds du groupe de périphériques de disques bruts.
# scconf -r -D name=dsk/dN,nodelist=nœud |
Indique le nom du groupe de périphériques de disques bruts unique du cluster.
Spécifie le nom du ou des nœuds à supprimer de la liste des nœuds.
Utilisez la commande scconf(1M) pour activer la propriété localonly.
Lorsque la propriété localonly est activée, le groupe de périphériques de disque bruts est utilisé exclusivement par le nœud figurant dans sa liste de nœuds. Cela évite la séparation involontaire d'un nœud de son périphérique de démarrage si celui-ci est connecté à plusieurs nœuds.
# scconf -c -D name=nom_groupe_disques_bruts,localonly=true |
Indique le nom du groupe de périphériques de disques bruts.
Pour de plus amples informations sur la propriété localonly, reportez-vous à la page man scconf_dg_rawdisk(1M).
Montez le système de fichiers mis en miroir.
# mount /point_montage |
Reportez-vous à la page man mount(1M) et à la rubrique “Mounting and Unmounting File Systems ” du manuel System Administration Guide: Basic Administration pour de plus amples informations.
Créez un jeu de disques.
Reportez-vous à la rubrique Création de jeux de disques dans un cluster .
L'exemple suivant illustre la création du miroir d4 pour mettre en miroir le répertoire /export, résidant sur c0t0d0s4. Le miroir d4 est constitué du sous-miroir d14 sur la partition c0t0d0s4 et du sous-miroir d24 sur la partition c2t2d0s4. L'entrée de fichier /etc/vfstab pour /export est mise à jour pour utiliser le nom de miroir d4. Le périphérique c2t2d0 étant un disque multihôte, la propriété localonly est activée.
(Démontez le système de fichiers) # umount /export (Créez le miroir) # metainit -f d14 1 1 c0t0d0s4 d14: Concaténation/Entrelacement configuré # metainit d24 1 1 c2t2d0s4 d24: Concaténation/Entrelacement configuré # metainit d4 -m d14 d4: miroir configuré (Modifiez le fichier /etc/vfstab) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no global (Attachez le deuxième sous-miroir) # metattach d4 d24 d4: sous-miroir d24 attaché (Affichez l'état de synchronisation) # metastat d4 d4: miroir Sous-miroir 0: d14 État : correct Sous-miroir 1: d24 État : resynchronisation en cours Resynchronisation en cours : 15 % effectués … (Identifiez le nom IDP du groupe de périphériques de disques bruts correspondant au disque mis en miroir) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Affichez la liste de nœuds du groupe de périphériques) # scconf -pvv | grep dsk/d2 Nom du groupe de périphériques : dsk/d2 … (dsk/d2) Liste de nœuds du groupe de périphériques : phys-schost-1, phys-schost-3 … (Supprimez phys-schost-3 de la liste de nœuds) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Activez la propriété localonly) # scconf -c -D name=dsk/d2,localonly=true (Montez le système de fichiers) # mount /export |
Cette section explique comment créer des jeux de disques pour une configuration de cluster. Cette opération peut s'avérer inutile dans les cas suivants :
Si vous avez utilisé SunPlex Installer pour installer Solstice DiskSuite, il doit déjà exister entre un et trois jeux de disques. Pour obtenir plus d'informations sur les jeux créés par SunPlex Installer, reportez-vous à la rubrique Utilisation de SunPlex Installer pour installer le logiciel Sun Cluster .
Si vous souhaitez créer un jeu de disques Solaris Volume Manager pour Sun Cluster afin qu'il soit utilisé par Oracle Real Application Clusters, n'utilisez pas ces procédures. Suivez plutôt les procédures décrites sous la rubrique “Creating a Multi-Owner Disk Set in Solaris Volume Manager for Sun Cluster for the Oracle Real Application Clusters Database” (Création d'un jeu de disques multipropriétaire dans le gestionnaire de volumes Solaris pour Sun Cluster pour la base de données Oracle Real Application Clusters) du manuel Sun Cluster Data Service for Oracle Real Application Clusters Guide for Solaris OS.
Voici la liste des procédures décrites dans cette section :
Suivez les instructions de cette procédure pour créer des jeux de disques.
Déterminez si le cluster disposera de plus de trois jeux de disques une fois que vous aurez créé les nouveaux jeux.
Si le cluster doit contenir au maximum trois jeux de disques, passez à l'Étape 2.
S'il doit contenir plus de trois jeux de disques, effectuez les opérations suivantes pour préparer le cluster.
Vous devez effectuer ces tâches, qu'il s'agisse d'une première installation de jeux de disques ou de l'ajout de jeux supplémentaires à un cluster entièrement configuré.
À partir d'un nœud du cluster, vérifiez la valeur de la variable md_nsets dans le fichier /kernel/drv/md.conf.
Si le nombre total des jeux de disques du cluster est supérieur à la valeur indiquée pour md_nsets moins un, augmentez la valeur de md_nsets en conséquence.
Le nombre maximum de jeux de disques autorisés correspond à la valeur définie pour md_nsets moins un. La valeur maximale autorisée pour md_nsets étant de 32, vous pouvez créer au maximum 31 jeux de disques.
Vérifiez que le fichier /kernel/drv/md.conf est identique sur tous les nœuds du cluster.
Le non-respect de cette consigne peut occasionner de graves erreurs de Solstice DiskSuite ou Solaris Volume Manager et un risque de pertes de données.
Si vous avez apporté des modifications au fichier md.conf sur l'un des nœuds, vous devez suivre les instructions ci-dessous pour appliquer ces modifications.
Exécutez la commande devfsadm(1M) sur chaque nœud du cluster.
Vous pouvez exécuter cette commande sur tous les nœuds du cluster en même temps.
À partir de l'un des nœuds du cluster, lancez la commande scgdevs(1M) pour mettre à jour l'espace de noms des périphériques globaux.
Sur chaque nœud, assurez-vous que la commande scgdevs a terminé le traitement avant de créer un jeu de disques.
La commande scgdevs se déclenche à distance sur tous les nœuds, quand bien même elle est exécutée depuis un seul nœud. Pour savoir si la commande scgdevs s'est exécutée convenablement, exécutez la commande suivante sur chaque nœud du cluster.
% ps -ef | grep scgdevs |
Assurez-vous que le jeu de disques que vous souhaitez créer répond à l'une des exigences suivantes :
Si le jeu de disques est configuré avec exactement deux chaînes de disque, il doit être connecté à exactement deux nœuds et utiliser exactement deux hôtes médiateurs. Ces derniers doivent être identiques à ceux utilisés pour le jeu de disques. Reportez-vous à la rubrique Configuration de médiateurs à deux chaînes pour connaître la procédure de configuration des médiateurs à deux chaînes.
Si le jeu de disques est configuré avec plus de deux chaînes de disque, assurez-vous que pour toute paire de chaînes de disques S1 et S2, la somme du nombre de disques sur ces chaînes est supérieure au nombre de disques sur la troisième chaîne S3. Pour résumer cette condition par une formule, (nombre S1 + nombre S2) > nombre S3.
Assurez-vous que les répliques locales de la base de données d'état existent.
Pour connaître les instructions, reportez-vous à la rubrique Création de répliques de base de données d'état .
Connectez-vous en tant que superutilisateur sur le nœud du cluster qui sera le maître du jeu de disques.
Créez le jeu de disques.
La commande suivante crée le jeu de disques et l'enregistre en tant que groupe de périphériques de disques Sun Cluster.
# metaset -s nom_ensemble -a -h nœud1 nœud2 |
Indique le nom d'un jeu de disques.
Ajoute (crée) le jeu de disques.
Indique le nom du nœud principal qui sera maître du jeu de disques.
Indique le nom du nœud secondaire qui sera maître du jeu de disques.
lorsque vous lancez la commande metaset pour configurer un groupe de périphériques Solstice DiskSuite ou Solaris Volume Manager sur un cluster, celle-ci désigne un nœud secondaire par défaut. Vous pouvez modifier le nombre de nœuds secondaires souhaité dans le groupe de périphériques à l'aide de l'utilitaire scsetup(1M) après la création du groupe de périphériques. Reportez-vous à la rubrique “Administering Disk Device Groups” in Sun Cluster System Administration Guide for Solaris OS pour de plus amples informations sur la procédure de modification de la propriété numsecondaries.
Vérifiez l'état du nouveau jeu de disques.
# metaset -s nom_ensemble |
Ajoutez des disques au jeu de disques.
Reportez-vous à la rubrique Ajout de disques à un jeu de disques .
La commande suivante crée deux jeux de disques, dg-schost-1 et dg-schost-2, les nœuds phys-schost-1 et phys-schost-2 étant les primaires potentiels.
# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2 # metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2 |
Lorsque vous ajoutez un disque à un jeu de disques, le logiciel de gestion des volumes repartitionne le disque comme indiqué ci-dessous, afin que la base de données d'état du jeu de disques puisse être stockée sur le disque.
Une petite partie de chaque lecteur est réservée au logiciel Solstice DiskSuite ou Solaris Volume Manager dans la tranche 7. L'espace restant sur chaque lecteur est placé dans la tranche 0.
Les disques ajoutés au jeu de disques sont repartitionnés uniquement si la tranche 7 n'est pas configurée correctement.
Toutes les données existant sur les disques sont perdues lors de la création de nouvelles partitions.
Si la tranche 7 commence au cylindre 0 et que la partition du disque est assez grande pour contenir une réplique de la base de données d'état, le disque ne fait pas l'objet d'un nouveau partitionnement.
Connectez-vous en tant que superutilisateur sur le nœud.
Assurez-vous que le jeu de disques a été créé.
Pour connaître les instructions, reportez-vous à la rubrique Création d'un jeu de disques .
Répertoriez les correspondances IDP.
# scdidadm -L |
Choisissez des disques partagés par les nœuds du cluster qui seront maîtres, ou potentiellement maîtres, du jeu de disques.
Utilisez les noms de chemin IDP complets lors de l'ajout de disques à un jeu de disques.
La première colonne des résultats correspond au numéro d'instance IDP, la deuxième colonne correspond au chemin complet (chemin physique) et la troisième au nom du chemin IDP complet (pseudo-chemin). Un lecteur partagé comporte plusieurs entrées par numéro d'instance DID.
Dans l'exemple ci-dessous, les entrées du numéro d'instance IDP (DID) 2 indiquent qu'un disque est partagé par phys-schost-1 et phys-schost-2 et que le nom de chemin IDP (DID) complet est /dev/did/rdsk/d2.
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
Devenez propriétaire du jeu de disques.
# metaset -s nom_jeu -t |
Indique le nom d'un jeu de disques.
Permet de devenir propriétaire du jeu de disques.
Ajoutez les disques au jeu de disques.
Ajoutez le nom de chemin IDP complet.
# metaset -s nom_ensemble -a nom_lecteur |
Ajoute le disque au jeu de disques.
Nom de chemin IDP complet du disque partagé
n'utilisez pas le nom de périphérique de niveau inférieur (cNtXdY) lors de l'ajout d'un disque à un jeu de disques. Le nom de périphérique de niveau inférieur étant local, et non unique sur le cluster, son utilisation risque d'empêcher la commutation du méta-ensemble.
Vérifiez l'état des disques et du jeu de disques.
# metaset -s nom_jeu |
(Facultatif) Pour modifier le partitionnement des disques afin de pouvoir les utiliser dans des métapériphériques ou des volumes, reportez-vous à la rubrique Modification des partitions de disques dans un jeu de disques .
Reportez-vous à la rubrique Création d'un fichier md.tab pour définir les métapériphériques ou les volumes à l'aide du fichier md.tab.
La commande metaset ajoute les disques /dev/did/rdsk/d1 et /dev/did/rdsk/d2 au jeu de disques dg-schost-1.
# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2 |
La commande metaset(1M) modifie les partitions de disques d'un jeu afin de réserver une petite partie de chacun des disques dans la tranche 7 pour le logiciel Solstice DiskSuite ou Solaris Volume Manager. L'espace restant sur chaque disque est placé dans la tranche 0. Pour utiliser le disque avec plus d'efficacité, suivez cette procédure afin de modifier la répartition du disque. Si vous allouez de l'espace aux tranches 1 à 6, vous pouvez utiliser ces dernières lors de l'installation de métapériphériques Solstice DiskSuite ou de volumes Solaris Volume Manager.
Devenez superutilisateur sur le nœud de cluster.
Utilisez la commande format pour modifier les partitions de chacun des disques du jeu.
Lorsque vous repartitionnez un lecteur, vous devez respecter les conditions suivantes afin d'éviter que la commande metaset(1M) ne repartitionne le disque.
Créez la tranche 7 en commençant par le cylindre 0, suffisamment grand pour contenir la réplique de la base de données d'état. Reportez-vous au manuel d'administration de Solstice DiskSuite ou de Solaris Volume Manager pour déterminer la taille de la réplique de la base de données d'état requise pour votre version du logiciel de gestion des volumes.
Définissez le champ Flag de la tranche 7 sur wu (lecture-écriture, démontable). Ne le configurez pas en lecture-seule.
N'autorisez pas la tranche 7 à chevaucher une autre tranche du disque.
Reportez-vous à la page de manuel format(1M) pour de plus amples informations.
Définissez les métapériphériques ou les volumes à l'aide du fichier md.tab.
Reportez-vous à la rubrique Création d'un fichier md.tab .
Créez un fichier /etc/lvm/md.tab pour chaque nœud du cluster. Utilisez le fichier md.tab pour définir les métapériphériques Solstice DiskSuite ou les volumes Solaris Volume Manager des jeux de disques créés.
si vous utilisez des métapériphériques ou des volumes locaux, assurez-vous qu'ils portent des noms différents des noms IDP utilisés pour former les jeux de disques. Par exemple, si le nom IDP /dev/did/dsk/d3 est utilisé dans un jeu de disques, n'utilisez pas le nom /dev/md/dsk/d3 pour un métapériphérique ou un volume local. Cette restriction ne s'applique pas aux métapériphériques ou aux volumes partagés, ceux-ci utilisant la convention /dev/md/nom_ensemble/{r}dsk/d#.
pour éviter une possible confusion entre les métapériphériques ou les volumes locaux dans un environnement de cluster, utilisez un plan de dénomination tel que chaque métapériphérique ou volume local ait un nom unique dans tout le cluster. Par exemple, choisissez des noms entre d100 et d199 pour le nœud 1, entre d200 et d299 pour le nœud 2.
Devenez superutilisateur sur le nœud de cluster.
Répertoriez les correspondances IDP pour les utiliser lors de la création de votre fichier md.tab.
Utilisez les noms de chemin IDP complets dans le fichier md.tab à la place des noms de périphériques de niveau inférieur (cNtXdY).
# scdidadm -L |
Dans l'exemple suivant, la première colonne des résultats correspond au numéro d'instance IDP, la deuxième colonne correspond au chemin complet (chemin physique) et la troisième au nom de chemin IDP complet (pseudo chemin).
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
Créez un fichier /etc/lvm/md.tab et éditez-le manuellement avec l'éditeur de texte de votre choix.
Consultez votre documentation Solstice DiskSuite ou Solaris Volume Manager ainsi que la page de manuel md.tab(4) pour de plus amples informations sur la création d'un fichier md.tab.
s'il existe des données sur les disques utilisés pour les sous-miroirs, sauvegardez-les avant toute configuration de métapériphérique ou de volume. Restaurez ensuite les données sur le miroir.
Activez les métapériphériques ou les volumes définis dans les fichiers md.tab.
Reportez-vous à la rubrique Activation des métapériphériques ou volumes .
L'exemple de fichier md.tab suivant décrit le jeu de disques appelé dg-schost-1. L'ordre des lignes du fichier md.tab n'a pas d'importance.
dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20 dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0 |
l'exemple suivant utilise la terminologie Solstice DiskSuite. Sous Solaris Volume Manager, un métapériphérique transactionnel est appelé un volume transactionnel et un métapériphérique un volume. Autrement, la procédure suivante est valable pour les deux gestionnaires de volumes.
L'exemple de fichier md.tab est construit comme suit.
La première ligne désigne le périphérique d0 comme miroir des métapériphériques d10 et d20. L'option -m indique que ce périphérique est un miroir.
dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20 |
La seconde ligne désigne le métapériphérique d10, premier sous-miroir de d0, comme miroir à une voie.
dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 |
La troisième ligne désigne le métapériphérique d20, second sous-miroir de d0, comme miroir à une voie.
dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0 |
Exécutez cette procédure pour activer les métapériphériques Solstice DiskSuite ou les volumes Solaris Volume Manager définis dans les fichiers md.tab.
Devenez superutilisateur sur le nœud de cluster.
Vérifiez que les fichiers md.tab se trouvent dans le répertoire /etc/lvm.
Assurez-vous que vous êtes propriétaire du jeu de disques sur le nœud sur lequel la commande sera exécutée.
Devenez propriétaire du jeu de disques.
# metaset -s nom_jeu -t |
Indique le nom d'un jeu de disques.
Permet de devenir propriétaire du jeu de disques.
Activez les métapériphériques ou les volumes du jeu de disques, définis dans le fichier md.tab.
# metainit -s nom_ensemble -a |
Active tous les métapériphériques du fichier md.tab
Pour chaque périphérique maître et du journal, attachez le deuxième sous-miroir (sous-miroir2).
Lorsque les métapériphériques ou volumes du fichier md.tab sont activés, seul le premier sous-miroir (sous-miroir1) des périphériques maître et de journal est attaché ; le sous-miroir 2 doit donc être attaché manuellement.
# metattach miroir sous_miroir2 |
Répétez les étapes Étape 3 à Étape 6 pour chacun des jeux de disques du cluster.
Si nécessaire, exécutez la commande metainit(1M) à partir d'un autre nœud connecté aux disques. Cette étape est obligatoire pour les topologies de paires de cluster, dans lesquelles les disques ne sont pas accessibles par tous les nœuds.
Vérifiez l'état des métapériphériques ou volumes.
# metastat -s nom_jeu |
Reportez-vous à la page de manuel metastat(1M) pour de plus amples informations.
Si le cluster contient des jeux de disques configurés avec exactement deux baies de disques et deux nœuds, ajoutez des médiateurs à deux chaînes.
Reportez-vous à la rubrique Configuration de médiateurs à deux chaînes .
Reportez-vous à la rubrique Création de systèmes de fichiers de cluster pour créer un système de fichiers de cluster.
Dans l'exemple ci-dessous, tous les métapériphériques définis dans le fichier md.tab pour le jeu de disques dg-schost-1 sont activés. Sont ensuite activés les seconds sous-miroirs du périphérique maître dg-schost-1/d1 et du périphérique de journal dg-schost-1/d4.
# metainit -s dg-schost-1 -a # metattach dg-schost-1/d1 dg-schost-1/d3 # metattach dg-schost-1/d4 dg-schost-1/d6 |
Cette rubrique fournit les informations et procédures suivantes :
Un médiateur à deux chaînes ou hôte médiateur, est un nœud de cluster stockant des données de médiateur. Les données de médiateur fournissent des informations sur l'emplacement d'autres médiateurs et comportent un nombre de validation identique à celui des répliques de la base de données. Ce nombre de validation est utilisé pour confirmer que les données du médiateur sont synchronisées avec les données des répliques de la base de données.
Tous les jeux de disques de Solstice DiskSuite ou Solaris Volume Manager configurés avec exactement deux chaînes de disques et deux nœuds de cluster doivent obligatoirement comporter des médiateurs à deux chaînes. Une chaîne de disque se compose d'une baie de disques, de ses disques physiques, de câbles reliant la baie au(x) nœud(s) et d'adaptateurs d'interface. L'utilisation des médiateurs permet au logiciel Sun Cluster de continuer à présenter les données les plus récentes en cas de panne d'une chaîne simple dans une configuration à double chaîne. Les règles suivantes s'appliquent aux configurations à double chaîne utilisant des médiateurs.
Les jeux de disques doivent être configurés avec exactement deux hôtes médiateurs. Ceux-ci doivent correspondre aux deux nœuds de cluster utilisés pour le jeu de disques.
Un jeu de disques ne peut pas disposer de plus de deux hôtes médiateurs.
Les médiateurs ne peuvent pas être configurés pour des jeux de disques ne remplissant pas les conditions requises (deux chaînes et deux hôtes).
Ces règles n'imposent pas que le cluster complet dispose d'exactement deux nœuds. En revanche, seuls les jeux de disques possédant deux chaînes de disques doivent être connectés à exactement deux nœuds. Un cluster N+1 et de nombreuses autres topologies sont possibles en respectant ces règles.
Suivez cette procédure si votre configuration nécessite des médiateurs à deux chaînes.
Connectez-vous en tant que superutilisateur sur le nœud actuellement maître du jeu de disques auquel vous souhaitez ajouter des hôtes médiateurs.
Exécutez la commande metaset(1M) pour ajouter chaque nœud connecté au jeu de disques en tant qu'hôte médiateur de ce jeu.
# metaset -s nom_jeu -a -m liste_hôtes_médiateurs |
Indique le nom d'un jeu de disques.
Ajoute le nœud au jeu de disques.
Indique le nom du nœud à ajouter en tant qu'hôte médiateur du jeu de disques.
Reportez-vous à la page de manuel mediator(7D) pour plus de détails sur les options propres au médiateur pour la commande metaset.
Vérifiez l'état des données des médiateurs.
Reportez-vous à la rubrique Vérification de l'état des données du médiateur .
L'exemple suivant ajoute les nœuds phys-schost-1 et phys-schost-2 en tant qu'hôtes médiateurs du jeu de disques dg-schost-1. Les deux commandes sont exécutées à partir du nœud phys-schost-1.
# metaset -s dg-schost-1 -a -m phys-schost-1 # metaset -s dg-schost-1 -a -m phys-schost-2 |
Ajoutez des hôtes médiateurs comme indiqué à la rubrique Ajout d'hôtes médiateurs.
Exécutez la commande medstat.
# medstat -s nom_jeu |
Indique le nom d'un jeu de disques.
Reportez-vous à la page de manuel medstat(1M) pour de plus amples informations.
Si la valeur du champ Status généré par la commande medstat est Bad, vous devez réparer l'hôte médiateur concerné.
Reportez-vous à la rubrique Correction des données incorrectes du médiateur .
Reportez-vous à la rubrique Création de systèmes de fichiers de cluster pour créer un système de fichiers de cluster.
Suivez cette procédure pour corriger les données incorrectes du médiateur.
Identifiez tous les hôtes médiateurs comportant des données incorrectes, comme décrit dans la rubrique Vérification de l'état des données du médiateur .
Connectez-vous en tant que superutilisateur sur le nœud propriétaire du jeu de disques concerné.
Supprimez tous les hôtes médiateurs comportant des données de médiateur incorrectes de tous les jeux de disques affectés.
# metaset -s nom_jeu -d -m liste_hôtes_médiateurs |
Indique le nom d'un jeu de disques.
Supprime du jeu de disques.
Indique le nom du nœud à supprimer en tant qu'hôte médiateur du jeu de disques.
Restaurez tous les hôtes médiateurs que vous avez supprimés à l'Étape 3.
# metaset -s nom_jeu -a -m liste_hôtes_médiateurs |
Ajoute le nœud au jeu de disques.
Indique le nom du nœud à ajouter en tant qu'hôte médiateur du jeu de disques.
Reportez-vous à la page de manuel mediator(7D) pour plus de détails sur les options propres au médiateur pour la commande metaset.
Créez des systèmes de fichiers de clusters.
Reportez-vous à la rubrique Création de systèmes de fichiers de cluster .