Tâche |
Pour les instructions, voir... |
---|---|
Ajouter des systèmes de fichiers de cluster après l'installation initiale de Sun Cluster - Utilisez newfs et makedir |
"3.4.1 Ajout d'un système de fichiers de cluster supplémentaire" |
Supprimer un système de fichiers de cluster - Utilisez fuser et umount | |
Vérifier la cohérence des points de montage globaux d'un cluster sur les différents noeuds - Utilisez sccheck |
Effectuez cette tâche pour chaque système de fichiers de cluster créé après l'installation initiale de Sun Cluster.
Assurez-vous que vous avez spécifié le nom d'unité de disque correct. La création d'un système de fichiers de cluster détruit toutes les données présentes sur les disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.
Pour ajouter un système de fichiers de cluster supplémentaire, les conditions suivantes doivent être remplies :
Vous devez avoir les privilèges de superutilisateur sur un noeud du cluster.
Vous devez disposer d'un groupe d'unités (Solstice DiskSuite ou VxVM) ou d'une tranche de disque en mode bloc sur lequel le système de fichiers de cluster sera créé.
Devenez superutilisateur sur un noeud du cluster.
pour accélérer la création du système de fichiers, vous devez vous connecter en tant que superutilisateur au noeud principal actuel de l'unité globale pour laquelle vous créez le système de fichiers.
Créez un système de fichiers à l'aide de la commande newfs(1M).
# newfs unité_disque_brute |
Le Tableau 3-3 donne des exemples de noms pour l'argument unité_disque_brute. Il est important de noter que les conventions d'attribution de nom sont différentes pour chaque gestionnaire de volumes.
Tableau 3-3 Exemples de noms d'unités de disque brutes
Si vous utilisez le gestionnaire de volumes... |
Vous pouvez utiliser le nom d'unité de disque... |
Description |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
Unité de disque brute d1 dans le méta-ensemble oracle. |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Unité de disques brute vol01 dans le groupe de disques oradg. |
Aucun |
/dev/global/rdsk/d1s3 |
Unité de disques brute pour la tranche de bloc d1s3. |
Sur chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.
Un point de montage est requis sur chaque noeud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les noeuds.
# mkdir -p /global/groupe_unités/point_montage |
Nom du répertoire correspondant au nom du groupe d'unités contenant l'unité en question.
Nom du répertoire sur lequel vous devez monter le système de fichiers de cluster.
pour faciliter l'administration, créez le point de montage dans le répertoire /global/groupe_unités. Cela vous permettra de distinguer facilement les systèmes de fichiers de cluster, disponibles globalement, des systèmes de fichiers locaux.
Sur chaque noeud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.
Pour monter automatiquement un système de fichiers de cluster, définissez le champ mount at boot sur yes.
Utilisez les options de montage requises suivantes :
L'option de montage global est nécessaire pour tous les systèmes de fichiers de cluster. Elle identifie le système de fichiers en tant que système de fichiers de cluster.
La journalisation de système de fichiers est requise pour tous les systèmes de fichiers de cluster. La journalisation UFS peut être activée grâce à l'utilisation de périphériques métatrans Solstice DiskSuite ou directement via l'option de montage UFS de Solaris. Cependant, vous ne devez pas combiner ces deux méthodes. Pour utiliser la journalisation Solaris UFS directement, utilisez l'option de montage logging. Vous n'avez pas besoin d'ajouter d'option de montage pour utiliser la journalisation de système de fichiers métatrans.
Assurez-vous, pour tous les systèmes de fichiers de cluster, que les informations dans l'entrée /etc/vfstab correspondante sont identiques sur tous les noeuds sur lesquels l'entrée est présente.
Prenez garde aux dépendances d'ordre d'initialisation des systèmes de fichiers.
Vous ne devriez normalement pas imbriquer les points de montage des systèmes de fichiers de cluster. Par exemple, supposons que phys-schost-1 monte l'unité de disque d0 sur /global/oracle, et que phys-schost-2 monte l'unité de disque d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut initialiser et monter /global/oracle/logs que lorsque phys-schost-1 a initialisé et monté /global/oracle.
Assurez-vous que les entrées dans le fichier /etc/vfstab de chaque noeud répertorient dans le même ordre les unités communes.
Si, par exemple, phys-schost-1 et phys-schost-2 sont physiquement connectés aux unités d0, d1 et d2, les entrées dans les fichiers /etc/vfstab correspondants doivent apparaître sous la forme d0, d1 et d2.
Reportez-vous à la page de manuel vfstab(4) pour plus de détails.
Sur un noeud quelconque du cluster, vérifiez qu'il existe des points de montage et que les entrées du fichier /etc/vfstab sont correctes pour tous les noeuds du cluster.
# sccheck |
S'il n'y a pas d'erreur, aucun élément n'est renvoyé.
Sur un noeud quelconque du cluster, montez le système de fichiers de cluster.
# mount /global/groupe_unités/point_montage |
Sur chaque noeud du cluster, vérifiez que le système de fichiers de cluster est bien monté.
Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.
L'exemple suivant crée un système de fichiers UFS sur le métapériphérique Solstice DiskSuite /dev/md/oracle/rdsk/d1.
# newfs /dev/md/oracle/rdsk/d1 ... [sur chaque noeud :] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [enregistrez et quittez] [sur un noeud :] # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 1999 |
Pour "supprimer" un système de fichiers de cluster, il suffit de le démonter. Si vous souhaitez également supprimer ou effacer les données, déposez du système l'unité de disque sous-jacente (ou le métapériphérique ou le volume).
les systèmes de fichiers de cluster sont automatiquement démontés lors de l'arrêt du système qui survient lorsque vous exécutez la commande scshutdown(1M) pour arrêter l'ensemble du cluster. Le système de fichiers de cluster n'est pas démonté lorsque vous exécutez la commande shutdown afin d'arrêter un noeud unique. Si, toutefois, le noeud arrêté est le seul noeud connecté au disque, toute tentative d'accès au système de fichiers de cluster sur ce disque entraîne une erreur.
Pour démonter des systèmes de fichiers de cluster, les conditions suivantes doivent être remplies :
Vous devez avoir les privilèges de superutilisateur sur un noeud du cluster.
Le système de fichiers ne doit pas être actif. Un système de fichiers est considéré actif si un utilisateur se trouve dans un répertoire du système, ou si un programme a ouvert l'un des fichiers du système. L'utilisateur ou le programme peut utiliser n'importe quel noeud du cluster.
Devenez superutilisateur sur un noeud du cluster.
Déterminez quels sont les systèmes de fichiers de cluster montés.
# mount -v |
Sur chaque noeud, répertoriez tous les processus qui utilisent le système de fichiers de cluster afin de connaître les processus à arrêter.
# fuser -c [ -u ] point_montage |
Indique les fichiers qui sont des points de montage pour les systèmes de fichiers ainsi que tous les fichiers de ces systèmes de fichiers montés.
(Facultatif) Affiche le nom d'utilisateur correspondant à chaque ID de processus.
Indique le nom du système de fichiers de cluster dont vous souhaitez arrêter les processus.
Sur chaque noeud, arrêtez tous les processus pour le système de fichiers de cluster.
Utilisez la méthode de votre choix pour arrêter les processus. Si nécessaire, utilisez la commande suivante pour forcer l'arrêt des processus associés au système de fichiers de cluster :
# fuser -c -k point_montage |
La commande SIGKILL est envoyée à chaque processus utilisant le système de fichiers de cluster.
Sur chaque noeud, vérifiez qu'aucun processus n'utilise le système de fichiers.
# fuser -c point_montage |
Démontez le système de fichiers à partir d'un seul noeud.
# umount point_montage |
Indique le nom du système de fichiers de cluster à démonter. Il peut s'agir du nom du répertoire dans lequel le système de fichiers de cluster est monté ou du chemin d'accès au nom de l'unité du système de fichiers.
(Facultatif) Modifiez le fichier /etc/vfstab afin d'effacer l'entrée correspondant au système de fichiers de cluster en cours de suppression.
Effectuez cette opération sur chaque noeud de cluster comprenant une entrée pour ce système de fichiers dans le fichier /etc/vfstab.
(Facultatif) Supprimez l'unité de disque group/metadevice/plex.
Pour plus d'informations, reportez-vous à la documentation de votre gestionnaire de volumes.
L'exemple suivant illustre la suppression d'un système de fichiers UFS monté sur le métapériphérique Solstice DiskSuite /dev/md/oracle/rdsk/d1.
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 1999 # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (sur chaque noeud, supprimez l'entrée en surbrillance :) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Enregistrez et quittez.] |
pour supprimer les données du système de fichiers de cluster, vous devez déposer l'unité sous-jacente. Pour plus d'informations, reportez-vous à la documentation de votre gestionnaire de volumes.
L'utilitaire sccheck(1M) permet de vérifier la syntaxe des entrées pour les systèmes de fichiers de cluster dans le fichier /etc/vfstab. S'il n'y a pas d'erreur, aucun élément n'est renvoyé.
exécutez la commande sccheck si vous avez apporté à la configuration du cluster des modifications qui ont une incidence sur les périphériques ou les composants de gestion des volumes, par exemple la suppression d'un système de fichiers de cluster.
Devenez superutilisateur sur un noeud du cluster.
Vérifiez les montages globaux du cluster.
# sccheck |
Suivez cette procédure pour supprimer un noeud de cluster de groupes d'unités de disque (ensemble de disques) exécutant Solstice DiskSuite.
Déterminez le ou les groupes d'unités de disque dont le noeud à supprimer est membre.
# scstat -D |
Devenez superutilisateur sur le noeud qui possède actuellement le groupe d'unités de disque sur lequel vous souhaitez supprimer le noeud.
Dans le groupe d'unités de disque, supprimez le nom d'host du noeud à supprimer.
Répétez cette étape pour chaque groupe d'unités de disque dans lequel vous supprimez le noeud.
# metaset -s nom_ensemble -d -f -h noeud |
Indique le nom du groupe d'unités de disque (ensemble de disques)
Force la suppression
Effectue la suppression dans le groupe d'unités de disque
Supprime le noeud de la liste de noeuds susceptibles d'agir en tant que maître du groupe d'unités de disque.
la mise à jour peut prendre quelques minutes.
Vérifiez que le noeud a bien été supprimé du groupe d'unités de disque.
Le nom du groupe d'unités de disque correspond au nom de l'ensemble de disques spécifié avec la commande metaset.
# scstat -D |
L'exemple suivant illustre la suppression du nom d'host de tous les groupes d'unités de disque (méta-ensembles) et la vérification de la suppression du noeud dans le groupe d'unités de disque. Cet exemple montre la suppression d'un noeud dans un seul groupe d'unités de disque, mais un noeud peut appartenir à plusieurs groupes d'unités de disque. Répétez la commande metaset pour chaque groupe d'unités de disque duquel vous voulez supprimer le noeud.
[Déterminez le ou les groupe(s) d'unités de disque du noeud :] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Devenez superutilisateur.] [Supprimez le nom d'host de tous les groupes d'unités de disque :] # metaset -s dg-schost-1 -d -f -h phys-schost-2 [Vérifiez la suppression du noeud :] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 - |
Cette procédure permet de supprimer un noeud de cluster d'un groupe d'unités de disque de cluster existant (groupe de disques) sur lequel s'exécute VERITAS Volume Manager (VxVM).
Identifiez le groupe d'unités de disque auquel le noeud à supprimer appartient.
# scstat -D |
Devenez superutilisateur sur un noeud déjà membre du cluster.
Lancez l'utilitaire scsetup.
# scsetup |
Le menu principal apparaît.
Reconfigurez un groupe d'unités de disque en saisissant 3 (groupes d'unités et volumes).
Supprimez le noeud du groupe d'unités de disque VxVM en saisissant 5 (supprimer un noeud d'un groupe d'unités VxVM).
Suivez les indications pour supprimer le noeud de cluster du groupe d'unités de disque. Vous devrez fournir des informations sur les éléments suivants :
groupe d'unités VxVM
nom du noeud
Vérifiez que le noeud a bien été supprimé du groupe d'unités de disque VxVM.
# scstat -D ... Device group name: nom_groupe_unités Device group type: VxVM Device group failback enabled: no Device group node list: nom_noeud Diskgroup name: nom_groupe_disques ... |
Cet exemple montre la suppression du noeud phys-schost-4 du groupe d'unités de disque VxVM dg1.
[Déterminez le groupe d'unités de disque du noeud :] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Devenez superutilisateur et exécutez l'utilitairescsetup :] # scsetup [Sélectionnez l'option 3:] *** Main Menu *** Please select from one of the following options: ... 3) Device groups and volumes ... Option: 3 [Sélectionnez l'option 5 :] *** Device Groups Menu *** Please select from one of the following options: ... 5) Remove a node from a VxVM device group ... Option: 5 [Confirmez la suppression du noeud :] >>> Remove a Node from a VxVM Device Group <<< ... Is it okay to continue (yes/no) [yes]? yes ... Name of the VxVM device group from which you want to remove a node? dg1 Name of the node to remove from this group? phys-schost-4 Is it okay to proceed with the update (yes/no) [yes]? yes scconf -r -D name=dg1,nodelist=phys-schost-4 Command completed successfully. Hit ENTER to continue: |
[Quittez le menu Device Groups et le menu principal de scsetup :] ... Option: q [Vérifiez la suppression du noeud :] # scstat -D ... Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-3 Diskgroup name: dg1 ... |