Effectuez cette tâche pour chaque système de fichiers de cluster créé après l'installation initiale de Sun Cluster.
Assurez-vous que vous avez spécifié le nom d'unité de disque correct. La création d'un système de fichiers de cluster détruit toutes les données présentes sur les disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.
Pour ajouter un système de fichiers de cluster supplémentaire, les conditions suivantes doivent être remplies :
Vous devez avoir les privilèges de superutilisateur sur un noeud du cluster.
Vous devez disposer d'un groupe d'unités (Solstice DiskSuite ou VxVM) ou d'une tranche de disque en mode bloc sur lequel le système de fichiers de cluster sera créé.
Devenez superutilisateur sur un noeud du cluster.
pour accélérer la création du système de fichiers, vous devez vous connecter en tant que superutilisateur au noeud principal actuel de l'unité globale pour laquelle vous créez le système de fichiers.
Créez un système de fichiers à l'aide de la commande newfs(1M).
# newfs unité_disque_brute |
Le Tableau 3-3 donne des exemples de noms pour l'argument unité_disque_brute. Il est important de noter que les conventions d'attribution de nom sont différentes pour chaque gestionnaire de volumes.
Tableau 3-3 Exemples de noms d'unités de disque brutes
Si vous utilisez le gestionnaire de volumes... |
Vous pouvez utiliser le nom d'unité de disque... |
Description |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
Unité de disque brute d1 dans le méta-ensemble oracle. |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Unité de disques brute vol01 dans le groupe de disques oradg. |
Aucun |
/dev/global/rdsk/d1s3 |
Unité de disques brute pour la tranche de bloc d1s3. |
Sur chaque noeud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.
Un point de montage est requis sur chaque noeud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les noeuds.
# mkdir -p /global/groupe_unités/point_montage |
Nom du répertoire correspondant au nom du groupe d'unités contenant l'unité en question.
Nom du répertoire sur lequel vous devez monter le système de fichiers de cluster.
pour faciliter l'administration, créez le point de montage dans le répertoire /global/groupe_unités. Cela vous permettra de distinguer facilement les systèmes de fichiers de cluster, disponibles globalement, des systèmes de fichiers locaux.
Sur chaque noeud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.
Pour monter automatiquement un système de fichiers de cluster, définissez le champ mount at boot sur yes.
Utilisez les options de montage requises suivantes :
L'option de montage global est nécessaire pour tous les systèmes de fichiers de cluster. Elle identifie le système de fichiers en tant que système de fichiers de cluster.
La journalisation de système de fichiers est requise pour tous les systèmes de fichiers de cluster. La journalisation UFS peut être activée grâce à l'utilisation de périphériques métatrans Solstice DiskSuite ou directement via l'option de montage UFS de Solaris. Cependant, vous ne devez pas combiner ces deux méthodes. Pour utiliser la journalisation Solaris UFS directement, utilisez l'option de montage logging. Vous n'avez pas besoin d'ajouter d'option de montage pour utiliser la journalisation de système de fichiers métatrans.
Assurez-vous, pour tous les systèmes de fichiers de cluster, que les informations dans l'entrée /etc/vfstab correspondante sont identiques sur tous les noeuds sur lesquels l'entrée est présente.
Prenez garde aux dépendances d'ordre d'initialisation des systèmes de fichiers.
Vous ne devriez normalement pas imbriquer les points de montage des systèmes de fichiers de cluster. Par exemple, supposons que phys-schost-1 monte l'unité de disque d0 sur /global/oracle, et que phys-schost-2 monte l'unité de disque d1 sur /global/oracle/logs. Avec cette configuration, phys-schost-2 ne peut initialiser et monter /global/oracle/logs que lorsque phys-schost-1 a initialisé et monté /global/oracle.
Assurez-vous que les entrées dans le fichier /etc/vfstab de chaque noeud répertorient dans le même ordre les unités communes.
Si, par exemple, phys-schost-1 et phys-schost-2 sont physiquement connectés aux unités d0, d1 et d2, les entrées dans les fichiers /etc/vfstab correspondants doivent apparaître sous la forme d0, d1 et d2.
Reportez-vous à la page de manuel vfstab(4) pour plus de détails.
Sur un noeud quelconque du cluster, vérifiez qu'il existe des points de montage et que les entrées du fichier /etc/vfstab sont correctes pour tous les noeuds du cluster.
# sccheck |
S'il n'y a pas d'erreur, aucun élément n'est renvoyé.
Sur un noeud quelconque du cluster, montez le système de fichiers de cluster.
# mount /global/groupe_unités/point_montage |
Sur chaque noeud du cluster, vérifiez que le système de fichiers de cluster est bien monté.
Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.
L'exemple suivant crée un système de fichiers UFS sur le métapériphérique Solstice DiskSuite /dev/md/oracle/rdsk/d1.
# newfs /dev/md/oracle/rdsk/d1 ... [sur chaque noeud :] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [enregistrez et quittez] [sur un noeud :] # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 1999 |