Exécutez cette procédure pour créer un système de fichiers de cluster. Contrairement à un système de fichiers local, un système de fichiers de cluster est accessible à partir de n'importe quel nœud du cluster. Si vous avez utilisé SunPlex Installer pour installer les services de données, il se peut que SunPlex Installer ait déjà créé un ou plusieurs systèmes de fichiers de cluster.
toutes les données présentes sur les disques sont détruites lorsque vous créez un système de fichiers. Assurez-vous d'indiquer le nom correct du périphérique de disques. Si vous indiquez un nom de périphérique incorrect, vous risquez d'effacer des données que vous auriez voulu conserver.
Exécutez cette procédure pour chacun des systèmes de fichiers de cluster que vous souhaitez créer.
Assurez-vous que le logiciel de gestion des volumes est installé et configuré.
Pour connaître les procédures d'installation du gestionnaire de volumes, reportez-vous à la rubrique Installation et configuration du logiciel Solstice DiskSuite ou Solaris Volume Manager ou SPARC: Installation et configuration du logiciel VxVM .
Devenez superutilisateur sur un nœud du cluster.
pour accélérer la création du système de fichiers, vous devez vous connecter comme superutilisateur au nœud principal actuel du périphérique global pour lequel vous créez le système de fichiers.
Créez un système de fichiers.
Pour un système de fichiers UFS, utilisez la commande newfs(1M).
# newfs raw-disk-device |
Le tableau suivant présente des exemples de noms pour l'argument raw-disk-device. Notez que les conventions de désignation sont différentes pour chaque gestionnaire de volumes.
Gestionnaire de volumes |
Exemple de nom de périphériques de disque |
Description |
---|---|---|
Solstice DiskSuite ou Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
Périphérique de disque brut d1 au sein du jeu de disques nfs |
SPARC : VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Périphérique de disque brut vol01 dans le groupe de disques oradg |
Aucun |
/dev/global/rdsk/d1s3 |
Périphérique de disque brut d1s3 |
Pour un système de fichiers Sun StorEdge QFS, suivez les instructions des procédures de configuration du manuel Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.
SPARC : pour un système de fichiers Système de fichiers VERITAS (VxFS), suivez les instructions des procédures fournies dans la documentation de VxFS.
Sur chaque nœud du cluster, créez un répertoire de point de montage pour le système de fichiers de cluster.
Vous devez créer un point de montage sur chaque nœud, même si l'accès au système de fichiers de cluster ne se fait pas sur tous les nœuds.
Pour faciliter le travail d'administration, créez le point de montage dans le répertoire /global/device-group/. Cet emplacement vous permet de distinguer facilement les systèmes de fichiers du cluster, qui sont disponibles globalement, des systèmes de fichiers locaux.
# mkdir -p /global/device-group/mountpoint/ |
Nom du répertoire correspondant au groupe de périphériques comportant ce périphérique.
Nom du répertoire sur lequel le système de fichiers du cluster doit être monté.
Sur chaque nœud du cluster, indiquez une entrée correspondant au point de montage dans le fichier /etc/vfstab.
Reportez-vous à la page man vfstab(4) pour de plus amples informations.
Dans chacune des entrées, indiquez les options de montage requises pour le type de système de fichiers utilisé. Pour obtenir la liste des options de montage requises, reportez-vous au Tableau 2–10, Tableau 2–11 ou Tableau 2–12.
N'utilisez pas l'option de montage logging avec les trans-métapériphériques Solstice DiskSuite ou les volumes transactionnels Solaris Volume Manager. Les trans-métapériphériques et volumes transactionnels fournissent leur propre consignation.
En outre, Solaris Volume Manager Journalisation de volumes de transaction (anciennement Solstice DiskSuite Journalisation de trans-métapériphériques) doit être supprimée du système d'exploitation Solaris dans une prochaine version de Solaris. La Journalisation UFS Solaris offre les mêmes possibilités mais avec des performances optimales, ainsi que des conditions d'administration système et une surcharge allégées.
Reportez-vous à la page man mount_ufs(1M) pour plus d'informations sur les options de montage UFS.
Tableau 2–11 SPARC: Paramètres de montage des systèmes de fichiers partagés Sun StorEdge QFS
Paramètre de montage |
Description |
---|---|
shared |
Requise. Cette option indique qu'il s'agit d'un système de fichiers partagés, qui est de ce fait visible par tous les nœuds du cluster. |
Assurez-vous que les paramètres du fichier /etc/vfstab ne sont pas en conflit avec ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd. Les paramètres du fichier /etc/vfstab remplacent ceux du fichier /etc/opt/SUNWsamfs/samfs.cmd.
Certains services de données tels que Prise en charge de Sun Cluster pour Oracle Real Application Clusters possèdent d'autres exigences et directives concernant les paramètres de montage QFS. Reportez-vous à votre manuel de service de données pour connaître ces exigences.
Reportez-vous à la page man mount_samfs( 1M) pour plus d'informations concernant les paramètres de montage QFS.
L'enregistrement n'est pas activé par le paramètre de montage /etc/vfstab. Pour activer l'enregistrement, suivez les procédures décrites dans le document Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide.
Option de montage |
Description |
---|---|
global |
Requise. Cette option rend le système de fichiers globalement visible de tous les nœuds du cluster. |
log |
Requise. Cette option active la consignation. |
Reportez-vous à la page man VxFS mount_vxfs et à la rubrique “Administering Cluster File Systems Overview” in Sun Cluster System Administration Guide for Solaris OS pour de plus amples informations sur les options de montage VxFS.
Pour monter automatiquement le système de fichiers du cluster, indiquez la valeur yes dans le champ mount at boot.
Assurez-vous, pour chaque système de fichiers de cluster, que les informations de l'entrée /etc/vfstab sont les mêmes sur chaque nœud.
Assurez-vous que les entrées du fichier /etc/vfstab de chaque nœud répertorient les périphériques dans le même ordre.
Vérifiez les dépendances liées à l'ordre d'initialisation des systèmes de fichiers.
Par exemple, imaginez un scénario dans lequel phys-schost-1 monte le périphérique de disques d0 sur /global/oracle/ et phys-schost-2 monte le périphérique de disques d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 ne peut démarrer et monter /global/oracle/logs/ qu'une fois que phys-schost-1 a démarré et monté /global/oracle/.
Sur l'un des nœuds du cluster, exécutez l'utilitaire sccheck (1M).
L'utilitaire sccheck vérifie que le point de montage existe. Il vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les nœuds du cluster.
# sccheck |
Si aucune erreur ne se produit, l'utilitaire n'affiche pas de résultat.
Montez le système de fichiers de cluster.
# mount /global/device-group/mountpoint/ |
Pour UFS et QFS, montez le système de fichiers de cluster à partir de n'importe quel nœud.
SPARC : Pour VxFS, monte le système de fichiers de cluster à partir du maître actuel du device-group pour garantir le montage correct du système de fichiers. En outre, démontez un système de fichiers VxFS du maître actuel du device-group afin de garantir un démontage correct du système de fichiers.
pour gérer un système de fichiers de cluster VxFS dans un environnement Sun Cluster, n'exécutez les commandes administratives qu'à partir du nœud principal sur lequel le système de fichiers de cluster VxFS est monté.
Sur chaque nœud du cluster, vérifiez que le système de fichiers du cluster est bien monté.
Vous pouvez utiliser la commande df(1M) ou mount(1M) pour afficher la liste des systèmes de fichiers montés.
Configurez les groupes Multiacheminement sur réseau IP.
Reportez-vous à la rubrique Configuration des groupes Multiacheminement sur réseau IP .
L'exemple suivant crée un système de fichiers de cluster UFS sur le métapériphérique /dev/md/oracle/rdsk/d1 de Solstice DiskSuite.
# newfs /dev/md/oracle/rdsk/d1 … (sur chaque nœud) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (sauvegarder et quitter) (sur un nœud) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |