Effectuez cette tâche pour chaque système de fichiers de cluster que vous créez après la première installation d'Oracle Solaris Cluster.
![]() | Mise en garde - Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. Lorsque vous créez un système de fichiers de cluster, toutes les données sur le disque sont perdues. Si vous spécifiez un nom de périphérique incorrect, vous supprimez des données que vous souhaitez peut-être conserver. |
Avant d'ajouter un système de fichiers de cluster supplémentaire, assurez-vous que les prérequis suivants ont été satisfaits :
Le privilège du rôle root est établi sur un noeud du cluster.
Le gestionnaire de volumes est installé et configuré sur le cluster.
Il existe un groupe de périphériques (tel que le groupe de périphériques Solaris Volume Manager) ou une tranche de disque en mode bloc sur lequel ou laquelle créer le système de fichiers de cluster.
Vous pouvez également utiliser la GUI d'Oracle Solaris Cluster Manager pour ajouter un système de fichiers du cluster à à un cluster de zones. Pour obtenir les instructions de connexion à la GUI, reportez-vous à la section Accès à Oracle Solaris Cluster Manager.
Si vous avez utilisé Oracle Solaris Cluster Manager pour installer des services de données, au moins un système de fichiers de cluster existe déjà si des disques partagés sur lesquels créer les systèmes de fichiers de cluster étaient suffisants.
L'élément phys-schost# fait référence à l'invite du cluster global. Appliquez cette procédure à un cluster global.
Cette procédure contient la forme longue des commandes d'Oracle Solaris Cluster. La plupart des commandes possèdent également des formes brèves. A l'exception de la forme du nom, ces commandes sont identiques.
![]() | Mise en garde - Lors de la création d'un système de fichiers, toutes les données présentes sur les disques sont détruites. Assurez-vous que le nom de périphérique de disque que vous spécifiez est correct. S'il ne l'est pas, vous pourriez supprimer des données que vous souhaitiez conserver. |
phys-schost# newfs raw-disk-device
Le tableau suivant contient des exemples de noms pour l'argument raw-disk-device. Notez que la convention de nommage diffère pour chaque gestionnaire de volumes.
Un point de montage est requis pour chaque noeud, même si vous n'accédez pas au système de fichiers de cluster à partir de ce noeud.
phys-schost# mkdir -p /global/device-group/mount-point/
Nom du répertoire correspondant au nom du groupe de périphériques qui contient le périphérique.
Nom du répertoire sur lequel monter le système de fichiers de cluster.
Reportez-vous à la page de manuel vfstab(4) pour plus de détails.
Par exemple, admettons que phys-schost-1 monte le périphérique de disque d0 sur /global/oracle/ et que phys-schost-2 monte le périphérique de disque d1 sur /global/oracle/logs/. Avec cette configuration, phys-schost-2 peut initialiser et monter /global/oracle/logs/ uniquement après que phys-schost-1 a initialisé et monté /global/oracle/.
phys-schost# cluster check -k vfstab
L'utilitaire de vérification de la configuration vérifie que le point de montage existe. L'utilitaire vérifie également que les entrées du fichier /etc/vfstab sont correctes sur tous les noeuds du cluster. Si aucune erreur ne se produit, aucune sortie n'est renvoyée.
Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).
phys-schost# mount /global/device-group/mountpoint/
Vous pouvez utiliser soit la commande df, soit la commande mount pour répertorier les systèmes de fichiers montés. Pour plus d'informations, reportez-vous aux pages de manuel df(1M) ou mount(1M).