Les systèmes de fichiers Oracle HSM peuvent être partagés entre plusieurs hôtes de différentes façons. Chaque méthode présente des avantages dans certaines situations et des inconvénients dans d'autres. La méthode que vous choisissez dépend donc de vos besoins particuliers. Vous pouvez sélectionner les méthodes de partage suivantes :
Accès aux systèmes de fichiers à partir de plusieurs hôtes à l'aide du logiciel Oracle HSM
Accès aux systèmes de fichiers à partir de plusieurs hôtes à l'aide de NFS et SMB/CIFS
Oracle HSM met les systèmes de fichiers à la disposition de plusieurs hôtes en configurant un serveur et un ou plusieurs client qui montent simultanément le système de fichiers. Les données de fichiers sont alors transmises directement des périphériques de disque vers les hôtes via des E/S de chemin local haute performance, sans les latences de réseau ou de serveur intermédiaire associées au partage par NFS et CIFS. Un seul hôte peut faire office de serveur de métadonnées à la fois, mais un nombre quelconque de clients peuvent être configurés en tant que serveurs de métadonnées potentiels à des fins de redondance. Il n'y a aucune limite au nombre de points de montage des systèmes de fichiers.
Oracle HSM prend en charge l'accès multi-hôte aux systèmes de fichiers hautes performances (ma
) et à usage généraliste (ms
) dans les configurations à lecteurs multiples/scripteur unique comme dans les configurations partagées, avec ou sans archivage. Les limites sont peu nombreuses :
Les fichiers spéciaux en mode bloc (b
–) ne sont pas pris en charge.
Les fichiers spéciaux en mode caractère (c
–) ne sont pas pris en charge.
Les fichiers spéciaux FIFO (named pipe, tube nommé) (p
–) ne sont pas pris en charge.
Les fichiers segmentés ne sont pas pris en charge.
Vous ne pouvez pas implémenter un système de fichiers partagé Oracle HSM dans un environnement à fichiers segmentés.
Les verrous obligatoires ne sont pas pris en charge.
Une erreur EACCES
est renvoyée si un verrou obligatoire est défini. Toutefois, les verrous consultatifs sont pris en charge. Pour plus d'informations sur les verrous consultatifs, reportez-vous à la page de manuel fcntl
.
Les hôtes logiciels Oracle HSM peuvent accéder aux données du système de fichiers à l'aide de l'une des deux configurations ; chacune présentant ses propres avantages et restrictions dans toutes les applications.
Dans une configuration à plusieurs lecteurs et à scripteur unique, un seul hôte monte le système de fichiers avec l'accès en lecture/écriture et tous les autres hôtes le montent en lecture seule. La configuration n'est qu'une affaire de paramétrage des options de montage. Toutes les modifications de fichiers étant effectuées par un hôte unique : la cohérence des fichiers et l'intégrité des données sont garanties, sans verrouillage de fichier additionnel ou autres vérifications de cohérence. Pour optimiser les performances, tous les hôtes lisent les métadonnées et les données directement à partir du disque. Tous les hôtes doivent néanmoins avoir accès aux métadonnées du système de fichiers. Tous les hôtes d'un système de fichiers ma
doivent donc avoir accès aux périphériques de données et aux périphériques de métadonnées.
Dans une configuration partagée, tous les hôtes peuvent lire, écrire et ajouter des données de fichier en utilisant des baux qui autorisent un hôte unique à accéder aux fichiers d'une manière donnée pour une période donnée. Le serveur de métadonnées délivre des baux de lecture, d'écriture et d'ajout, et gère les renouvellements ainsi que les demandes de bail conflictuelles. Les systèmes de fichiers partagés offrent une grande flexibilité, mais la configuration est un peu plus complexe et la surcharge du système de fichiers est plus importante. Tous les hôtes lisent les données directement depuis le disque mais les clients accèdent aux métadonnées par le réseau. Les clients qui n'ont pas accès aux périphériques de métadonnées peuvent donc partager un système de fichiers ma
.
Pour configurer l'accès aux données à partir de plusieurs hôtes, sélectionnez l'une des deux approches suivantes :
Pour configurer un système de fichiers à scripteur unique et à plusieurs lecteurs, effectuez les tâches suivantes :
Procédez comme suit :
Connectez-vous à l'hôte qui servira de writer
(scripteur) en utilisant le compte root
.
Dans cet exemple, l'hôte du scripteur
est nommé swriterfs-mds-writer
:
[swriterfs1-mds-writer]root@solaris:~#
Sur l'hôte qui servira de scripteur
, ouvrez le fichier /etc/opt/SUNWsamfs/mcf
dans un éditeur de texte et ajoutez un système de fichiers QFS. Vous pouvez configurer un système de fichiers à usage généraliste ms
ou haute performance ma
.
Sur un système de fichiers ma
comportant des périphériques de métadonnées distincts, configurez le serveur de métadonnées du système de fichiers en tant que scripteur. Dans cet exemple, nous modifions le fichier mcf
sur l'hôte swriterfs1-mds-writer
à l'aide de l'éditeur de texte vi
. L'exemple indique un système de fichiers ma
possédant l'identificateur d'équipement et le nom de famille swriterfs1
et le numéro ordinal d'équipement 300
:
[swriterfs1-mds-writer]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- swriterfs1 300 ma swriterfs1 on /dev/dsk/c0t0d0s0 301 mm swriterfs1 on /dev/dsk/c0t3d0s0 302 mr swriterfs1 on /dev/dsk/c0t3d0s1 303 mr swriterfs1 on
Enregistrez le fichier /etc/opt/SUNWsamfs/mcf
et quittez l'éditeur.
Dans l'exemple, nous enregistrons les modifications et quittons l'éditeur vi
:
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#------------------ --------- --------- --------- ------ ---------------
swriterfs1 300 ma swriterfs1 on
/dev/dsk/c0t0d0s0 301 mm swriterfs1 on
/dev/dsk/c0t3d0s0 302 mr swriterfs1 on
/dev/dsk/c0t3d0s1 303 mr swriterfs1 on
:wq
[swriterfs1-mds-writer]root@solaris:~#
Recherchez les erreurs éventuelles dans le fichier mcf
en exécutant la commande sam-fsd
et corrigez celles qui sont détectées.
La commande sam-fsd
lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur :
[swriterfs1-mds-writer]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[swriterfs1-mds-writer]root@solaris:~#
Indiquez au service Oracle HSM de relire le fichier mcf
et de se reconfigurer en conséquence. Exécutez la commande samd
config
.
[swriterfs1-mds-writer]root@solaris:~# samd config Configuring SAM-FS [swriterfs1-mds-writer]root@solaris:~#
Créez le système de fichiers à l'aide de la commande sammkfs
et du nom de famille du système de fichiers, comme décrit à la sectionConfiguration d'un système de fichiers ma
haute performance.
Dans l'exemple, la commande crée le système de fichiers multilecteur/scripteur unique swriterfs1
:
[swriterfs1-mds-writer]root@solaris:~# sammkfs swriterfs1 Building 'swriterfs1' will destroy the contents of devices: /dev/dsk/c0t0d0s0 /dev/dsk/c0t3d0s0 /dev/dsk/c0t3d0s1 Do you wish to continue? [y/N]yes ...
Sauvegardez le fichier /etc/vfstab
du système d'exploitation.
[swriterfs1-mds-writer]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [swriterfs1-mds-writer]root@solaris:~#
Ajoutez le nouveau système de fichiers au fichier /etc/vfstab
du système d'exploitation, comme décrit à la Configuration d'un système de fichiers ma
haute performance.
Dans l'exemple, nous ouvrons le fichier /etc/vfstab
dans l'éditeur de texte vi
et ajoutons une ligne pour le périphérique de famille swriterfs1
:
[swriterfs1-mds-writer]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ----------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... swriterfs1 - /swriterfs1 samfs - no
Dans la colonne Mount Options
du fichier /etc/vfstab
, saisissez l'option de montage writer
.
Attention :
Vous devez vous assurer qu'un seul hôte est lescripteur
à un moment donné. Autoriser plus d'un hôte à monter un système de fichiers multilecteur/scripteur unique en utilisant l'option writer
peut endommager le système de fichiers !
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer
Effectuez les autres modifications souhaitées dans le fichier /etc/vfstab
. Ajoutez des options de montage en utilisant des virgules en tant que séparateurs.
Par exemple, pour monter le système de fichiers en arrière-plan si la première tentative échoue, ajoutez l'option de montage bg
dans le champ Mount Options
(reportez-vous à la page de manuel mount_samfs
pour obtenir une liste exhaustive des options de montage disponibles) :
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
Enregistrez le fichier /etc/vfstab
et quittez l'éditeur.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
:wq
[swriterfs1-mds-writer]root@solaris:~#
Créez le point de montage spécifié dans le fichier /etc/vfstab
, puis définissez les autorisations d'accès pour le point de montage.
Les autorisations de point de montage doivent être identiques sur tous les hôtes, et les utilisateurs doivent disposer de l'autorisation d'exécution (x
) pour pouvoir modifier le répertoire de point de montage et accéder aux fichiers du système de fichiers monté. Dans l'exemple, nous créons le répertoire de point de montage /swriterfs1
et accordons les autorisations à 755
(-rwxr-xr-x
) :
[swriterfs1-mds-writer]root@solaris:~# mkdir /swriterfs1 [swriterfs1-mds-writer]root@solaris:~# chmod 755 /swriterfs1 [swriterfs1-mds-writer]root@solaris:~#
Montez le nouveau système de fichiers :
[swriterfs1-mds-writer]root@solaris:~# mount /swriterfs1 [swriterfs1-mds-writer]root@solaris:~#
Après la création du système de fichiers partagé, procédez à la configuration des lecteurs.
Un lecteur est un hôte qui monte la lecture seule d'un système de fichiers. Pour chaque hôte que vous configurez en tant que lecteur, procédez comme suit :
Connectez-vous à l'hôte en tant qu'utilisateur root
.
Dans cet exemple, l'hôte du lecteur
est nommé swriterfs-reader1]
:
[swriterfs-reader1]root@solaris:~#
Dans une fenêtre de terminal, récupérez les informations de configuration du système de fichiers multilecteur/scripteur unique à l'aide de la commande samsconfig
device-path
, où device-path
est l'emplacement où la commande doit commencer à rechercher les périphériques de disque du système de fichiers (tel que /dev/dsk/*
).
L'utilitaire samfsconfig
récupère les informations de configuration du système de fichiers en lisant le superbloc d'identification que sammkfs
écrit sur chaque périphérique inclus dans un système de fichiers Oracle HSM. La commande renvoie les chemins corrects de chaque périphérique de la configuration en commençant par l'hôte actuel, et signale les périphériques injoignables (pour obtenir des informations complètes sur la syntaxe de la commande et les paramètres, reportez-vous à la page de manuel samfsconfig
).
Dans cet exemple, la sortie samfsconfig
indique les mêmes équipements que ceux répertoriés dans le fichier mcf
sur swriterfs1-mds-writer
, à ceci près que les chemins d'accès aux périphériques sont indiqués en commençant par l'hôte swriterfs1-reader1
:
[swriterfs1-reader1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'swriterfs1' Created Thu Nov 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 # sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
Copiez les entrées pour le système de fichiers partagé à partir de la sortie samfsconfig
. Ensuite, dans une seconde fenêtre, ouvrez le fichier /etc/opt/SUNWsamfs/mcf
dans un éditeur de texte et collez les entrées copiées dans le fichier.
Sinon, vous pouvez rediriger la sortie de samfsconfig
vers le fichier mcf
. Vous pouvez également utiliser la commande samd buildmcf
pour exécuter samfsconfig
et créer le fichier client mcf
automatiquement.
Dans l'exemple, une fois que nous avons ajouté les en-têtes de colonnes mis en commentaire, le fichier mcf
de l'hôte swriterfs1-reader1
se présente ainsi :
[swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
Assurez-vous que le champ Device State
est sur on
pour tous les périphériques. Enregistrez ensuite le fichier mcf
.
[swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [swriterfs1-reader1]root@solaris:~#
Recherchez les erreurs éventuelles dans le fichier mcf
en exécutant la commande sam-fsd
et corrigez celles qui sont détectées.
La commande sam-fsd
lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur :
[swriterfs1-reader1]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[swriterfs1-reader1]root@solaris:~#
Sauvegardez le fichier /etc/vfstab
du système d'exploitation.
[swriterfs1-reader1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [swriterfs1-reader1]root@solaris:~#
Ajoutez le système de fichiers multilecteur/scripteur unique au fichier /etc/vfstab
du système d'exploitation de l'hôte.
Dans l'exemple, nous ouvrons le fichier /etc/vfstab
dans l'éditeur de texte vi
et ajoutons une ligne pour le périphérique de famille swriterfs1
:
[swriterfs1-reader1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ----------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... swriterfs1 - /swriterfs1 samfs - no
Dans la colonne Mount
Options
du fichier /etc/vfstab
, entrez l'option reader
.
Attention :
Assurez-vous que l'hôte monte le système de fichiers en utilisant l'optionreader
! Si l'option de montage writer
est accidentellement utilisée sur plus d'un hôte, le système de fichiers risque d'être endommagé !
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no reader
Ajoutez les autres options de montage de votre choix en les séparant par des virgules, puis apportez les autres modifications souhaitées au fichier /etc/vfstab
. Ensuite, enregistrez le fichier /etc/vfstab
.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -----------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
swriterfs1 - /swriterfs1 samfs - no writer,bg
:wq
[swriterfs1-reader1]root@solaris:~#
Créez le point de montage spécifié dans le fichier /etc/vfstab
, puis définissez les autorisations d'accès pour le point de montage.
Les autorisations de point de montage doivent être identiques sur tous les hôtes, et les utilisateurs doivent disposer de l'autorisation d'exécution (x
) pour modifier le répertoire de point de montage et accéder aux fichiers du système de fichiers monté. Dans l'exemple, nous créons le répertoire de point de montage /swriterfs1
et accordons les autorisations à 755
(-rwxr-xr-x
), de la même façon que nous l'avons fait sur l'hôte scripteur :
[swriterfs1-reader1]root@solaris:~# mkdir /swriterfs1 [swriterfs1-reader1]root@solaris:~# chmod 755 /swriterfs1 [swriterfs1-reader1]root@solaris:~#
Montez le nouveau système de fichiers :
[swriterfs1-reader1]root@solaris:~# mount /swriterfs1 [swriterfs1-reader1]root@solaris:~#
Répétez cette procédure jusqu'à ce que tous les hôtes lecteurs soient configurés pour monter le système de fichiers en lecture seule.
Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.
Sinon, passez à la Configuration des notifications et de la journalisation.
Les systèmes de fichiers partagés Oracle HSM donnent à plusieurs hôtes Oracle HSM l'accès aux fichiers en lecture, écriture et ajout. Tous les hôtes montent le système de fichiers et disposent de connexions directes aux périphériques de stockage. En outre, un hôte, le serveur de métadonnées (MDS), dispose du contrôle exclusif sur les métadonnées du système de fichiers et sert d'intermédiaire entre les hôtes cherchant accéder aux mêmes fichiers. Le serveur fournit aux hôtes clients les mises à jour des métadonnées par le réseau Ethernet local et contrôle l'accès au fichier en émettant, renouvelant et révoquant les baux de lecture, d'écriture et d'ajout. Il est possible de partager les systèmes de fichiers haute performance ma
ou à usage généraliste ms
, d'archivage ou sans archivage.
Pour configurer un système de fichiers partagé, effectuez les tâches suivantes :
Configuration d'un serveur de métadonnées de système de fichiers pour le partage
Configuration des clients du système de fichiers pour le partage
Configuration du stockage d'archivage pour un système de fichiers partagé
Pour configurer un serveur de métadonnées pour la prise en charge d'un système de fichiers partagé, effectuez les tâches suivantes :
Création de fichier d'hôtes sur les serveurs de métadonnées actif et potentiel
Création du système de fichiers partagé sur le serveur actif
Montage du système de fichiers partagé dans le serveur actif
Sur les serveurs de métadonnées actif et potentiel, vous devez créer un fichier d'hôtes qui répertorie les informations d'adresse réseau des serveurs et clients d'un système de fichiers partagé. Le fichier d'hôtes est stocké avec le fichier mcf
dans le répertoire /etc/opt/SUNWsamfs/
. Lors de la création initiale d'un système de fichiers partagé, la commande sammkfs -S
configure le partage selon les paramètres stockés dans ce fichier. Créez-le maintenant en appliquant la procédure ci-dessous.
Connectez-vous au serveur en tant qu'utilisateur root
.
Dans cet exemple, le serveur est nommé sharefs-mds
:
[sharefs-mds]root@solaris:~#
A l'aide d'un éditeur de texte, créez le fichier /etc/opt/SUNWsamfs/hosts.
family-set-name
sur le serveur de métadonnées, en remplaçant family-set-name
par le nom de famille du système de fichiers que vous souhaitez partager.
Dans cet exemple, nous créons le fichier hosts.sharefs
à l'aide de l'éditeur de texte vi
. Nous ajoutons quelques en-têtes facultatifs, en commençant chaque ligne par le signe dièse (#
), qui indique un commentaire :
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs # /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ----------
Ajoutez le nom d'hôte et l'adresse IP ou le nom de domaine du serveur de métadonnées dans deux colonnes, séparées par des espaces.
# /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117
Ajoutez une troisième colonne, séparée de l'adresse réseau par des espaces. Dans cette colonne, saisissez 1
, soit le nombre ordinal du serveur de métadonnées actif.
Dans cet exemple, il n'y a qu'un serveur de métadonnées, nous entrons donc 1
:
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1
Ajoutez une quatrième colonne, séparée de l'adresse réseau par des espaces. Dans cette colonne, entrez 0
(zéro).
Le caractère 0
, un trait d'union (-
) ou une valeur vierge dans la quatrième colonne indiquent que l'hôte est activé (on), c'est-à-dire configuré avec un accès au système de fichiers partagé. Un 1
(chiffre un) indique que l'hôte est désactivé off, configuré sans accès au système de fichiers (pour plus d'informations sur l'utilisation de ces valeurs lors de l'administration des systèmes de fichiers partagés, reportez-vous à la page de manuel samsharefs
).
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0
Ajoutez une cinquième colonne, séparée de l'adresse réseau par des espaces. Dans cette colonne, saisissez le mot-clé server
pour indiquer le serveur de métadonnées actif :
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
Si vous envisagez d'inclure un ou plusieurs hôtes en tant que serveurs de données potentiels, créez une entrée pour chacun d'entre eux. Augmentez le nombre ordinal du serveur chaque fois. Cependant, n'incluez pas le mot-clé server
(il ne peut y avoir qu'un seul serveur de métadonnées actif par système de fichiers).
Dans cet exemple, l'hôte sharefs-mds_alt
est un serveur de métadonnées potentiel portant le numéro ordinal de serveur 2
:
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
Ajoutez une ligne pour chaque hôte de client, chacun avec la valeur ordinale de serveur 0
.
La valeur ordinale de serveur 0
identifie l'hôte comme client. Dans cet exemple, nous ajoutons deux clients, sharefs-client1
et sharefs-client2
.
# /etc/opt/SUNWsamfs/hosts.sharefs # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #------------------ ---------------------- ------- --- ---------- sharefs-mds 10.79.213.117 1 0 server sharefs-mds_alt 10.79.213.217 2 0 sharefs-client1 10.79.213.133 0 0 sharefs-client2 10.79.213.147 0 0
Enregistrez le fichier /etc/opt/SUNWsamfs/hosts.
family-set-name
et fermez l'éditeur de texte.
Dans l'exemple, nous enregistrons les modifications apportées à /etc/opt/SUNWsamfs/hosts.sharefs
et fermons l'éditeur vi
:
# /etc/opt/SUNWsamfs/hosts.sharefs
# Server On/ Additional
#Host Name Network Interface Ordinal Off Parameters
#------------------ ---------------------- ------- --- ----------
sharefs-mds 10.79.213.117 1 0 server
sharefs-mds_alt 10.79.213.217 2 0
sharefs-client1 10.79.213.133 0 0
sharefs-client2 10.79.213.147 0 0
:wq
[sharefs-mds]root@solaris:~#
Placez une copie du nouveau fichier /etc/opt/SUNWsamfs/hosts.
family-set-name
sur tous les serveurs de métadonnées potentiels inclus dans la configuration du système de fichiers partagé.
Procédez maintenant à la création du système de fichiers partagé sur le serveur de métadonnées actif.
Procédez comme suit :
Connectez-vous au serveur en tant qu'utilisateur root
.
Dans cet exemple, le serveur est nommé sharefs-mds
:
[sharefs-mds]root@solaris:~#
Sur le serveur de métadonnées (MDS), ouvrez le fichier /etc/opt/SUNWsamfs/mcf
dans un éditeur de texte et ajoutez un système de fichiers QFS. Vous pouvez configurer un système de fichiers à usage généraliste ms
ou haute performance ma
.
Dans l'exemple, nous modifions le fichier mcf
sur l'hôte sharefs-mds
à l'aide de l'éditeur de texte vi
. L'exemple indique un système de fichiers ma
dont l'identificateur d'équipement et le nom de famille est sharefs
et dont le numéro ordinal d'équipement est 300
:
[sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on /dev/dsk/c0t0d0s0 301 mm sharefs on /dev/dsk/c0t3d0s0 302 mr sharefs on /dev/dsk/c0t3d0s1 303 mr sharefs on
Dans le champ Additional
Parameters
de la ligne de l'équipement du système de fichiers ma
, saisissez le paramètre shared
:
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#------------------ --------- --------- --------- ------ ---------------
sharefs 300 ma sharefs on shared
/dev/dsk/c0t0d0s0 301 mm sharefs on
/dev/dsk/c0t3d0s0 302 mr sharefs on
/dev/dsk/c0t3d0s1 303 mr sharefs on
Enregistrez le fichier /etc/opt/SUNWsamfs/mcf
et quittez l'éditeur.
Dans l'exemple, nous enregistrons les modifications et quittons l'éditeur vi
:
sharefs 300 ma sharefs on shared
/dev/dsk/c0t0d0s0 301 mm sharefs on
/dev/dsk/c0t3d0s0 302 mr sharefs on
/dev/dsk/c0t3d0s1 303 mr sharefs on
:wq
[sharefs-mds]root@solaris:~#
Recherchez les erreurs éventuelles dans le fichier mcf
en exécutant la commande sam-fsd
et corrigez celles qui sont détectées.
La commande sam-fsd
lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur :
[sharefs-mds]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-mds]root@solaris:~#
Demandez au service Oracle HSM de relire le fichier mcf
et de se reconfigurer en conséquence. Corrigez les erreurs signalées et si nécessaire, répétez cette procédure.
[sharefs-mds]root@solaris:~# samd config [sharefs-mds]root@solaris:~#
Créez le système de fichiers à l'aide de la commande sammkfs -S
et du nom de famille du système de fichiers, comme décrit à la Configuration d'un système de fichiers ma
haute performance.
La commande sammkfs
lit les fichiers hosts.
family-set-name
et mcf
et crée un système de fichiers partagé avec les propriétés indiquées. Dans l'exemple, la commande lit les paramètres de partage dans le fichier hosts.sharefs
et crée le système de fichiers sharefs
:
[sharefs-mds]root@solaris:~# sammkfs -S sharefs Building 'sharefs' will destroy the contents of devices: /dev/dsk/c0t0d0s0 /dev/dsk/c0t3d0s0 /dev/dsk/c0t3d0s1 Do you wish to continue? [y/N]yes ... [sharefs-mds]root@solaris:~#
Procédez ensuite au montage du système de fichiers partagé sur le serveur de métadonnées actif.
Connectez-vous au serveur en tant qu'utilisateur root
.
Dans cet exemple, le serveur est nommé sharefs-mds
:
[sharefs-mds]root@solaris:~#
Sauvegardez le fichier /etc/vfstab
du système d'exploitation.
[sharefs-mds]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [sharefs-mds]root@solaris:~#
Ajoutez le nouveau système de fichiers au fichier /etc/vfstab
du système d'exploitation, comme décrit à la Configuration d'un système de fichiers ma
haute performance.
Dans l'exemple, nous ouvrons le fichier /etc/vfstab
dans l'éditeur de texte vi
et ajoutons une ligne pour le périphérique de famille sharefs
:
[sharefs-mds]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
Dans la colonne Mount Options
, saisissez l'option shared
:
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared
Effectuez les autres modifications souhaitées dans le fichier /etc/vfstab
.
Par exemple, pour essayer à nouveau de monter le système de fichiers en arrière-plan si la première tentative a échoué, ajoutez l'option de montage bg
dans le champ Mount Options
(pour obtenir une description complète des options de montage disponibles, reportez-vous à la page de manuel mount_samfs
) :
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared,bg
Enregistrez le fichier /etc/vfstab
et quittez l'éditeur.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no shared,bg
:wq
[sharefs-mds]root@solaris:~#
Créez le point de montage spécifié dans le fichier /etc/vfstab
, puis définissez les autorisations d'accès pour le point de montage.
Les autorisations de point de montage doivent être identiques sur le serveur de métadonnées et sur tous les clients, et les utilisateurs doivent disposer de l'autorisation d'exécution (x
) pour modifier le répertoire de point de montage et accéder aux fichiers du système de fichiers monté. Dans cet exemple, nous créons le répertoire de point de montage /sharefs
et définissons les autorisations sur 755
(-rwxr-xr-x
) :
[sharefs-mds]root@solaris:~# mkdir /sharefs [sharefs-mds]root@solaris:~# chmod 755 /sharefs [sharefs-mds]root@solaris:~#
Montez le nouveau système de fichiers :
[sharefs-mds]root@solaris:~# mount /sharefs
[sharefs-mds]root@solaris:~#
Si vos hôtes sont configurés avec plusieurs interfaces réseau, vous pouvez éventuellement utiliser des fichiers d'hôtes locaux pour router les communications réseau.
Sinon, après la création du système de fichiers partagé sur le serveur de métadonnées, procédez à la configuration des clients du système de fichiers pour le partage.
Par clients, on entend à la fois les hôtes configurés purement comme clients et ceux configurés comme serveurs de métadonnées potentiels. La configuration d'un client ressemble à bien des égards à celle d'un serveur. Chaque client comprend exactement les mêmes périphériques que le serveur. Seuls les options de montage et le chemin exact vers les périphériques changent (les numéros de contrôleur sont affectés par chaque hôte client et peuvent donc varier).
Pour configurer un ou plusieurs clients pour qu'ils prennent en charge un système de fichiers partagé, effectuez les tâches ci-dessous :
Création du système de fichiers partagé sur les clients Solaris
Montage du système de fichiers partagé sur les clients Solaris
Création du système de fichiers partagé sur les clients Linux (le cas échéant)
Montage du système de fichiers partagé sur les clients Linux (le cas échéant).
Pour chaque client, procédez comme suit :
Sur le client, connectez-vous en tant qu'utilisateur root
.
Dans cet exemple, le serveur est nommé sharefs-client1
:
[sharefs-client1]root@solaris:~#
Dans la fenêtre du terminal, exécutez la commande samfsconfig
device-path
, où device-path
est l'emplacement où la commande commence la recherche des périphériques de disque du système de fichiers (par exemple, /dev/dsk/*
ou /dev/zvol/dsk/rpool/*
).
La commande samfsconfig
récupère les informations de configuration pour le système de fichiers partagé.
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
Si l'hôte a accès aux périphériques de métadonnées pour le système de fichiers et pourrait donc être utilisé comme serveur de métadonnées potentiel, la sortie samfsconfig
est similaire au fichier mcf
sur le serveur de métadonnées du système de fichiers.
Dans notre exemple, l'hôte sharefs-client1
a accès aux périphériques de métadonnées (type d'équipement mm
). Par conséquent, la sortie de la commande affiche le même équipement que celui répertorié dans le fichier mcf
sur le serveur, sharefs-mds
. Seuls les numéros de contrôleur de périphérique affectés par l'hôte différent :
[sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # Generation 0 Eq count 4 Eq meta count 1 # sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
Si l'hôte n'a pas accès aux périphériques de métadonnées pour le système de fichiers, la commande samfsconfig
ne peut pas trouver les périphériques de métadonnées et ne peut donc pas inclure les périphériques Oracle HSM détectés dans la configuration du système de fichiers. La sortie de la commande répertorie Ordinal
0
(le périphérique de métadonnées) sous Missing Slices
, échoue à inclure la ligne identifiant la famille du système de fichiers et ajoute un commentaire aux listes pour les périphériques de données.
Dans notre exemple, l'hôte sharefs-client2
a uniquement accès aux périphériques de données. La sortie samfsconfig
prend alors cette forme :
[sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/* # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013 # # Missing slices # Ordinal 0 # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
Copiez les entrées pour le système de fichiers partagé à partir de la sortie samfsconfig
. Ensuite, dans une seconde fenêtre, ouvrez le fichier /etc/opt/SUNWsamfs/mcf
dans un éditeur de texte et collez les entrées copiées dans le fichier.
Dans notre premier exemple, l'hôte, sharefs-client1
, a accès aux périphériques de métadonnées pour le système de fichiers, de sorte que le fichier mcf
commence comme ceci :
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
Dans le second exemple, l'hôte, sharefs-client2
, n'a pas accès aux périphériques de métadonnées pour le système de fichiers, de sorte que le fichier mcf
commence comme ceci :
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
Si l'hôte a accès aux périphériques de métadonnées pour le système de fichiers, ajoutez le paramètre shared
au champ Additional Parameters
de l'entrée pour le système de fichiers partagé.
Dans l'exemple, l'hôte, sharefs-client1
, peut accéder aux métadonnées :
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared /dev/dsk/c1t0d0s0 301 mm sharefs - /dev/dsk/c1t3d0s0 302 mr sharefs - /dev/dsk/c1t3d0s1 303 mr sharefs -
Si l'hôte n'a pas accès aux périphériques de métadonnées pour le système de fichiers, ajoutez une ligne pour le système de fichiers partagé en incluant le paramètre shared
.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
Si l'hôte n'a pas accès aux périphériques de métadonnées pour le système de fichiers, ajoutez une ligne pour le périphérique de métadonnées. Définissez le champ Equipment Identifier
sur nodev
(no device) et définissez les autres champs sur les mêmes valeurs que sur le serveur de métadonnées :
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/dsk/c4t3d0s0 302 mr sharefs - # /dev/dsk/c4t3d0s1 303 mr sharefs -
Si l'hôte n'a pas accès aux périphériques de métadonnées pour le système de fichiers, ajoutez une ligne pour les périphériques de données.
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ ----------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs - /dev/dsk/c4t3d0s1 303 mr sharefs -
Assurez-vous que le champ Device State
est défini sur on
pour tous les périphériques et enregistrez le fichier mcf
.
Dans notre premier exemple, l'hôte, sharefs-client1
, a accès aux périphériques de métadonnées pour le système de fichiers, de sorte que le fichier mcf
se termine comme ceci :
[sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared /dev/dsk/c1t0d0s0 301 mm sharefs on /dev/dsk/c1t3d0s0 302 mr sharefs on /dev/dsk/c1t3d0s1 303 mr sharefs on :wq [sharefs-client1]root@solaris:~#
Dans le second exemple, l'hôte sharefs-client2
n'a pas accès aux périphériques de métadonnées pour le système de fichiers, de sorte que le fichier mcf
se termine comme ceci :
[sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/dsk/c4t3d0s0 302 mr sharefs on /dev/dsk/c4t3d0s1 303 mr sharefs on :wq [sharefs-client2]root@solaris:~#
Recherchez les erreurs éventuelles dans le fichier mcf
en exécutant la commande sam-fsd
et corrigez celles qui sont détectées.
La commande sam-fsd
lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans cet exemple, nous vérifions le fichier mcf
sur sharefs-client1
:
[sharefs-client1]root@solaris:~# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-client1]root@solaris:~#
A ce stade, si vos hôtes sont configurés avec plusieurs interfaces réseau, vous pouvez éventuellement utiliser des fichiers d'hôtes locaux pour router les communications réseau.
Procédez ensuite au montage du système de fichiers partagé sur les clients Solaris.
Pour chaque client, procédez comme suit :
Sur le client Solaris, connectez-vous en tant qu'utilisateur root
.
Dans cet exemple, le serveur est nommé sharefs-client1
:
[sharefs-client1]root@solaris:~#
Sauvegardez le fichier /etc/vfstab
du système d'exploitation.
[sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [sharefs-client1]root@solaris:~#
Ouvrez le fichier /etc/vfstab
dans un éditeur de texte et ajoutez une ligne pour le système de fichiers partagé.
Dans cet exemple, nous ouvrons le fichier dans l'éditeur de texte vi
et ajoutons une ligne pour le périphérique de famille sharefs
:
[sharefs-client1]root@solaris:~# vi /etc/vfstab #File #Device Device Mount System fsck Mount Mount #to Mount to fsck Point Type Pass at Boot Options #-------- ------- -------- ------ ---- ------- ------------------------- /devices - /devices devfs - no - /proc - /proc proc - no - ... sharefs - /sharefs samfs - no
Ajoutez les autres options de montage de votre choix en les séparant par des virgules, puis apportez les autres modifications souhaitées au fichier /etc/vfstab
. Ensuite, enregistrez le fichier /etc/vfstab
.
Dans cet exemple, nous n'ajoutons aucune option de montage.
#File
#Device Device Mount System fsck Mount Mount
#to Mount to fsck Point Type Pass at Boot Options
#-------- ------- -------- ------ ---- ------- -------------------------
/devices - /devices devfs - no -
/proc - /proc proc - no -
...
sharefs - /sharefs samfs - no -
:wq
[sharefs-client1]root@solaris:~#
Créez le point de montage spécifié dans le fichier /etc/vfstab
, puis définissez les autorisations d'accès pour le point de montage.
Les autorisations du point de montage doivent être identiques sur le serveur de métadonnées et tous les autres clients. Les utilisateurs doivent disposer de l'autorisation d'exécution (x
) pour modifier le répertoire de point de montage et accéder aux fichiers dans le système de fichiers monté. Dans cet exemple, nous créons le répertoire de point de montage /sharefs
et définissons les autorisations sur 755
(-rwxr-xr-x
) :
[sharefs-client1]root@solaris:~# mkdir /sharefs [sharefs-client1]root@solaris:~# chmod 755 /sharefs [sharefs-client1]root@solaris:~#
Montez le système de fichiers partagé :
[sharefs-client1]root@solaris:~# mount /sharefs [sharefs-client1]root@solaris:~#
Si le système de fichiers partagé comprend des clients Linux, procédez à la création du système de fichiers partagé sur les clients Linux.
Si vous configurez un système de fichiers d'archivage partagé Oracle HSM, effectuez la tâche suivante : Configuration du stockage d'archivage pour un système de fichiers partagé.
Sinon, arrêtez la procédure à cette étape. Vous avez configuré le système de fichiers partagé Oracle HSM.
Pour chaque client, procédez comme suit :
Sur le client Linux, connectez-vous en tant qu'utilisateur root
.
Dans cet exemple, l'hôte du client Linux est nommé sharefs-clientL
:
[sharefs-clientL][root@linux ~]#
Dans la fenêtre du terminal, exécutez la commande samfsconfig
device-path
, où device-path
est l'emplacement où la commande commence la recherche des périphériques de disque du système de fichiers (par exemple, /dev/*
).
La commande samfsconfig
récupère les informations de configuration pour le système de fichiers partagé. Dans la mesure où les hôtes Linux n'ont pas accès aux périphériques de métadonnées du système de fichiers, la commande samfsconfig
ne peut pas trouver les périphériques de métadonnées et ne peut donc pas inclure les périphériques Oracle HSM détectés dans la configuration du système de fichiers. La sortie de la commande répertorie Ordinal
0
(le périphérique de métadonnées) sous Missing
Slices
, échoue à inclure la ligne identifiant la famille du système de fichiers et ajoute un commentaire aux listes pour les périphériques de données.
Dans notre exemple, la sortie samfsconfig
pour l'hôte Linux sharefs-clientL
prend cette forme :
[sharefs-clientL][root@linux ~]# samfsconfig /dev/*
# Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
#
# Missing slices
# Ordinal 0
# /dev/sda4 302 mr sharefs -
# /dev/sda5 303 mr sharefs -
Copiez les entrées pour le système de fichiers partagé à partir de la sortie samfsconfig
. Ensuite, dans une seconde fenêtre, ouvrez le fichier /etc/opt/SUNWsamfs/mcf
dans un éditeur de texte et collez les entrées copiées dans le fichier.
Dans cet exemple, le fichier mcf
pour l'hôte Linux, sharefs-clientL
, commence comme ceci :
[sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
Dans le fichier mcf
, insérez une ligne pour le système de fichiers partagé en incluant le paramètre shared
.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs - shared # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
Dans le fichier mcf
, insérez des lignes pour les périphériques de métadonnées du système de fichiers. Dans la mesure où les hôtes Linux n'ont pas accès aux périphériques de métadonnées, définissez le champ Equipment
Identifier
sur nodev
(no device) et définissez les autres champs sur les mêmes valeurs que sur le serveur de métadonnées :
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on # /dev/sda4 302 mr sharefs - # /dev/sda5 303 mr sharefs -
Dans le fichier mcf
, annulez la mise en commentaire des entrées des périphériques de données.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs - /dev/sda5 303 mr sharefs -
Assurez-vous que le champ Device
State
est défini sur on
pour tous les périphériques et enregistrez le fichier mcf
.
# Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #------------------ --------- --------- --------- ------ --------------- sharefs 300 ma sharefs on shared nodev 301 mm sharefs on /dev/sda4 302 mr sharefs on /dev/sda5 303 mr sharefs on :wq [sharefs-clientL][root@linux ~]#
Recherchez les erreurs éventuelles dans le fichier mcf
en exécutant la commande sam-fsd
et corrigez celles qui sont détectées.
La commande sam-fsd
lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans cet exemple, nous vérifions le fichier mcf
sur le client Linux, sharefs-clientL
:
[sharefs-clientL][root@linux ~]# sam-fsd
...
Would start sam-stagerd()
Would start sam-amld()
[sharefs-clientL][root@linux ~]#
Procédez maintenant au montage du système de fichiers partagé sur les clients Linux.
Pour chaque client, procédez comme suit :
Sur le client Linux, connectez-vous en tant qu'utilisateur root
.
Dans cet exemple, l'hôte du client Linux est nommé sharefs-clientL
:
[sharefs-clientL][root@linux ~]#
Sauvegardez le fichier /etc/fstab
du système d'exploitation.
[sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
Ouvrez le fichier /etc/fstab
dans un éditeur de texte et commencez une ligne pour le système de fichiers partagé.
Dans cet exemple, après avoir sauvegardé le fichier /etc/fstab
sur sharefs-clientL
, nous ouvrons le fichier dans l'éditeur de texte vi
et ajoutons une ligne pour le périphérique de famille sharefs
:
[sharefs-clientL][root@linux ~]# vi /etc/fstab #File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs
Dans la quatrième colonne du fichier, ajoutez l'option de montage shared
obligatoire.
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared
Dans la quatrième colonne du fichier, ajoutez toutes les autres options de montage souhaitées en les séparant par des virgules.
Les clients Linux prennent en charge les options de montage supplémentaires suivantes :
rw
, ro
retry
meta_timeo
rdlease
, wrlease
, aplease
minallocsz
, maxallocsz
noauto
, auto
Dans cet exemple, nous ajoutons l'option noauto
:
#File
#Device Mount System Mount Dump Pass
#to Mount Point Type Options Frequency Number
#-------- ------- -------- ------------------------- --------- ------
...
/proc /proc proc defaults
sharefs /sharefs samfs shared,noauto
Saisissez zéro (0
) dans chacune des deux colonnes restantes du fichier. Enregistrez ensuite le fichier /etc/fstab
.
#File #Device Mount System Mount Dump Pass #to Mount Point Type Options Frequency Number #-------- ------- -------- ------------------------- --------- ------ ... /proc /proc proc defaults sharefs /sharefs samfs shared,noauto 0 0 :wq [sharefs-clientL][root@linux ~]#
Créez le point de montage spécifié dans le fichier /etc/fstab
, puis définissez les autorisations d'accès pour le point de montage.
Les autorisations du point de montage doivent être identiques sur le serveur de métadonnées et tous les autres clients. Les utilisateurs doivent disposer de l'autorisation d'exécution (x
) pour modifier le répertoire de point de montage et accéder aux fichiers dans le système de fichiers monté. Dans cet exemple, nous créons le répertoire de point de montage /sharefs
et définissons les autorisations sur 755
(-rwxr-xr-x
) :
[sharefs-clientL][root@linux ~]# mkdir /sharefs [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
Montez le système de fichiers partagé. Utilisez la commande mount
mountpoint
, où mountpoint
est le point de montage indiqué dans le fichier /etc/fstab
.
Comme illustré dans l'exemple, la commande mount
génère un avertissement. Cela est normal, et cet avertissement peut être ignoré :
[sharefs-clientL][root@linux ~]# mount /sharefs Warning: loading SUNWqfs will taint the kernel: SMI license See http://www.tux.org/lkml/#export-tainted for information about tainted modules. Module SUNWqfs loaded with warnings [sharefs-clientL][root@linux ~]#
Si vous configurez un système de fichiers d'archivage partagé Oracle HSM, effectuez la tâche suivante : Configuration du stockage d'archivage pour un système de fichiers partagé.
Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.
Sinon, passez à la Configuration des notifications et de la journalisation.
Les hôtes individuels ne requièrent pas de fichiers d'hôtes locaux. Le système de fichiers identifie le serveur de métadonnées actif et les interfaces réseau des serveurs de métadonnées actifs et potentiels de tous les hôtes du système de fichiers (voir la Création de fichier d'hôtes sur les serveurs de métadonnées actif et potentiel). Cependant, les fichiers d'hôtes locaux peuvent s'avérer utiles lorsque vous avez besoin de router de manière sélective le trafic réseau entre des hôtes de systèmes de fichiers possédant plusieurs interfaces réseau.
Chaque hôte du système de fichiers identifie les interfaces réseau des autres hôtes sur le serveur de métadonnées. Les noms d'hôte et les adresses IP sont répertoriés dans le fichier des hôtes global pour le système de fichiers, /etc/opt/SUNWsamfs/hosts.
family-set-name
, où family-set-name
est le numéro de la famille du système de fichiers partagé. Ensuite, l'hôte recherche un fichier d'hôtes local, /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
.
S'il n'y a pas de fichier d'hôtes local, l'hôte utilise les adresses d'interfaces spécifiées dans le fichier d'hôtes global. Les hôtes sont utilisés dans l'ordre indiqué par le fichier global.
S'il y a un fichier d'hôtes local, l'hôte le compare avec le fichier global et utilise uniquement les interfaces répertoriées dans les deux fichiers. Les hôtes sont utilisés dans l'ordre indiqué dans le fichier local.
Ainsi, en utilisant des adresses différentes dans chaque fichier, vous pouvez contrôler les interfaces utilisées par différents hôtes. Pour configurer les fichiers d'hôtes locaux, suivez la procédure décrite ci-dessous :
Sur chacun des hôtes de serveurs de métadonnées actif et potentiel, modifiez le fichier d'hôtes global du système de fichiers partagé afin qu'il achemine les communications des serveurs et des hôtes dans la direction souhaitée.
Pour les exemples de cette section, le système de fichiers partagé, sharefs2nics
, comprend un serveur de métadonnées actif, sharefs2-mds
et un serveur de métadonnées potentiel, sharefs2-mds_alt
, possédant chacun deux interfaces réseau. Il y a également deux clients, sharefs2-client1
et sharefs2-client2
.
Nous souhaitons que les serveurs de métadonnées actifs et potentiels communiquent entre eux via des adresses réseau privées et avec les clients via des noms d'hôte que le service DNS (Domain Name Service) peut résoudre en adresses sur le réseau local (LAN) public.
Nous modifions donc /etc/opt/SUNWsamfs/hosts.sharefs2
, le fichier d'hôtes global du système de fichiers. Nous indiquons des adresses d'interface réseau privées pour les serveurs actif et potentiel. Cependant, en ce qui concerne les clients, nous indiquons plutôt les noms d'hôte que les adresses :
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2 # /etc/opt/SUNWsamfs/hosts.sharefs2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 sharefs2-client1 sharefs2-client1 0 0 sharefs2-client2 sharefs2-client2 0 0 :wq [sharefs2-mds]root@solaris:~#
Créez un fichier d'hôtes local sur tous les serveurs de métadonnées actif et potentiels, en utilisant le chemin d'accès et le nom de fichier /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
, où family-set-name
correspond à l'identificateur d'équipement du système de fichiers partagé. Incluez uniquement les interfaces pour les réseaux que vous souhaitez que les serveurs actif et potentiel utilisent.
Dans notre exemple, nous souhaitons que les serveurs de métadonnées actif et potentiel communiquent entre eux via le réseau privé, de sorte que le fichier d'hôtes local sur chaque serveur, hosts.sharefs2.local
, répertorie les adresses privées pour seulement deux hôtes, soit les serveurs de métadonnées actif et potentiel :
[sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2 on sharefs2-mds # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt Password:
[sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-mds_alt # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds 172.16.0.129 1 0 server sharefs2-mds_alt 172.16.0.130 2 0 :wq [sharefs2-mds_alt]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
Créez un fichier d'hôtes local sur chacun des clients, à l'aide du chemin et du nom de fichier /etc/opt/SUNWsamfs/hosts.
family-set-name
.local
, où family-set-name
est l'identificateur d'équipement du système de fichiers partagé. Incluez uniquement les interfaces pour les réseaux que vous souhaitez que les clients utilisent.
Dans cet exemple, nous souhaitons que les clients communiquent avec le serveur uniquement via le réseau public. Le fichier inclut donc uniquement les noms d'hôte de deux hôtes, les serveurs de métadonnées actifs et potentiels :
[sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1 Password: [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client1 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client1]root@solaris:~# exit [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2 Password:
[sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client2 # Server On/ Additional #Host Name Network Interface Ordinal Off Parameters #--------------- ----------------- ------- --- ---------- sharefs2-mds sharefs2-mds 1 0 server sharefs2-mds_alt sharefs2-mds_alt 2 0 :wq [sharefs2-client2]root@solaris:~# exit [sharefs2-mds]root@solaris:~#
Si vous avez démarré cette procédure au moment de terminer la configuration du serveur, passez à la Montage du système de fichiers partagé dans le serveur actif.
Si vous avez démarré cette procédure pendant la configuration d'un client, procédez alors à la tâche décrite à la Montage du système de fichiers partagé sur les clients Solaris.
Pour paramétrer le stockage d'archivage d'un système de fichiers partagé Oracle HSM d'archivage, effectuez les tâches ci-dessous :
Distribution des E/S de bande sur les hôtes du système de fichiers d'archivage partagé (si nécessaire)
Dans un système de fichiers d'archivage partagé, tous les serveurs de métadonnées potentiels doivent accéder à la bibliothèque et aux lecteurs de bande. Si vous décidez de procéder à la distribution des E/S de bande sur les hôtes du système de fichiers d'archivage partagé, un ou plusieurs clients auront également besoin d'accéder aux lecteurs. Vous devez donc configurer chacun de ces hôtes pour qu'il accède de la même façon à chacun des lecteurs.
Le système d'exploitation Solaris connecte les lecteurs à l'arborescence des périphériques du système dans l'ordre dans lequel il découvre les périphériques au démarrage. Cet ordre peut ou non refléter l'ordre dans lequel les périphériques sont découverts par les autres hôtes du système de fichiers, ou l'ordre dans lequel ils sont physiquement installés dans la bibliothèque de médias amovibles. Par conséquent, vous devez lier de façon permanente les périphériques à chaque hôte, de la même manière qu'ils sont liés aux autres hôtes et dans leur ordre d'installation dans la bibliothèque de médias amovibles.
La procédure ci-après présente les étapes nécessaires (si vous souhaitez accéder à la totalité des informations relatives à la création de liaisons permanentes, reportez-vous aux pages de manuel devfsadm
et devlinks
et aux documents d'administration de votre version de système d'exploitation Solaris) :
Connectez-vous au serveur de métadonnées actif en tant qu'utilisateur root
.
[sharefs-mds]root@solaris:~#
Si vous ne connaissez pas l'ordre physique actuel des lecteurs dans la bibliothèque, créez un fichier de mappage, comme décrit dans la Définition de l'ordre d'installation des lecteurs dans la bibliothèque.
Dans cet exemple, le fichier device-mappings.txt
prend la forme suivante :
LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ------------- -------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
Ouvrez le fichier /etc/devlink.tab
dans un éditeur de texte.
Dans cet exemple, nous utilisons l'éditeur de texte vi
:
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. # This is the table used by devlinks # Each entry should have 2 fields; but may have 3. Fields are separated # by single tab ('\t') characters. ...
En vous basant sur le fichier device-mappings.txt
, ajoutez une ligne au fichier /etc/devlink.tab
qui reconfigure un noeud de démarrage dans l'arborescence des périphériques de bande Solaris, rmt/
node-number
, en premier lecteur de la bibliothèque. Entrez la ligne sous le format type=ddi_byte:tape;
addr=
device_address
,0;
rmt/
node-number
\M0
, oùdevice_address
correspond à l'adresse physique du périphérique et node-number
correspond à la position du périphérique dans l'arborescence des périphériques Solaris ; soit une position assez élevée pour éviter les conflits avec les périphériques que Solaris configure automatiquement (Solaris démarre à partir du noeud 0
).
Dans cet exemple, nous notons l'adresse du premier périphérique dans la bibliothèque, 1
, w500104f0008120fe
, et voyons qu'il est actuellement connecté à l'hôte à rmt/1
:
[sharefs-mds] vi /root/device-mappings.txt LIBRARY SOLARIS SOLARIS DEVICE LOGICAL PHYSICAL NUMBER DEVICE DEVICE ------- ----------- --------------------------------------------------------- 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
Nous créons donc une ligne dans /etc/devlink.tab
qui remappe le noeud sans conflit rmt/60
avec le lecteur numéro 1
dans la bibliothèque w500104f0008120fe
:
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved. ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 :w
Continuez à ajouter des lignes au fichier /etc/devlink.tab
pour chaque périphérique à bande affecté pour l'archivage Oracle HSM, de sorte que l'ordre des lecteurs dans l'arborescence des périphériques sur le serveur de métadonnées corresponde à l'ordre d'installation dans la bibliothèque. Enregistrez le fichier.
Dans cet exemple, nous notons l'ordre et les adresses des trois périphériques restants — lecteur de bibliothèque 2
à w500104f00093c438
, lecteur de bibliothèque 3
à w500104f000c086e1
et lecteur de bibliothèque 4
à w500104f000c086e1
:
[sharefs-mds]root@solaris:~# vi /root/device-mappings.txt ... 2 /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn 1 /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn 3 /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn 4 /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
Nous mappons ensuite les adresses des périphériques aux trois noeuds de périphériques Solaris suivants (rmt/61
, rmt/62
et rmt/63
) en conservant l'ordre dans lequel ils apparaissent dans la bibliothèque :
[sharefs-mds]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds]root@solaris:~#
Supprimez tous les liens existants avec les périphériques à bande dans /dev/rmt
.
[sharefs-mds]root@solaris:~# rm /dev/rmt/*
Créez de nouvelles liaisons persistantes avec les périphériques à bande à partir des entrées dans le fichier /etc/devlink.tab
. Exécutez la commande devfsadm -c tape
.
Chaque fois que la commande devfsadm
est exécutée, elle crée de nouvelles liaisons de périphériques à bande pour les périphériques spécifiés dans le fichier /etc/devlink.tab
selon la configuration spécifiée par ce fichier. L'option -c tape
limite la commande à la création de nouvelles liaisons pour les périphériques à bande uniquement :
[sharefs-mds]root@solaris:~# devfsadm -c tape
Créez de nouvelles liaisons persistantes avec les périphériques à bande sur chaque serveur de métadonnées potentiel et Data Mover dans la configuration du système de fichiers partagé. Ajoutez les mêmes lignes au fichier /etc/devlink.tab
, supprimez les liaisons dans /dev/rmt
et exécutez devfsadm
-c
tape
.
Dans l'exemple, nous avons un serveur de métadonnées potentiel, sharefs-mds_alt
et un client Data Mover, sharefs-client1
. Nous modifions donc les fichiers /etc/devlink.tab
sur chacun des deux afin de correspondre à celui du serveur actif, sharefs-mds
. Nous supprimons ensuite les liaisons existantes dans /dev/rmt
sur sharefs-mds_alt
et sharefs-client1
, puis nous exécutons devfsadm
-c
tape
sur chaque :
[sharefs-mds]root@solaris:~# ssh sharefs-mds_alt Password: [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* [sharefs-mds_alt]root@solaris:~# devfsadm -c tape [sharefs-mds_alt]root@solaris:~# exit [sharefs-mds]root@solaris:~# ssh sharefs-client1 Password: [sharefs-client1]root@solaris:~# vi /etc/devlink.tab ... type=ddi_byte:tape;addr=w500104f0008120fe,0; rmt/60\M0 type=ddi_byte:tape;addr=w500104f00093c438,0; rmt/61\M0 type=ddi_byte:tape;addr=w500104f000c086e1,0; rmt/62\M0 type=ddi_byte:tape;addr=w500104f000b6d98d,0; rmt/63\M0 :wq [sharefs-client1]root@solaris:~# rm /dev/rmt/* [sharefs-client1]root@solaris:~# devfsadm -c tape [sharefs-client1]root@solaris:~# exit [sharefs-mds]root@solaris:~#
Procédez ensuite à la configuration des hôtes du système de fichiers d'archivage pour qu'ils utilisent le stockage d'archivage.
Pour le serveur de métadonnées actif et pour chaque serveur de métadonnées potentiel et chaque client Data Mover, procédez comme suit :
Connectez-vous à l'hôte en tant qu'utilisateur root
.
[sharefs-host]root@solaris:~#
Ouvrez le fichier /etc/opt/SUNWsamfs/mcf
dans un éditeur de texte.
Dans l'exemple, nous utilisons l'éditeur de texte vi
.
[sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf sharefs 100 ms sharefs on /dev/dsk/c1t3d0s3 101 md sharefs on /dev/dsk/c1t3d0s4 102 md sharefs on ...
Selon les définitions du système de fichiers figurant dans le fichier /etc/opt/SUNWsamfs/mcf
, commencez une section pour l'équipement de stockage.
Dans l'exemple, nous ajoutons certains en-têtes pour plus de clarté :
[sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf ... # Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ----------------
Pour ajouter un système de stockage sur bandes d'archivage, commencez par ajouter une entrée pour la bibliothèque. Dans le champ de l'identificateur d'équipement, saisissez l'ID de périphérique de la bibliothèque et affectez-lui un numéro ordinal d'équipement :
Dans cet exemple, l'identificateur d'équipement de la bibliothèque est /dev/scsi/changer/c1t0d5
. Nous définissons le nombre ordinal d'équipement sur 900
, qui correspond à l'intervalle suivant celui choisi pour notre archive sur disque :
# Archival storage for copies:
#
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#----------------------- --------- --------- --------- ------ ----------------
/dev/scsi/changer/c1t0d5 900
Définissez le type d'équipement sur rb
, une bibliothèque de bandes générique associée par SCSI, nommez la famille de bibliothèque de bandes et définissez l'état du périphérique sur on
.
Dans cet exemple, nous utilisons la bibliothèque library1
:
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ---------------- /dev/scsi/changer/c1t0d5 900 rb library1 on
Dans la colonne Additional Parameters
, vous pouvez entrer un chemin d'accès et un nom facultatifs et définis par l'utilisateur pour le catalogue de la bibliothèque.
Le chemin d'accès facultatif, non défini par défaut, ne peut pas dépasser 127 caractères. Dans cet exemple, nous utilisons le chemin par défaut var/opt/SUNWsamfs/catalog/
, avec le nom du fichier de catalogue library1cat
défini par l'utilisateur. Notez qu'en raison des limitations de la présentation du document, l'exemple abrège le chemin d'accès :
# Archival storage for copies:
#
# Equipment Equipment Equipment Family Device Additional
# Identifier Ordinal Type Set State Parameters
#----------------------- --------- --------- --------- ------ ----------------
/dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat
Ensuite, ajoutez une entrée pour chaque lecteur de bande. Utilisez les identificateurs d'équipement permanents précédemment établis dans la procédure décrite dans la Connexion des lecteurs de bande au serveur et aux hôtes du Data Mover à l'aide de liaisons permanentes.
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- -------- ------ ----------------- DISKVOL1 800 ms DISKVOL1 on /dev/dsk/c6t0d1s7 801 md DISKVOL1 on /dev/dsk/c4t0d2s7 802 md DISKVOL1 on /dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat /dev/rmt/60cbn 901 tp library1 on /dev/rmt/61cbn 902 tp library1 on /dev/rmt/62cbn 903 tp library1 on /dev/rmt/63cbn 904 tp library1 on
Enfin, si vous souhaitez configurer vous-même un historique Oracle HSM, ajoutez une entrée à l'aide du type d'équipement hy
. Entrez un trait d'union dans les colonnes "family-set" et "device-state", puis saisissez le chemin du catalogue d'historiques dans la colonne "additional-parameters".
L'historique est une bibliothèque virtuelle qui répertorie les volumes exportés depuis l'archive. Si vous ne configurez pas d'historique, le logiciel en crée un automatiquement à l'aide du nombre ordinal le plus élevé plus un (+1).
L'exemple abrège le chemin du catalogue d'historique pour des raisons de mise en forme de la page. Le chemin d'accès complet est /var/opt/SUNWsamfs/catalog/historian_cat
:
# Archival storage for copies: # # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- --------- ------ ---------------- /dev/scsi/changer/c1t0d5 900 rb library1 on ...catalog/library1cat /dev/rmt/60cbn 901 tp library1 on /dev/rmt/61cbn 902 tp library1 on /dev/rmt/62cbn 903 tp library1 on /dev/rmt/63cbn 904 tp library1 on historian 999 hy - - .../historian_cat
Enregistrez le fichier mcf
et quittez l'éditeur.
...
/dev/rmt/3cbn 904 tp library1 on
historian 999 hy - - .../historian_cat
:wq
[sharefs-host]root@solaris:~#
Vérifiez que le fichier mcf
ne contient pas d'erreurs en exécutant la commande sam-fsd
. Corrigez les erreurs trouvées.
La commande sam-fsd
lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur :
[sharefs-host]root@solaris:~# sam-fsd
...
Would start sam-stagealld()
Would start sam-stagerd()
Would start sam-amld()
[sharefs-host]root@solaris:~#
Demandez au service Oracle HSM de relire le fichier mcf
et de se reconfigurer en conséquence. Corrigez les erreurs signalées et si nécessaire, répétez cette procédure.
[sharefs-host]root@solaris:~# samd config Configuring SAM-FS [sharefs-host]root@solaris:~#
Répétez cette procédure jusqu'à ce que tous les serveurs de métadonnées potentiels et actif et tous les clients Data Mover aient été configurés pour utiliser le stockage d'archivage.
Le cas échéant, procédez à la distribution des E/S de bande sur les hôtes du système de fichiers d'archivage partagé.
Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.
Sinon, passez à la Configuration des notifications et de la journalisation.
A compter de la Version 6.1 de Oracle HSM, tout client d'un système de fichiers d'archivage partagé exécuté sous Oracle Solaris 11 ou une version ultérieure peut connecter des lecteurs de bande et traiter les E/S de bande pour le compte du système de fichiers. La distribution des E/S de bande sur ces hôtes Data Mover réduit considérablement la surcharge du serveur, améliore les performances du système de fichiers et permet une flexibilité supérieure lors du développement des implémentations Oracle HSM. Si vos besoins en termes d'archivage augmentent, vous avez à présent la possibilité de remplacer les serveurs de métadonnées Oracle HSM par des systèmes plus puissants (mise à l'échelle verticale) ou de répartir la charge sur davantage de clients (mise à l'échelle horizontale).
Pour distribuer les E/S de bande sur l'ensemble des hôtes de système de fichiers partagé, procédez comme suit :
Connectez tous les périphériques qui seront utilisés pour les E/S vers le serveur de métadonnées du système de fichiers, ainsi que sur l'ensemble des clients de systèmes de fichiers qui géreront les E/S de bande.
Si vous ne l'avez pas encore fait, connectez les lecteurs de bande à chaque client qui servira de Data Mover, à l'aide de liaisons persistantes. Revenez ensuite ici.
Connectez-vous au serveur de métadonnées du système de fichiers d'archivage partagé en tant qu'utilisateur root
.
Dans cet exemple, le nom d'hôte du serveur est samsharefs-mds
:
[samsharefs-mds]root@solaris:~#
Assurez-vous que le serveur de métadonnées exécute Oracle Solaris 11 ou une version ultérieure.
[samsharefs-mds]root@solaris:~# uname -r 5.11 [samsharefs-mds]root@solaris:~#
Assurez-vous que tous les clients servant de Data Mover exécutent Oracle Solaris 11 ou une version ultérieure.
Dans cet exemple, nous nous connectons aux hôtes client samsharefs-client1
et samsharefs-client2
à distance via le protocole ssh
et obtenons la version Solaris dans la bannière de connexion :
[samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client1]root@solaris:~# exit [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [samsharefs-client2]root@solaris:~# exit [samsharefs-mds]root@solaris:~#
Calculez la quantité de mémoire système qui peut être allouée en tant qu'espace de tampon pour chaque lecteur de bande dans la configuration d'E/S distribuée. Divisez la mémoire disponible totale par le nombre de lecteurs en soustrayant une marge de sécurité adaptée :
(total-memory bytes)/(drive-count drives) = memory bytes/drive (memory bytes/drive) - (safe-margin bytes/drive) = buffsize bytes/drive
Oracle HSM alloue un tampon pour chaque lecteur utilisé. Par conséquent, veillez à ne pas configurer par inadvertance plus d'espace de tampon que la mémoire système peut fournir. Dans cet exemple, nous constatons qu'il n'est pas possible d'allouer plus de 224 kilo-octets par lecteur. Nous arrondissons donc à 128 pour conserver une marge de sécurité.
((3584 kilobytes)/(16 drives)) = 224 kilobytes/drive
buffsize = 128 kilobytes/drive
Après avoir calculé la taille du tampon pouvant être alloué à chaque lecteur, calculez une taille de bloc pour le périphérique Oracle HSM et un nombre de blocs adaptés au tampon de la taille indiquée.
(number blocks/buffer)*block-size bytes/block/drive = buffersize bytes/drive
Faites varier le nombre et la taille des blocs jusqu'à ce que le produit des deux soit inférieur ou égal à la taille de tampon calculée. Le nombre de blocs doit être compris entre [2-8192]
. Dans cet exemple, nous avons choisi deux blocs de 64 kilo-octets pour chaque tampon :
(2 blocks/buffer)*(64 kilobytes/block/drive) = 128 kilobytes/drive
Sur le serveur de métadonnées, ouvrez le fichier /etc/opt/SUNWsamfs/archiver.cmd
dans un éditeur de texte. Sur une nouvelle ligne de la section des directives générales en haut du fichier, entrez bufsize =
media-type
media-blocks
, où :
media-type
est le code de type que le fichier mcf
attribue aux lecteurs et médias utilisés pour les E/S distribuées.
media-blocks
est le nombre de blocs par tampon calculé précédemment.
Enregistrez le fichier et fermez l'éditeur de texte.
Dans cet exemple, nous nous connectons au serveur samsharefs-mds
et utilisons l'éditeur vi
pour ajouter la ligne bufsize
=
ti
2
, où ti
est le type de média pour les lecteurs Oracle StorageTek T10000 utilisés et 2
est le nombre de blocs par tampon de lecteur que nous avons calculé :
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd #----------------------------------------------------------------------- # General Directives archivemeta = off examine = noscan bufsize = ti 2 :wq [samsharefs-mds]root@solaris:~#
Sur le serveur de métadonnées, ouvrez le fichier /etc/opt/SUNWsamfs/defaults.conf
dans un éditeur de texte. Pour chaque type de média qui prendra part aux E/S distribuées, entrez une ligne sous la forme media-type
_blksize =
size
où :
media-type
est le code de type que le fichier mcf
attribue aux lecteurs et médias utilisés pour les E/S distribuées.
size
correspond à la taille de bloc calculée précédemment au cours de la procédure.
Par défaut, la taille de bloc de périphérique pour les lecteurs StorageTek T10000 est de 2 méga-octets ou 2 048 kilo-octets (ti_blksize = 2048
). Dans cet exemple, nous remplaçons donc la valeur par défaut par la taille de bloc calculée, 64 kilo-octets :
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf # These are the defaults. To change the default behavior, uncomment the # appropriate line (remove the '#' character from the beginning of the line) # and change the value. ... #li_blksize = 256 ti_blksize = 64 [samsharefs-mds]root@solaris:~#
Dans le fichier /etc/opt/SUNWsamfs/defaults.conf
, supprimez la mise en commentaire de la ligne #distio = off
le cas échéant, ou ajoutez la ligne si elle n'est pas présente.
Par défaut, distio
est off
(désactivé). Dans cet exemple, nous ajoutons la ligne distio = on
:
...
distio = on
Dans le fichier /etc/opt/SUNWsamfs/defaults.conf
, activez chaque type de périphérique devant participer aux E/S distribuées. Sur une nouvelle ligne, entrez media-type
_distio = on
, où media-type
est le code de type que le fichier mcf
attribue aux lecteurs et médias.
Par défaut, les lecteurs StorageTek T10000 et les lecteurs LTO sont autorisés à participer aux E/S distribuées (ti_distio = on
et li_distio = on
), tandis que tous les autres types sont exclus. Dans cet exemple, nous incluons explicitement les lecteurs StorageTek T10000 :
...
distio = on
ti_distio = on
Dans le fichier /etc/opt/SUNWsamfs/defaults.conf
, désactivez chaque type de périphérique ne devant pas participer aux E/S distribuées. Sur une nouvelle ligne, entrez media-type
_distio = off
, où media-type
est le code de type que le fichier mcf
attribue aux lecteurs et médias.
Dans l'exemple, nous excluons les lecteurs LTO :
...
distio = on
ti_distio = on
li_distio = off
Lorsque vous avez terminé de modifier le fichier /etc/opt/SUNWsamfs/defaults.conf
, enregistrez le contenu et fermez l'éditeur.
...
distio = on
ti_distio = on
li_distio = off
:wq
[samsharefs-mds]root@solaris:~#
Sur chaque client qui servira de Data Mover, modifiez le fichier defaults.conf
afin qu'il corresponde au fichier sur le serveur.
Sur chaque client qui servira de Data Mover, ouvrez le fichier /etc/opt/SUNWsamfs/mcf
dans un éditeur de texte et mettez à jour le fichier pour y inclure tous les périphériques de stockage sur bande utilisés par le serveur de métadonnées pour les E/S de bande distribuées. Assurez-vous que les numéros d'ordre et d'équipement sont identiques à ceux du fichier mcf
sur le serveur de métadonnées.
Dans l'exemple, nous utilisons l'éditeur vi
pour configurer le fichier mcf
sur l'hôte samsharefs-client1
:
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti on /dev/rmt/61cbn 902 ti on /dev/rmt/62cbn 903 ti on /dev/rmt/63cbn 904 ti on
Si la bibliothèque de bandes répertoriée dans le fichier /etc/opt/SUNWsamfs/mcf
sur le serveur de métadonnées est configurée sur le client qui servira de Data Mover, spécifiez la famille de bibliothèques comme nom de famille pour les périphériques à bande utilisés pour les E/S de bande distribuées. Enregistrez le fichier.
Dans cet exemple, la bibliothèque est configurée sur l'hôte samsharefs-client1
, de sorte que nous utilisons le nom de famille library1
pour les périphériques à bande.
[samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/scsi/changer/c1t0d5 900 rb library1 on .../library1cat /dev/rmt/60cbn 901 ti library1 on /dev/rmt/61cbn 902 ti library1 on /dev/rmt/62cbn 903 ti library1 on /dev/rmt/63cbn 904 ti library1 on :wq [samsharefs-client1]root@solaris:~#
Si la bibliothèque de bandes répertoriée dans le fichier /etc/opt/SUNWsamfs/mcf
sur le serveur de métadonnées n'est pas configurée sur le client qui servira de Data Mover, utilisez un trait d'union (-
) comme nom de famille pour les périphériques à bande utilisés pour les E/S de bande distribuées. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.
Dans l'exemple, la bibliothèque n'est pas configurée sur l'hôte samsharefs-client2
, c'est pourquoi nous utilisons le tiret comme nom de famille pour les périphériques à bande :
[samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf # Equipment Equipment Equipment Family Device Additional # Identifier Ordinal Type Set State Parameters #----------------------- --------- --------- ---------- ------ -------------- samsharefs 800 ms samsharefs on ... # Archival storage for copies: /dev/rmt/60cbn 901 ti - on /dev/rmt/61cbn 902 ti - on /dev/rmt/62cbn 903 ti - on /dev/rmt/63cbn 904 ti - on :wq [samsharefs-client2]root@solaris:~#
S'il est nécessaire d'activer ou de désactiver les E/S de bande distribuées pour les copies d'un groupe d'archives particulier, connectez-vous au serveur, ouvrez le fichier /etc/opt/SUNWsamfs/archiver.cmd
dans un éditeur de texte et ajoutez le paramètre -distio
à l'intérieur de cette directive de copie. Définissez -distio
sur on
pour activer les E/S distribuées ou définissez -distio
sur off
pour les désactiver. Enregistrez le fichier.
Dans l'exemple, nous nous connectons au serveur samsharefs-mds
et utilisons l'éditeur vi
pour définir les E/S distribuées sur off
pour la copie 1
:
[samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd # archiver.cmd ... params allsets -sort path -offline_copy stageahead allfiles.1 -startage 10m -startsize 500M -startcount 500000 -distio off allfiles.2 -startage 24h -startsize 20G -startcount 500000 -reserve set :wq [samsharefs-mds]root@solaris:~#
Vérifiez les erreurs dans les fichiers de configuration en exécutant la commande sam-fsd
. Corrigez les erreurs trouvées.
La commande sam-fsd
lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous exécutons la commande sur le serveur, sharefs-mds
:
[sharefs-mds]root@solaris:~# sam-fsd
Demandez au service Oracle HSM de lire les fichiers de configuration modifiés et de se reconfigurer en conséquence. Corrigez les erreurs signalées et si nécessaire, répétez cette procédure.
[sharefs-mds]root@solaris:~# samd config
Pour vérifier que l'activation des E/S distribuées a réussi, utilisez la commande samcmd
g
. Si l'indicateur DATAMOVER
s'affiche dans la sortie des clients, les E/S distribuées ont été activées avec succès.
Dans l'exemple, l'indicateur est présent :
[samsharefs-mds]root@solaris:~# samcmd g Shared clients samcmd 6.0.dist_tapeio 11:09:13 Feb 20 2014 samcmd on samsharefs-mds samsharefs is shared, server is samsharefs-mds, 2 clients 3 max ord hostname seqno nomsgs status config conf1 flags 1 samsharefs-mds 14 0 8091 808540d 4051 0 MNT SVR config : CDEVID ARCHIVE_SCAN GFSID OLD_ARCHIVE_FMT " : SYNC_META TRACE SAM_ENABLED SHARED_MO config1 : NFSV4_ACL MD_DEVICES SMALL_DAUS SHARED_FS flags : status : MOUNTED SERVER SAM DATAMOVER last_msg : Wed Jul 2 10:13:50 2014 2 samsharefs-client1 127 0 a0a1 808540d 4041 0 MNT CLI config : CDEVID ARCHIVE_SCAN GFSID OLD_ARCHIVE_FMT " : SYNC_META TRACE SAM_ENABLED SHARED_MO config1 : NFSV4_ACL MD_DEVICES SHARED_FS flags : status : MOUNTED CLIENT SAM SRVR_BYTEREV " : DATAMOVER ...
Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.
Sinon, passez à la Configuration des notifications et de la journalisation.
Plusieurs hôtes peuvent accéder aux systèmes de fichiers Oracle HSM à l'aide des partages NFS (Network File System) ou SMB (Server Message Block)/CIFS (Common Internet File System) à la place ou en complément de la prise en charge native du logiciel Oracle HSM de l'accès au système de fichiers par des hôtes multiples (voir la Accès aux systèmes de fichiers à partir de plusieurs hôtes à l'aide du logiciel Oracle HSM). Les sections suivantes décrivent les étapes de configuration de base :
Effectuez les tâches suivantes :
Désactivez la délégation avant d'utiliser NFS 4 pour partager un système de fichiers Oracle HSM
Configuration des serveurs et clients NFS pour qu'ils partagent les répertoires et fichiers WORM (le cas échéant)
Partage du système de fichiers Oracle HSM en tant que partage NFS
Montage du système de fichiers Oracle HSM partagé NFS sur les clients NFS
Si vous utilisez NFS pour partager un système de fichiers partagé Oracle HSM, vous devez vous assurer que le logiciel Oracle HSM contrôle l'accès aux fichiers sans interférence de la part de NFS. Cela ne pose généralement pas problème, car lorsque le serveur NFS accède aux fichiers pour le compte de ses clients, il le fait en tant que client du système de fichiers partagé Oracle HSM. Toutefois, des problèmes peuvent survenir si les serveurs dotés de la version 4 de NFS sont configurés pour déléguer le contrôle des accès en lecture et en écriture à leurs clients. La délégation est intéressante dans la mesure où le serveur n'a à intervenir que pour parer des conflits potentiels. La charge de travail du serveur est en partie distribuée sur les clients NFS, et le trafic du réseau est réduit. Mais la délégation accorde l'accès, notamment l'accès en écriture, indépendamment du serveur Oracle HSM, qui contrôle également l'accès à partir de ses propres clients de système de fichiers. Pour éviter les conflits et une altération potentielle de fichiers, vous devez désactiver la délégation. Procédez comme suit :
Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez configurer en tant que partage NFS. Connectez-vous en tant que root
.
Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfsnfs
.
[qfsnfs]root@solaris:~#
Si vous utilisez NFS version 4 et que le serveur exécute Solaris 11.1 ou une version ultérieure, utilisez la commande sharectl
set
-p
de l'utilitaire de gestion des services (SMF, Service Management Facility) pour régler la propriété server_delegation
de NFS sur off
.
[qfsnfs]root@solaris:~# sharectl set -p server_delegation=off
Si vous utilisez NFS version 4 et que le serveur exécute Solaris 11.0 ou une version antérieure, désactivez les délégations en ouvrant le fichier /etc/default/nfs
dans un éditeur de texte et en définissant le paramètre NFS_SERVER_DELEGATION
sur off
. Enregistrez le fichier et fermez l'éditeur de texte.
Dans cet exemple, nous utilisons l'éditeur de texte vi
:
[qfsnfs]root@solaris:~# vi /etc/default/nfs # ident "@(#)nfs 1.10 04/09/01 SMI" # Copyright 2004 Sun Microsystems, Inc. All rights reserved. # Use is subject to license terms. ... NFS_SERVER_DELEGATION=off :wq [qfsnfs]root@solaris:~#
Si le système de fichiers Oracle HSM que vous avez l'intention de partager prend en charge la fonction WORM (Write-Once Read-Many), procédez maintenant à la configuration des serveurs et clients NFS pour qu'ils partagent les répertoires et fichiers WORM.
Sinon, procédez à la configuration du serveur NFS sur l'hôte Oracle HSM.
Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez partager à l'aide de NFS. Connectez-vous en tant que root
.
Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfsnfs
et le nom du client nfsclient1
.
[qfsnfs]root@solaris:~#
Si le système de fichiers Oracle HSM que vous avez l'intention de partager utilise la fonction WORM et est hébergé sur un serveur en cours d'exécution sous Oracle Solaris 10 ou version ultérieure, assurez-vous que NFS version 4 est activé sur le serveur NFS et sur tous les clients.
Dans l'exemple, nous vérifions le serveur qfsnfs
et le client qfsnfsclient1
. Dans chaque cas, nous vérifions d'abord le niveau de la version de Solaris à l'aide de la commande uname
-r
. Nous traitons la sortie de la commande modinfo
vers la commande grep
et une expression régulière qui trouve les informations de version de NFS :
[qfsnfs]root@solaris:~# uname -r 5.11 [qfsnfs]root@solaris:~# modinfo | grep -i "nfs.* version 4" 258 7a600000 86cd0 28 1 nfs (network filesystem version 4) [qfsnfs]root@solaris:~# ssh root@nfsclient1 Pasword: ... [nfsclient1]root@solaris:~# uname -r 5.11 [nfsclient1]root@solaris:~# modinfo | grep -i "nfs.* version 4" 278 fffffffff8cba000 9df68 27 1 nfs (network filesystem version 4) [nfsclient1]root@solaris:~# exit [qfsnfs]root@solaris:~#
Si la version 4 de NFS n'est pas activée sur un serveur en cours d'exécution sous Oracle Solaris 10 ou une version ultérieure, connectez-vous sur le serveur et sur chaque client en tant qu'utilisateur root
. Utilisez alors la commande sharectl
set
pour activer NFS 4 :
[qfsnfs]root@solaris:~# sharectl set -p server_versmax=4 nfs [qfsnfs]root@solaris:~# ssh root@nfsclient1 Password ... [nfsclient1]root@solaris:~# sharectl set -p server_versmax=4 nfs [nfsclient1]root@solaris:~# exit [qfsnfs]root@solaris:~#
Procédez ensuite à la configuration du serveur NFS sur l'hôte Oracle HSM.
Avant que les clients puissent correctement monter un système de fichiers Oracle HSM à l'aide de NFS, vous devez configurer le serveur NFS afin qu'il n'essaie pas de partager ce système de fichiers Oracle HSM avant qu'il ne soit monté avec succès sur l'hôte. Sous Oracle Solaris 10 et les versions ultérieures du système d'exploitation, l'utilitaire de gestion des services (SMF) gère le montage des systèmes de fichiers au moment de l'initialisation. Si vous ne configurez pas NFS à l'aide de la procédure ci-dessous, le montage QFS ou le partage NFS réussira, et l'autre échouera.
Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez configurer en tant que partage NFS. Connectez-vous en tant que root
.
Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfsnfs
.
[qfsnfs]root@solaris:~#
Exportez la configuration NFS existante dans un fichier manifeste XML en redirigeant la sortie de la commande svccfg
export
/network/nfs/server
.
Dans l'exemple, nous dirigeons la configuration exportée vers le fichier manifeste /var/tmp/server.xml
:
[qfsnfs]root@solaris:~# svccfg export /network/nfs/server > /var/tmp/server.xml [qfsnfs]root@solaris:~#
Ouvrez le fichier manifeste dans un éditeur de texte, puis localisez la dépendance filesystem-local
.
Dans cet exemple, nous ouvrons le fichier dans l'éditeur vi
. L'entrée de la dépendance filesystem-local
est listée juste avant l'entrée du nfs-server_multi-user-server
dépendant :
[qfsnfs]root@solaris:~# vi /var/tmp/server.xml <?xml version='1.0'?> <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'> <service_bundle type='manifest' name='export'> <service name='network/nfs/server' type='service' version='0'> ... <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/system/filesystem/local'/> </dependency> <dependent name='nfs-server_multi-user-server' restart_on='none' grouping='optional_all'> <service_fmri value='svc:/milestone/multi-user-server'/> </dependent> ...
Juste après la dépendance filesystem-local
, ajoutez une dépendance qfs
qui monte le système de fichiers partagé QFS. Enregistrez ensuite le fichier et quittez l'éditeur.
Cette procédure permet de monter le système de fichiers partagé Oracle HSM avant que le serveur tente de le partager via NFS :
<?xml version='1.0'?> <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'> <service_bundle type='manifest' name='export'> <service name='network/nfs/server' type='service' version='0'> ... <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/system/filesystem/local'/> </dependency> <dependency name='qfs' grouping='require_all' restart_on='error' type='service'> <service_fmri value='svc:/network/qfs/shared-mount:default'/> </dependency> <dependent name='nfs-server_multi-user-server' restart_on='none' grouping='optional_all'> <service_fmri value='svc:/milestone/multi-user-server'/> </dependent> :wq [qfsnfs]root@solaris:~#
Validez le fichier manifeste à l'aide de la commande svccfg
validate
.
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
Si la commande svccfg
validate
signale des erreurs, corrigez les erreurs, puis validez à nouveau le fichier.
Dans l'exemple, la commande svccfg
validate
renvoie des erreurs d'analyse XML. Nous avons omis par inadvertance une balise de fin </dependency>
lors de l'enregistrement du fichier. Nous devons donc l'ouvrir à nouveau dans l'éditeur de texte vi
et corriger le problème :
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml /var/tmp/server.xml:75: parser error : Opening and ending tag mismatch: dependency line 29 and service </service> ˆ /var/tmp/server.xml:76: parser error : expected '>' </service_bundle> ˆ /var/tmp/server.xml:77: parser error : Premature end of data in tag service_bundle line 3 ˆ svccfg: couldn't parse document [qfsnfs]root@solaris:~# vi /var/tmp/server.xml ... :wq [qfsnfs]root@solaris:~#
Une fois la commande svccfg
validate
effectuée sans erreur, désactivez NFS avec la commande svcadm
disable
nfs/server
.
Dans cet exemple, la commande svccfg
validate
n'a renvoyé aucune sortie, le fichier est donc valide et nous pouvons désactiver NFS :
[qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml [qfsnfs]root@solaris:~# svcadm disable nfs/server
Supprimez la configuration existante du serveur NFS à l'aide de la commande svccfg
delete
nfs/server
.
[qfsnfs]root@solaris:~# svccfg delete nfs/server
Importez le fichier manifeste dans l'utilitaire de gestion des services SMF à l'aide de la commande svccfg
import
.
[qfsnfs]root@solaris:~# svccfg import /var/tmp/server.xml
Réactivez NFS à l'aide de la commande svcadm
enable
nfs/server
.
NFS est configuré pour l'utilisation d'une configuration mise à jour.
[qfsnfs]root@solaris:~# svcadm enable nfs/server
Confirmez que la dépendance qfs
a été appliquée. Assurez-vous que la commande svcs
-d
svc:/network/nfs/server:default
affiche le service /network/qfs/shared-mount:default
:
[qfsnfs]root@solaris:~# svcs -d svc:/network/nfs/server:default STATE STIME FMRI ... online Nov_01 svc:/network/qfs/shared-mount:default ...
Procédez ensuite au partage du système de fichiers Oracle HSM en tant que partage NFS.
Partagez le système de fichiers Oracle HSM en appliquant les procédures décrites dans la documentation d'administration relative à votre version du système d'exploitation Oracle Solaris. Les étapes ci-dessous récapitulent la procédure pour Solaris 11.1 :
Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez partager à l'aide de NFS. Connectez-vous en tant que root
.
Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfsnfs
.
[qfsnfs]root@solaris:~#
Entrez la ligne de commande share
-F
nfs
-o
sharing-options
sharepath
, où le commutateur -F
indique le protocole de partage nfs
et sharepath
est le chemin de la ressource partagée. Si le paramètre facultatif -o
est utilisé, sharing-options
peut inclure l'une des options suivantes :
rw
met sharepath
à la disposition de tous les clients avec les privilèges de lecture et d'écriture.
ro
met sharepath
à la disposition de tous les clients avec des privilèges de lecture seule.
rw=
clients
met sharepath
à la disposition des clients
avec des privilèges de lecture et d'écriture, une liste d'au moins un client ayant accès au partage, séparés par des virgules.
ro=
clients
met sharepath
à la disposition des clients
avec des privilèges de lecture seule, une liste d'au moins un client ayant accès au partage, séparés par des virgules.
Dans cet exemple, nous partageons la lecture/écriture du système de fichiers/qfsms
avec les clients nfsclient1
et nfsclient2
, et la lecture seule avec nfsclient3
(Notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :
[qfsnfs]root@solaris:~# share -F nfs -o rw=nfsclient1:nfsclient2 \ ro=nfsclient3 /qfsms
Lorsque vous entrez la commande, le système redémarre automatiquement le démon du serveur NFS nfsd
. Reportez-vous à la page de manuel share_nfs
pour accéder aux détails et options supplémentaires.
Vérifiez les paramètres de partage à l'aide de ligne de commande share
-F
nfs
.
Dans l'exemple, la sortie de la commande montre que nous avons correctement configuré le partage :
[qfsnfs]root@solaris:~# share -F nfs /qfsms sec=sys,rw=nfsclient1:nfsclient2,ro=nfsclient3 [qfsnfs]root@solaris:~#
Procédez ensuite au montage du système de fichiers Oracle HSM partagé NFS sur les clients NFS.
Montez le système de fichiers du serveur NFS sur un point de montage approprié sur les systèmes clients. Pour chaque client, procédez comme suit :
Connectez-vous au client en tant qu'utilisateur root
.
Dans l'exemple, le client NFS s'appelle nfsclient1
:
[nfsclient1]root@solaris:~#
Sauvegardez le fichier /etc/vfstab
du système d'exploitation.
[nfsclient1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup [nfsclient1]root@solaris:~#
Ouvrez le fichier /etc/vfstab
dans un éditeur de texte.
Dans l'exemple, nous utilisons l'éditeur de texte vi
.
[nfsclient1]root@solaris:~# vi /etc/vfstab #File Device Mount #Device to Mount System fsck at Mount #to Mount fsck Point Type Pass Boot Options #------------ ------ --------- ------ ---- ----- ---------------- /devices - /devices devfs - no - ...
Dans la première colonne du fichier /etc/vfstab
, nommez le périphérique que vous souhaitez monter en indiquant par deux-points (:) le nom du serveur NFS et le point de montage du système de fichiers que vous souhaitez partager.
Dans l'exemple, le serveur NFS est appelé qfsnfs
, le système de fichiers partagé est appelé qfsms
et le point de montage sur le serveur est /qfsms
:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms
Dans la deuxième colonne du fichier /etc/vfstab
, saisissez un trait d'union (-
) afin que le système local ne tente pas de vérifier la cohérence du système de fichiers distant :
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms -
Dans la troisième colonne du fichier /etc/vfstab
, saisissez le point de montage local sur lequel vous allez monter le système de fichiers distant.
Dans l'exemple, le point de montage sera le répertoire /qfsnfs
:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs
Dans la quatrième colonne du fichier /etc/vfstab
, saisissez le type de système de fichiers nfs
.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs
Nous utilisons le type de système de fichiers nfs
car le client monte le système de fichiers distant QFS en tant que système de fichiers NFS.
Dans la cinquième colonne du fichier /etc/vfstab
, saisissez un trait d'union (-
) car le système local ne vérifie pas l'intégrité du système de fichiers distant.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs -
Dans la sixième colonne du fichier /etc/vfstab
, saisissez yes
pour monter le système de fichiers distant à l'initialisation, ou no
pour le monter manuellement ou à la demande.
Dans l'exemple, nous avons saisi yes
:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes
Dans la dernière colonne du fichier /etc/vfstab
, saisissez les options de montage NFS hard
et intr
pour forcer les nouvelles tentatives de façon illimitée et ininterrompue, ou définissez un nombre de nouvelles tentatives en saisissant les options de montage soft
, retrans
et timeo
avec retrans
définie sur 120
ou plus, et timeo
définie sur 3000
dixièmes de seconde.
La définition de l'option de nouvelle tentative sur hard
ou l'indication de l'option soft
avec un délai d'expiration et un nombre de nouvelles tentatives suffisants empêchent les demandes NFS d'échouer lorsque les fichiers demandés sont situés sur des volumes amovibles qui ne peuvent pas être immédiatement montés. Reportez-vous à la page de manuel mount_nfs
de Solaris pour plus d'informations sur ces options de montage.
Dans l'exemple, nous saisissons l'option de montage soft
:
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes soft,retrans=120,timeo=3000
Si vous utilisez NFS 2, définissez le paramètre de montage rsize
sur 32768
.
Pour les autres versions de NFS, acceptez la valeur par défaut.
Le paramètre de montage rsize
définit la taille du tampon de lecture sur 32768
octets (la valeur par défaut étant de 8192
octets). L'exemple donne un aperçu de la configuration NFS 2 :
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs2:/qfs2 - /qfsnfs2 nfs - yes ...,rsize=32768
Si vous utilisez NFS 2, définissez le paramètre de montage wsize
sur 32768
.
Pour les autres versions de NFS, acceptez la valeur par défaut.
Le paramètre de montage wsize
définit la taille du tampon d'écriture en lui attribuant la valeur d'octets précisée (elle est par défaut de 8192
octets). L'exemple donne un aperçu de la configuration NFS 2 :
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs2:/qfs2 - /qfsnfs2 nfs - yes ...,wsize=32768
Enregistrez le fichier /etc/vfstab
et quittez l'éditeur de texte.
#File Device Mount
#Device to Mount System fsck at Mount
#to Mount fsck Point Type Pass Boot Options
#------------ ------ --------- ------ ---- ----- ----------------
/devices - /devices devfs - no -
...
qfsnfs:/qfsms - /qfsnfs nfs - yes soft,retrans=120,timeo=3000
:wq
[nfsclient1]root@solaris:~#
Créez un répertoire de point de montage pour le système de fichiers partagé.
Dans l'exemple, nous allons monter le système de fichiers partagé sur un répertoire appelé /qfsnfs
:
[nfsclient1]root@solaris:~# mkdir /qfsnfs [nfsclient1]root@solaris:~#
Créez le point de montage spécifié dans le fichier /etc/vfstab
, puis définissez les autorisations d'accès pour le point de montage.
Les utilisateurs doivent disposer de l'autorisation d'exécution (x
) pour modifier le répertoire de point de montage et accéder aux fichiers dans le système de fichiers monté. Dans l'exemple, nous créons le répertoire /qfsnfs
et définissons les autorisations sur 755
(-rwxr-xr-x
) :
[nfsclient1]root@solaris:~# mkdir /qfsnfs [nfsclient1]root@solaris:~# chmod 755 /qfsnfs [nfsclient1]root@solaris:~#
Montez le système de fichiers partagé :
[nfsclient1]root@solaris:~# mount /qfsnfs [nfsclient1]root@solaris:~#
Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.
Sinon, passez à la Configuration des notifications et de la journalisation.
SMB permet de rendre Oracle HSM accessible aux hôtes Microsoft Windows et permet une interaction des fonctionnalités, telles que la prise en charge de non-respect de la casse, des attributs DOS et des listes de contrôle d'accès NFSv4 (ACL). Le SE Oracle Solaris propose une implémentation serveur et client du protocole SMB (Server Message Block), laquelle prend en charge de nombreux dialectes SMB dont NT LM 0.12 et CIFS (Common Internet File System).
Oracle HSM prend en charge les identifiants de sécurité Windows (SID). Les identités Windows n'ont plus besoin d'être explicitement définies à l'aide du service idmap
ou fournies par le service Active Directory.
Pour configurer le service SMB avec des systèmes de fichiers Oracle HSM, procédez comme suit :
Consultation de la documentation de configuration et d'administration d'Oracle Solaris SMB.
Mappage explicite des identités Windows pour le serveur SMB (facultatif).
Configuration du partage des systèmes de fichiers Oracle HSM à l'aide de SMB/CIFS.
Configuration du serveur SMB pour les groupes de travail ou les domaines Windows Active Directory.
Partage du système de fichiers Oracle HSM en tant que partage SMB/CIFS.
Les sections ci-dessous abordent les parties de la configuration SMB telles qu'appliquées aux systèmes de fichiers Oracle HSM Elles ne sont pas exhaustives, et ne couvrent pas tous les scénarios possibles. Consultez toutes les instructions nécessaires en vue de configurer des serveurs Oracle Solaris SMB, d'intégrer les serveurs dans un environnement Windows et de monter des partages SMB sur des systèmes Solaris. Vous trouverez les instructions complètes dans le volume Managing SMB and Windows Interoperability in Oracle Solaris de la bibliothèque d'informations Oracle Solaris.
Même si Oracle HSM prend désormais entièrement en charge les SID (identificateurs de sécurité) Windows, une définition explicite des relations entre les identités UNIX et les SID continue de s'avérer avantageuse dans certains cas. Par exemple, dans des environnements hétérogènes où les utilisateurs ont à la fois des identités UNIX et Windows, vous pourrez souhaiter créer des mappages explicites en utilisant le service idmap
ou le service Active Directory. Pour obtenir des informations complètes sur SMB et l'interopérabilité Windows, reportez-vous à la documentation de votre version d'Oracle Solaris.
Les systèmes de fichiers Oracle HSM partagés à l'aide de SMB/CIFS doivent utiliser la nouvelle implémentation de liste de contrôle d'accès (ACL) adoptée par Network File System (NFS) version 4 et introduite dans Solaris 11 Oracle. Les versions antérieures de Solaris et NFS utilisaient des ACL basées sur une spécification POSIX-draft qui n'est pas compatible avec l'implémentation Windows des ACL.
Les nouveaux systèmes de fichiers que vous créez avec Oracle HSM utilisent par défaut les ACL NFS version 4 sur Solaris 11. En revanche, si vous devez partager des systèmes de fichiers Oracle HSM existants avec des clients SMB/CIFS, vous devez convertir les ACL au format de style POSIX en appliquant la procédure appropriée :
Conversion d'un système de fichiers partagé Oracle HSM qui utilise des ACL au format de style POSIX.
Procédez comme suit :
Connectez-vous à l'hôte en tant qu'utilisateur root
.
Dans l'exemple, nous nous connectons à l'hôte qfs-host
[qfs-host]root@solaris:~#
Assurez-vous que l'hôte s'exécute sous Oracle Solaris 11.1 ou une version supérieure. Utilisez la commande uname
-r
.
[qfs-host]root@solaris:~# uname -r 5.11 [qfs-host]root@solaris:~#
Démontez le système de fichiers à l'aide de la commande umount
mount-point
, où mount-point
est le point de montage du système de fichiers Oracle HSM.
Pour plus d'informations, reportez-vous à la page de manuel umount_samfs
. Dans les exemples ci-après, le nom du serveur est qfs-host
et celui du système de fichiers est /qfsms
:
[qfs-host]root@solaris:~# umount /qfsms
Convertissez le système de fichiers à l'aide de la commande samfsck
-F
-A
file-system
, où l'option -F
indique une vérification et une réparation du système de fichiers, l'option -A
indique la conversion des ACL et file-system
est le nom du système de fichiers à convertir.
L'option -F
est nécessaire lorsque l'option -A
est indiquée. Si la commande samfsck
-F
-A
renvoie des erreurs, le processus est abandonné et aucune ACL n'est convertie (pour des descriptions complètes de ces options, reportez-vous à la page de manuel samfsck
).
[qfs-host]root@solaris:~# samfsck -F -A /qfsms
Si des erreurs sont renvoyées et qu'aucune ACL n'est convertie, utilisez la commande samfsck
-F
-a
file-system
pour forcer la conversion des ACL.
L'option -a
indique une conversion forcée. L'option -F
est nécessaire lorsque l'option -a
est spécifiée (pour des descriptions complètes de ces options, reportez-vous à la page de manuel samfsck
).
[qfs-host]root@solaris:~# samfsck -F -a /qfsms
Procédez maintenant à la configuration du serveur SMB pour les groupes de travail ou les domaines Windows Active Directory.
Connectez-vous au serveur de métadonnées du système de fichiers en tant qu'utilisateur root
.
Dans l'exemple, nous nous connectons au serveur de métadonnées sharedqfs-mds
:
[sharedqfs-mds]root@solaris:~#
Assurez-vous que le serveur de métadonnées exécute Oracle Solaris 11.1 ou une version supérieure. Utilisez la commande uname
-r
.
[sharedqfs-mds]root@solaris:~# uname -r 5.11 [sharedqfs-mds]root@solaris:~#
Connectez-vous à chaque client Oracle HSM en tant qu'utilisateur root
, puis assurez-vous que chaque client exécute Oracle Solaris 11.1 ou une version supérieure.
Dans l'exemple, nous ouvrons une fenêtre de terminal et nous connectons à distance à sharedqfs-client1
et sharedqfs-client2
en utilisant ssh
pour obtenir la version de Solaris à partir de la bannière de connexion :
[sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client1 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client1]root@solaris:~# [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client2 Password: Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client2]root@solaris:~#
Démontez le système de fichiers partagé Oracle HSM depuis chaque client Oracle HSM à l'aide de la commande umount
mount-point
, où mount-point
est le point de montage du système de fichiers Oracle HSM.
Pour plus d'informations, reportez-vous à la page de manuel umount_samfs
. Dans cet exemple, nous démontons /sharedqfs1
à partir de nos deux clients, sharefs-client1
et sharefs-client2
:
Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client1]root@solaris:~# umount /sharedqfs [sharedqfs-client1]root@solaris:~# Oracle Corporation SunOS 5.11 11.1 September 2013 [sharedqfs-client2]root@solaris:~# umount /sharedqfs [sharedqfs-client1]root@solaris:~#
Démontez le système de fichiers partagé Oracle HSM du serveur de métadonnées à l'aide de la commande umount
-o
await_clients=
interval
mount-point
, où mount-point
est le point de montage du système de fichiers Oracle HSM et interval est le délai en secondes indiqué par l'option de délai d'exécution -o
await_clients
.
Lorsque la commande umount
est émise sur le serveur de métadonnées d'un système de fichiers partagé Oracle HSM, l'option -o
await_clients
indique à la commande umount
d'attendre le nombre spécifié de secondes de sorte que les clients aient le temps de démonter le partage. Cela n'a aucun effet si vous démontez un système de fichiers non partagé ou exécutez une commande sur un client Oracle HSM. Pour plus d'informations, reportez-vous à la page de manuel umount_samfs
.
Dans l'exemple, nous démontons le système de fichiers /sharedqfs
du serveur de métadonnées sharedqfs-mds
tout en autorisant aux clients un délai de 60
secondes pour procéder au démontage :
[sharedqfs-mds]root@solaris:~# umount -o await_clients=60 /sharedqfs
Convertissez le système de fichiers à partir des ACL au format de style POSIX en ACL NFS version 4. Sur le serveur de métadonnées, utilisez la commande samfsck
-F
-A
file-system
, where the -F
indique une vérification et une réparation du système de fichiers, et où l'option -A
indique la conversion des ACL et file-system
est le nom du système de fichiers à convertir.
L'option -F
est nécessaire lorsque l'option -A
est indiquée. Si la commande samfsck
-F
-A
file-system
renvoie des erreurs, le processus est abandonné et aucune ACL n'est convertie (pour des descriptions complètes de ces options, reportez-vous à la page de manuel samfsck
). Dans cet exemple, nous convertissons un système de fichiers Oracle HSM nommé /sharedqfs
:
[sharedqfs-mds]root@solaris:~# samfsck -F -A /sharedqfs
Si des erreurs sont renvoyées et qu'aucune ACL n'est convertie, forcez la conversion des ACL. Sur le serveur de métadonnées, utilisez la commande samfsck
-F
-a
file-system
.
L'option -a
indique une conversion forcée. L'option -F
est nécessaire lorsque l'option -a
est spécifiée (pour des descriptions complètes de ces options, reportez-vous à la page de manuel samfsck
). Dans l'exemple, nous forçons la conversion du système de fichiers Oracle HSM nommé /qfsma
:
[sharedqfs-mds]root@solaris:~# samfsck -F -a /sharedqfs
Procédez maintenant à la configuration du serveur SMB pour les groupes de travail ou les domaines Windows Active Directory.
Les services Oracle Solaris SMB peuvent fonctionner en deux modes mutuellement exclusifs : domaine ou groupe de travail. Choisissez l'un ou l'autre selon votre environnement et vos besoins d'authentification :
Si vous devez octroyer l'accès au service Solaris SMB aux utilisateurs de domaine Active Directory, procédez à la configuration du serveur SMB en mode domaine.
Si vous devez octroyer l'accès au service SMB à des utilisateurs Solaris locaux et que vous n'avez pas de domaine Active Directory ou que vous n'avez pas besoin d'octroyer l'accès aux utilisateurs du domaine Active Directory, procédez à la configuration du serveur SMB en mode groupe de travail.
Contactez l'administrateur de Windows Active Directory et obtenez les informations suivantes :
le nom du compte utilisateur authentifié Active Directory que vous devez utiliser pour rejoindre le domaine Active Directory
l'unité organisationnelle que vous devez utiliser à la place du conteneur Computers
par défaut pour le compte (le cas échéant)
le nom de domaine complet LDAP/DNS du domaine où le système de fichiers Oracle HSM doit être partagé.
Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez configurer en tant que partage SMB/CIFS. Connectez-vous en tant que root
.
Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfssmb
.
[qfssmb]root@solaris:~#
Les serveurs Open Source Samba et les serveurs SMB ne peuvent pas être utilisés ensemble sur un seul système Oracle Solaris. Vérifiez donc si le service Samba est en cours d'exécution. Transmettez le résultat de la commande de statut des services svcs
à la commande grep
et à l'expression régulière samba
.
Dans l'exemple, la sortie de la commande svcs
comporte une correspondance pour l'expression régulière. Le service SMB est donc en cours d'exécution :
[qfssmb]root@solaris:~# svcs | grep samba legacy_run Nov_03 lrc:/etc/rc3_d/S90samba
Si le service Samba (svc:/network/samba
) est en cours d'exécution, désactivez Samba en même temps que le service de noms Internet de Windows WINS (svc:/network/wins
), s'il est en cours d'exécution. Utilisez la commande svcadm
disable
.
[qfssmb]root@solaris:~# svcadm disable svc:/network/samba [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
Utilisez à présent la commande svcadm
enable
-r
smb/server
pour démarrer le serveur SMB et tous les services dont il dépend.
[qfssmb]root@solaris:~# svcadm enable -r smb/server
Assurez-vous que l'horloge système sur l'hôte Oracle HSM est la même à cinq minutes près que l'horloge système du contrôleur de domaine Microsoft Windows :
Si le contrôleur de domaine Windows utilise des serveurs de protocole NTP (protocole d'heure réseau), configurez l'hôte Oracle HSM pour qu'il utilise les mêmes serveurs. Créez un fichier /etc/inet/ntpclient.conf
sur l'hôte Oracle HSM et démarrez le démon ntpd
daemon using the command svcadm
enable
ntp
(reportez-vous à la page de manuel ntpd
et à votre documentation relative à l'administration de Solaris Oracle pour plus d'informations).
Dans le cas contraire, synchronisez l'hôte Oracle HSM avec le contrôleur de domaine en exécutant la commande ntpdate
domain-controller-name
(reportez-vous à la page de manuel ntpdate
pour plus d'informations), ou définissez manuellement l'horloge système sur l'hôte Oracle HSM à l'heure affichée par l'horloge système du contrôleur de domaine.
Rejoignez le domaine Windows à l'aide de la commande smbadm
join
-u
username
-o
organizational-unit
domain-name
, où username
est le nom du compte utilisateur spécifié par l'administrateur Active Directory, organizational-unit
est le conteneur du compte facultatif indiqué, le cas échéant, et domain-name
est le nom complet du domaine LDAP ou DNS spécifié.
Dans l'exemple, nous rejoignons le domaine Windows this.example.com
à l'aide du compte utilisateur.
[qfssmb]root@solaris:~# smbadm join -u admin -o smbsharing this.example.com
Procédez maintenant au partage du système de fichiers Oracle HSM en tant que partage SMB/CIFS.
Contactez l'administrateur réseau Windows et obtenez le nom du groupe de travail Windows que l'hôte du système de fichiers Oracle HSM doit rejoindre.
Le groupe de travail par défaut est nommé WORKGROUP
.
Connectez-vous à l'hôte du système de fichiers Oracle HSM. Connectez-vous en tant que root
.
Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfssmb
.
[qfssmb]root@solaris:~#
Les serveurs Open Source Samba et les serveurs SMB ne peuvent pas être utilisés ensemble sur un seul système Oracle Solaris. Vérifiez donc si Samba est en cours d'exécution. Transmettez le résultat de la commande de statut des services svcs
à la commande grep
et à l'expression régulière samba
.
Dans l'exemple, la sortie de la commande svcs
comporte une correspondance pour l'expression régulière. Le service SMB est donc en cours d'exécution :
[qfssmb]root@solaris:~# svcs | grep samba legacy_run Nov_03 lrc:/etc/rc3_d/S90samba
Si le service Samba (svc:/network/samba
) est en cours d'exécution, désactivez-le en même temps que les services de noms Internet de Windows WINS (svc:/network/wins
) s'ils sont en cours d'exécution. Utilisez la commande svcadm
disable
.
Samba et les serveurs SMB ne peuvent pas être utilisés ensemble sur un seul système Oracle Solaris.
[qfssmb]root@solaris:~# svcadm disable svc:/network/samba [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
Utilisez à présent la commande svcadm
enable
-r
smb/server
pour démarrer le serveur SMB et tous les services dont il dépend.
[qfssmb]root@solaris:~# svcadm enable -r smb/server
Rejoindre le groupe de travail. Exécutez la commande smbadm
join
avec le commutateur -w
(groupe de travail) et le nom du groupe de travail indiqué par l'administrateur réseau Windows.
Dans l'exemple, le groupe de travail indiqué est nommé crossplatform
.
[qfssmb]root@solaris:~# smbadm join -w crossplatform
Configurez l'hôte Oracle HSM pour le chiffrement des mots de passe SMB. Ouvrez le fichier /etc/pam.d/other
dans un éditeur de texte, ajoutez la ligne de commande password
required
pam_smb_passwd.so.1
nowarn
, puis enregistrez le fichier.
Dans cet exemple, nous utilisons l'éditeur de texte vi
:
[qfssmb]root@solaris:~# vi /etc/pam.d/other # Copyright (c) 2012, Oracle and/or its affiliates. All rights reserved. # # PAM configuration # # Default definitions for Authentication management # Used when service name is not explicitly mentioned for authentication # auth definitive pam_user_policy.so.1 ... password required pam_authtok_store.so.1 password required pam_smb_passwd.so.1 nowarn :wq [qfssmb]root@solaris:~#
Reportez-vous à la page de manuel pam_smb_passwd
pour plus d'informations.
Une fois que le module pam_smb_passwd
a été installé, utilisez la commande passwd
local-username
pour générer une version chiffrée du mot de passe de l'utilisateur local-username
afin que le serveur SMB puisse se connecter au groupe de travail Windows.
Le serveur SMB ne permet pas d'authentifier les utilisateurs à l'aide des mêmes versions chiffrées des mots de passe que celles utilisées par le système d'exploitation Solaris. Dans l'exemple, nous générons un mot de passe SMB chiffré pour l'utilisateur smbsamqfs
:
[qfssmb]root@solaris:~# passwd smbsamqfs
Procédez maintenant au partage du système de fichiers Oracle HSM en tant que partage SMB/CIFS.
Partagez le système de fichiers Oracle HSM en appliquant les procédures décrites dans la documentation d'administration relative à votre version du système d'exploitation Oracle Solaris. Les étapes ci-dessous récapitulent la procédure pour Solaris 11.1 :
Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez configurer en tant que partage SMB/CIFS. Connectez-vous en tant que root
.
Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfssmb
.
[qfssmb]root@solaris:~#
Configurez le partage. Utilisez la commande share
-F
smb
-o
specific-options
sharepath
sharename
, où le commutateur -F
indique le protocole de partage smb
, où sharepath
est le chemin d'accès à la ressource partagée et où sharename
est le nom que vous souhaitez utiliser pour le partage. La valeur du paramètre facultatif -o
, sharing-options
, peut comprendre n'importe laquelle des options suivantes :
abe=
[
true
|
false
]
Lorsque la stratégie d'énumération basée sur les accès (ABE) pour un partage est true
, les entrées de répertoire auxquelles l'utilisateur à l'origine de la demande n'a pas accès sont omises des listes de répertoires renvoyées au client.
ad-container=
cn=
user
,ou=
organization
,dc=
domain-dns
Le conteneur Active Directory limite l'accès partagé aux objets du domaine indiqué par les valeurs d'attribut du nom distinctif relatif (RND) de LDAP (Lightweight Directory Access Protocol) : cn
(classe d'objet utilisateur), ou
(classe d'objet unité organisationnelle) et dc
(classe d'objet domaine DNS).
Pour obtenir des informations complètes sur l'utilisation des conteneurs Active Directory avec SMB/CIFS, reportez-vous à Internet Engineering Task Force Request For Comment (RFC) 2253 ainsi qu'à votre documentation sur les services d'annuaire.
catia=
[true
|false]
Lorsque le remplacement de caractères CATIA a la valeur true
, les caractères d'un nom de fichier CATIA V4 qui ne sont pas autorisés sous Windows sont remplacés par leurs équivalents légaux. Reportez-vous à la page de manuel share_smb
pour obtenir la liste des remplacements.
csc=
[manual
|auto
|vdo
|disabled]
Une règle de mise en mémoire cache côté client (csc
) contrôle la mise en mémoire cache du côté client des fichiers que vous souhaitez utiliser hors ligne. La règle manual
permet aux clients de mettre les fichiers en cache lorsque la demande est faite par les utilisateurs, mais désactive la réintégration automatique fichier par fichier (qui est la règle par défaut). La règle auto
permet aux clients de mettre automatiquement les fichiers en cache et active la réintégration automatique fichier par fichier. La règle vdo
permet aux clients de mettre automatiquement les fichiers en cache pour les utiliser hors ligne, active la réintégration fichier par fichier et permet aux clients de travailler à partir du cache local même lorsqu'ils sont hors ligne. La règle disabled
n'autorise pas la mise en cache automatique côté client.
dfsroot=
[
true
|
false
]
Dans un système de fichiers distribué Microsoft (DFS), un partage root (dfsroot=true
) est le partage qui organise un groupe de dossiers partagés largement distribués dans un système de fichiers DFS unique qui est plus facile à gérer. Pour plus d'informations, reportez-vous à la documentation Microsoft Windows Server.
guestok=
[true
|false]
Lorsque la règle guestok
a la valeur true
, le compte guest
défini en local peut accéder au partage. Lorsqu'elle est définie sur false
ou n'est pas définie (par défaut), le compte guest
ne peut pas accéder au partage. Cette règle vous permet de mapper l'utilisateur Guest
Windows à un nom d'utilisateur UNIX défini localement, tel que guest
ou nobody
:
# idmap add winname:Guest unixuser:guest
Le compte défini localement peut alors être authentifié avec un mot de passe enregistré dans /var/smb/smbpasswd
, si vous le souhaitez. Reportez-vous à la page de manuel idmap
pour plus d'informations.
rw=
[*|[[-]
criterion
][:[-]
criterion
]...
La règle rw
accorde ou refuse l'accès à tout client correspondant à la liste d'accès fournie.
La liste d'accès contient soit une astérisque unique (*
) signifiant all ou une liste de critères d'accès du client délimitée par le signe « deux points », où chaque criterion
correspond à un signe « moins » facultatif (-
) signifiant deny suivi d'un nom d'hôte, d'un groupe réseau, d'un LDAP ou d'un DNS complet et/ou du symbole @
, plus une adresse IP ou un nom de domaine complet ou partiel. Les listes d'accès sont évaluées de gauche à droite jusqu'à ce que le client réponde à l'un des critères. Pour plus d'informations, reportez-vous à la page de manuel share_smb
.
ro=
[*|[[-]
criterion
][:[-]
criterion
]...
La règle ro
accorde ou refuse l'accès en lecture unique aux clients correspondant à la liste d'accès.
none=
[*|[[-]
criterion
][:[-]
criterion
]...
La stratégie none
refuse l'accès à tout client correspondant à la liste d'accès. Si la liste d'accès est un astérisque (*
), les règles ro
et rw
peuvent remplacer la stratégie none
.
Dans l'exemple, nous partageons la lecture/écriture du système de fichiers /qfsms
avec les clients smbclient1
et smbclient2
, et la lecture seule avec smbclient3
:
[qfssmb]root@solaris:~# share -F smb -o rw=smbclient1:smbclient2 ro=smbclient3 /qfsms
Lorsque vous entrez la commande, le système redémarre automatiquement le démon de serveur SMB smbd
.
Vérifiez les paramètres de partage. Utilisez la commande share -F nfs
.
Dans l'exemple, la sortie de la commande montre que nous avons correctement configuré le partage :
[qfssmb]root@solaris:~# share -F smb /qfsms sec=sys,rw=smbclient1:smbclient2,ro=smbclient3 [qfssmb]root@solaris:~#
Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.
Sinon, passez à la Configuration des notifications et de la journalisation.