7 Accès aux systèmes de fichiers à partir de plusieurs hôtes

Les systèmes de fichiers Oracle HSM peuvent être partagés entre plusieurs hôtes de différentes façons. Chaque méthode présente des avantages dans certaines situations et des inconvénients dans d'autres. La méthode que vous choisissez dépend donc de vos besoins particuliers. Vous pouvez sélectionner les méthodes de partage suivantes :

Accès aux systèmes de fichiers à partir de plusieurs hôtes à l'aide du logiciel Oracle HSM

Oracle HSM met les systèmes de fichiers à la disposition de plusieurs hôtes en configurant un serveur et un ou plusieurs client qui montent simultanément le système de fichiers. Les données de fichiers sont alors transmises directement des périphériques de disque vers les hôtes via des E/S de chemin local haute performance, sans les latences de réseau ou de serveur intermédiaire associées au partage par NFS et CIFS. Un seul hôte peut faire office de serveur de métadonnées à la fois, mais un nombre quelconque de clients peuvent être configurés en tant que serveurs de métadonnées potentiels à des fins de redondance. Il n'y a aucune limite au nombre de points de montage des systèmes de fichiers.

Oracle HSM prend en charge l'accès multi-hôte aux systèmes de fichiers hautes performances (ma) et à usage généraliste (ms) dans les configurations à lecteurs multiples/scripteur unique comme dans les configurations partagées, avec ou sans archivage. Les limites sont peu nombreuses :

  • Les fichiers spéciaux en mode bloc (b–) ne sont pas pris en charge.

  • Les fichiers spéciaux en mode caractère (c–) ne sont pas pris en charge.

  • Les fichiers spéciaux FIFO (named pipe, tube nommé) (p–) ne sont pas pris en charge.

  • Les fichiers segmentés ne sont pas pris en charge.

    Vous ne pouvez pas implémenter un système de fichiers partagé Oracle HSM dans un environnement à fichiers segmentés.

  • Les verrous obligatoires ne sont pas pris en charge.

    Une erreur EACCES est renvoyée si un verrou obligatoire est défini. Toutefois, les verrous consultatifs sont pris en charge. Pour plus d'informations sur les verrous consultatifs, reportez-vous à la page de manuel fcntl.

Les hôtes logiciels Oracle HSM peuvent accéder aux données du système de fichiers à l'aide de l'une des deux configurations ; chacune présentant ses propres avantages et restrictions dans toutes les applications.

Dans une configuration à plusieurs lecteurs et à scripteur unique, un seul hôte monte le système de fichiers avec l'accès en lecture/écriture et tous les autres hôtes le montent en lecture seule. La configuration n'est qu'une affaire de paramétrage des options de montage. Toutes les modifications de fichiers étant effectuées par un hôte unique : la cohérence des fichiers et l'intégrité des données sont garanties, sans verrouillage de fichier additionnel ou autres vérifications de cohérence. Pour optimiser les performances, tous les hôtes lisent les métadonnées et les données directement à partir du disque. Tous les hôtes doivent néanmoins avoir accès aux métadonnées du système de fichiers. Tous les hôtes d'un système de fichiers ma doivent donc avoir accès aux périphériques de données et aux périphériques de métadonnées.

Dans une configuration partagée, tous les hôtes peuvent lire, écrire et ajouter des données de fichier en utilisant des baux qui autorisent un hôte unique à accéder aux fichiers d'une manière donnée pour une période donnée. Le serveur de métadonnées délivre des baux de lecture, d'écriture et d'ajout, et gère les renouvellements ainsi que les demandes de bail conflictuelles. Les systèmes de fichiers partagés offrent une grande flexibilité, mais la configuration est un peu plus complexe et la surcharge du système de fichiers est plus importante. Tous les hôtes lisent les données directement depuis le disque mais les clients accèdent aux métadonnées par le réseau. Les clients qui n'ont pas accès aux périphériques de métadonnées peuvent donc partager un système de fichiers ma.

Pour configurer l'accès aux données à partir de plusieurs hôtes, sélectionnez l'une des deux approches suivantes :

Configuration d'un système de fichiers Oracle HSM à scripteur unique et à plusieurs lecteurs

Pour configurer un système de fichiers à scripteur unique et à plusieurs lecteurs, effectuez les tâches suivantes :

Création du système de fichiers sur le scripteur

Procédez comme suit :

  1. Connectez-vous à l'hôte qui servira de writer (scripteur) en utilisant le compte root.

    Dans cet exemple, l'hôte du scripteur est nommé swriterfs-mds-writer :

    [swriterfs1-mds-writer]root@solaris:~# 
    
  2. Sur l'hôte qui servira de scripteur, ouvrez le fichier /etc/opt/SUNWsamfs/mcf dans un éditeur de texte et ajoutez un système de fichiers QFS. Vous pouvez configurer un système de fichiers à usage généraliste ms ou haute performance ma.

    Sur un système de fichiers ma comportant des périphériques de métadonnées distincts, configurez le serveur de métadonnées du système de fichiers en tant que scripteur. Dans cet exemple, nous modifions le fichier mcf sur l'hôte swriterfs1-mds-writer à l'aide de l'éditeur de texte vi. L'exemple indique un système de fichiers ma possédant l'identificateur d'équipement et le nom de famille swriterfs1 et le numéro ordinal d'équipement 300 :

    [swriterfs1-mds-writer]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment          Equipment  Equipment  Family      Device   Additional
    # Identifier         Ordinal    Type       Set         State    Parameters
    #------------------  ---------  ---------  ---------   ------   ---------------
    swriterfs1           300        ma         swriterfs1  on       
     /dev/dsk/c0t0d0s0    301        mm         swriterfs1  on
     /dev/dsk/c0t3d0s0    302        mr         swriterfs1  on
     /dev/dsk/c0t3d0s1    303        mr         swriterfs1  on
    
  3. Enregistrez le fichier /etc/opt/SUNWsamfs/mcf et quittez l'éditeur.

    Dans l'exemple, nous enregistrons les modifications et quittons l'éditeur vi :

    # Equipment          Equipment  Equipment  Family      Device   Additional
    # Identifier         Ordinal    Type       Set         State    Parameters
    #------------------  ---------  ---------  ---------   ------   ---------------
    swriterfs1           300        ma         swriterfs1  on  
     /dev/dsk/c0t0d0s0    301        mm         swriterfs1  on
     /dev/dsk/c0t3d0s0    302        mr         swriterfs1  on
     /dev/dsk/c0t3d0s1    303        mr         swriterfs1  on
    :wq
    [swriterfs1-mds-writer]root@solaris:~# 
    
  4. Recherchez les erreurs éventuelles dans le fichier mcf en exécutant la commande sam-fsd et corrigez celles qui sont détectées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur :

    [swriterfs1-mds-writer]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [swriterfs1-mds-writer]root@solaris:~# 
    
  5. Indiquez au service Oracle HSM de relire le fichier mcf et de se reconfigurer en conséquence. Exécutez la commande samd config.

    [swriterfs1-mds-writer]root@solaris:~# samd config
    Configuring SAM-FS
    [swriterfs1-mds-writer]root@solaris:~# 
    
  6. Créez le système de fichiers à l'aide de la commande sammkfs et du nom de famille du système de fichiers, comme décrit à la sectionConfiguration d'un système de fichiers ma haute performance.

    Dans l'exemple, la commande crée le système de fichiers multilecteur/scripteur unique swriterfs1 :

    [swriterfs1-mds-writer]root@solaris:~# sammkfs swriterfs1
    Building 'swriterfs1' will destroy the contents of devices:
      /dev/dsk/c0t0d0s0
      /dev/dsk/c0t3d0s0
      /dev/dsk/c0t3d0s1
    Do you wish to continue? [y/N]yes ...
    
  7. Sauvegardez le fichier /etc/vfstab du système d'exploitation.

    [swriterfs1-mds-writer]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [swriterfs1-mds-writer]root@solaris:~# 
    
  8. Ajoutez le nouveau système de fichiers au fichier /etc/vfstab du système d'exploitation, comme décrit à la Configuration d'un système de fichiers ma haute performance.

    Dans l'exemple, nous ouvrons le fichier /etc/vfstab dans l'éditeur de texte vi et ajoutons une ligne pour le périphérique de famille swriterfs1 :

    [swriterfs1-mds-writer]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no
           
    
  9. Dans la colonne Mount Options du fichier /etc/vfstab, saisissez l'option de montage writer.

    Attention :

    Vous devez vous assurer qu'un seul hôte est le scripteur à un moment donné. Autoriser plus d'un hôte à monter un système de fichiers multilecteur/scripteur unique en utilisant l'option writer peut endommager le système de fichiers !
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer
    
  10. Effectuez les autres modifications souhaitées dans le fichier /etc/vfstab. Ajoutez des options de montage en utilisant des virgules en tant que séparateurs.

    Par exemple, pour monter le système de fichiers en arrière-plan si la première tentative échoue, ajoutez l'option de montage bg dans le champ Mount Options (reportez-vous à la page de manuel mount_samfs pour obtenir une liste exhaustive des options de montage disponibles) :

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg
    
  11. Enregistrez le fichier /etc/vfstab et quittez l'éditeur.

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg      
    :wq
    [swriterfs1-mds-writer]root@solaris:~# 
    
  12. Créez le point de montage spécifié dans le fichier /etc/vfstab, puis définissez les autorisations d'accès pour le point de montage.

    Les autorisations de point de montage doivent être identiques sur tous les hôtes, et les utilisateurs doivent disposer de l'autorisation d'exécution (x) pour pouvoir modifier le répertoire de point de montage et accéder aux fichiers du système de fichiers monté. Dans l'exemple, nous créons le répertoire de point de montage /swriterfs1 et accordons les autorisations à 755 (-rwxr-xr-x) :

    [swriterfs1-mds-writer]root@solaris:~# mkdir /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# chmod 755 /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# 
    
  13. Montez le nouveau système de fichiers :

    [swriterfs1-mds-writer]root@solaris:~# mount /swriterfs1
    [swriterfs1-mds-writer]root@solaris:~# 
    
  14. Après la création du système de fichiers partagé, procédez à la configuration des lecteurs.

Configuration des lecteurs

Un lecteur est un hôte qui monte la lecture seule d'un système de fichiers. Pour chaque hôte que vous configurez en tant que lecteur, procédez comme suit :

  1. Connectez-vous à l'hôte en tant qu'utilisateur root.

    Dans cet exemple, l'hôte du lecteur est nommé swriterfs-reader1] :

    [swriterfs-reader1]root@solaris:~# 
    
  2. Dans une fenêtre de terminal, récupérez les informations de configuration du système de fichiers multilecteur/scripteur unique à l'aide de la commande samsconfig device-path, où device-path est l'emplacement où la commande doit commencer à rechercher les périphériques de disque du système de fichiers (tel que /dev/dsk/*).

    L'utilitaire samfsconfig récupère les informations de configuration du système de fichiers en lisant le superbloc d'identification que sammkfs écrit sur chaque périphérique inclus dans un système de fichiers Oracle HSM. La commande renvoie les chemins corrects de chaque périphérique de la configuration en commençant par l'hôte actuel, et signale les périphériques injoignables (pour obtenir des informations complètes sur la syntaxe de la commande et les paramètres, reportez-vous à la page de manuel samfsconfig).

    Dans cet exemple, la sortie samfsconfig indique les mêmes équipements que ceux répertoriés dans le fichier mcf sur swriterfs1-mds-writer, à ceci près que les chemins d'accès aux périphériques sont indiqués en commençant par l'hôte swriterfs1-reader1 :

    [swriterfs1-reader1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'swriterfs1' Created Thu Nov 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    #
    sharefs              300        ma         sharefs   -        
     /dev/dsk/c1t0d0s0    301        mm         sharefs   -
     /dev/dsk/c1t3d0s0    302        mr         sharefs   -
     /dev/dsk/c1t3d0s1    303        mr         sharefs   -
    
  3. Copiez les entrées pour le système de fichiers partagé à partir de la sortie samfsconfig. Ensuite, dans une seconde fenêtre, ouvrez le fichier /etc/opt/SUNWsamfs/mcf dans un éditeur de texte et collez les entrées copiées dans le fichier.

    Sinon, vous pouvez rediriger la sortie de samfsconfig vers le fichier mcf. Vous pouvez également utiliser la commande samd buildmcf pour exécuter samfsconfig et créer le fichier client mcf automatiquement.

    Dans l'exemple, une fois que nous avons ajouté les en-têtes de colonnes mis en commentaire, le fichier mcf de l'hôte swriterfs1-reader1 se présente ainsi :

    [swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    
  4. Assurez-vous que le champ Device State est sur on pour tous les périphériques. Enregistrez ensuite le fichier mcf.

    [swriterfs1-reader1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       
     /dev/dsk/c1t0d0s0     301        mm         sharefs    on 
     /dev/dsk/c1t3d0s0     302        mr         sharefs    on 
     /dev/dsk/c1t3d0s1     303        mr         sharefs    on 
    :wq
    [swriterfs1-reader1]root@solaris:~# 
    
  5. Recherchez les erreurs éventuelles dans le fichier mcf en exécutant la commande sam-fsd et corrigez celles qui sont détectées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur :

    [swriterfs1-reader1]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [swriterfs1-reader1]root@solaris:~# 
    
  6. Sauvegardez le fichier /etc/vfstab du système d'exploitation.

    [swriterfs1-reader1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [swriterfs1-reader1]root@solaris:~# 
    
  7. Ajoutez le système de fichiers multilecteur/scripteur unique au fichier /etc/vfstab du système d'exploitation de l'hôte.

    Dans l'exemple, nous ouvrons le fichier /etc/vfstab dans l'éditeur de texte vi et ajoutons une ligne pour le périphérique de famille swriterfs1 :

    [swriterfs1-reader1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no        
        
    
  8. Dans la colonne Mount Options du fichier /etc/vfstab, entrez l'option reader.

    Attention :

    Assurez-vous que l'hôte monte le système de fichiers en utilisant l'option reader ! Si l'option de montage writer est accidentellement utilisée sur plus d'un hôte, le système de fichiers risque d'être endommagé !
    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       reader      
    
  9. Ajoutez les autres options de montage de votre choix en les séparant par des virgules, puis apportez les autres modifications souhaitées au fichier /etc/vfstab. Ensuite, enregistrez le fichier /etc/vfstab.

    #File
    #Device    Device   Mount       System  fsck  Mount    Mount
    #to Mount  to fsck  Point       Type    Pass  at Boot  Options
    #--------  -------  --------    ------  ----  -------  -----------------------
    /devices   -        /devices    devfs   -     no       -
    /proc      -        /proc       proc    -     no       -
    ...
    swriterfs1 -        /swriterfs1 samfs   -     no       writer,bg      
    :wq
    [swriterfs1-reader1]root@solaris:~# 
    
  10. Créez le point de montage spécifié dans le fichier /etc/vfstab, puis définissez les autorisations d'accès pour le point de montage.

    Les autorisations de point de montage doivent être identiques sur tous les hôtes, et les utilisateurs doivent disposer de l'autorisation d'exécution (x) pour modifier le répertoire de point de montage et accéder aux fichiers du système de fichiers monté. Dans l'exemple, nous créons le répertoire de point de montage /swriterfs1 et accordons les autorisations à 755 (-rwxr-xr-x), de la même façon que nous l'avons fait sur l'hôte scripteur :

    [swriterfs1-reader1]root@solaris:~# mkdir /swriterfs1
    [swriterfs1-reader1]root@solaris:~# chmod 755 /swriterfs1
    [swriterfs1-reader1]root@solaris:~# 
    
  11. Montez le nouveau système de fichiers :

    [swriterfs1-reader1]root@solaris:~# mount /swriterfs1
    [swriterfs1-reader1]root@solaris:~# 
    
  12. Répétez cette procédure jusqu'à ce que tous les hôtes lecteurs soient configurés pour monter le système de fichiers en lecture seule.

  13. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  14. Sinon, passez à la Configuration des notifications et de la journalisation.

Configuration d'un système de fichiers partagé Oracle HSM

Les systèmes de fichiers partagés Oracle HSM donnent à plusieurs hôtes Oracle HSM l'accès aux fichiers en lecture, écriture et ajout. Tous les hôtes montent le système de fichiers et disposent de connexions directes aux périphériques de stockage. En outre, un hôte, le serveur de métadonnées (MDS), dispose du contrôle exclusif sur les métadonnées du système de fichiers et sert d'intermédiaire entre les hôtes cherchant accéder aux mêmes fichiers. Le serveur fournit aux hôtes clients les mises à jour des métadonnées par le réseau Ethernet local et contrôle l'accès au fichier en émettant, renouvelant et révoquant les baux de lecture, d'écriture et d'ajout. Il est possible de partager les systèmes de fichiers haute performance ma ou à usage généraliste ms, d'archivage ou sans archivage.

Pour configurer un système de fichiers partagé, effectuez les tâches suivantes :

Configuration d'un serveur de métadonnées de système de fichiers pour le partage

Pour configurer un serveur de métadonnées pour la prise en charge d'un système de fichiers partagé, effectuez les tâches suivantes :

Création de fichier d'hôtes sur les serveurs de métadonnées actif et potentiel

Sur les serveurs de métadonnées actif et potentiel, vous devez créer un fichier d'hôtes qui répertorie les informations d'adresse réseau des serveurs et clients d'un système de fichiers partagé. Le fichier d'hôtes est stocké avec le fichier mcf dans le répertoire /etc/opt/SUNWsamfs/. Lors de la création initiale d'un système de fichiers partagé, la commande sammkfs -S configure le partage selon les paramètres stockés dans ce fichier. Créez-le maintenant en appliquant la procédure ci-dessous.

  1. Connectez-vous au serveur en tant qu'utilisateur root.

    Dans cet exemple, le serveur est nommé sharefs-mds :

    [sharefs-mds]root@solaris:~# 
    
  2. A l'aide d'un éditeur de texte, créez le fichier /etc/opt/SUNWsamfs/hosts.family-set-name sur le serveur de métadonnées, en remplaçant family-set-name par le nom de famille du système de fichiers que vous souhaitez partager.

    Dans cet exemple, nous créons le fichier hosts.sharefs à l'aide de l'éditeur de texte vi. Nous ajoutons quelques en-têtes facultatifs, en commençant chaque ligne par le signe dièse (#), qui indique un commentaire :

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs
    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    
  3. Ajoutez le nom d'hôte et l'adresse IP ou le nom de domaine du serveur de métadonnées dans deux colonnes, séparées par des espaces.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117
    
  4. Ajoutez une troisième colonne, séparée de l'adresse réseau par des espaces. Dans cette colonne, saisissez 1, soit le nombre ordinal du serveur de métadonnées actif.

    Dans cet exemple, il n'y a qu'un serveur de métadonnées, nous entrons donc 1 :

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1      
     
    
  5. Ajoutez une quatrième colonne, séparée de l'adresse réseau par des espaces. Dans cette colonne, entrez 0 (zéro).

    Le caractère 0, un trait d'union (-) ou une valeur vierge dans la quatrième colonne indiquent que l'hôte est activé (on), c'est-à-dire configuré avec un accès au système de fichiers partagé. Un 1 (chiffre un) indique que l'hôte est désactivé off, configuré sans accès au système de fichiers (pour plus d'informations sur l'utilisation de ces valeurs lors de l'administration des systèmes de fichiers partagés, reportez-vous à la page de manuel samsharefs).

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds          10.79.213.117            1        0    
    
  6. Ajoutez une cinquième colonne, séparée de l'adresse réseau par des espaces. Dans cette colonne, saisissez le mot-clé server pour indiquer le serveur de métadonnées actif :

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    
  7. Si vous envisagez d'inclure un ou plusieurs hôtes en tant que serveurs de données potentiels, créez une entrée pour chacun d'entre eux. Augmentez le nombre ordinal du serveur chaque fois. Cependant, n'incluez pas le mot-clé server (il ne peut y avoir qu'un seul serveur de métadonnées actif par système de fichiers).

    Dans cet exemple, l'hôte sharefs-mds_alt est un serveur de métadonnées potentiel portant le numéro ordinal de serveur 2 :

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    
  8. Ajoutez une ligne pour chaque hôte de client, chacun avec la valeur ordinale de serveur 0.

    La valeur ordinale de serveur 0 identifie l'hôte comme client. Dans cet exemple, nous ajoutons deux clients, sharefs-client1 et sharefs-client2.

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.147           0        0
    
  9. Enregistrez le fichier /etc/opt/SUNWsamfs/hosts.family-set-name et fermez l'éditeur de texte.

    Dans l'exemple, nous enregistrons les modifications apportées à /etc/opt/SUNWsamfs/hosts.sharefs et fermons l'éditeur vi :

    # /etc/opt/SUNWsamfs/hosts.sharefs
    #                                             Server   On/  Additional
    #Host Name            Network Interface       Ordinal  Off  Parameters
    #------------------   ----------------------  -------  ---  ----------
    sharefs-mds           10.79.213.117           1        0    server 
    sharefs-mds_alt       10.79.213.217           2        0   
    sharefs-client1       10.79.213.133           0        0
    sharefs-client2       10.79.213.147           0        0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  10. Placez une copie du nouveau fichier /etc/opt/SUNWsamfs/hosts.family-set-name sur tous les serveurs de métadonnées potentiels inclus dans la configuration du système de fichiers partagé.

  11. Procédez maintenant à la création du système de fichiers partagé sur le serveur de métadonnées actif.

Création du système de fichiers partagé sur le serveur actif

Procédez comme suit :

  1. Connectez-vous au serveur en tant qu'utilisateur root.

    Dans cet exemple, le serveur est nommé sharefs-mds :

    [sharefs-mds]root@solaris:~# 
    
  2. Sur le serveur de métadonnées (MDS), ouvrez le fichier /etc/opt/SUNWsamfs/mcf dans un éditeur de texte et ajoutez un système de fichiers QFS. Vous pouvez configurer un système de fichiers à usage généraliste ms ou haute performance ma.

    Dans l'exemple, nous modifions le fichier mcf sur l'hôte sharefs-mds à l'aide de l'éditeur de texte vi. L'exemple indique un système de fichiers ma dont l'identificateur d'équipement et le nom de famille est sharefs et dont le numéro ordinal d'équipement est 300 :

    [sharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       
     /dev/dsk/c0t0d0s0     301        mm         sharefs    on
     /dev/dsk/c0t3d0s0     302        mr         sharefs    on
     /dev/dsk/c0t3d0s1     303        mr         sharefs    on
    
  3. Dans le champ Additional Parameters de la ligne de l'équipement du système de fichiers ma, saisissez le paramètre shared :

    # Equipment           Equipment   Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     /dev/dsk/c0t0d0s0     301         mm        sharefs    on
     /dev/dsk/c0t3d0s0     302         mr        sharefs    on
     /dev/dsk/c0t3d0s1     303         mr        sharefs    on
    
  4. Enregistrez le fichier /etc/opt/SUNWsamfs/mcf et quittez l'éditeur.

    Dans l'exemple, nous enregistrons les modifications et quittons l'éditeur vi :

    sharefs               300         ma         sharefs    on      shared
     /dev/dsk/c0t0d0s0     301         mm         sharefs    on
     /dev/dsk/c0t3d0s0     302         mr         sharefs    on
     /dev/dsk/c0t3d0s1     303         mr         sharefs    on
    :wq
    [sharefs-mds]root@solaris:~# 
    
  5. Recherchez les erreurs éventuelles dans le fichier mcf en exécutant la commande sam-fsd et corrigez celles qui sont détectées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur :

    [sharefs-mds]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-mds]root@solaris:~# 
    
  6. Demandez au service Oracle HSM de relire le fichier mcf et de se reconfigurer en conséquence. Corrigez les erreurs signalées et si nécessaire, répétez cette procédure.

    [sharefs-mds]root@solaris:~# samd config
    [sharefs-mds]root@solaris:~# 
    
  7. Créez le système de fichiers à l'aide de la commande sammkfs -S et du nom de famille du système de fichiers, comme décrit à la Configuration d'un système de fichiers ma haute performance.

    La commande sammkfs lit les fichiers hosts.family-set-name et mcf et crée un système de fichiers partagé avec les propriétés indiquées. Dans l'exemple, la commande lit les paramètres de partage dans le fichier hosts.sharefs et crée le système de fichiers sharefs :

    [sharefs-mds]root@solaris:~# sammkfs -S sharefs
    Building 'sharefs' will destroy the contents of devices:
      /dev/dsk/c0t0d0s0
      /dev/dsk/c0t3d0s0
      /dev/dsk/c0t3d0s1
    Do you wish to continue? [y/N]yes ...
    [sharefs-mds]root@solaris:~# 
    
  8. Procédez ensuite au montage du système de fichiers partagé sur le serveur de métadonnées actif.

Montage du système de fichiers partagé dans le serveur actif
  1. Connectez-vous au serveur en tant qu'utilisateur root.

    Dans cet exemple, le serveur est nommé sharefs-mds :

    [sharefs-mds]root@solaris:~# 
    
  2. Sauvegardez le fichier /etc/vfstab du système d'exploitation.

    [sharefs-mds]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [sharefs-mds]root@solaris:~# 
    
  3. Ajoutez le nouveau système de fichiers au fichier /etc/vfstab du système d'exploitation, comme décrit à la Configuration d'un système de fichiers ma haute performance.

    Dans l'exemple, nous ouvrons le fichier /etc/vfstab dans l'éditeur de texte vi et ajoutons une ligne pour le périphérique de famille sharefs :

    [sharefs-mds]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -        /sharefs   samfs   -     no     
    
  4. Dans la colonne Mount Options, saisissez l'option shared :

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared      
    
  5. Effectuez les autres modifications souhaitées dans le fichier /etc/vfstab.

    Par exemple, pour essayer à nouveau de monter le système de fichiers en arrière-plan si la première tentative a échoué, ajoutez l'option de montage bg dans le champ Mount Options (pour obtenir une description complète des options de montage disponibles, reportez-vous à la page de manuel mount_samfs) :

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared,bg     
     
    
  6. Enregistrez le fichier /etc/vfstab et quittez l'éditeur.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs   -         /sharefs  samfs   -     no       shared,bg      
    :wq
    [sharefs-mds]root@solaris:~# 
    
  7. Créez le point de montage spécifié dans le fichier /etc/vfstab, puis définissez les autorisations d'accès pour le point de montage.

    Les autorisations de point de montage doivent être identiques sur le serveur de métadonnées et sur tous les clients, et les utilisateurs doivent disposer de l'autorisation d'exécution (x) pour modifier le répertoire de point de montage et accéder aux fichiers du système de fichiers monté. Dans cet exemple, nous créons le répertoire de point de montage /sharefs et définissons les autorisations sur 755 (-rwxr-xr-x) :

    [sharefs-mds]root@solaris:~# mkdir /sharefs
    [sharefs-mds]root@solaris:~# chmod 755 /sharefs
    [sharefs-mds]root@solaris:~# 
    
  8. Montez le nouveau système de fichiers :

    [sharefs-mds]root@solaris:~# mount /sharefs
    [sharefs-mds]root@solaris:~# 
    
  9. Si vos hôtes sont configurés avec plusieurs interfaces réseau, vous pouvez éventuellement utiliser des fichiers d'hôtes locaux pour router les communications réseau.

  10. Sinon, après la création du système de fichiers partagé sur le serveur de métadonnées, procédez à la configuration des clients du système de fichiers pour le partage.

Configuration des clients du système de fichiers pour le partage

Par clients, on entend à la fois les hôtes configurés purement comme clients et ceux configurés comme serveurs de métadonnées potentiels. La configuration d'un client ressemble à bien des égards à celle d'un serveur. Chaque client comprend exactement les mêmes périphériques que le serveur. Seuls les options de montage et le chemin exact vers les périphériques changent (les numéros de contrôleur sont affectés par chaque hôte client et peuvent donc varier).

Pour configurer un ou plusieurs clients pour qu'ils prennent en charge un système de fichiers partagé, effectuez les tâches ci-dessous :

Création du système de fichiers partagé sur les clients Solaris

Pour chaque client, procédez comme suit :

  1. Sur le client, connectez-vous en tant qu'utilisateur root.

    Dans cet exemple, le serveur est nommé sharefs-client1 :

    [sharefs-client1]root@solaris:~# 
    
  2. Dans la fenêtre du terminal, exécutez la commande samfsconfig device-path, où device-path est l'emplacement où la commande commence la recherche des périphériques de disque du système de fichiers (par exemple, /dev/dsk/* ou /dev/zvol/dsk/rpool/*).

    La commande samfsconfig récupère les informations de configuration pour le système de fichiers partagé.

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    
  3. Si l'hôte a accès aux périphériques de métadonnées pour le système de fichiers et pourrait donc être utilisé comme serveur de métadonnées potentiel, la sortie samfsconfig est similaire au fichier mcf sur le serveur de métadonnées du système de fichiers.

    Dans notre exemple, l'hôte sharefs-client1 a accès aux périphériques de métadonnées (type d'équipement mm). Par conséquent, la sortie de la commande affiche le même équipement que celui répertorié dans le fichier mcf sur le serveur, sharefs-mds. Seuls les numéros de contrôleur de périphérique affectés par l'hôte différent :

    [sharefs-client1]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    # Generation 0 Eq count 4 Eq meta count 1
    #
    sharefs             300         ma         sharefs   - 
    /dev/dsk/c1t0d0s0    301         mm         sharefs   -
    /dev/dsk/c1t3d0s0    302         mr         sharefs   -
    /dev/dsk/c1t3d0s1    303         mr         sharefs   -
    
  4. Si l'hôte n'a pas accès aux périphériques de métadonnées pour le système de fichiers, la commande samfsconfig ne peut pas trouver les périphériques de métadonnées et ne peut donc pas inclure les périphériques Oracle HSM détectés dans la configuration du système de fichiers. La sortie de la commande répertorie Ordinal 0 (le périphérique de métadonnées) sous Missing Slices, échoue à inclure la ligne identifiant la famille du système de fichiers et ajoute un commentaire aux listes pour les périphériques de données.

    Dans notre exemple, l'hôte sharefs-client2 a uniquement accès aux périphériques de données. La sortie samfsconfig prend alors cette forme :

    [sharefs-client2]root@solaris:~# samfsconfig /dev/dsk/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  5. Copiez les entrées pour le système de fichiers partagé à partir de la sortie samfsconfig. Ensuite, dans une seconde fenêtre, ouvrez le fichier /etc/opt/SUNWsamfs/mcf dans un éditeur de texte et collez les entrées copiées dans le fichier.

    Dans notre premier exemple, l'hôte, sharefs-client1, a accès aux périphériques de métadonnées pour le système de fichiers, de sorte que le fichier mcf commence comme ceci :

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    

    Dans le second exemple, l'hôte, sharefs-client2, n'a pas accès aux périphériques de métadonnées pour le système de fichiers, de sorte que le fichier mcf commence comme ceci :

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  6. Si l'hôte a accès aux périphériques de métadonnées pour le système de fichiers, ajoutez le paramètre shared au champ Additional Parameters de l'entrée pour le système de fichiers partagé.

    Dans l'exemple, l'hôte, sharefs-client1, peut accéder aux métadonnées :

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
     /dev/dsk/c1t0d0s0     301        mm         sharefs    -
     /dev/dsk/c1t3d0s0     302        mr         sharefs    -
     /dev/dsk/c1t3d0s1     303        mr         sharefs    -
    
  7. Si l'hôte n'a pas accès aux périphériques de métadonnées pour le système de fichiers, ajoutez une ligne pour le système de fichiers partagé en incluant le paramètre shared.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/dsk/c4t3d0s0    302         mr         sharefs   -       
    # /dev/dsk/c4t3d0s1    303         mr         sharefs   -
    
  8. Si l'hôte n'a pas accès aux périphériques de métadonnées pour le système de fichiers, ajoutez une ligne pour le périphérique de métadonnées. Définissez le champ Equipment Identifier sur nodev (no device) et définissez les autres champs sur les mêmes valeurs que sur le serveur de métadonnées :

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
    # /dev/dsk/c4t3d0s0    302         mr        sharefs    -
    # /dev/dsk/c4t3d0s1    303         mr        sharefs    -
    
  9. Si l'hôte n'a pas accès aux périphériques de métadonnées pour le système de fichiers, ajoutez une ligne pour les périphériques de données.

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   -----------------
    sharefs              300         ma        sharefs     on       shared
     nodev                301         mm        sharefs     on 
     /dev/dsk/c4t3d0s0    302         mr        sharefs     - 
     /dev/dsk/c4t3d0s1    303         mr        sharefs     - 
    
  10. Assurez-vous que le champ Device State est défini sur on pour tous les périphériques et enregistrez le fichier mcf.

    Dans notre premier exemple, l'hôte, sharefs-client1, a accès aux périphériques de métadonnées pour le système de fichiers, de sorte que le fichier mcf se termine comme ceci :

    [sharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    on       shared
     /dev/dsk/c1t0d0s0     301        mm         sharefs    on 
     /dev/dsk/c1t3d0s0     302        mr         sharefs    on 
     /dev/dsk/c1t3d0s1     303        mr         sharefs    on 
    :wq
    [sharefs-client1]root@solaris:~# 
    

    Dans le second exemple, l'hôte sharefs-client2 n'a pas accès aux périphériques de métadonnées pour le système de fichiers, de sorte que le fichier mcf se termine comme ceci :

    [sharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
     /dev/dsk/c4t3d0s0     302         mr        sharefs    on 
     /dev/dsk/c4t3d0s1     303         mr        sharefs    on 
    :wq
    [sharefs-client2]root@solaris:~# 
    
  11. Recherchez les erreurs éventuelles dans le fichier mcf en exécutant la commande sam-fsd et corrigez celles qui sont détectées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans cet exemple, nous vérifions le fichier mcf sur sharefs-client1 :

    [sharefs-client1]root@solaris:~# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-client1]root@solaris:~# 
    
  12. A ce stade, si vos hôtes sont configurés avec plusieurs interfaces réseau, vous pouvez éventuellement utiliser des fichiers d'hôtes locaux pour router les communications réseau.

  13. Procédez ensuite au montage du système de fichiers partagé sur les clients Solaris.

Montage du système de fichiers partagé sur les clients Solaris

Pour chaque client, procédez comme suit :

  1. Sur le client Solaris, connectez-vous en tant qu'utilisateur root.

    Dans cet exemple, le serveur est nommé sharefs-client1 :

    [sharefs-client1]root@solaris:~# 
    
  2. Sauvegardez le fichier /etc/vfstab du système d'exploitation.

    [sharefs-client1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [sharefs-client1]root@solaris:~# 
    
  3. Ouvrez le fichier /etc/vfstab dans un éditeur de texte et ajoutez une ligne pour le système de fichiers partagé.

    Dans cet exemple, nous ouvrons le fichier dans l'éditeur de texte vi et ajoutons une ligne pour le périphérique de famille sharefs :

    [sharefs-client1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no   
    
  4. Ajoutez les autres options de montage de votre choix en les séparant par des virgules, puis apportez les autres modifications souhaitées au fichier /etc/vfstab. Ensuite, enregistrez le fichier /etc/vfstab.

    Dans cet exemple, nous n'ajoutons aucune option de montage.

    #File
    #Device    Device   Mount     System  fsck  Mount    Mount
    #to Mount  to fsck  Point     Type    Pass  at Boot  Options
    #--------  -------  --------  ------  ----  -------  -------------------------
    /devices   -        /devices  devfs   -     no       -
    /proc      -        /proc     proc    -     no       -
    ...
    sharefs    -        /sharefs  samfs   -     no       -
    :wq
    [sharefs-client1]root@solaris:~# 
    
  5. Créez le point de montage spécifié dans le fichier /etc/vfstab, puis définissez les autorisations d'accès pour le point de montage.

    Les autorisations du point de montage doivent être identiques sur le serveur de métadonnées et tous les autres clients. Les utilisateurs doivent disposer de l'autorisation d'exécution (x) pour modifier le répertoire de point de montage et accéder aux fichiers dans le système de fichiers monté. Dans cet exemple, nous créons le répertoire de point de montage /sharefs et définissons les autorisations sur 755 (-rwxr-xr-x) :

    [sharefs-client1]root@solaris:~# mkdir /sharefs
    [sharefs-client1]root@solaris:~# chmod 755 /sharefs
    [sharefs-client1]root@solaris:~# 
    
  6. Montez le système de fichiers partagé :

    [sharefs-client1]root@solaris:~# mount /sharefs
    [sharefs-client1]root@solaris:~# 
    
  7. Si le système de fichiers partagé comprend des clients Linux, procédez à la création du système de fichiers partagé sur les clients Linux.

  8. Si vous configurez un système de fichiers d'archivage partagé Oracle HSM, effectuez la tâche suivante : Configuration du stockage d'archivage pour un système de fichiers partagé.

  9. Sinon, arrêtez la procédure à cette étape. Vous avez configuré le système de fichiers partagé Oracle HSM.

Création du système de fichiers partagé sur les clients Linux

Pour chaque client, procédez comme suit :

  1. Sur le client Linux, connectez-vous en tant qu'utilisateur root.

    Dans cet exemple, l'hôte du client Linux est nommé sharefs-clientL :

    [sharefs-clientL][root@linux ~]# 
    
  2. Dans la fenêtre du terminal, exécutez la commande samfsconfig device-path, où device-path est l'emplacement où la commande commence la recherche des périphériques de disque du système de fichiers (par exemple, /dev/*).

    La commande samfsconfig récupère les informations de configuration pour le système de fichiers partagé. Dans la mesure où les hôtes Linux n'ont pas accès aux périphériques de métadonnées du système de fichiers, la commande samfsconfig ne peut pas trouver les périphériques de métadonnées et ne peut donc pas inclure les périphériques Oracle HSM détectés dans la configuration du système de fichiers. La sortie de la commande répertorie Ordinal 0 (le périphérique de métadonnées) sous Missing Slices, échoue à inclure la ligne identifiant la famille du système de fichiers et ajoute un commentaire aux listes pour les périphériques de données.

    Dans notre exemple, la sortie samfsconfig pour l'hôte Linux sharefs-clientL prend cette forme :

    [sharefs-clientL][root@linux ~]# samfsconfig /dev/*
    # Family Set 'sharefs' Created Thu Feb 21 07:17:00 2013
    #
    # Missing slices
    # Ordinal 0
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  3. Copiez les entrées pour le système de fichiers partagé à partir de la sortie samfsconfig. Ensuite, dans une seconde fenêtre, ouvrez le fichier /etc/opt/SUNWsamfs/mcf dans un éditeur de texte et collez les entrées copiées dans le fichier.

    Dans cet exemple, le fichier mcf pour l'hôte Linux, sharefs-clientL, commence comme ceci :

    [sharefs-clientL][root@linux ~]# vi /etc/opt/SUNWsamfs/mcf
    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  4. Dans le fichier mcf, insérez une ligne pour le système de fichiers partagé en incluant le paramètre shared.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300        ma         sharefs    -        shared
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  5. Dans le fichier mcf, insérez des lignes pour les périphériques de métadonnées du système de fichiers. Dans la mesure où les hôtes Linux n'ont pas accès aux périphériques de métadonnées, définissez le champ Equipment Identifier sur nodev (no device) et définissez les autres champs sur les mêmes valeurs que sur le serveur de métadonnées :

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
    # /dev/sda4            302         mr         sharefs   -
    # /dev/sda5            303         mr         sharefs   -
    
  6. Dans le fichier mcf, annulez la mise en commentaire des entrées des périphériques de données.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs              300         ma        sharefs     on       shared
     nodev                301         mm        sharefs     on 
     /dev/sda4            302         mr        sharefs     -
     /dev/sda5            303         mr        sharefs     -
    
  7. Assurez-vous que le champ Device State est défini sur on pour tous les périphériques et enregistrez le fichier mcf.

    # Equipment           Equipment  Equipment  Family     Device   Additional
    # Identifier          Ordinal    Type       Set        State    Parameters
    #------------------   ---------  ---------  ---------  ------   ---------------
    sharefs               300         ma        sharefs    on       shared
     nodev                 301         mm        sharefs    on 
     /dev/sda4             302         mr        sharefs    on 
     /dev/sda5             303         mr        sharefs    on 
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  8. Recherchez les erreurs éventuelles dans le fichier mcf en exécutant la commande sam-fsd et corrigez celles qui sont détectées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans cet exemple, nous vérifions le fichier mcf sur le client Linux, sharefs-clientL :

    [sharefs-clientL][root@linux ~]# sam-fsd
    ...
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-clientL][root@linux ~]# 
    
  9. Procédez maintenant au montage du système de fichiers partagé sur les clients Linux.

Montage du système de fichiers partagé sur les clients Linux

Pour chaque client, procédez comme suit :

  1. Sur le client Linux, connectez-vous en tant qu'utilisateur root.

    Dans cet exemple, l'hôte du client Linux est nommé sharefs-clientL :

    [sharefs-clientL][root@linux ~]# 
    
  2. Sauvegardez le fichier /etc/fstab du système d'exploitation.

    [sharefs-clientL][root@linux ~]# cp /etc/fstab /etc/fstab.backup
    
  3. Ouvrez le fichier /etc/fstab dans un éditeur de texte et commencez une ligne pour le système de fichiers partagé.

    Dans cet exemple, après avoir sauvegardé le fichier /etc/fstab sur sharefs-clientL, nous ouvrons le fichier dans l'éditeur de texte vi et ajoutons une ligne pour le périphérique de famille sharefs :

    [sharefs-clientL][root@linux ~]# vi /etc/fstab
    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs
    
  4. Dans la quatrième colonne du fichier, ajoutez l'option de montage shared obligatoire.

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared
    
  5. Dans la quatrième colonne du fichier, ajoutez toutes les autres options de montage souhaitées en les séparant par des virgules.

    Les clients Linux prennent en charge les options de montage supplémentaires suivantes :

    • rw, ro

    • retry

    • meta_timeo

    • rdlease, wrlease, aplease

    • minallocsz, maxallocsz

    • noauto, auto

    Dans cet exemple, nous ajoutons l'option noauto :

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto
             
    
  6. Saisissez zéro (0) dans chacune des deux colonnes restantes du fichier. Enregistrez ensuite le fichier /etc/fstab.

    #File
    #Device    Mount    System    Mount                      Dump      Pass
    #to Mount  Point    Type      Options                    Frequency Number
    #--------  -------  --------  -------------------------  --------- ------ 
    ...    
    /proc      /proc     proc     defaults 
    sharefs    /sharefs  samfs    shared,noauto              0         0        
    :wq
    [sharefs-clientL][root@linux ~]# 
    
  7. Créez le point de montage spécifié dans le fichier /etc/fstab, puis définissez les autorisations d'accès pour le point de montage.

    Les autorisations du point de montage doivent être identiques sur le serveur de métadonnées et tous les autres clients. Les utilisateurs doivent disposer de l'autorisation d'exécution (x) pour modifier le répertoire de point de montage et accéder aux fichiers dans le système de fichiers monté. Dans cet exemple, nous créons le répertoire de point de montage /sharefs et définissons les autorisations sur 755 (-rwxr-xr-x) :

    [sharefs-clientL][root@linux ~]# mkdir /sharefs
    [sharefs-clientL][root@linux ~]# chmod 755 /sharefs
    
  8. Montez le système de fichiers partagé. Utilisez la commande mount mountpoint, où mountpoint est le point de montage indiqué dans le fichier /etc/fstab.

    Comme illustré dans l'exemple, la commande mount génère un avertissement. Cela est normal, et cet avertissement peut être ignoré :

    [sharefs-clientL][root@linux ~]# mount /sharefs
    Warning: loading SUNWqfs will taint the kernel: SMI license 
    See http://www.tux.org/lkml/#export-tainted for information 
    about tainted modules. Module SUNWqfs loaded with warnings 
    [sharefs-clientL][root@linux ~]# 
    
  9. Si vous configurez un système de fichiers d'archivage partagé Oracle HSM, effectuez la tâche suivante : Configuration du stockage d'archivage pour un système de fichiers partagé.

  10. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  11. Sinon, passez à la Configuration des notifications et de la journalisation.

Utilisation des fichiers d'hôtes locaux pour router les communications réseau

Les hôtes individuels ne requièrent pas de fichiers d'hôtes locaux. Le système de fichiers identifie le serveur de métadonnées actif et les interfaces réseau des serveurs de métadonnées actifs et potentiels de tous les hôtes du système de fichiers (voir la Création de fichier d'hôtes sur les serveurs de métadonnées actif et potentiel). Cependant, les fichiers d'hôtes locaux peuvent s'avérer utiles lorsque vous avez besoin de router de manière sélective le trafic réseau entre des hôtes de systèmes de fichiers possédant plusieurs interfaces réseau.

Chaque hôte du système de fichiers identifie les interfaces réseau des autres hôtes sur le serveur de métadonnées. Les noms d'hôte et les adresses IP sont répertoriés dans le fichier des hôtes global pour le système de fichiers, /etc/opt/SUNWsamfs/hosts.family-set-name, où family-set-name est le numéro de la famille du système de fichiers partagé. Ensuite, l'hôte recherche un fichier d'hôtes local, /etc/opt/SUNWsamfs/hosts.family-set-name.local.

S'il n'y a pas de fichier d'hôtes local, l'hôte utilise les adresses d'interfaces spécifiées dans le fichier d'hôtes global. Les hôtes sont utilisés dans l'ordre indiqué par le fichier global.

S'il y a un fichier d'hôtes local, l'hôte le compare avec le fichier global et utilise uniquement les interfaces répertoriées dans les deux fichiers. Les hôtes sont utilisés dans l'ordre indiqué dans le fichier local.

Ainsi, en utilisant des adresses différentes dans chaque fichier, vous pouvez contrôler les interfaces utilisées par différents hôtes. Pour configurer les fichiers d'hôtes locaux, suivez la procédure décrite ci-dessous :

  1. Sur chacun des hôtes de serveurs de métadonnées actif et potentiel, modifiez le fichier d'hôtes global du système de fichiers partagé afin qu'il achemine les communications des serveurs et des hôtes dans la direction souhaitée.

    Pour les exemples de cette section, le système de fichiers partagé, sharefs2nics, comprend un serveur de métadonnées actif, sharefs2-mds et un serveur de métadonnées potentiel, sharefs2-mds_alt, possédant chacun deux interfaces réseau. Il y a également deux clients, sharefs2-client1 et sharefs2-client2.

    Nous souhaitons que les serveurs de métadonnées actifs et potentiels communiquent entre eux via des adresses réseau privées et avec les clients via des noms d'hôte que le service DNS (Domain Name Service) peut résoudre en adresses sur le réseau local (LAN) public.

    Nous modifions donc /etc/opt/SUNWsamfs/hosts.sharefs2, le fichier d'hôtes global du système de fichiers. Nous indiquons des adresses d'interface réseau privées pour les serveurs actif et potentiel. Cependant, en ce qui concerne les clients, nous indiquons plutôt les noms d'hôte que les adresses :

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2
    # /etc/opt/SUNWsamfs/hosts.sharefs2
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    sharefs2-client1  sharefs2-client1    0        0
    sharefs2-client2  sharefs2-client2    0        0
    :wq
    [sharefs2-mds]root@solaris:~# 
    
  2. Créez un fichier d'hôtes local sur tous les serveurs de métadonnées actif et potentiels, en utilisant le chemin d'accès et le nom de fichier /etc/opt/SUNWsamfs/hosts.family-set-name.local, où family-set-name correspond à l'identificateur d'équipement du système de fichiers partagé. Incluez uniquement les interfaces pour les réseaux que vous souhaitez que les serveurs actif et potentiel utilisent.

    Dans notre exemple, nous souhaitons que les serveurs de métadonnées actif et potentiel communiquent entre eux via le réseau privé, de sorte que le fichier d'hôtes local sur chaque serveur, hosts.sharefs2.local, répertorie les adresses privées pour seulement deux hôtes, soit les serveurs de métadonnées actif et potentiel :

    [sharefs2-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2 on sharefs2-mds
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    :wq
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-mds_alt
    Password:
    
    [sharefs2-mds_alt]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-mds_alt
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      172.16.0.129        1        0   server 
    sharefs2-mds_alt  172.16.0.130        2        0   
    :wq
    [sharefs2-mds_alt]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  3. Créez un fichier d'hôtes local sur chacun des clients, à l'aide du chemin et du nom de fichier /etc/opt/SUNWsamfs/hosts.family-set-name.local, où family-set-name est l'identificateur d'équipement du système de fichiers partagé. Incluez uniquement les interfaces pour les réseaux que vous souhaitez que les clients utilisent.

    Dans cet exemple, nous souhaitons que les clients communiquent avec le serveur uniquement via le réseau public. Le fichier inclut donc uniquement les noms d'hôte de deux hôtes, les serveurs de métadonnées actifs et potentiels :

    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client1
    Password:
    [sharefs2-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client1 
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      sharefs2-mds        1        0   server 
    sharefs2-mds_alt  sharefs2-mds_alt    2        0   
    :wq
    [sharefs2-client1]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# ssh root@sharefs2-client2
    Password:
    
    [sharefs2-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sharefs2.local
    # /etc/opt/SUNWsamfs/hosts.sharefs2.local on sharefs2-client2
    #                                    Server   On/  Additional
    #Host Name        Network Interface  Ordinal  Off  Parameters
    #---------------  -----------------  -------  ---  ----------
    sharefs2-mds      sharefs2-mds        1        0    server 
    sharefs2-mds_alt  sharefs2-mds_alt    2        0   
    :wq
    [sharefs2-client2]root@solaris:~# exit
    [sharefs2-mds]root@solaris:~# 
    
  4. Si vous avez démarré cette procédure au moment de terminer la configuration du serveur, passez à la Montage du système de fichiers partagé dans le serveur actif.

  5. Si vous avez démarré cette procédure pendant la configuration d'un client, procédez alors à la tâche décrite à la Montage du système de fichiers partagé sur les clients Solaris.

Configuration du stockage d'archivage pour un système de fichiers partagé

Pour paramétrer le stockage d'archivage d'un système de fichiers partagé Oracle HSM d'archivage, effectuez les tâches ci-dessous :

Connexion des lecteurs de bande au serveur et aux hôtes du Data Mover à l'aide de liaisons permanentes

Dans un système de fichiers d'archivage partagé, tous les serveurs de métadonnées potentiels doivent accéder à la bibliothèque et aux lecteurs de bande. Si vous décidez de procéder à la distribution des E/S de bande sur les hôtes du système de fichiers d'archivage partagé, un ou plusieurs clients auront également besoin d'accéder aux lecteurs. Vous devez donc configurer chacun de ces hôtes pour qu'il accède de la même façon à chacun des lecteurs.

Le système d'exploitation Solaris connecte les lecteurs à l'arborescence des périphériques du système dans l'ordre dans lequel il découvre les périphériques au démarrage. Cet ordre peut ou non refléter l'ordre dans lequel les périphériques sont découverts par les autres hôtes du système de fichiers, ou l'ordre dans lequel ils sont physiquement installés dans la bibliothèque de médias amovibles. Par conséquent, vous devez lier de façon permanente les périphériques à chaque hôte, de la même manière qu'ils sont liés aux autres hôtes et dans leur ordre d'installation dans la bibliothèque de médias amovibles.

La procédure ci-après présente les étapes nécessaires (si vous souhaitez accéder à la totalité des informations relatives à la création de liaisons permanentes, reportez-vous aux pages de manuel devfsadm et devlinks et aux documents d'administration de votre version de système d'exploitation Solaris) :

  1. Connectez-vous au serveur de métadonnées actif en tant qu'utilisateur root.

    [sharefs-mds]root@solaris:~# 
    
  2. Si vous ne connaissez pas l'ordre physique actuel des lecteurs dans la bibliothèque, créez un fichier de mappage, comme décrit dans la Définition de l'ordre d'installation des lecteurs dans la bibliothèque.

    Dans cet exemple, le fichier device-mappings.txt prend la forme suivante :

    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -------------    --------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    
  3. Ouvrez le fichier /etc/devlink.tab dans un éditeur de texte.

    Dans cet exemple, nous utilisons l'éditeur de texte vi :

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    # This is the table used by devlinks
    # Each entry should have 2 fields; but may have 3.  Fields are separated
    # by single tab ('\t') characters.
    ...
    
  4. En vous basant sur le fichier device-mappings.txt, ajoutez une ligne au fichier /etc/devlink.tab qui reconfigure un noeud de démarrage dans l'arborescence des périphériques de bande Solaris, rmt/node-number, en premier lecteur de la bibliothèque. Entrez la ligne sous le format type=ddi_byte:tape; addr=device_address,0; rmt/node-number\M0, oùdevice_address correspond à l'adresse physique du périphérique et node-number correspond à la position du périphérique dans l'arborescence des périphériques Solaris ; soit une position assez élevée pour éviter les conflits avec les périphériques que Solaris configure automatiquement (Solaris démarre à partir du noeud 0).

    Dans cet exemple, nous notons l'adresse du premier périphérique dans la bibliothèque, 1, w500104f0008120fe, et voyons qu'il est actuellement connecté à l'hôte à rmt/1 :

    [sharefs-mds] vi /root/device-mappings.txt 
    LIBRARY SOLARIS          SOLARIS 
    DEVICE  LOGICAL          PHYSICAL
    NUMBER  DEVICE           DEVICE
    ------- -----------   ---------------------------------------------------------
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    

    Nous créons donc une ligne dans /etc/devlink.tab qui remappe le noeud sans conflit rmt/60 avec le lecteur numéro 1 dans la bibliothèque w500104f0008120fe :

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    # Copyright (c) 1993, 2011, Oracle and/or its affiliates. All rights reserved.
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    :w
    
  5. Continuez à ajouter des lignes au fichier /etc/devlink.tab pour chaque périphérique à bande affecté pour l'archivage Oracle HSM, de sorte que l'ordre des lecteurs dans l'arborescence des périphériques sur le serveur de métadonnées corresponde à l'ordre d'installation dans la bibliothèque. Enregistrez le fichier.

    Dans cet exemple, nous notons l'ordre et les adresses des trois périphériques restants — lecteur de bibliothèque 2 à w500104f00093c438, lecteur de bibliothèque 3 à w500104f000c086e1 et lecteur de bibliothèque 4 à w500104f000c086e1 :

    [sharefs-mds]root@solaris:~# vi /root/device-mappings.txt 
    ...
       2    /dev/rmt/0cbn -> ../../devices/pci@8,.../st@w500104f00093c438,0:cbn
       1    /dev/rmt/1cbn -> ../../devices/pci@8,.../st@w500104f0008120fe,0:cbn
       3    /dev/rmt/2cbn -> ../../devices/pci@8,.../st@w500104f000c086e1,0:cbn
       4    /dev/rmt/3cbn -> ../../devices/pci@8,.../st@w500104f000b6d98d,0:cbn
    

    Nous mappons ensuite les adresses des périphériques aux trois noeuds de périphériques Solaris suivants (rmt/61, rmt/62 et rmt/63) en conservant l'ordre dans lequel ils apparaissent dans la bibliothèque :

    [sharefs-mds]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds]root@solaris:~# 
    
  6. Supprimez tous les liens existants avec les périphériques à bande dans /dev/rmt.

    [sharefs-mds]root@solaris:~# rm /dev/rmt/* 
    
  7. Créez de nouvelles liaisons persistantes avec les périphériques à bande à partir des entrées dans le fichier /etc/devlink.tab. Exécutez la commande devfsadm -c tape.

    Chaque fois que la commande devfsadm est exécutée, elle crée de nouvelles liaisons de périphériques à bande pour les périphériques spécifiés dans le fichier /etc/devlink.tab selon la configuration spécifiée par ce fichier. L'option -c tape limite la commande à la création de nouvelles liaisons pour les périphériques à bande uniquement :

    [sharefs-mds]root@solaris:~# devfsadm -c tape
    
  8. Créez de nouvelles liaisons persistantes avec les périphériques à bande sur chaque serveur de métadonnées potentiel et Data Mover dans la configuration du système de fichiers partagé. Ajoutez les mêmes lignes au fichier /etc/devlink.tab, supprimez les liaisons dans /dev/rmt et exécutez devfsadm -c tape.

    Dans l'exemple, nous avons un serveur de métadonnées potentiel, sharefs-mds_alt et un client Data Mover, sharefs-client1. Nous modifions donc les fichiers /etc/devlink.tab sur chacun des deux afin de correspondre à celui du serveur actif, sharefs-mds. Nous supprimons ensuite les liaisons existantes dans /dev/rmt sur sharefs-mds_alt et sharefs-client1, puis nous exécutons devfsadm -c tape sur chaque :

    [sharefs-mds]root@solaris:~# ssh sharefs-mds_alt
    Password:
    [sharefs-mds_alt]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-mds_alt]root@solaris:~# rm /dev/rmt/* 
    [sharefs-mds_alt]root@solaris:~# devfsadm -c tape
    [sharefs-mds_alt]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# ssh sharefs-client1
    Password:
    [sharefs-client1]root@solaris:~# vi /etc/devlink.tab
    ...
    type=ddi_byte:tape;addr=w500104f0008120fe,0;    rmt/60\M0
    type=ddi_byte:tape;addr=w500104f00093c438,0;    rmt/61\M0
    type=ddi_byte:tape;addr=w500104f000c086e1,0;    rmt/62\M0
    type=ddi_byte:tape;addr=w500104f000b6d98d,0;    rmt/63\M0
    :wq
    [sharefs-client1]root@solaris:~# rm /dev/rmt/*  
    [sharefs-client1]root@solaris:~# devfsadm -c tape
    [sharefs-client1]root@solaris:~# exit
    [sharefs-mds]root@solaris:~# 
    
  9. Procédez ensuite à la configuration des hôtes du système de fichiers d'archivage pour qu'ils utilisent le stockage d'archivage.

Configuration des hôtes du système de fichiers d'archivage pour qu'ils utilisent le stockage d'archivage

Pour le serveur de métadonnées actif et pour chaque serveur de métadonnées potentiel et chaque client Data Mover, procédez comme suit :

  1. Connectez-vous à l'hôte en tant qu'utilisateur root.

    [sharefs-host]root@solaris:~# 
    
  2. Ouvrez le fichier /etc/opt/SUNWsamfs/mcf dans un éditeur de texte.

    Dans l'exemple, nous utilisons l'éditeur de texte vi.

    [sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    sharefs                  100       ms        sharefs on
     /dev/dsk/c1t3d0s3        101       md        sharefs on
     /dev/dsk/c1t3d0s4        102       md        sharefs on
    ...
    
  3. Selon les définitions du système de fichiers figurant dans le fichier /etc/opt/SUNWsamfs/mcf, commencez une section pour l'équipement de stockage.

    Dans l'exemple, nous ajoutons certains en-têtes pour plus de clarté :

    [sharefs-host]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    ...
    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    
  4. Pour ajouter un système de stockage sur bandes d'archivage, commencez par ajouter une entrée pour la bibliothèque. Dans le champ de l'identificateur d'équipement, saisissez l'ID de périphérique de la bibliothèque et affectez-lui un numéro ordinal d'équipement :

    Dans cet exemple, l'identificateur d'équipement de la bibliothèque est /dev/scsi/changer/c1t0d5. Nous définissons le nombre ordinal d'équipement sur 900, qui correspond à l'intervalle suivant celui choisi pour notre archive sur disque :

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900
    
  5. Définissez le type d'équipement sur rb, une bibliothèque de bandes générique associée par SCSI, nommez la famille de bibliothèque de bandes et définissez l'état du périphérique sur on.

    Dans cet exemple, nous utilisons la bibliothèque library1 :

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on
    
  6. Dans la colonne Additional Parameters, vous pouvez entrer un chemin d'accès et un nom facultatifs et définis par l'utilisateur pour le catalogue de la bibliothèque.

    Le chemin d'accès facultatif, non défini par défaut, ne peut pas dépasser 127 caractères. Dans cet exemple, nous utilisons le chemin par défaut var/opt/SUNWsamfs/catalog/, avec le nom du fichier de catalogue library1cat défini par l'utilisateur. Notez qu'en raison des limitations de la présentation du document, l'exemple abrège le chemin d'accès :

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on     .../library1cat
    
  7. Ensuite, ajoutez une entrée pour chaque lecteur de bande. Utilisez les identificateurs d'équipement permanents précédemment établis dans la procédure décrite dans la Connexion des lecteurs de bande au serveur et aux hôtes du Data Mover à l'aide de liaisons permanentes.

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------  ------ -----------------
    DISKVOL1                  800       ms       DISKVOL1  on
     /dev/dsk/c6t0d1s7         801       md       DISKVOL1  on
     /dev/dsk/c4t0d2s7         802       md       DISKVOL1  on
    /dev/scsi/changer/c1t0d5  900       rb       library1  on     .../library1cat
     /dev/rmt/60cbn            901       tp       library1 on
     /dev/rmt/61cbn            902       tp       library1  on
     /dev/rmt/62cbn            903       tp       library1  on
     /dev/rmt/63cbn            904       tp       library1  on
    
  8. Enfin, si vous souhaitez configurer vous-même un historique Oracle HSM, ajoutez une entrée à l'aide du type d'équipement hy. Entrez un trait d'union dans les colonnes "family-set" et "device-state", puis saisissez le chemin du catalogue d'historiques dans la colonne "additional-parameters".

    L'historique est une bibliothèque virtuelle qui répertorie les volumes exportés depuis l'archive. Si vous ne configurez pas d'historique, le logiciel en crée un automatiquement à l'aide du nombre ordinal le plus élevé plus un (+1).

    L'exemple abrège le chemin du catalogue d'historique pour des raisons de mise en forme de la page. Le chemin d'accès complet est /var/opt/SUNWsamfs/catalog/historian_cat :

    # Archival storage for copies:
    #
    # Equipment              Equipment Equipment Family    Device Additional
    # Identifier             Ordinal   Type      Set       State  Parameters
    #----------------------- --------- --------- --------- ------ ----------------
    /dev/scsi/changer/c1t0d5 900       rb        library1  on     ...catalog/library1cat
     /dev/rmt/60cbn           901       tp        library1  on
     /dev/rmt/61cbn           902       tp        library1  on
     /dev/rmt/62cbn           903       tp        library1  on
     /dev/rmt/63cbn           904       tp        library1  on
    historian                999       hy        -         -     .../historian_cat
    
  9. Enregistrez le fichier mcf et quittez l'éditeur.

    ...
     /dev/rmt/3cbn            904       tp        library1  on
    historian                999       hy         -      -      .../historian_cat
    :wq
    [sharefs-host]root@solaris:~# 
    
  10. Vérifiez que le fichier mcf ne contient pas d'erreurs en exécutant la commande sam-fsd. Corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur :

    [sharefs-host]root@solaris:~# sam-fsd
    ...
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [sharefs-host]root@solaris:~# 
    
  11. Demandez au service Oracle HSM de relire le fichier mcf et de se reconfigurer en conséquence. Corrigez les erreurs signalées et si nécessaire, répétez cette procédure.

    [sharefs-host]root@solaris:~# samd config
    Configuring SAM-FS
    [sharefs-host]root@solaris:~# 
    
  12. Répétez cette procédure jusqu'à ce que tous les serveurs de métadonnées potentiels et actif et tous les clients Data Mover aient été configurés pour utiliser le stockage d'archivage.

  13. Le cas échéant, procédez à la distribution des E/S de bande sur les hôtes du système de fichiers d'archivage partagé.

  14. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  15. Sinon, passez à la Configuration des notifications et de la journalisation.

Distribution des E/S de bande sur les hôtes du système de fichiers d'archivage partagé

A compter de la Version 6.1 de Oracle HSM, tout client d'un système de fichiers d'archivage partagé exécuté sous Oracle Solaris 11 ou une version ultérieure peut connecter des lecteurs de bande et traiter les E/S de bande pour le compte du système de fichiers. La distribution des E/S de bande sur ces hôtes Data Mover réduit considérablement la surcharge du serveur, améliore les performances du système de fichiers et permet une flexibilité supérieure lors du développement des implémentations Oracle HSM. Si vos besoins en termes d'archivage augmentent, vous avez à présent la possibilité de remplacer les serveurs de métadonnées Oracle HSM par des systèmes plus puissants (mise à l'échelle verticale) ou de répartir la charge sur davantage de clients (mise à l'échelle horizontale).

Pour distribuer les E/S de bande sur l'ensemble des hôtes de système de fichiers partagé, procédez comme suit :

  1. Connectez tous les périphériques qui seront utilisés pour les E/S vers le serveur de métadonnées du système de fichiers, ainsi que sur l'ensemble des clients de systèmes de fichiers qui géreront les E/S de bande.

  2. Si vous ne l'avez pas encore fait, connectez les lecteurs de bande à chaque client qui servira de Data Mover, à l'aide de liaisons persistantes. Revenez ensuite ici.

  3. Connectez-vous au serveur de métadonnées du système de fichiers d'archivage partagé en tant qu'utilisateur root.

    Dans cet exemple, le nom d'hôte du serveur est samsharefs-mds :

    [samsharefs-mds]root@solaris:~# 
    
  4. Assurez-vous que le serveur de métadonnées exécute Oracle Solaris 11 ou une version ultérieure.

    [samsharefs-mds]root@solaris:~# uname -r
    5.11
    [samsharefs-mds]root@solaris:~# 
    
  5. Assurez-vous que tous les clients servant de Data Mover exécutent Oracle Solaris 11 ou une version ultérieure.

    Dans cet exemple, nous nous connectons aux hôtes client samsharefs-client1 et samsharefs-client2 à distance via le protocole ssh et obtenons la version Solaris dans la bannière de connexion :

    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client1
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client1]root@solaris:~# exit
    [samsharefs-mds]root@solaris:~# ssh root@samsharefs-client2
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [samsharefs-client2]root@solaris:~# exit
    [samsharefs-mds]root@solaris:~# 
    
  6. Calculez la quantité de mémoire système qui peut être allouée en tant qu'espace de tampon pour chaque lecteur de bande dans la configuration d'E/S distribuée. Divisez la mémoire disponible totale par le nombre de lecteurs en soustrayant une marge de sécurité adaptée :

    (total-memory bytes)/(drive-count drives) = memory bytes/drive 
    (memory bytes/drive) - (safe-margin bytes/drive) = buffsize bytes/drive
     
    

    Oracle HSM alloue un tampon pour chaque lecteur utilisé. Par conséquent, veillez à ne pas configurer par inadvertance plus d'espace de tampon que la mémoire système peut fournir. Dans cet exemple, nous constatons qu'il n'est pas possible d'allouer plus de 224 kilo-octets par lecteur. Nous arrondissons donc à 128 pour conserver une marge de sécurité.

    ((3584 kilobytes)/(16 drives)) = 224 kilobytes/drive
    buffsize = 128 kilobytes/drive
     
    
  7. Après avoir calculé la taille du tampon pouvant être alloué à chaque lecteur, calculez une taille de bloc pour le périphérique Oracle HSM et un nombre de blocs adaptés au tampon de la taille indiquée.

    (number blocks/buffer)*block-size bytes/block/drive = buffersize bytes/drive
    

    Faites varier le nombre et la taille des blocs jusqu'à ce que le produit des deux soit inférieur ou égal à la taille de tampon calculée. Le nombre de blocs doit être compris entre [2-8192]. Dans cet exemple, nous avons choisi deux blocs de 64 kilo-octets pour chaque tampon :

    (2 blocks/buffer)*(64 kilobytes/block/drive) = 128 kilobytes/drive
    
  8. Sur le serveur de métadonnées, ouvrez le fichier /etc/opt/SUNWsamfs/archiver.cmd dans un éditeur de texte. Sur une nouvelle ligne de la section des directives générales en haut du fichier, entrez bufsize = media-type media-blocks, où :

    • media-type est le code de type que le fichier mcf attribue aux lecteurs et médias utilisés pour les E/S distribuées.

    • media-blocks est le nombre de blocs par tampon calculé précédemment.

    Enregistrez le fichier et fermez l'éditeur de texte.

    Dans cet exemple, nous nous connectons au serveur samsharefs-mds et utilisons l'éditeur vi pour ajouter la ligne bufsize = ti 2, où ti est le type de média pour les lecteurs Oracle StorageTek T10000 utilisés et 2 est le nombre de blocs par tampon de lecteur que nous avons calculé :

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    #       archiver.cmd
    #-----------------------------------------------------------------------
    # General Directives
    archivemeta = off
    examine = noscan
    bufsize = ti 2
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  9. Sur le serveur de métadonnées, ouvrez le fichier /etc/opt/SUNWsamfs/defaults.conf dans un éditeur de texte. Pour chaque type de média qui prendra part aux E/S distribuées, entrez une ligne sous la forme media-type_blksize =size où :

    • media-type est le code de type que le fichier mcf attribue aux lecteurs et médias utilisés pour les E/S distribuées.

    • size correspond à la taille de bloc calculée précédemment au cours de la procédure.

    Par défaut, la taille de bloc de périphérique pour les lecteurs StorageTek T10000 est de 2 méga-octets ou 2 048 kilo-octets (ti_blksize = 2048). Dans cet exemple, nous remplaçons donc la valeur par défaut par la taille de bloc calculée, 64 kilo-octets :

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/defaults.conf 
    # These are the defaults.  To change the default behavior, uncomment the
    # appropriate line (remove the '#' character from the beginning of the line)
    # and change the value.
    ...
    #li_blksize = 256
    ti_blksize = 64
    [samsharefs-mds]root@solaris:~# 
    
  10. Dans le fichier /etc/opt/SUNWsamfs/defaults.conf, supprimez la mise en commentaire de la ligne #distio = off le cas échéant, ou ajoutez la ligne si elle n'est pas présente.

    Par défaut, distio est off (désactivé). Dans cet exemple, nous ajoutons la ligne distio = on :

    ...
    distio = on
    
  11. Dans le fichier /etc/opt/SUNWsamfs/defaults.conf, activez chaque type de périphérique devant participer aux E/S distribuées. Sur une nouvelle ligne, entrez media-type _distio = on, où media-type est le code de type que le fichier mcf attribue aux lecteurs et médias.

    Par défaut, les lecteurs StorageTek T10000 et les lecteurs LTO sont autorisés à participer aux E/S distribuées (ti_distio = on et li_distio = on), tandis que tous les autres types sont exclus. Dans cet exemple, nous incluons explicitement les lecteurs StorageTek T10000 :

    ...
    distio = on
    ti_distio = on
    
  12. Dans le fichier /etc/opt/SUNWsamfs/defaults.conf, désactivez chaque type de périphérique ne devant pas participer aux E/S distribuées. Sur une nouvelle ligne, entrez media-type _distio = off, où media-type est le code de type que le fichier mcf attribue aux lecteurs et médias.

    Dans l'exemple, nous excluons les lecteurs LTO :

    ...
    distio = on
    ti_distio = on
    li_distio = off
    
  13. Lorsque vous avez terminé de modifier le fichier /etc/opt/SUNWsamfs/defaults.conf, enregistrez le contenu et fermez l'éditeur.

    ...
    distio = on
    ti_distio = on
    li_distio = off
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  14. Sur chaque client qui servira de Data Mover, modifiez le fichier defaults.conf afin qu'il corresponde au fichier sur le serveur.

  15. Sur chaque client qui servira de Data Mover, ouvrez le fichier /etc/opt/SUNWsamfs/mcf dans un éditeur de texte et mettez à jour le fichier pour y inclure tous les périphériques de stockage sur bande utilisés par le serveur de métadonnées pour les E/S de bande distribuées. Assurez-vous que les numéros d'ordre et d'équipement sont identiques à ceux du fichier mcf sur le serveur de métadonnées.

    Dans l'exemple, nous utilisons l'éditeur vi pour configurer le fichier mcf sur l'hôte samsharefs-client1 :

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti                    on
     /dev/rmt/61cbn           902       ti                    on
     /dev/rmt/62cbn           903       ti                    on
     /dev/rmt/63cbn           904       ti                    on
    
  16. Si la bibliothèque de bandes répertoriée dans le fichier /etc/opt/SUNWsamfs/mcf sur le serveur de métadonnées est configurée sur le client qui servira de Data Mover, spécifiez la famille de bibliothèques comme nom de famille pour les périphériques à bande utilisés pour les E/S de bande distribuées. Enregistrez le fichier.

    Dans cet exemple, la bibliothèque est configurée sur l'hôte samsharefs-client1, de sorte que nous utilisons le nom de famille library1 pour les périphériques à bande.

    [samsharefs-client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
    /dev/scsi/changer/c1t0d5 900       rb        library1    on     .../library1cat
     /dev/rmt/60cbn           901       ti        library1    on
     /dev/rmt/61cbn           902       ti        library1    on
     /dev/rmt/62cbn           903       ti        library1    on
     /dev/rmt/63cbn           904       ti        library1    on
    :wq
    [samsharefs-client1]root@solaris:~# 
    
  17. Si la bibliothèque de bandes répertoriée dans le fichier /etc/opt/SUNWsamfs/mcf sur le serveur de métadonnées n'est pas configurée sur le client qui servira de Data Mover, utilisez un trait d'union (-) comme nom de famille pour les périphériques à bande utilisés pour les E/S de bande distribuées. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Dans l'exemple, la bibliothèque n'est pas configurée sur l'hôte samsharefs-client2, c'est pourquoi nous utilisons le tiret comme nom de famille pour les périphériques à bande :

    [samsharefs-client2]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf
    # Equipment              Equipment Equipment Family      Device Additional
    # Identifier             Ordinal   Type      Set         State  Parameters
    #----------------------- --------- --------- ----------  ------ --------------
    samsharefs               800       ms        samsharefs  on
    ...
    # Archival storage for copies:
     /dev/rmt/60cbn           901       ti        -           on
     /dev/rmt/61cbn           902       ti        -           on
     /dev/rmt/62cbn           903       ti        -           on
     /dev/rmt/63cbn           904       ti        -           on
    :wq
    [samsharefs-client2]root@solaris:~# 
    
  18. S'il est nécessaire d'activer ou de désactiver les E/S de bande distribuées pour les copies d'un groupe d'archives particulier, connectez-vous au serveur, ouvrez le fichier /etc/opt/SUNWsamfs/archiver.cmd dans un éditeur de texte et ajoutez le paramètre -distio à l'intérieur de cette directive de copie. Définissez -distio sur on pour activer les E/S distribuées ou définissez -distio sur off pour les désactiver. Enregistrez le fichier.

    Dans l'exemple, nous nous connectons au serveur samsharefs-mds et utilisons l'éditeur vi pour définir les E/S distribuées sur off pour la copie 1 :

    [samsharefs-mds]root@solaris:~# vi /etc/opt/SUNWsamfs/archiver.cmd
    #       archiver.cmd
    ...
    params
    allsets -sort path -offline_copy stageahead
    allfiles.1 -startage 10m -startsize 500M -startcount 500000 -distio off
    allfiles.2 -startage 24h -startsize 20G  -startcount 500000 -reserve set
    :wq
    [samsharefs-mds]root@solaris:~# 
    
  19. Vérifiez les erreurs dans les fichiers de configuration en exécutant la commande sam-fsd. Corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous exécutons la commande sur le serveur, sharefs-mds :

    [sharefs-mds]root@solaris:~# sam-fsd
    
  20. Demandez au service Oracle HSM de lire les fichiers de configuration modifiés et de se reconfigurer en conséquence. Corrigez les erreurs signalées et si nécessaire, répétez cette procédure.

    [sharefs-mds]root@solaris:~# samd config
    
  21. Pour vérifier que l'activation des E/S distribuées a réussi, utilisez la commande samcmd g. Si l'indicateur DATAMOVER s'affiche dans la sortie des clients, les E/S distribuées ont été activées avec succès.

    Dans l'exemple, l'indicateur est présent :

    [samsharefs-mds]root@solaris:~# samcmd g
    Shared clients samcmd 6.0.dist_tapeio 11:09:13 Feb 20 2014
    samcmd on samsharefs-mds
    samsharefs is shared, server is samsharefs-mds, 2 clients 3 max
    ord hostname             seqno nomsgs status   config  conf1  flags
      1 samsharefs-mds          14      0   8091  808540d   4051      0 MNT SVR
     
        config   :   CDEVID      ARCHIVE_SCAN    GFSID   OLD_ARCHIVE_FMT
        "        :   SYNC_META   TRACE   SAM_ENABLED     SHARED_MO
        config1  :   NFSV4_ACL   MD_DEVICES      SMALL_DAUS      SHARED_FS
        flags    :
        status   :   MOUNTED     SERVER  SAM     DATAMOVER
        last_msg :  Wed Jul  2 10:13:50 2014
     
      2 samsharefs-client1     127      0   a0a1  808540d   4041      0 MNT CLI
     
        config   :   CDEVID      ARCHIVE_SCAN    GFSID   OLD_ARCHIVE_FMT
        "        :   SYNC_META   TRACE   SAM_ENABLED     SHARED_MO
        config1  :   NFSV4_ACL   MD_DEVICES      SHARED_FS
        flags    :
        status   :   MOUNTED     CLIENT  SAM     SRVR_BYTEREV
        "        :   DATAMOVER
    ...
    
  22. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  23. Sinon, passez à la Configuration des notifications et de la journalisation.

Accès aux systèmes de fichiers à partir de plusieurs hôtes à l'aide de NFS et SMB/CIFS

Plusieurs hôtes peuvent accéder aux systèmes de fichiers Oracle HSM à l'aide des partages NFS (Network File System) ou SMB (Server Message Block)/CIFS (Common Internet File System) à la place ou en complément de la prise en charge native du logiciel Oracle HSM de l'accès au système de fichiers par des hôtes multiples (voir la Accès aux systèmes de fichiers à partir de plusieurs hôtes à l'aide du logiciel Oracle HSM). Les sections suivantes décrivent les étapes de configuration de base :

Partage des systèmes de fichiers Oracle HSM à l'aide de NFS

Effectuez les tâches suivantes :

Désactivez la délégation avant d'utiliser NFS 4 pour partager un système de fichiers Oracle HSM

Si vous utilisez NFS pour partager un système de fichiers partagé Oracle HSM, vous devez vous assurer que le logiciel Oracle HSM contrôle l'accès aux fichiers sans interférence de la part de NFS. Cela ne pose généralement pas problème, car lorsque le serveur NFS accède aux fichiers pour le compte de ses clients, il le fait en tant que client du système de fichiers partagé Oracle HSM. Toutefois, des problèmes peuvent survenir si les serveurs dotés de la version 4 de NFS sont configurés pour déléguer le contrôle des accès en lecture et en écriture à leurs clients. La délégation est intéressante dans la mesure où le serveur n'a à intervenir que pour parer des conflits potentiels. La charge de travail du serveur est en partie distribuée sur les clients NFS, et le trafic du réseau est réduit. Mais la délégation accorde l'accès, notamment l'accès en écriture, indépendamment du serveur Oracle HSM, qui contrôle également l'accès à partir de ses propres clients de système de fichiers. Pour éviter les conflits et une altération potentielle de fichiers, vous devez désactiver la délégation. Procédez comme suit :

  1. Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez configurer en tant que partage NFS. Connectez-vous en tant que root.

    Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfsnfs.

    [qfsnfs]root@solaris:~# 
    
  2. Si vous utilisez NFS version 4 et que le serveur exécute Solaris 11.1 ou une version ultérieure, utilisez la commande sharectl set -p de l'utilitaire de gestion des services (SMF, Service Management Facility) pour régler la propriété server_delegation de NFS sur off.

    [qfsnfs]root@solaris:~# sharectl set -p server_delegation=off
    
  3. Si vous utilisez NFS version 4 et que le serveur exécute Solaris 11.0 ou une version antérieure, désactivez les délégations en ouvrant le fichier /etc/default/nfs dans un éditeur de texte et en définissant le paramètre NFS_SERVER_DELEGATION sur off. Enregistrez le fichier et fermez l'éditeur de texte.

    Dans cet exemple, nous utilisons l'éditeur de texte vi :

    [qfsnfs]root@solaris:~# vi /etc/default/nfs
    # ident "@(#)nfs        1.10    04/09/01 SMI"
    # Copyright 2004 Sun Microsystems, Inc.  All rights reserved.
    # Use is subject to license terms.
    ...
    NFS_SERVER_DELEGATION=off
    :wq
    [qfsnfs]root@solaris:~# 
    
  4. Si le système de fichiers Oracle HSM que vous avez l'intention de partager prend en charge la fonction WORM (Write-Once Read-Many), procédez maintenant à la configuration des serveurs et clients NFS pour qu'ils partagent les répertoires et fichiers WORM.

  5. Sinon, procédez à la configuration du serveur NFS sur l'hôte Oracle HSM.

Configuration des serveurs et clients NFS pour qu'ils partagent les répertoires et fichiers WORM

  1. Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez partager à l'aide de NFS. Connectez-vous en tant que root.

    Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfsnfs et le nom du client nfsclient1.

    [qfsnfs]root@solaris:~# 
    
  2. Si le système de fichiers Oracle HSM que vous avez l'intention de partager utilise la fonction WORM et est hébergé sur un serveur en cours d'exécution sous Oracle Solaris 10 ou version ultérieure, assurez-vous que NFS version 4 est activé sur le serveur NFS et sur tous les clients.

    Dans l'exemple, nous vérifions le serveur qfsnfs et le client qfsnfsclient1. Dans chaque cas, nous vérifions d'abord le niveau de la version de Solaris à l'aide de la commande uname -r. Nous traitons la sortie de la commande modinfo vers la commande grep et une expression régulière qui trouve les informations de version de NFS :

    [qfsnfs]root@solaris:~# uname -r
    5.11
    [qfsnfs]root@solaris:~# modinfo | grep -i "nfs.* version 4"
    258 7a600000  86cd0  28   1  nfs (network filesystem version 4)
    [qfsnfs]root@solaris:~# ssh root@nfsclient1
    Pasword: ...
    [nfsclient1]root@solaris:~# uname -r
    5.11
    [nfsclient1]root@solaris:~# modinfo | grep -i "nfs.* version 4"
    278 fffffffff8cba000  9df68  27   1  nfs (network filesystem version 4)
    [nfsclient1]root@solaris:~# exit
    [qfsnfs]root@solaris:~# 
    
  3. Si la version 4 de NFS n'est pas activée sur un serveur en cours d'exécution sous Oracle Solaris 10 ou une version ultérieure, connectez-vous sur le serveur et sur chaque client en tant qu'utilisateur root. Utilisez alors la commande sharectl set pour activer NFS 4 :

    [qfsnfs]root@solaris:~# sharectl set -p server_versmax=4 nfs
    [qfsnfs]root@solaris:~# ssh root@nfsclient1
    Password ...
    [nfsclient1]root@solaris:~# sharectl set -p server_versmax=4 nfs
    [nfsclient1]root@solaris:~# exit
    [qfsnfs]root@solaris:~# 
    
  4. Procédez ensuite à la configuration du serveur NFS sur l'hôte Oracle HSM.

Configuration du serveur NFS sur l'hôte Oracle HSM

Avant que les clients puissent correctement monter un système de fichiers Oracle HSM à l'aide de NFS, vous devez configurer le serveur NFS afin qu'il n'essaie pas de partager ce système de fichiers Oracle HSM avant qu'il ne soit monté avec succès sur l'hôte. Sous Oracle Solaris 10 et les versions ultérieures du système d'exploitation, l'utilitaire de gestion des services (SMF) gère le montage des systèmes de fichiers au moment de l'initialisation. Si vous ne configurez pas NFS à l'aide de la procédure ci-dessous, le montage QFS ou le partage NFS réussira, et l'autre échouera.

  1. Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez configurer en tant que partage NFS. Connectez-vous en tant que root.

    Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfsnfs.

    [qfsnfs]root@solaris:~# 
    
  2. Exportez la configuration NFS existante dans un fichier manifeste XML en redirigeant la sortie de la commande svccfg export /network/nfs/server .

    Dans l'exemple, nous dirigeons la configuration exportée vers le fichier manifeste /var/tmp/server.xml :

    [qfsnfs]root@solaris:~# svccfg export /network/nfs/server > /var/tmp/server.xml
    [qfsnfs]root@solaris:~# 
    
  3. Ouvrez le fichier manifeste dans un éditeur de texte, puis localisez la dépendance filesystem-local.

    Dans cet exemple, nous ouvrons le fichier dans l'éditeur vi. L'entrée de la dépendance filesystem-local est listée juste avant l'entrée du nfs-server_multi-user-server dépendant :

    [qfsnfs]root@solaris:~# vi /var/tmp/server.xml
    <?xml version='1.0'?>
    <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'>
    <service_bundle type='manifest' name='export'>
      <service name='network/nfs/server' type='service' version='0'>
        ...
        <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/system/filesystem/local'/>
        </dependency>
        <dependent name='nfs-server_multi-user-server' restart_on='none'
            grouping='optional_all'>
          <service_fmri value='svc:/milestone/multi-user-server'/>
        </dependent>
        ...
    
  4. Juste après la dépendance filesystem-local, ajoutez une dépendance qfs qui monte le système de fichiers partagé QFS. Enregistrez ensuite le fichier et quittez l'éditeur.

    Cette procédure permet de monter le système de fichiers partagé Oracle HSM avant que le serveur tente de le partager via NFS :

    <?xml version='1.0'?>
    <!DOCTYPE service_bundle SYSTEM '/usr/share/lib/xml/dtd/service_bundle.dtd.1'>
    <service_bundle type='manifest' name='export'>
      <service name='network/nfs/server' type='service' version='0'>
        ...
        <dependency name='filesystem-local' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/system/filesystem/local'/>
        </dependency>
        <dependency name='qfs' grouping='require_all' restart_on='error' type='service'>
          <service_fmri value='svc:/network/qfs/shared-mount:default'/>
        </dependency>
        <dependent name='nfs-server_multi-user-server' restart_on='none'
            grouping='optional_all'>
          <service_fmri value='svc:/milestone/multi-user-server'/>
        </dependent>
    :wq
    [qfsnfs]root@solaris:~# 
    
  5. Validez le fichier manifeste à l'aide de la commande svccfg validate.

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    
  6. Si la commande svccfg validate signale des erreurs, corrigez les erreurs, puis validez à nouveau le fichier.

    Dans l'exemple, la commande svccfg validate renvoie des erreurs d'analyse XML. Nous avons omis par inadvertance une balise de fin </dependency> lors de l'enregistrement du fichier. Nous devons donc l'ouvrir à nouveau dans l'éditeur de texte vi et corriger le problème :

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    /var/tmp/server.xml:75: parser error : Opening and ending tag mismatch: dependency line 29 and service
      </service>
                ˆ
    /var/tmp/server.xml:76: parser error : expected '>'
    </service_bundle>
             ˆ
    /var/tmp/server.xml:77: parser error : Premature end of data in tag service_bundle line 3
    ˆ
    svccfg: couldn't parse document
    [qfsnfs]root@solaris:~# vi /var/tmp/server.xml
    ...
    :wq
    [qfsnfs]root@solaris:~# 
    
  7. Une fois la commande svccfg validate effectuée sans erreur, désactivez NFS avec la commande svcadm disable nfs/server.

    Dans cet exemple, la commande svccfg validate n'a renvoyé aucune sortie, le fichier est donc valide et nous pouvons désactiver NFS :

    [qfsnfs]root@solaris:~# svccfg validate /var/tmp/server.xml
    [qfsnfs]root@solaris:~# svcadm disable nfs/server
    
  8. Supprimez la configuration existante du serveur NFS à l'aide de la commande svccfg delete nfs/server.

    [qfsnfs]root@solaris:~# svccfg delete nfs/server
    
  9. Importez le fichier manifeste dans l'utilitaire de gestion des services SMF à l'aide de la commande svccfg import.

    [qfsnfs]root@solaris:~# svccfg import /var/tmp/server.xml
    
  10. Réactivez NFS à l'aide de la commande svcadm enable nfs/server.

    NFS est configuré pour l'utilisation d'une configuration mise à jour.

    [qfsnfs]root@solaris:~# svcadm enable nfs/server
    
  11. Confirmez que la dépendance qfs a été appliquée. Assurez-vous que la commande svcs -d svc:/network/nfs/server:default affiche le service /network/qfs/shared-mount:default :

    [qfsnfs]root@solaris:~# svcs -d svc:/network/nfs/server:default 
    STATE          STIME    FMRI
    ...
    online         Nov_01   svc:/network/qfs/shared-mount:default
    ...
    
  12. Procédez ensuite au partage du système de fichiers Oracle HSM en tant que partage NFS.

Partage du système de fichiers Oracle HSM en tant que partage NFS

Partagez le système de fichiers Oracle HSM en appliquant les procédures décrites dans la documentation d'administration relative à votre version du système d'exploitation Oracle Solaris. Les étapes ci-dessous récapitulent la procédure pour Solaris 11.1 :

  1. Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez partager à l'aide de NFS. Connectez-vous en tant que root.

    Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfsnfs.

    [qfsnfs]root@solaris:~# 
    
  2. Entrez la ligne de commande share -F nfs -o sharing-options sharepath, où le commutateur -F indique le protocole de partage nfs et sharepath est le chemin de la ressource partagée. Si le paramètre facultatif -o est utilisé, sharing-options peut inclure l'une des options suivantes :

    • rw met sharepath à la disposition de tous les clients avec les privilèges de lecture et d'écriture.

    • ro met sharepath à la disposition de tous les clients avec des privilèges de lecture seule.

    • rw=clients met sharepath à la disposition des clients avec des privilèges de lecture et d'écriture, une liste d'au moins un client ayant accès au partage, séparés par des virgules.

    • ro=clients met sharepath à la disposition des clients avec des privilèges de lecture seule, une liste d'au moins un client ayant accès au partage, séparés par des virgules.

    Dans cet exemple, nous partageons la lecture/écriture du système de fichiers/qfsms avec les clients nfsclient1 et nfsclient2, et la lecture seule avec nfsclient3 (Notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfsnfs]root@solaris:~# share -F nfs -o rw=nfsclient1:nfsclient2 \
     ro=nfsclient3 /qfsms
    

    Lorsque vous entrez la commande, le système redémarre automatiquement le démon du serveur NFS nfsd. Reportez-vous à la page de manuel share_nfs pour accéder aux détails et options supplémentaires.

  3. Vérifiez les paramètres de partage à l'aide de ligne de commande share -F nfs.

    Dans l'exemple, la sortie de la commande montre que nous avons correctement configuré le partage :

    [qfsnfs]root@solaris:~# share -F nfs
    /qfsms   sec=sys,rw=nfsclient1:nfsclient2,ro=nfsclient3
    [qfsnfs]root@solaris:~# 
    
  4. Procédez ensuite au montage du système de fichiers Oracle HSM partagé NFS sur les clients NFS.

Montage du système de fichiers Oracle HSM partagé NFS sur les clients NFS

Montez le système de fichiers du serveur NFS sur un point de montage approprié sur les systèmes clients. Pour chaque client, procédez comme suit :

  1. Connectez-vous au client en tant qu'utilisateur root.

    Dans l'exemple, le client NFS s'appelle nfsclient1 :

    [nfsclient1]root@solaris:~# 
    
  2. Sauvegardez le fichier /etc/vfstab du système d'exploitation.

    [nfsclient1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    [nfsclient1]root@solaris:~# 
    
  3. Ouvrez le fichier /etc/vfstab dans un éditeur de texte.

    Dans l'exemple, nous utilisons l'éditeur de texte vi.

    [nfsclient1]root@solaris:~# vi /etc/vfstab
    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    
  4. Dans la première colonne du fichier /etc/vfstab, nommez le périphérique que vous souhaitez monter en indiquant par deux-points (:) le nom du serveur NFS et le point de montage du système de fichiers que vous souhaitez partager.

    Dans l'exemple, le serveur NFS est appelé qfsnfs, le système de fichiers partagé est appelé qfsms et le point de montage sur le serveur est /qfsms :

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms
    
  5. Dans la deuxième colonne du fichier /etc/vfstab, saisissez un trait d'union (-) afin que le système local ne tente pas de vérifier la cohérence du système de fichiers distant :

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -
    
  6. Dans la troisième colonne du fichier /etc/vfstab, saisissez le point de montage local sur lequel vous allez monter le système de fichiers distant.

    Dans l'exemple, le point de montage sera le répertoire /qfsnfs :

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs
    
  7. Dans la quatrième colonne du fichier /etc/vfstab, saisissez le type de système de fichiers nfs.

    #File         Device                           Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs
    

    Nous utilisons le type de système de fichiers nfs car le client monte le système de fichiers distant QFS en tant que système de fichiers NFS.

  8. Dans la cinquième colonne du fichier /etc/vfstab, saisissez un trait d'union (-) car le système local ne vérifie pas l'intégrité du système de fichiers distant.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -
    
  9. Dans la sixième colonne du fichier /etc/vfstab, saisissez yes pour monter le système de fichiers distant à l'initialisation, ou no pour le monter manuellement ou à la demande.

    Dans l'exemple, nous avons saisi yes :

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes
    
  10. Dans la dernière colonne du fichier /etc/vfstab, saisissez les options de montage NFS hard et intr pour forcer les nouvelles tentatives de façon illimitée et ininterrompue, ou définissez un nombre de nouvelles tentatives en saisissant les options de montage soft, retrans et timeo avec retrans définie sur 120 ou plus, et timeo définie sur 3000 dixièmes de seconde.

    La définition de l'option de nouvelle tentative sur hard ou l'indication de l'option soft avec un délai d'expiration et un nombre de nouvelles tentatives suffisants empêchent les demandes NFS d'échouer lorsque les fichiers demandés sont situés sur des volumes amovibles qui ne peuvent pas être immédiatement montés. Reportez-vous à la page de manuel mount_nfs de Solaris pour plus d'informations sur ces options de montage.

    Dans l'exemple, nous saisissons l'option de montage soft :

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes    soft,retrans=120,timeo=3000
    
  11. Si vous utilisez NFS 2, définissez le paramètre de montage rsize sur 32768.

    Pour les autres versions de NFS, acceptez la valeur par défaut.

    Le paramètre de montage rsize définit la taille du tampon de lecture sur 32768 octets (la valeur par défaut étant de 8192 octets). L'exemple donne un aperçu de la configuration NFS 2 :

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs2:/qfs2 -       /qfsnfs2  nfs    -     yes    ...,rsize=32768 
    
  12. Si vous utilisez NFS 2, définissez le paramètre de montage wsize sur 32768.

    Pour les autres versions de NFS, acceptez la valeur par défaut.

    Le paramètre de montage wsize définit la taille du tampon d'écriture en lui attribuant la valeur d'octets précisée (elle est par défaut de 8192 octets). L'exemple donne un aperçu de la configuration NFS 2 :

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs2:/qfs2 -       /qfsnfs2  nfs    -     yes    ...,wsize=32768 
    
  13. Enregistrez le fichier /etc/vfstab et quittez l'éditeur de texte.

    #File         Device                         Mount
    #Device       to      Mount     System fsck  at     Mount
    #to Mount     fsck    Point     Type   Pass  Boot   Options
    #------------ ------  --------- ------ ----  -----  ----------------
    /devices      -       /devices  devfs  -     no     -
    ...
    qfsnfs:/qfsms -       /qfsnfs   nfs    -     yes    soft,retrans=120,timeo=3000
    :wq
    [nfsclient1]root@solaris:~# 
    
  14. Créez un répertoire de point de montage pour le système de fichiers partagé.

    Dans l'exemple, nous allons monter le système de fichiers partagé sur un répertoire appelé /qfsnfs :

    [nfsclient1]root@solaris:~# mkdir /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  15. Créez le point de montage spécifié dans le fichier /etc/vfstab, puis définissez les autorisations d'accès pour le point de montage.

    Les utilisateurs doivent disposer de l'autorisation d'exécution (x) pour modifier le répertoire de point de montage et accéder aux fichiers dans le système de fichiers monté. Dans l'exemple, nous créons le répertoire /qfsnfs et définissons les autorisations sur 755 (-rwxr-xr-x) :

    [nfsclient1]root@solaris:~# mkdir /qfsnfs
    [nfsclient1]root@solaris:~# chmod 755 /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  16. Montez le système de fichiers partagé :

    [nfsclient1]root@solaris:~# mount /qfsnfs
    [nfsclient1]root@solaris:~# 
    
  17. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  18. Sinon, passez à la Configuration des notifications et de la journalisation.

Partage des systèmes de fichiers Oracle HSM à l'aide de SMB/CIFS

SMB permet de rendre Oracle HSM accessible aux hôtes Microsoft Windows et permet une interaction des fonctionnalités, telles que la prise en charge de non-respect de la casse, des attributs DOS et des listes de contrôle d'accès NFSv4 (ACL). Le SE Oracle Solaris propose une implémentation serveur et client du protocole SMB (Server Message Block), laquelle prend en charge de nombreux dialectes SMB dont NT LM 0.12 et CIFS (Common Internet File System).

Oracle HSM prend en charge les identifiants de sécurité Windows (SID). Les identités Windows n'ont plus besoin d'être explicitement définies à l'aide du service idmap ou fournies par le service Active Directory.

Pour configurer le service SMB avec des systèmes de fichiers Oracle HSM, procédez comme suit :

Consultation de la documentation de configuration et d'administration d'Oracle Solaris SMB

Les sections ci-dessous abordent les parties de la configuration SMB telles qu'appliquées aux systèmes de fichiers Oracle HSM Elles ne sont pas exhaustives, et ne couvrent pas tous les scénarios possibles. Consultez toutes les instructions nécessaires en vue de configurer des serveurs Oracle Solaris SMB, d'intégrer les serveurs dans un environnement Windows et de monter des partages SMB sur des systèmes Solaris. Vous trouverez les instructions complètes dans le volume Managing SMB and Windows Interoperability in Oracle Solaris de la bibliothèque d'informations Oracle Solaris.

Mappage explicite des identités Windows pour le serveur SMB (facultatif)

Même si Oracle HSM prend désormais entièrement en charge les SID (identificateurs de sécurité) Windows, une définition explicite des relations entre les identités UNIX et les SID continue de s'avérer avantageuse dans certains cas. Par exemple, dans des environnements hétérogènes où les utilisateurs ont à la fois des identités UNIX et Windows, vous pourrez souhaiter créer des mappages explicites en utilisant le service idmap ou le service Active Directory. Pour obtenir des informations complètes sur SMB et l'interopérabilité Windows, reportez-vous à la documentation de votre version d'Oracle Solaris.

Configuration du partage des systèmes de fichiers Oracle HSM à l'aide de SMB/CIFS

Les systèmes de fichiers Oracle HSM partagés à l'aide de SMB/CIFS doivent utiliser la nouvelle implémentation de liste de contrôle d'accès (ACL) adoptée par Network File System (NFS) version 4 et introduite dans Solaris 11 Oracle. Les versions antérieures de Solaris et NFS utilisaient des ACL basées sur une spécification POSIX-draft qui n'est pas compatible avec l'implémentation Windows des ACL.

Les nouveaux systèmes de fichiers que vous créez avec Oracle HSM utilisent par défaut les ACL NFS version 4 sur Solaris 11. En revanche, si vous devez partager des systèmes de fichiers Oracle HSM existants avec des clients SMB/CIFS, vous devez convertir les ACL au format de style POSIX en appliquant la procédure appropriée :

Conversion d'un système de fichiers non partagé Oracle HSM en utilisant des ACL au format de style POSIX

Procédez comme suit :

  1. Connectez-vous à l'hôte en tant qu'utilisateur root.

    Dans l'exemple, nous nous connectons à l'hôte qfs-host

    [qfs-host]root@solaris:~# 
    
  2. Assurez-vous que l'hôte s'exécute sous Oracle Solaris 11.1 ou une version supérieure. Utilisez la commande uname -r.

    [qfs-host]root@solaris:~# uname -r
    5.11
    [qfs-host]root@solaris:~# 
    
  3. Démontez le système de fichiers à l'aide de la commande umount mount-point, où mount-point est le point de montage du système de fichiers Oracle HSM.

    Pour plus d'informations, reportez-vous à la page de manuel umount_samfs. Dans les exemples ci-après, le nom du serveur est qfs-host et celui du système de fichiers est /qfsms :

    [qfs-host]root@solaris:~# umount /qfsms
    
  4. Convertissez le système de fichiers à l'aide de la commande samfsck -F -A file-system, où l'option -F indique une vérification et une réparation du système de fichiers, l'option -A indique la conversion des ACL et file-system est le nom du système de fichiers à convertir.

    L'option -F est nécessaire lorsque l'option -A est indiquée. Si la commande samfsck -F -A renvoie des erreurs, le processus est abandonné et aucune ACL n'est convertie (pour des descriptions complètes de ces options, reportez-vous à la page de manuel samfsck).

    [qfs-host]root@solaris:~# samfsck -F -A /qfsms
    
  5. Si des erreurs sont renvoyées et qu'aucune ACL n'est convertie, utilisez la commande samfsck -F -a file-system pour forcer la conversion des ACL.

    L'option -a indique une conversion forcée. L'option -F est nécessaire lorsque l'option -a est spécifiée (pour des descriptions complètes de ces options, reportez-vous à la page de manuel samfsck).

    [qfs-host]root@solaris:~# samfsck -F -a /qfsms
    
  6. Procédez maintenant à la configuration du serveur SMB pour les groupes de travail ou les domaines Windows Active Directory.

Conversion d'un système de fichiers partagé Oracle HSM qui utilise des ACL au format de style POSIX.
  1. Connectez-vous au serveur de métadonnées du système de fichiers en tant qu'utilisateur root.

    Dans l'exemple, nous nous connectons au serveur de métadonnées sharedqfs-mds :

    [sharedqfs-mds]root@solaris:~# 
    
  2. Assurez-vous que le serveur de métadonnées exécute Oracle Solaris 11.1 ou une version supérieure. Utilisez la commande uname -r.

    [sharedqfs-mds]root@solaris:~# uname -r
    5.11
    [sharedqfs-mds]root@solaris:~# 
    
  3. Connectez-vous à chaque client Oracle HSM en tant qu'utilisateur root, puis assurez-vous que chaque client exécute Oracle Solaris 11.1 ou une version supérieure.

    Dans l'exemple, nous ouvrons une fenêtre de terminal et nous connectons à distance à sharedqfs-client1 et sharedqfs-client2 en utilisant ssh pour obtenir la version de Solaris à partir de la bannière de connexion :

    [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client1
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client1]root@solaris:~# 
    
    [sharedqfs-mds]root@solaris:~# ssh root@sharedqfs-client2
    Password:
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client2]root@solaris:~# 
    
  4. Démontez le système de fichiers partagé Oracle HSM depuis chaque client Oracle HSM à l'aide de la commande umount mount-point, où mount-point est le point de montage du système de fichiers Oracle HSM.

    Pour plus d'informations, reportez-vous à la page de manuel umount_samfs. Dans cet exemple, nous démontons /sharedqfs1 à partir de nos deux clients, sharefs-client1 et sharefs-client2 :

    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client1]root@solaris:~# umount /sharedqfs
    [sharedqfs-client1]root@solaris:~# 
    
    Oracle Corporation      SunOS 5.11      11.1    September 2013
    [sharedqfs-client2]root@solaris:~# umount /sharedqfs
    [sharedqfs-client1]root@solaris:~# 
    
  5. Démontez le système de fichiers partagé Oracle HSM du serveur de métadonnées à l'aide de la commande umount -o await_clients=interval mount-point, où mount-point est le point de montage du système de fichiers Oracle HSM et interval est le délai en secondes indiqué par l'option de délai d'exécution -o await_clients.

    Lorsque la commande umount est émise sur le serveur de métadonnées d'un système de fichiers partagé Oracle HSM, l'option -o await_clients indique à la commande umount d'attendre le nombre spécifié de secondes de sorte que les clients aient le temps de démonter le partage. Cela n'a aucun effet si vous démontez un système de fichiers non partagé ou exécutez une commande sur un client Oracle HSM. Pour plus d'informations, reportez-vous à la page de manuel umount_samfs.

    Dans l'exemple, nous démontons le système de fichiers /sharedqfs du serveur de métadonnées sharedqfs-mds tout en autorisant aux clients un délai de 60 secondes pour procéder au démontage :

    [sharedqfs-mds]root@solaris:~# umount -o await_clients=60 /sharedqfs
    
  6. Convertissez le système de fichiers à partir des ACL au format de style POSIX en ACL NFS version 4. Sur le serveur de métadonnées, utilisez la commande samfsck -F -A file-system, where the -F indique une vérification et une réparation du système de fichiers, et où l'option -A indique la conversion des ACL et file-system est le nom du système de fichiers à convertir.

    L'option -F est nécessaire lorsque l'option -A est indiquée. Si la commande samfsck -F -A file-system renvoie des erreurs, le processus est abandonné et aucune ACL n'est convertie (pour des descriptions complètes de ces options, reportez-vous à la page de manuel samfsck). Dans cet exemple, nous convertissons un système de fichiers Oracle HSM nommé /sharedqfs :

    [sharedqfs-mds]root@solaris:~# samfsck -F -A /sharedqfs
    
  7. Si des erreurs sont renvoyées et qu'aucune ACL n'est convertie, forcez la conversion des ACL. Sur le serveur de métadonnées, utilisez la commande samfsck -F -a file-system.

    L'option -a indique une conversion forcée. L'option -F est nécessaire lorsque l'option -a est spécifiée (pour des descriptions complètes de ces options, reportez-vous à la page de manuel samfsck). Dans l'exemple, nous forçons la conversion du système de fichiers Oracle HSM nommé /qfsma :

    [sharedqfs-mds]root@solaris:~# samfsck -F -a /sharedqfs
    
  8. Procédez maintenant à la configuration du serveur SMB pour les groupes de travail ou les domaines Windows Active Directory.

Configuration du serveur SMB pour les groupes de travail ou les domaines Windows Active Directory

Les services Oracle Solaris SMB peuvent fonctionner en deux modes mutuellement exclusifs : domaine ou groupe de travail. Choisissez l'un ou l'autre selon votre environnement et vos besoins d'authentification :

Configuration du serveur SMB en mode domaine
  1. Contactez l'administrateur de Windows Active Directory et obtenez les informations suivantes :

    • le nom du compte utilisateur authentifié Active Directory que vous devez utiliser pour rejoindre le domaine Active Directory

    • l'unité organisationnelle que vous devez utiliser à la place du conteneur Computers par défaut pour le compte (le cas échéant)

    • le nom de domaine complet LDAP/DNS du domaine où le système de fichiers Oracle HSM doit être partagé.

  2. Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez configurer en tant que partage SMB/CIFS. Connectez-vous en tant que root.

    Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfssmb.

    [qfssmb]root@solaris:~# 
    
  3. Les serveurs Open Source Samba et les serveurs SMB ne peuvent pas être utilisés ensemble sur un seul système Oracle Solaris. Vérifiez donc si le service Samba est en cours d'exécution. Transmettez le résultat de la commande de statut des services svcs à la commande grep et à l'expression régulière samba.

    Dans l'exemple, la sortie de la commande svcs comporte une correspondance pour l'expression régulière. Le service SMB est donc en cours d'exécution :

    [qfssmb]root@solaris:~# svcs | grep samba
    legacy_run     Nov_03   lrc:/etc/rc3_d/S90samba
    
  4. Si le service Samba (svc:/network/samba) est en cours d'exécution, désactivez Samba en même temps que le service de noms Internet de Windows WINS (svc:/network/wins), s'il est en cours d'exécution. Utilisez la commande svcadm disable.

    [qfssmb]root@solaris:~# svcadm disable svc:/network/samba
    [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
    
  5. Utilisez à présent la commande svcadm enable -r smb/server pour démarrer le serveur SMB et tous les services dont il dépend.

    [qfssmb]root@solaris:~# svcadm enable -r smb/server
    
  6. Assurez-vous que l'horloge système sur l'hôte Oracle HSM est la même à cinq minutes près que l'horloge système du contrôleur de domaine Microsoft Windows :

    • Si le contrôleur de domaine Windows utilise des serveurs de protocole NTP (protocole d'heure réseau), configurez l'hôte Oracle HSM pour qu'il utilise les mêmes serveurs. Créez un fichier /etc/inet/ntpclient.conf sur l'hôte Oracle HSM et démarrez le démon ntpd daemon using the command svcadm enable ntp (reportez-vous à la page de manuel ntpd et à votre documentation relative à l'administration de Solaris Oracle pour plus d'informations).

    • Dans le cas contraire, synchronisez l'hôte Oracle HSM avec le contrôleur de domaine en exécutant la commande ntpdate domain-controller-name (reportez-vous à la page de manuel ntpdate pour plus d'informations), ou définissez manuellement l'horloge système sur l'hôte Oracle HSM à l'heure affichée par l'horloge système du contrôleur de domaine.

  7. Rejoignez le domaine Windows à l'aide de la commande smbadm join -u username -o organizational-unit domain-name, où username est le nom du compte utilisateur spécifié par l'administrateur Active Directory, organizational-unit est le conteneur du compte facultatif indiqué, le cas échéant, et domain-name est le nom complet du domaine LDAP ou DNS spécifié.

    Dans l'exemple, nous rejoignons le domaine Windows this.example.com à l'aide du compte utilisateur.

    [qfssmb]root@solaris:~# smbadm join -u admin -o smbsharing this.example.com
    
  8. Procédez maintenant au partage du système de fichiers Oracle HSM en tant que partage SMB/CIFS.

Configuration du serveur SMB en mode groupe de travail
  1. Contactez l'administrateur réseau Windows et obtenez le nom du groupe de travail Windows que l'hôte du système de fichiers Oracle HSM doit rejoindre.

    Le groupe de travail par défaut est nommé WORKGROUP.

  2. Connectez-vous à l'hôte du système de fichiers Oracle HSM. Connectez-vous en tant que root.

    Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfssmb.

    [qfssmb]root@solaris:~# 
    
  3. Les serveurs Open Source Samba et les serveurs SMB ne peuvent pas être utilisés ensemble sur un seul système Oracle Solaris. Vérifiez donc si Samba est en cours d'exécution. Transmettez le résultat de la commande de statut des services svcs à la commande grep et à l'expression régulière samba.

    Dans l'exemple, la sortie de la commande svcs comporte une correspondance pour l'expression régulière. Le service SMB est donc en cours d'exécution :

    [qfssmb]root@solaris:~# svcs | grep samba
    legacy_run     Nov_03   lrc:/etc/rc3_d/S90samba
    
  4. Si le service Samba (svc:/network/samba) est en cours d'exécution, désactivez-le en même temps que les services de noms Internet de Windows WINS (svc:/network/wins) s'ils sont en cours d'exécution. Utilisez la commande svcadm disable.

    Samba et les serveurs SMB ne peuvent pas être utilisés ensemble sur un seul système Oracle Solaris.

    [qfssmb]root@solaris:~# svcadm disable svc:/network/samba
    [qfssmb]root@solaris:~# svcadm disable svc:/network/wins
    
  5. Utilisez à présent la commande svcadm enable -r smb/server pour démarrer le serveur SMB et tous les services dont il dépend.

    [qfssmb]root@solaris:~# svcadm enable -r smb/server
    
  6. Rejoindre le groupe de travail. Exécutez la commande smbadm join avec le commutateur -w (groupe de travail) et le nom du groupe de travail indiqué par l'administrateur réseau Windows.

    Dans l'exemple, le groupe de travail indiqué est nommé crossplatform.

    [qfssmb]root@solaris:~# smbadm join -w crossplatform
    
  7. Configurez l'hôte Oracle HSM pour le chiffrement des mots de passe SMB. Ouvrez le fichier /etc/pam.d/other dans un éditeur de texte, ajoutez la ligne de commande password required pam_smb_passwd.so.1 nowarn, puis enregistrez le fichier.

    Dans cet exemple, nous utilisons l'éditeur de texte vi :

    [qfssmb]root@solaris:~# vi /etc/pam.d/other
    # Copyright (c) 2012, Oracle and/or its affiliates. All rights reserved.
    #
    # PAM configuration
    #
    # Default definitions for Authentication management
    # Used when service name is not explicitly mentioned for authentication
    #
    auth definitive         pam_user_policy.so.1
    ...
    password required       pam_authtok_store.so.1
    password required pam_smb_passwd.so.1 nowarn
    :wq
    [qfssmb]root@solaris:~# 
    

    Reportez-vous à la page de manuel pam_smb_passwd pour plus d'informations.

  8. Une fois que le module pam_smb_passwd a été installé, utilisez la commande passwd local-username pour générer une version chiffrée du mot de passe de l'utilisateur local-username afin que le serveur SMB puisse se connecter au groupe de travail Windows.

    Le serveur SMB ne permet pas d'authentifier les utilisateurs à l'aide des mêmes versions chiffrées des mots de passe que celles utilisées par le système d'exploitation Solaris. Dans l'exemple, nous générons un mot de passe SMB chiffré pour l'utilisateur smbsamqfs :

    [qfssmb]root@solaris:~# passwd smbsamqfs
    
  9. Procédez maintenant au partage du système de fichiers Oracle HSM en tant que partage SMB/CIFS.

Partage du système de fichiers Oracle HSM en tant que partage SMB/CIFS

Partagez le système de fichiers Oracle HSM en appliquant les procédures décrites dans la documentation d'administration relative à votre version du système d'exploitation Oracle Solaris. Les étapes ci-dessous récapitulent la procédure pour Solaris 11.1 :

  1. Connectez-vous à l'hôte du système de fichiers Oracle HSM que vous souhaitez configurer en tant que partage SMB/CIFS. Connectez-vous en tant que root.

    Si le système de fichiers est un système de fichiers partagé Oracle HSM, connectez-vous au serveur de métadonnées du système de fichiers. Dans les exemples ci-après, le nom du serveur est qfssmb.

    [qfssmb]root@solaris:~# 
    
  2. Configurez le partage. Utilisez la commande share -F smb -o specific-options sharepath sharename, où le commutateur -F indique le protocole de partage smb, où sharepath est le chemin d'accès à la ressource partagée et où sharename est le nom que vous souhaitez utiliser pour le partage. La valeur du paramètre facultatif -o, sharing-options, peut comprendre n'importe laquelle des options suivantes :

    • abe=[true|false]

      Lorsque la stratégie d'énumération basée sur les accès (ABE) pour un partage est true, les entrées de répertoire auxquelles l'utilisateur à l'origine de la demande n'a pas accès sont omises des listes de répertoires renvoyées au client.

    • ad-container=cn=user,ou=organization,dc=domain-dns

      Le conteneur Active Directory limite l'accès partagé aux objets du domaine indiqué par les valeurs d'attribut du nom distinctif relatif (RND) de LDAP (Lightweight Directory Access Protocol) : cn (classe d'objet utilisateur), ou (classe d'objet unité organisationnelle) et dc (classe d'objet domaine DNS).

      Pour obtenir des informations complètes sur l'utilisation des conteneurs Active Directory avec SMB/CIFS, reportez-vous à Internet Engineering Task Force Request For Comment (RFC) 2253 ainsi qu'à votre documentation sur les services d'annuaire.

    • catia=[true|false]

      Lorsque le remplacement de caractères CATIA a la valeur true, les caractères d'un nom de fichier CATIA V4 qui ne sont pas autorisés sous Windows sont remplacés par leurs équivalents légaux. Reportez-vous à la page de manuel share_smb pour obtenir la liste des remplacements.

    • csc=[manual|auto|vdo|disabled]

      Une règle de mise en mémoire cache côté client (csc) contrôle la mise en mémoire cache du côté client des fichiers que vous souhaitez utiliser hors ligne. La règle manual permet aux clients de mettre les fichiers en cache lorsque la demande est faite par les utilisateurs, mais désactive la réintégration automatique fichier par fichier (qui est la règle par défaut). La règle auto permet aux clients de mettre automatiquement les fichiers en cache et active la réintégration automatique fichier par fichier. La règle vdo permet aux clients de mettre automatiquement les fichiers en cache pour les utiliser hors ligne, active la réintégration fichier par fichier et permet aux clients de travailler à partir du cache local même lorsqu'ils sont hors ligne. La règle disabled n'autorise pas la mise en cache automatique côté client.

    • dfsroot=[true|false]

      Dans un système de fichiers distribué Microsoft (DFS), un partage root (dfsroot=true) est le partage qui organise un groupe de dossiers partagés largement distribués dans un système de fichiers DFS unique qui est plus facile à gérer. Pour plus d'informations, reportez-vous à la documentation Microsoft Windows Server.

    • guestok=[true|false]

      Lorsque la règle guestok a la valeur true, le compte guest défini en local peut accéder au partage. Lorsqu'elle est définie sur false ou n'est pas définie (par défaut), le compte guest ne peut pas accéder au partage. Cette règle vous permet de mapper l'utilisateur Guest Windows à un nom d'utilisateur UNIX défini localement, tel que guest ou nobody :

      # idmap add winname:Guest unixuser:guest
      

      Le compte défini localement peut alors être authentifié avec un mot de passe enregistré dans /var/smb/smbpasswd, si vous le souhaitez. Reportez-vous à la page de manuel idmap pour plus d'informations.

    • rw=[*|[[-]criterion][:[-]criterion]...

      La règle rw accorde ou refuse l'accès à tout client correspondant à la liste d'accès fournie.

      La liste d'accès contient soit une astérisque unique (*) signifiant all ou une liste de critères d'accès du client délimitée par le signe « deux points », où chaque criterion correspond à un signe « moins » facultatif (-) signifiant deny suivi d'un nom d'hôte, d'un groupe réseau, d'un LDAP ou d'un DNS complet et/ou du symbole @, plus une adresse IP ou un nom de domaine complet ou partiel. Les listes d'accès sont évaluées de gauche à droite jusqu'à ce que le client réponde à l'un des critères. Pour plus d'informations, reportez-vous à la page de manuel share_smb.

    • ro=[*|[[-]criterion][:[-]criterion]...

      La règle ro accorde ou refuse l'accès en lecture unique aux clients correspondant à la liste d'accès.

    • none=[*|[[-]criterion][:[-]criterion]...

      La stratégie none refuse l'accès à tout client correspondant à la liste d'accès. Si la liste d'accès est un astérisque (*), les règles ro et rw peuvent remplacer la stratégie none.

    Dans l'exemple, nous partageons la lecture/écriture du système de fichiers /qfsms avec les clients smbclient1 et smbclient2, et la lecture seule avec smbclient3 :

    [qfssmb]root@solaris:~# share -F smb -o rw=smbclient1:smbclient2 
    ro=smbclient3 /qfsms
    

    Lorsque vous entrez la commande, le système redémarre automatiquement le démon de serveur SMB smbd.

  3. Vérifiez les paramètres de partage. Utilisez la commande share -F nfs.

    Dans l'exemple, la sortie de la commande montre que nous avons correctement configuré le partage :

    [qfssmb]root@solaris:~# share -F smb /qfsms
    sec=sys,rw=smbclient1:smbclient2,ro=smbclient3
    [qfssmb]root@solaris:~# 
    
  4. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  5. Sinon, passez à la Configuration des notifications et de la journalisation.