3 Configuration des hôtes et périphériques de stockage

Effectuez les tâches de configuration de stockage indiquées dans ce chapitre avant de poursuivre l'installation et la configuration de Oracle HSM. Ce chapitre comprend les sections suivantes :

Configuration du stockage principal

Dans un système de fichiers Oracle HSM, les périphériques de disque principal ou de disque dur électronique stockent les fichiers qui sont activement utilisés et modifiés. Lors de la configuration des périphériques de disque ou de disque dur électronique pour la mise en cache, suivez les instructions ci-dessous.

Configuration des périphériques pour le cache principal

  1. Pour estimer la capacité de démarrage du cache principal, vous devez déterminer le volume maximal de données que chaque système de fichiers pourra contenir.

  2. Augmentez cette capacité de démarrage de 10 % pour prendre en compte les métadonnées du système de fichiers.

  3. Si vous préparez un système de fichiers haute performance de type ma, configurez le matériel pour les périphériques de métadonnées mm. Un groupe de volumes contrôlé matériellement de quatre disques, en RAID 10 (1+0) pour chaque périphérique de métadonnées mm convient parfaitement. Envisagez d'utiliser des disques durs électroniques pour obtenir des performances optimales.

    Les caractéristiques des baies RAID 10 en miroir entrelacé sont idéales pour stocker les métadonnées Oracle HSM. Le stockage RAID 10 est hautement redondant, assurant la protection des métadonnées critiques. Le débit est plus élevé et la latence est inférieure par rapport à la plupart des autres configurations RAID.

    Une baie contrôlée par un matériel de contrôleur dédié offre généralement des performances plus élevées que si elle était contrôlée par un logiciel qui s'exécute sur un processeur partagé à usage généraliste.

    Les périphériques de disque dur électronique sont particulièrement indiqués pour le stockage des métadonnées qui, par nature, sont fréquemment mises à jour et lues.

  4. Si vous utilisez une baie de disques externe pour le stockage de cache principal, configurez des groupes de volumes RAID 5 3+1 ou 4+1 pour chaque périphérique md ou mr de la configuration du système de fichiers. Configurez un volume logique (LUN) sur chaque groupe de volumes.

    Pour un nombre donné de disques, des groupes de volumes RAID 5 3+1 et 4+1 de plus petite taille offrent un parallélisme supérieur et donc des performances d'entrées/sorties (E/S) meilleures que celles de groupes de volumes plus grands. Les périphériques de disque individuels des groupes de volumes RAID 5 ne fonctionnent pas de façon indépendante ; du point de vue des E/S, chaque groupe de volumes se comporte comme un périphérique unique. La subdivision d'un nombre donné de disques en groupes de volumes 3+1 et 4+1 crée des périphériques plus indépendants, un meilleur parallélisme et moins de conflits d'E/S que des configurations équivalentes réparties en groupes plus volumineux.

    La capacité des groupes RAID plus petits est moindre, en raison du taux parité/stockage plus élevé. Mais pour la plupart des utilisateurs, cet inconvénient est largement compensé par le gain de performances. Dans un système de fichiers d'archivage, la légère diminution de la capacité du cache disque est souvent totalement compensée par la capacité, comparativement illimitée, de l'archive.

    La configuration de plusieurs volumes logiques (LUN) sur un groupe de volumes entraîne des conflits d'E/S, car ces volumes distincts du point de vue logique doivent se disputer un ensemble de ressources qui ne peuvent traiter qu'une E/S à la fois. Ce phénomène accroît la surcharge relative aux E/S et réduit le débit.

  5. Procédez ensuite à la configuration du stockage d'archivage.

Configuration du stockage d'archivage

Effectuez les tâches suivantes :

Zonage de périphériques connectés au SAN

Assurez-vous que le réseau SAN (Storage Area Network) est zoné pour permettre la communication entre le lecteur et les adaptateurs de bus hôtes sur les hôtes Oracle HSM. Pour vérifier le zonage, procédez comme suit :

Effectuez le zonage correct de tous les périphériques inclus dans la configuration Oracle HSM.

  1. Assurez-vous que l'hôte est en mesure de voir les périphériques sur le SAN. Saisissez la commande d'administration de la configuration Solaris cfgadm avec la liste -al (liste des points de connexion) et les options -o show_SCSI_LUN. Repérez dans la sortie le nom universel (WWN) du port du lecteur.

    La première colonne de la sortie présente l'identifiant du point de connexion (Ap_id), qui se compose du numéro du contrôleur du bus hôte et du nom universel (WWN), séparés par des deux-points. L'option -o show_SCSI_LUN affiche tous les LUN sur le noeud s'il est le lecteur passerelle contrôlant un changeur de médias via une interface ADI.

    root@solaris:~# cfgadm -al -o show_SCSI_LUN
    Ap_Id     Type Receptacle Occupant   Condition
    c2::500104f000937528   tape connected  configured   unknown
    c3::50060160082006e2,0 tape connected  unconfigured unknown
    
  2. Si le nom universel (WWN) du lecteur n'est pas répertorié dans la sortie de cfgadm -al -o show_SCSI_LUN, le lecteur n'est pas visible. Il y a un problème de configuration du SAN. Effectuez une nouvelle vérification des connexions et de la configuration de zonage du SAN. Répétez ensuite l'étape précédente.

  3. Si la sortie de la commande cfgadm-al indique qu'un lecteur n'est pas configuré, ressaisissez la commande, cette fois en utilisant le commutateur -c (configure).

    La commande crée les fichiers de périphériques nécessaires dans /dev/rmt :

    root@solaris:~# cfgadm -al
    Ap_Id     Type Receptacle Occupant   Condition
    c2::500104f000937528   tape connected  configured   unknown
    c3::50060160082006e2,0 tape connected  unconfigured unknown
    root@solaris:~# cfgadm -c configure 50060160082006e2,0 
    
  4. Vérifiez l'association entre le nom du périphérique et le nom universel (WWN). Utilisez la commande ls -al /dev/rmt | grep WWN, où WWN est le nom universel.

    root@solaris:~# ls -al /dev/rmt | grep 50060160082006e2,0
    lrwxrwxrwx 1 root root 94 May 20 05:05 3un -> \
    ../../devices/pci@1f,700000/SUNW,qlc@2/fp@0,0/st@w50060160082006e2,0:
    
  5. Si vous disposez du niveau de patch Solaris minimal recommandé, procédez maintenant à la configuration du stockage sur disque.

  6. Sinon, obtenez l'identifiant cible de votre périphérique.

  7. Modifiez /kernel/drv/st.conf. Ajoutez l'entrée indiquée par le fournisseur à la tape-config-list, en indiquant l'identifiant cible déterminé plus haut.

  8. Forcez le rechargement du module st. Utilisez la commande update_drv -f st.

    root@solaris:~# update_drv -f st
    root@solaris:~# 
    
  9. Procédez ensuite à la configuration du stockage sur disque.

Configuration du stockage d'archivage sur disque

Les systèmes de fichiers d'archivage Oracle HSM peuvent archiver des fichiers sur disque ou sur des médias à bande. Quand un système de fichiers de disque est configuré comme une archive de disque, le logiciel l'utilise plus ou moins comme une cartouche de bande. Il effectue son adressage par le numéro de série du volume (VSN) et stocke les copies de fichier dans des fichiers d'archive de bande (tar).

Le stockage d'archivage basé sur un disque peut augmenter la flexibilité et la redondance d'une solution d'archivage. Les périphériques de disque à accès aléatoire n'induisent pas la surcharge au niveau des montages et des positionnements associée aux périphériques à bande à accès séquentiel. Par conséquent, les solutions qui archivent et récupèrent des petits fichier en nombres proportionnellement élevés peuvent le faire de manière plus rapide et plus fiable lorsqu'elles stockent la première copie de chaque fichier sur disque. Les solutions d'archivage qui doivent conserver des copies sur des médias hors site peuvent souvent procéder simplement en écrivant une copie sur des systèmes de fichiers, montés NFS et résidant sur un disque, sur des hôtes distants

Oracle Storage Cloud Software Appliance (OSCSA) peut encore accroître l'utilité de ce type de stockage monté NFS en utilisant l'espace disque local limité de l'hôte distant en tant que cache frontal pour disposer d'un stockage cloud pratiquement illimité. Le dispositif est composé d'un hôte Oracle Linux 7 (ou version ultérieure) configuré avec Network File System version 4 (NFSv4), le logiciel de gestion de conteneur open source Docker Engine 1.6 (ou version ultérieure) et d'une image de Oracle Storage Cloud Software Appliance Docker.

Si vous envisagez d'utiliser le stockage sur disque d'archivage, commencez pardéterminer la capacité totale requise, le nombre de volumes d'archivage et le nombre de systèmes de fichiers. Ensuite, si vous envisagez de configurer le stockage sur disque pour archivage dans Oracle Storage Cloud, configurez les hôtes Oracle Storage Cloud Software Appliance requis.

Détermination des capacités, volumes et systèmes de fichiers requis

Prévoyez d'installer suffisamment de ressources matérielles pour gérer la charge de travail prévue. Si des opérations d'archivage et d'installation Oracle HSM simultanées doivent entrer en concurrence entre elles ou avec d'autres applications pour le même ensemble de périphériques physiques, les performance en pâtissent. Vous devez donc suivre les instructions énoncées ci-dessous.

  1. Prévoyez un volume de disque (groupe de disques ou RAID) pour chaque opération Oracle HSM et pour chaque jeu de 10 à 20 téraoctets de données archivées.

    Définissez des quota si les volumes de disque sont alloués de manière dynamique à partir d'un pool de périphériques de disque. Assurez-vous que la capacité du stockage physique sous-jacent n'est pas dépassée.

  2. Prévoyez un système de fichiers par volume de disque.

    Ne configurez pas deux systèmes de fichiers ou plus sur des LUN qui résident sur le même lecteur physique ou groupe RAID.

  3. Prévoyez d'utiliser chaque système de fichiers comme une archive de disque unique.

    N'utilisez pas les sous-répertoires comme des volumes d'archivage distincts.

  4. Prévoyez d'utiliser chaque système de fichiers strictement pour l'archivage.

    N'utilisez pas de système de fichiers à usage généraliste comme archive de disque.

  5. Créez ensuite les systèmes de fichiers distants destinés à servir d'archives de disque montées NFS.

Création de systèmes de fichiers distants à utiliser comme archives de disque montées NFS

  1. Créez les systèmes de fichiers distants destinés à servir d'archives de disque.

    Créez des systèmes de fichiers dédiés. N'utilisez pas les systèmes de fichiers à usage généraliste existants qui doivent être partagés avec d'autres applications.

    Notez que vous créerez ultérieurement des systèmes de fichiers archive de disque montés localement, lors de la configuration des serveurs Oracle HSM.

  2. Si vous envisagez d'utiliser Oracle Storage Cloud dans le cadre d'une solution d'archivage sur disque, procédez à la configuration des hôtes Oracle Storage Cloud Software Appliance.

  3. Sinon, configurez le stockage d'archivage sur bande.

Configuration d'hôtes Oracle Storage Cloud Software Appliance

  1. Téléchargez la documentation OSCSA la plus récente depuis Oracle Cloud > Public > Infrastructure > Storage > Storage Cloud Software Appliance (http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/).

    Par commodité, cette procédure récapitule le processus de configuration et la configuration système requise. Néanmoins, reportez-vous toujours à la documentation du produit OSCSA et au fichier README pour obtenir des informations complètes et à jour.

  2. Contactez l'équipe commerciale de Oracle. Souscrivez un abonnement à Oracle Storage Cloud Service et demandez l'image d'Oracle Storage Cloud Software Appliance.

  3. Pour chaque hôte du dispositif, fournissez un serveur x86 à usage généraliste doté d'au moins deux processeurs double coeur centraux (UC) et de de 4 giga-octets de RAM (Random Access Memory).

  4. Installez Oracle Linux 7 (version 3.10 ou ultérieure du noyau) sur chaque hôte OSCSA.

    Oracle Linux est téléchargeable depuis Oracle Software Delivery Cloud (https://edelivery.oracle.com/).

  5. Installez Docker 1.6.1 ou version ultérieure sur chaque hôte OSCSA.

    Docker est une plate-forme de distribution open source pour les conteneurs de logiciels. Docker est téléchargeable depuis le site Docker (https://www.docker.com).

  6. Installez le service Network File System version 4 (NFSv4) sur chaque hôte OSCSA.

    Les hôtes Oracle HSM utilisent NFSv4 pour le montage à distance des systèmes de fichiers Linux qui constituent le cache frontal OSCSA.

  7. Installez et configurez Oracle Storage Cloud Software Appliance en fonction des instructions figurant dans le document OSCSA Using Oracle Storage Cloud Software Appliance (http://docs.oracle.com/cloud/latest/storagecs_common/CSSGU/).

  8. Créez des systèmes de fichiers cache OSCSA tel qu'indiqué dans la documentation OSCSA.

  9. Configurez ensuite le stockage sur bande.

Configuration du stockage d'archivage sur bande

Effectuez les tâches suivantes :

Définition de l'ordre d'installation des lecteurs dans la bibliothèque

Si votre bibliothèque automatisée contient plusieurs lecteurs, l'ordre des lecteurs dans le fichier de configuration principal Oracle HSM mcf doit être identique à l'ordre dans lequel les lecteurs sont affichés pour le contrôleur de la bibliothèque. Cet ordre peut être différent de l'ordre dans lequel les périphériques sont affichés sur l'hôte et signalés dans le fichier d'hôte /var/adm/messages.

Pour chaque hôte serveur de métadonnées Oracle HSM et hôte Data Mover, déterminez l'ordre des lecteurs en effectuant les tâches ci-dessous :

Collecte d'informations sur le lecteur pour la bibliothèque et l'hôte Solaris
  1. Consultez la documentation de la bibliothèque. Observez comment les lecteurs et les cibles sont identifiés. S'il existe un panneau opérateur local, recherchez comment l'utiliser pour définir l'ordre des lecteurs.

  2. Si la bibliothèque est équipée d'un panneau opérateur local, utilisez-le pour définir l'ordre dans lequel les lecteurs sont associés au contrôleur. Déterminez l'identificateur cible SCSI ou le nom WWN de chaque lecteur.

  3. Connectez-vous à l'hôte Solaris en tant qu'utilisateur root.

    root@solaris:~# 
    
  4. Répertoriez les noms de périphériques logiques Solaris dans /dev/scsi/changer/, en redirigeant la sortie vers un fichier texte.

    Dans cet exemple, nous redirigeons les listes de /dev/rmt/ vers le fichier device-mappings.txt du répertoire personnel de l'utilisateur root :

    root@solaris:~# ls -l /dev/rmt/ > /root/device-mappings.txt 
    
  5. Mappez ensuite les noms de périphériques Solaris aux lecteurs de votre bibliothèque connectée en attachement direct ou via ACSLS-.

Mappage des lecteurs dans une bibliothèque connectée directement aux noms de périphériques Solaris

Pour chaque nom de lecteur logique Solaris répertorié dans /dev/rmt/ et chaque lecteur que la bibliothèque affecte à l'hôte de serveur Oracle HSM, exécutez la procédure suivante :

  1. Si vous n'êtes pas encore connecté à l'hôte Solaris Oracle HSM, connectez-vous en tant qu'utilisateur root.

    root@solaris:~# 
    
  2. Dans un éditeur de texte, ouvrez le fichier de mappage de périphériques que vous avez créé lors de la procédure décrite dans la Collecte d'informations sur le lecteur pour la bibliothèque et l'hôte Solaris, puis organisez-le en un tableau simple. Organisez les informations sous forme de tableau simple.

    Vous devrez vous reporter à ces informations dans les étapes suivantes. Dans cet exemple, nous utilisons l'éditeur vi pour supprimer les attributs d'autorisations, de propriété et de date de la liste /dev/rmt/, tout en ajoutant des en-têtes et de l'espace pour les informations concernant le périphérique de bibliothèque.

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
            /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
            /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
            /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
            /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    lrwxrwxrwx 1 root root 40 Mar 18 2014 /dev/rmt/4 -> ../../devices/pci@1f,4000/scsi@4/st@2,0:
    
  3. Assurez-vous que tous les lecteurs soient vides sur la bibliothèque.

  4. Chargez une bande dans le premier lecteur de la bibliothèque que vous n'avez pas encore mappée à un nom de périphérique logique Solaris.

    Dans les exemples suivants, nous chargeons une bande LTO4 dans un lecteur de bande HP Ultrium LTO4.

  5. Identifiez l'entrée Solaris /dev/rmt/ correspondant au lecteur qui monte la bande. Avant d'identifier le lecteur, exécutez la commande mt -f /dev/rmt/number statusnumber identifie le lecteur dans /dev/rmt/.

    Dans l'exemple, le lecteur à l'emplacement /dev/rmt/0 est vide, mais le lecteur à l'emplacement /dev/rmt/1 contient la bande. Ainsi, le lecteur que la bibliothèque identifie comme lecteur 1 correspond à Solaris /dev/rmt/1:

    root@solaris:~# mt -f /dev/rmt/0 status
    /dev/rmt/0: no tape loaded or drive offline
    root@solaris:~# mt -f /dev/rmt/1 status
    HP Ultrium LTO 4 tape drive:
       sense key(0x0)= No Additional Sense   residual= 0   retries= 0
       file no= 0   block no= 3
    
  6. Dans le fichier de mappage de périphériques, trouvez l'entrée du périphérique Solaris qui contient la bande, puis entrez le nom de l'identifiant du périphérique de la bibliothèque à l'endroit prévu à cet effet. Ensuite, enregistrez le fichier.

    Dans l'exemple, saisissez 1 dans le champ LIBRARY DEVICE NUMBER de la ligne correspondant à /dev/rmt/1:

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
            /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
       1    /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
            /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
            /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    :w
    
  7. Déchargez la bande.

  8. Renouvelez cette procédure jusqu'à ce que le fichier de mappage de périphériques contienne les entrées qui mappent tous les périphériques que la bibliothèque affecte à l'hôte Oracle HSM aux noms de périphériques logiques Solaris. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    root@solaris:~# vi /root/device-mappings.txt 
    LIBRARY SOLARIS      SOLARIS 
    DEVICE  LOGICAL      PHYSICAL
    NUMBER  DEVICE       DEVICE
    ------- ----------   -------------------------------------------
       2    /dev/rmt/0 -> ../../devices/pci@1f,4000/scsi@2,1/st@2,0:
       1    /dev/rmt/1 -> ../../devices/pci@1f,4000/scsi@4,1/st@5,0:
       3    /dev/rmt/2 -> ../../devices/pci@1f,4000/scsi@4,1/st@6,0:
       4    /dev/rmt/3 -> ../../devices/pci@1f,4000/scsi@4/st@1,0: 
    :wq
    root@solaris:~# 
    
  9. Conservez le fichier de mappage.

    Ces informations vous seront utiles lors de la configuration des systèmes de fichiers, et vous pourrez les intégrer au moment de sauvegarder la configuration d'Oracle HSM une fois achevée.

  10. Ensuite, passez à la section Configuration des bibliothèques à connexion directe.

Mappage des lecteurs d'une bibliothèque connectée à ACSLS aux noms de périphériques Solaris
  1. Si vous n'êtes pas encore connecté à l'hôte Solaris Oracle HSM, connectez-vous en tant qu'utilisateur root.

    root@solaris:~# 
    
  2. Dans un éditeur de texte, ouvrez le fichier de mappage de périphériques que vous avez créé au cours de la procédure de la Collecte d'informations sur le lecteur pour la bibliothèque et l'hôte Solaris, puis organisez-le en un tableau simple.

    Vous devrez vous reporter à ces informations dans les étapes suivantes. Dans cet exemple, nous utilisons l'éditeur vi pour supprimer les attributs d'autorisations, de propriété et de date de la liste /dev/rmt/, tout en ajoutant des en-têtes et de l'espace pour les informations concernant le périphérique de bibliothèque.

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0  
    /dev/rmt/1  
    /dev/rmt/2  
    /dev/rmt/3  
    
  3. Affichez le numéro de série de chaque nom de périphérique logique répertorié dans /dev/rmt/. Utilisez la commande luxadm display /dev/rmt/number, où number identifie le lecteur dans /dev/rmt/.

    Dans l'exemple, nous obtenons le numéro de série HU92K00200 pour le périphérique /dev/rmt/0 :

    root@solaris:~# luxadm display /dev/rmt/0
    DEVICE PROPERTIES for tape: /dev/rmt/0
    Vendor: HP
    Product ID: Ultrium 4-SCSI
    Revision: G25W
    Serial Num: HU92K00200
    ...
    Path status: Ready
    root@solaris:~#  
    
  4. Entrez le numéro de série dans la ligne correspondante du fichier device-mappings.txt.

    Dans l'exemple, nous enregistrons le numéro de série du périphérique /dev/rmt/0, HU92K00200 dans la ligne de périphérique logique /dev/rmt/0.

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200
    /dev/rmt/1  
    /dev/rmt/2  
    /dev/rmt/3  
    :wq
    root@solaris:~# 
    
  5. Répétez les deux étapes précédentes jusqu'à ce que vous ayez identifié les numéros de série de tous les périphériques logiques répertoriés dans /dev/rmt/ et enregistré les résultats dans le fichier device-mappings.txt.

    Dans l'exemple, il existe quatre périphériques logiques :

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200
    /dev/rmt/1      HU92K00208
    /dev/rmt/2      HU92K00339
    /dev/rmt/3      HU92K00289
    :w
    root@solaris:~# 
    
  6. Pour chaque numéro de série de périphérique mappé à /dev/rmt/, recherchez l'adresse de lecteur ACSLS correspondante. Utilisez les commandes ACSLS display drive * -f serial_num.

    Dans cet exemple, nous obtenons les adresses ACSLS des périphériques HU92K00200 (/dev/rmt/0), HU92K00208 (/dev/rmt/1), HU92K00339 (/dev/rmt/2), HU92K00289 (/dev/rmt/3) :

     ACSSA> display drive * -f serial_num
     2014-03-29 10:49:12 Display Drive
     Acs Lsm Panel Drive Serial_num
     0   2   10    12    331000049255
     0   2   10    16    331002031352
     0   2   10    17    HU92K00200
     0   2   10    18    HU92K00208
     0   3   10    10    HU92K00339
     0   3   10    11    HU92K00189
     0   3   10    12    HU92K00289
    
  7. Enregistrez chaque adresse de lecteur ACSLS dans la ligne correspondante du fichier device-mappings.txt. Enregistrez le fichier et fermez l'éditeur de texte.

    root@solaris:~# vi /root/device-mappings.txt 
    LOGICAL DEVICE  DEVICE SERIAL NUMBER  ACSLS DEVICE ADDRESS
    --------------  --------------------  ----------------------------------
    /dev/rmt/0      HU92K00200            (acs=0, lsm=2, panel=10, drive=17)
    /dev/rmt/1      HU92K00208            (acs=0, lsm=2, panel=10, drive=18)
    /dev/rmt/2      HU92K00339            (acs=0, lsm=2, panel=10, drive=10)
    /dev/rmt/3      HU92K00289            (acs=0, lsm=2, panel=10, drive=12)
    :wq
    
  8. Conservez le fichier de mappage.

    Ces informations vous seront utiles lors de la configuration des systèmes de fichiers, et vous pourrez les intégrer au moment de sauvegarder la configuration d'Oracle HSM une fois achevée.

  9. Vous configurez les bibliothèques Oracle StorageTek connectées au réseau ACSLS lorsque vous configurez les systèmes de fichiers d'archivage. Donc, si vous planifiez un système de fichiers de données à haute disponibilité, accédez à la Configuration du stockage de systèmes de fichiers à haute disponibilité. Sinon, passez à la Installation de Oracle HSM et du logiciel QFS.

Configuration des bibliothèques à connexion directe

Pour configurer une bibliothèque de bandes à connexion directe, vous devez connecter physiquement le matériel et, dans certains cas, configurer le pilote SCSI (Oracle HSM qui contrôle la robotique de la bibliothèque via le pilote sgen générique plutôt que via le pilote samst utilisé par SAM-QFS avant la version 5.4). Procédez comme suit :

  1. Connectez physiquement la bibliothèque et les lecteurs à l'hôte du serveur Oracle HSM.

  2. Si vous installez Oracle HSM pour la première fois ou si vous mettez à niveau une configuration Oracle HSM ou SAM-QFS 5.4 sur Solaris 11, arrêtez-vous une fois que le matériel est physiquement connecté.

    Sous Solaris 11, sgen correspond au pilote SCSI par défaut de sorte que le logiciel d'installation Oracle HSM puisse automatiquement mettre à jour les alias et les fichiers de configuration du pilote.

  3. Si vous installez Oracle HSM sur un système Solaris 10, vérifiez si l'un des alias de pilote dans la liste ci-dessous est affecté au pilote sgen. Utilisez la commande grep scs.*,08 /etc/driver_aliases.

    Le pilote sgen pourra se voir affecter l'un des alias suivants :

    • scsa,08.bfcp" et/ou scsa,08.bvhci

    • scsiclass,08

    Dans l'exemple, Solaris utilise l'alias scsiclass,08 pour le pilote sgen :

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    sgen "scsiclass,08"
    root@solaris:~# 
    
  4. Si la commande grep renvoie sgen "alias", où alias est un alias de la liste ci-dessus, le pilote sgen est installé et affecté correctement à l'alias. Procédez comme suit :

  5. Si la commande grep renvoie some-driver "alias", où some-driver n'est pas le pilote sgen et où alias est l'un des alias figurant dans la liste ci-dessus, l'alias est déjà affecté à l'autre pilote. Procédez donc à la création d'un alias basé sur le chemin pour le pilote sgen.

  6. Si la commande grep scs.*,08 /etc/driver_aliases ne renvoie aucune sortie, le pilote sgen n'est pas installé. Installez-le. Utilisez la commande add_drv -i scsiclass,08 sgen.

    Dans l'exemple, la commande grep ne renvoie rien. Nous installons donc le pilote sgen :

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    root@solaris:~# add_drv -i scsiclass,08 sgen
    
  7. Si la commande add_drv -i scsiclass,08 sgen renvoie le message Driver (sgen) is already installed, le pilote est déjà installé, mais il n'est pas connecté. Connectez-le. Utilisez la commande update_drv -a -i scsiclass,08 sgen.

    Dans l'exemple, la commande add_drv indique que le pilote est déjà installé. Nous connectons donc le pilote :

    root@solaris:~# add_drv -i scsiclass,08 sgen
    Driver (sgen) is already installed.
    root@solaris:~# update_drv -a -i scsiclass,08 sgen
    
  8. Si la commande grep scs.*,08 /etc/driver_aliases indique que l'alias scsiclass,08 est affecté au pilote sgen, le pilote est configuré correctement.

    root@solaris:~# grep scs.*,08 /etc/driver_aliases
    sgen "scsiclass,08"
    root@solaris:~# 
    
  9. Si vous configurez un système de fichiers de données à haute disponibilité, reportez-vous à la section Configuration du stockage de systèmes de fichiers à haute disponibilité.

  10. Sinon, passez à la Installation de Oracle HSM et du logiciel QFS.

Création d'un alias basé sur le chemin pour le pilote sgen

Si l'alias attendu sgen est déjà affecté à un autre pilote, vous devez créer un alias basé sur le chemin qui connecte la bibliothèque indiquée à l'aide de sgen, sans pour autant gêner les affectations de pilotes existantes. Procédez comme suit :

  1. Connectez-vous à l'hôte de serveur Oracle HSM en tant qu'utilisateur root.

    root@solaris:~# 
    
  2. Affichez la configuration du système. Utilisez la commande cfgadm -vl.

    Notez que la sortie cfgadm est formatée avec un en-tête sur deux lignes et deux lignes par enregistrement :

    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  3. Dans la sortie de cfgadm -vl, trouvez l'enregistrement de la bibliothèque. Recherchez med-charger dans la colonne Type de la deuxième ligne de chaque enregistrement.

    Dans l'exemple, nous trouvons la bibliothèque dans le second enregistrement :

    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  4. Obtenez le chemin d'accès physique qui servira de nouvel alias basé sur le chemin. Retirez la sous-chaîne /devices de l'entrée dans la colonne Phys_Id de la sortie de cfgadm -vl.

    Dans l'exemple, la colonne Phys_Id de l'enregistrement du changeur de médias contient le chemin d'accès /devices/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78. Nous sélectionnons donc la portion de la chaîne suivant /devices/ comme étant l'alias (notez que ce chemin physique a été abrégé pour être contenu dans l'espace disponible ci-dessous) :

    root@solaris:~# grep scsiclass,08 /etc/driver_aliases
    sdrv "scsiclass,08"
    root@solaris:~# cfgadm -vl
    Ap_Id                Receptacle  Occupant     Condition Information  When
    Type        Busy  Phys_Id
    c3                   connected   configured   unknown   unavailable  
    scsi-sas    n     /devices/pci@0/pci@0/pci@2/scsi@0:scsi
    c5::500104f0008e6d78 connected   configured   unknown   unavailable  
    med-changer y     /devices/pci@0/.../SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78
    ...
    root@solaris:~# 
    
  5. Créez l'alias basé sur le chemin et affectez-le au pilote sgen. Utilisez la commande update_drv -d -i '"/path-to-library"' sgen, où path-to-library est le chemin identifié à l'étape précédente.

    Dans l'exemple, nous utilisons le chemin de bibliothèque pour créer l'alias basé sur le chemin '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"' (notez l'emploi des apostrophes simples et doubles). La commande ne comporte qu'une seule ligne, mais elle est présentée ici sur deux lignes pour des raisons de mise en page :

    root@solaris:~# update_drv -d -i \ '"/pci@0/pci@0/pci@9/SUNW,qlc@0,1/fp@0,0:fc::500104f0008e6d78"' sgen
    root@solaris:~# 
    

    La bibliothèque a maintenant été configurée à l'aide du pilote sgen.

  6. Si vous configurez un système de fichiers de données à haute disponibilité, accédez à la section Configuration du stockage de systèmes de fichiers à haute disponibilité.

  7. Sinon, passez à la Installation de Oracle HSM et du logiciel QFS.

Configuration du stockage de systèmes de fichiers à haute disponibilité

Les systèmes de fichiers haute disponibilité requièrent du matériel redondant et plusieurs chemins d'E/S indépendants pour que sa connexion soit maintenue après des pannes matérielles ponctuelles. Effectuez les tâches suivantes :

Configuration de noeuds Solaris Cluster pour des entrées/sorties réparties sur plusieurs chemins

Pour configurer un système de fichiers partagé haute disponibilité, vous devez suivre attentivement les recommandations du manuel d'administration du matériel concernant votre version du logiciel Solaris Cluster. Fournissez des périphériques de stockage principaux et des chemins d'E/S redondants.

Stockez les données et métadonnées du système de fichiers sur des périphériques RAID matériels ou des volumes RAID logiciels SVM (Solaris Volume Manager). Placez les métadonnées et les fichiers de configuration Oracle HSM sur des groupes de volumes RAID-10 ou des volumes SVM en miroir. Placez les données du système de fichiers sur des groupes de volumes RAID-10 ou RAID-5 contrôlés par le matériel ou sur des volumes SVM en miroir. Veuillez noter que le logiciel SVM n'est plus installé par défaut sur les versions actuelles du système d'exploitation Solaris. Vous devez télécharger et installer la version du logiciel qui était incluse avec la version Solaris 10 9/10.

Assurez-vous que les connexions du réseau de stockage ne risquent de subir aucune panne ponctuelle. Installez plusieurs adaptateurs de bus hôtes (HBA) sur chaque noeud de cluster. Configurez le réseau SAN (Storage Area Network) avec plusieurs interconnexions et commutateurs redondants. Gérez le basculement des chemins d'accès à l'aide du logiciel de chemins d'accès multiples d'E/S d'Oracle Solaris (pour des informations complémentaires, reportez-vous au Guide de mise en place de chemins d'accès multiples et de configuration du réseau de stockage d'Oracle Solaris dans la bibliothèque de documentation client Oracle Solaris et à la page de manuel stmsboot).

Configuration de clients Linux pour des entrées/sorties réparties sur plusieurs chemins

Sur les clients Linux, configurez des périphériques de stockage redondants pour le basculement des chemins d'accès à l'aide du package logiciel DMM (Device Mapper Multipath). Le logiciel DMM gère les adaptateurs de bus hôtes, les câbles, les commutateurs et les contrôleurs qui relient un hôte et un périphérique de stockage en un seul périphérique d'E/S virtuel, le multipath.

all of the I/O paths that link a host and a storage device—etc.— as a single virtual device. The separate cables, switches, and controllers. La fonctionnalité de chemins d'accès multiples (multipathing) agrège les chemins d'E/S, en créant un nouveau périphérique composé des chemins d'accès agrégés. Pour activer la fonctionnalité multipathing, procédez comme suit :

Installation du package logiciel DMM (Device Mapper Multipath)

Suivez les instructions ci-dessous pour configurer un client exécutant Oracle Linux 6.x (pour les autres versions de Linux, consultez la documentation du fournisseur).

  1. Connectez-vous à l'hôte Linux en tant qu'utilisateur root.

    [root@linux ~]# 
    
  2. Passez au répertoire /etc/yum.repos.d et répertoriez son contenu.

    [root@linux ~]# cd /etc/yum.repos.d
    [root@linux ~]# ls -l
    total 4
    -rw-r--r--. 1 root root 1707 Jun 25  2012 public-yum-ol6.repo
    [root@linux ~]# 
    
  3. Si le sous-répertoire /etc/yum.repos.d ne contient pas de fichier public-yum-ol6.repo, téléchargez-en un à partir du référentiel YUM pour Oracle à l'aide de la commande wget.

    [root@linux ~]# wget http://public-yum.oracle.com/public-yum-ol6.repo
    -- 2013-02-25 12:50:32 --   http://public-yum.oracle.com/public-yum-ol6.repo
    Resolving public-yum.oracle.com... 14 1.146.44.34
    Connecting to public-yum.oracle.com|141.146.44.34|:80... connected.
    HTTP request sent, awaiting response... 200 OK
    Length: 2411 (2.4K) [text/plain]
    Saving to: ”public-yum-ol6.repo”
    100%[======================================>] 2,411   -- . - K/s   in 0.001s
    2013-02-25 12:50:32 (3.80 MB/s) - ”public-yum-ol6.repo” saved
    [2411/2411]
    [root@linux ~]# 
    
  4. Dans un éditeur de texte, ouvrez le fichier public-yum-ol6.repo. Assurez-vous que la première entrée, [ol6_latest], contient la ligne enabled=1.

    Dans l'exemple, nous utilisons l'éditeur de texte vi. Comme la ligne requise est présente, nous fermons le fichier :

    [root@linux ~]# vi public-yum-ol6.repo 
    [ol6_latest]
    name=Oracle Linux $releasever Latest ($basearch)
    baseurl=http://public-yum.oracle.com/repo/OracleLinux/OL6/latest/$basearch/
    gpgkey=http://public-yum.oracle.com/RPM-GPG-KEY-oracle-ol6
    gpgcheck=1
    enabled=1
    ...
    :q
    [root@linux ~]# 
    
  5. Recherchez les packages logiciels Device Mapper Multipath. Utilisez la commande yum search multipath.

    [root@linux ~]# yum search multipath
    Loaded plugins: refresh-packagekit, security
    ========================== N/S Matched: multipath ==========================
    device-mapper-multipath.x86_64 : Tools to manage multipath devices using
                                   : device-mapper
    device-mapper-multipath-libs.x86_64 : The device-mapper-multipath modules and
                                        : shared library
      Name and summary matches only, use "search all" for everything.
    [root@linux ~]# 
    
  6. Installez le logiciel Device Mapper Multipath. Utilisez la commande yum install device-mapper-multipath. Lorsque vous y êtes invité, saisissez y (oui) pour accepter le package répertorié et ses dépendances.

    [root@linux ~]# yum install device-mapper-multipath
    Loaded plugins: refresh-packagekit, security
    Setting up Install Process
    Resolving Dependencies
    --> Running transaction check
    ---> Package device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1 will be
    installed
    --> Processing Dependency: device-mapper-multipath-libs = 0.4.9-56.el6_3.1
    for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64
    --> Processing Dependency: libmultipath.so()(64bit) 
    for package: device-mapper-multipath-0.4.9-56.el6_3.1.x86_64
    --> Running transaction check
    ---> Package device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1 will be
    installed
    --> Finished Dependency Resolution
    Dependencies Resolved
    ============================================================================
     Package                      Arch   Version           Repository   Size
    ============================================================================
    Installing:
     device-mapper-multipath      x86_64 0.4.9-56.el6_3.1  ol6_latest    96 k
    Installing for dependencies:
     device-mapper-multipath-libs x86_64 0.4.9-56.el6_3.1  ol6_latest   158 k
    Transaction Summary
    ============================================================================
    Install       2 Package(s)
    Total download size: 254 k
    Installed size: 576 k
    Is this ok [y/N]: y
    Downloading Packages:
    (1/2): device-mapper-multipath-0.4.9-56.el6_3.1.x86_64.r |  96 kB     00:00
    (2/2): device-map
    per-multipath-libs-0.4.9-56.el6_3.1.x86 | 158 kB     00:00
    ----------------------------------------------------------------------------
    Total                                           104 kB/s | 254 kB     00:02
    Running rpm_check_debug
    Running Transaction Test
    Transaction Test Succeeded
    Running Transaction
      Installing : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64     1/2
      Installing : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64          2/2
      Verifying  : device-mapper-multipath-0.4.9-56.el6_3.1.x86_64          1/2
      Verifying  : device-mapper-multipath-libs-0.4.9-56.el6_3.1.x86_64     2/2
    Installed:
      device-mapper-multipath.x86_64 0:0.4.9-56.el6_3.1
    Dependency Installed:
      device-mapper-multipath-libs.x86_64 0:0.4.9-56.el6_3.1
    Complete!
    [root@linux ~]# 
    
  7. Démarrez le démon de chemins d'accès multiples (multipath). Utilisez la commande chkconfig multipathd on.

    [root@linux ~]# chkconfig multipathd on
    [root@linux ~]# 
    
  8. Procédez ensuite à la Configuration du logiciel DMM (Device Mapper Multipath)

Configuration du logiciel DMM (Device Mapper Multipath)

Vous pouvez configurer le logiciel Device Mapper Multipath en modifiant le fichier /etc/multipath.conf. Le fichier se compose d'une série de sections, chacune contenant un ensemble d'attributs, de valeurs et de sous-sections associés :

  • La section default configure le logiciel multipath lui-même. Elle spécifie le niveau de détail journalisé, définit le comportement de basculement et indique l'emplacement des commandes et des répertoires du système d'exploitation.

  • La section blacklist identifie les périphériques à exclure des configurations à chemins d'accès multiples, tels les disques système locaux. Vous pouvez identifier les périphériques par leur nom universel/identifiant universel (WWN/WID) ou grâce à des expressions régulières qui spécifient les noms des noeuds de périphériques ou les chaînes de périphériques des fournisseurs et des produits.

  • La section blacklist_exceptions vous permet d'inclure des périphériques spécifiques dans la configuration à chemins d'accès multiples alors que la section blacklist contient des règles générales qui les auraient exclus.

  • La section multipaths vous permet de définir une ou plusieurs sous-sections multipath, chacune appliquant une configuration spéciale vers des chemins d'accès multiples que vous identifiez grâce à son nom universel.

  • La section devices vous permet de définir une ou plusieurs sous-sections device, chacune appliquant une configuration spéciale à chemin d'accès multiple vers un périphérique.

Pour une description détaillée de chaque valeur par défaut, reportez-vous au fichier exemple annoté /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf.annotated.

La liste blacklist_exceptions répertorie les périphériques à utiliser même s'ils figurent sur la liste noire. defaults : paramètres généraux par défaut de DM-Multipath. multipaths : paramètres pour les caractéristiques de chaque périphérique à chemins d'accès multiples. Ces valeurs remplacent celles indiquées dans les sections defaults et devices du fichier de configuration. devices : paramètres de chaque contrôleur de stockage. Ces valeurs remplacent celles indiquées dans la section defaults du fichier de configuration. Si vous utilisez une baie de stockage qui par défaut n'est pas prise en charge, vous devrez peut-être créer une sous-section devices pour la baie. Lorsque le système détermine les attributs d'un périphérique à chemins d'accès multiples, vérifiez d'abord les paramètres des chemins d'accès multiples, puis les paramètres de chaque périphérique et enfin les valeurs système par défaut des chemins d'accès multiples.