Supplément Sun Cluster 3.0 5/02

Annexe D Installation et maintenance des tableaux Sun StorEdge A1000 ou Netra st A1000

Ce chapitre décrit les procédures d'installation, de configuration et de maintenance des tableaux Sun StorEdge A1000 et Netra st A1000 dans un environnement Sun Cluster.


Remarque :

Les procédures décrites dans ce chapitre s'appliquent aussi bien aux tableaux Sun StorEdge A1000 qu'aux tableaux Netra st A1000. Toutefois, lorsque les procédures vous renvoient aux instructions spécifiées dans la documentation d'un tableau, veillez à vous reporter au document correspondant au tableau de disques que vous utilisez.


Ce chapitre contient les procédures suivantes :

Installation d'un tableau StorEdge/Netra st A1000

Cette section décrit la procédure à suivre pour une nouvelle installation d'une paire de tableaux StorEdge/Netra st A1000 dans une grappe non configurée. Pour ajouter des tableaux StorEdge/Netra st A1000 dans une grappe opérationnelle, suivez la procédure, "Comment ajouter une paire de tableaux StorEdge/Netra st A1000 dans une grappe en service".

Comment installer une paire de tableaux StorEdge/Netra st A1000

Utilisez cette procédure pour installer et configurer une paire de tableaux StorEdge/Netra st A1000, avant d'installer l'environnement d'exploitation Solaris et les logiciels Sun Cluster sur les noeuds de votre grappe.

  1. Installez les adaptateurs hôtes sur les noeuds connectés aux tableaux.

    Pour connaître la procédure d'installation des adaptateurs hôtes, reportez-vous à la documentation livrée avec les adaptateurs hôtes et les noeuds.

  2. Câblez les tableaux.

    Les tableaux StorEdge/Netra st A1000 doivent être configurés par paires en environnement Sun Cluster. La Figure 7-1 illustre un tableau StorEdge/Netra st A1000 câblé dans un environnement Sun Cluster.

    Figure D-1 Câblage des tableaux StorEdge/Netra st A1000

    Graphic

  3. Mettez les tableaux puis les noeuds de votre grappe sous tension.


    Remarque :

    Lorsque vous mettez les noeuds sous tension, empêchez-les de s'initialiser. Au besoin, interrompez les noeuds de manière à pouvoir exécuter les taches OpenBootTM PROM (OBP) Monitor à l'invite ok.


    Pour mettre un tableau StorEdge/Netra st A1000 sous tension, positionnez l'interrupteur en position ON (côté droit) puis relâchez-le.

  4. Cherchez les chemins d'accès aux adaptateurs hôtes dans le premier noeud :


    {0} ok show-disks
    ...b) /sbus@6,0/QLGC,isp@2,10000/sd...d) /sbus@2,0/QLGC,isp@2,10000/sd...


    Remarque :

    Utilisez ces informations pour changer les adresses SCSI des adaptateurs hôtes dans le script nvramrc de l'Étape 5, mais ne faites pas figurer les répertoires sd dans les chemins d'accès aux unités.


  5. Modifiez le script nvramrc de manière à changer le scsi-initiator-id des adaptateurs hôtes du premier noeud.

    L'adresse SCSI par défaut des adaptateurs hôtes est 7. Réservez l'adresse SCSI 7 pour un adaptateur hôte de la chaîne SCSI. Cette procédure considère le noeud dont l'adaptateur hôte a l'adresse SCSI 7 comme étant le "second noeud."

    Pour éviter les conflits, vous devez changer scsi-initiator-id de l'adaptateur hôte restant dans la chaîne SCSI en adresse SCSI utilisable. Cette procédure considère le noeud ayant un adaptateur hôte avec une adresse SCSI utilisable comme "premier noeud."

    Pour consulter une liste partielle des commandes éditeur nvramrc et des commandes clavier nvedit, reportez-vous à l'Annexe B de Sun Cluster 3.0 12/01 Hardware Guide. Pour consulter une liste complète des commandes, reportez-vous à l'OpenBoot 3.x Command Reference Manual.

    L'exemple suivant définit le scsi-initiator-id de l'adaptateur hôte du premier noeud sur 6. OpenBoot PROM Monitor imprime les numéros de ligne (0:, 1:, et ainsi de suite).


    Remarque :

    Insérez un seul espace après le premier guillemet et avant scsi-initiator-id.


    {0} ok nvedit 
    0: probe-all
    1: cd /sbus@6,0/QLGC,isp@2,10000
    2: 6 " scsi-initiator-id" integer-property 
    3: device-end 
    4: cd /sbus@2,0/QLGC,isp@2,10000
    5: 6 " scsi-initiator-id" integer-property 
    6: device-end 
    7: install-console 
    8: banner <Control C>
    {0} ok


  6. Enregistrez les modifications.

    Les modifications effectuées avec la commande nvedit sont conservées dans une copie temporaire du script nvramrc. Vous pouvez modifier cette copie sans risque. Une fois les modifications effectuées, enregistrez-les. Si les modifications ne vous conviennent pas, annulez-les.

    • Pour enregistrer les modifications, tapez :


      {0} ok nvstore
      

    • Pour annuler les modifications, tapez :


      {0} ok nvquit
      

  7. Vérifiez le contenu du script nvramrc créé à l'Étape 5, comme l'indique l'exermple ci-après.

    Si le contenu du script nvramrc est incorrect, utilisez la commande nvedit pour y apporter des corrections.


    {0} ok printenv nvramrc
    nvramrc =             probe-all
                          cd /sbus@6,0/QLGC,isp@2,10000
                          6 " scsi-initiator-id" integer-property
                          device-end 
                          cd /sbus@2,0/QLGC,isp@2,10000
                          6 " scsi-initiator-id" integer-property
                          device-end 
                          install-console
                          banner

  8. Réglez le paramètre de telle sorte que OpenBoot PROM Monitor utilise le script nvramrc :


    {0} ok setenv use-nvramrc? true
    use-nvramrc? = true

  9. Vérifiez que la valeur scsi-initiator-id de chaque adaptateur hôte du second noeud est réglée sur 7.

    Utilisez la commande show-disks pour trouver les chemins d'accès aux adaptateurs hôtes. Sélectionnez le noeud de l'unité de chaque adaptateur hôte, puis affichez les propriétés du noeud afin de confirmer que la valeur de scsi-initiator-id de chaque adaptateur hôte est bien 7.


    {0} ok show-disks
    ...b) /sbus@6,0/QLGC,isp@2,10000/sd...d) /sbus@2,0/QLGC,isp@2,10000/sd...
    {0} ok cd /sbus@6,0/QLGC,isp@2,10000
    {0} ok .properties
    scsi-initiator-id        00000007

  10. Installez l'environnement d'exploitation Solaris, puis appliquez les patchs Solaris requis.


    Remarque :

    Pour connaître la liste des patchs applicables à l'environnement d'exploitation Solaris, reportez-vous à SunSolve. SunSolve est accessible en ligne pour les fournisseurs de services Sun ainsi que pour les clients ayant souscrit des contrats de service SunSolve, sur le site web de SunSolve : http://sunsolve.sun.com.


  11. Installez le logiciel RAID Manager.

    Pour connaître la procédure d'installation du logiciel RAID Manager, reportez-vous aux Sun StorEdge RAID Manager 6.22.1 Release Notes.


    Remarque :

    RAID Manager 6.22.1 est nécessaire pour pouvoir mettre les tableaux Sun StorEdge/Netra st A1000 en grappe avec Sun Cluster 3.0.


  12. Installez n'importe quel tableau StorEdge/Netra st A1000 ou les patchs RAID Manager.


    Remarque :

    Pour connaître la liste actualisée des logiciels, micrologiciels et patchs requis pour le tableau StorEdge/Netra st A1000, reportez-vous à EarlyNotifier 20029, "A1000/A3x00/A1000FC Software/Firmware Configuration Matrix". Ce document est accessible en ligne pour les fournisseurs de services Sun ainsi que pour les clients ayant souscrit des contrats de service SunSolve, sur le site web de SunSolve, http://sunsolve.sun.com, en mode de recherche avancée.


  13. Contrôlez le numéro de révision du fichier NVSRAM du tableau StorEdge/Netra st A1000, et installez au besoin la dernière version disponible.

    Pour connaître le numéro de révision du fichier NVSRAM, le niveau d'initialisation et la procédure de mise à niveau du fichier NVSRAM, reportez-vous aux Sun StorEdge RAID Manager 6.22.1 Release Notes.

  14. Réglez les paramètres Rdac du fichier /etc/osa/rmparams des deux noeuds.


    Rdac_RetryCount=1
    Rdac_NoAltOffline=TRUE
    

  15. Configurez les tableaux avec des unités logiques (LUN) et des disques de secours.

    Pour connaître la procédure de configuration d'un tableau StorEdge/Netra st A1000 avec des unités logiques et des disques de secours, reportez-vous au Sun StorEdge RAID Manager User's Guide.


    Remarque :

    Utilisez la commande format pour vérifier les noms d'unités logiques de Solaris.


  16. Vérifiez que le nouveau nom logique de l'unité logique créée à l'Étape 15 apparaît dans le répertoire /dev/rdsk des deux noeuds en exécutant la commande hot_add sur les deux noeuds :


    # /etc/raid/bin/hot_add
    

Etape suivante

Pour poursuivre avec les tâches d'installation de Sun Cluster et des services de données, reportez-vous au Guide d'installation du logiciel Sun Cluster 3.0 12/01 et au Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.

Configuration d'un tableau Sun StorEdge/Netra st A1000

Cette section décrit les procédures de configuration d'un tableau StorEdge/Netra st A1000 après installation du logiciel Sun Cluster. Le Tableau D-1 répertorie ces procédures.

Configurer un tableau StorEdge/Netra st A1000 avant d'installer le logiciel Sun Cluster revient à effectuer la même procédure dans un environnement sans grappe. Pour connaître les procédures de configuration des tableaux StorEdge/Netra st A1000 avant d'installer Sun Cluster, reportez-vous au Sun StorEdge RAID Manager User's Guide.

Tableau D-1 Description des tâches : configuration d'une unité de disque StorEdge/Netra st A1000

Tâche 

Pour les instructions, voir... 

Créer une unité logique (LUN).  

"Comment créer une unité logique"

Supprimer une unité logique.  

"Comment supprimer une unité logique"

Réinitialiser la configuration d'un tableau StorEdge/Netra st A1000. 

"Comment réinitialiser la configuration d'une unité logique StorEdge/Netra st A1000"

Créer un disque de secours.  

Suivre la même procédure que celle utilisée dans un environnement sans grappe. 

Sun StorEdge RAID Manager User's Guide

 

Sun StorEdge RAID Manager Release Notes

Supprimer un disque de secours.  

Suivre la même procédure que celle utilisée dans un environnement sans grappe. 

Sun StorEdge RAID Manager User's Guide

 

Sun StorEdge RAID Manager Release Notes

Augmenter la taille d'un groupe de lecteurs.  

Suivre la même procédure que celle utilisée dans un environnement sans grappe. 

Sun StorEdge RAID Manager User's Guide

 

Sun StorEdge RAID Manager Release Notes

Comment créer une unité logique

Utilisez cette procédure pour créer une unité logique (LUN) à partir d'unités de disques non affectées ou d'une capacité restante. Reportez aux Sun StorEdge RAID Manager Release Notes pour connaître les dernières informations concernant l'administration des unités logiques.

Ce produit prend en charge l'utilisation de modules RAID matériels et de modules RAID logiciels basés sur l'hôte. Pour les modules RAID logiciels basés sur hôte, ce produit prend en charge les RAID de niveaux 0+1 et 1+0.


Remarque :

Lorsque vous utilisez des modules RAID logiciels basés sur hôte sur des modules RAID matériels, les niveaux de RAID matériels ont une incidence sur les procédures de maintenance du matériel car ils affectent l'administration de la gestion des volumes. Si vous utilisez des RAID matériels de niveau 1, 3 ou 5, vous pouvez effectuer la plupart des procédures de maintenance répertoriées dans "Maintenance d'un tableau StorEdge/Netra st A1000" sans gêner la gestion des volumes. Si vous utilisez des modules RAID matériels de niveau 0, certaines procédures de maintenance répertoriées dans "Maintenance d'un tableau StorEdge/Netra st A1000" nécessitent un complément d'administration de la gestion des volumes car la disponibilité des unités logiques est compromise.


  1. Après avoir initialisé tous les noeuds de grappe et les avoir attachés au tableau StorEdge/Netra st A1000, créez l'unité logique sur un noeud.

    Peu après le formatage de l'unité logique, un nom logique est donné à la nouvelle LUN dans /dev/rdsk pour tous les noeuds de la grappe attachés au tableau StorEdge/Netra st A1000.

    Pour connaître la procédure de création d'une unité logique, reportez-vous au Sun StorEdge RAID Manager User's Guide.

    Si le message d'avertissement suivant s'affiche, ignorez-le et poursuivez vers l'étape suivante :


    scsi: WARNING: /sbus@e,0/QLGC,isp@1,10000/sd@2,1 
    	(sd153):corrupt label - wrong magic number


    Remarque :

    Utilisez la commande format(1M) pour vérifier les noms d'unités logiques de Solaris et libellez l'unité logique au besoin.


  2. Vérifiez que le nouveau nom logique de l'unité logique créée dans l'Étape 1 apparaît dans le répertoire /dev/rdsk des deux noeuds en exécutant la commande hot_add sur les deux noeuds :


    # /etc/raid/bin/hot_add
    

  3. Sur l'un des noeuds, mettez à jour l'espace de noms global des unités :


    # scgdevs
    

  4. Utilisez la commande scdidadm pour vérifier que les numéros de DID (ID d'unités) des unités logiques sont les mêmes sur les deux noeuds. Dans l'exemple ci-après, les numéros de DID (ID d'unités) sont différents :


    # scdidadm -L
    ... 
    33       e07a:/dev/rdsk/c1t4d2          /dev/did/rdsk/d33
    33       e07c:/dev/rdsk/c0t4d2          /dev/did/rdsk/d33

  5. Les numéros de DID (ID d'unités) renvoyés par la commande scdidadm à l'Étape 4 sont-ils les mêmes pour les deux noeuds ?

  6. Si vous souhaitez qu'un gestionnaire de volumes gère la nouvelle unité logique créée dans l'Étape 1, exécutez les commandes Solstice DiskSuite/Solaris Volume Manager ou VERITAS Volume Manager pour intégrer la nouvelle unité logique dans un ensemble de disques ou un groupe de disques.

    Pour de plus amples informations, reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager ou de VERITAS Volume Manager.

  7. Si vous souhaitez que la nouvelle LUN soit un périphérique de quorum, ajoutez le périphérique de quorum.

    Pour connaître la procédure d'ajout d'un périphérique de quorum, reportez-vous au Guide d'administration système de Sun Cluster 3.0 U2

Comment supprimer une unité logique

Utilisez cette procédure pour supprimer une ou plusieurs unités logiques. Reportez-vous aux Sun StorEdge RAID Manager Release Notes pour connaître des informations à jour sur l'administration des unités logiques.


Caution - Caution -

Cette procédure supprime toutes les données de l'unité logique supprimée.



Caution - Caution -

Ne supprimez pas LUN 0.


  1. A partir d'un noeud connecté au tableau StorEdge/Netra st A1000, utilisez la commande format pour trouver les chemins d'accès à l'unité logique que vous souhaitez supprimer (exemple ci-après).


    f28c# format
    Searching for disks...done
    AVAILABLE DISK SELECTIONS:
           0. c0t10d0 <SUN18G cyl 7506 alt 2 hd 19 sec 248>
              /sbus@3,0/SUNW,fas@3,8800000/sd@a,0
           1. c1t5d0 <Symbios-StorEDGEA1000-0301 cyl 12160 alt 2 hd 64 sec 64>
              /pseudo/rdnexus@1/rdriver@5,0
           2. c2t2d0 <Symbios-StorEDGEA1000-0301 cyl 12160 alt 2 hd 64 sec 64>
              /pseudo/rdnexus@2/rdriver@2,0

  2. Déterminez si l'unité logique que vous envisagez de supprimer est configurée comme un périphérique de quorum.


    # scstat -q
    
    • Si l'unité logique n'est pas un périphérique de quorum, allez à l'Étape 3.

    • Si l'unité logique est configurée comme un périphérique de quorum, choisissez et configurez un autre périphérique comme nouveau périphérique de quorum. Supprimez ensuite l'ancien périphérique de quorum.

  3. Supprimez l'unité logique des ensembles de disques ou des groupes de disques.

    Exécutez les commandes Solstice DiskSuite/Solaris Volume Manager ou VERITAS Volume Manager pour supprimer l'unité logique d'un ensemble de disques ou d'un groupe de disques. Pour de plus amples informations, reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager ou de VERITAS Volume Manager. Le paragraphe suivant répertorie les commandes VERITAS Volume Manager supplémentaires requises.

    Les unités logiques qui étaient gérées par VERITAS Volume Manager doivent être complètement retirées du contrôle de VERITAS Volume Manager avant que vous puissiez les supprimer. Pour supprimer les unités logiques, après avoir supprimer l'unité logique du groupe de disques concerné, utilisez les commandes suivantes :


    # vxdisk offline cNtXdY
    # vxdisk rm cNtXdY
    

  4. Placez-vous sur l'un des noeuds et supprimez l'unité logique.

    Pour connaître la procédure de suppression d'une unité logique, reportez-vous au Sun StorEdge RAID Manager User's Guide.

  5. Depuis le même noeud, supprimez les chemins d'accès à la ou aux LUN(s) que vous souhaitez supprimer.


    # rm /dev/rdsk/cNtXdY*
    # rm /dev/dsk/cNtXdY*
    # rm /dev/osa/dev/dsk/cNtXdY*
    # rm /dev/osa/dev/rdsk/cNtXdY*
    

  6. A partir du même noeud, supprimez toutes les ID d'unités (DID) obsolètes.


    # scdidadm -C
    

  7. A partir du même noeud, désactivez les ressources et groupes d'unités du noeud.


    # scswitch -Sh nom_noeud
    

  8. Arrêtez le noeud.


    # shutdown -y -g0 -i0
    

  9. Initialisez le noeud et attendez qu'il rejoigne la grappe :


    # boot -r
    

  10. Répétez la procédure de l'Étape 5 à l' Étape 9 sur l'autre noeud attaché au tableau StorEdge/Netra st A1000.

Comment réinitialiser la configuration d'une unité logique StorEdge/Netra st A1000

Utilisez cette procédure pour réinitialiser la configuration d'une unité logique StorEdge/Netra st A1000.


Caution - Caution -

La réinitialisation de configuration d'une unité logique affecte un nouveau numéro d'ID d'unité à LUN 0. En effet, le logiciel affecte un nouveau numéro mondial (WWN) à la nouvelle unité logique.


  1. A partir d'un noeud connecté au tableau StorEdge/Netra st A1000, utilisez la commande format pour déterminer les chemins d'accès à la ou aux LUN(s) que vous réinitialisez, comme indiqué dans l'exemple suivant (même exemple que précédemment).


    f28c# format
    Searching for disks...done
    AVAILABLE DISK SELECTIONS:
           0. c0t10d0 <SUN18G cyl 7506 alt 2 hd 19 sec 248>
              /sbus@3,0/SUNW,fas@3,8800000/sd@a,0
           1. c1t5d0 <Symbios-StorEDGEA1000-0301 cyl 12160 alt 2 hd 64 sec 64>
              /pseudo/rdnexus@1/rdriver@5,0
           2. c2t2d0 <Symbios-StorEDGEA1000-0301 cyl 12160 alt 2 hd 64 sec 64>
              /pseudo/rdnexus@2/rdriver@2,0

  2. Déterminez si l'unité logique que vous envisagez de réinitialiser est configurée comme un périphérique de quorum.


    # scstat -q
    
    • Si l'unité logique n'est pas un périphérique de quorum, allez à Étape 3.

    • Si l'unité logique est configurée comme un périphérique de quorum, choisissez et configurez un autre périphérique comme nouveau périphérique de quorum. Supprimez ensuite l'ancien périphérique de quorum.

  3. Supprimez l'unité logique des ensembles de disques ou des groupes de disques.

    Exécutez les commandes Solstice DiskSuite/Solaris Volume Manager ou VERITAS Volume Manager pour supprimer l'unité logique d'un ensemble de disques ou d'un groupe de disques. Pour de plus amples informations, reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager ou de VERITAS Volume Manager. Le paragraphe suivant répertorie les commandes VERITAS Volume Manager supplémentaires requises.

    Les LUN qui étaient gérées par VERITAS Volume Manager doivent être complètement retirées du contrôle de VERITAS Volume Manager avant que vous puissiez les supprimer. Pour supprimer les LUN, après avoir supprimé l'unité logique du groupe de disques concerné, utilisez les commandes suivantes :


    # vxdisk offline cNtXdY
    # vxdisk rm cNtXdY
    

  4. A partir de l'un des noeuds, réinitialisez la configuration de la ou des unités logiques.

    Pour connaître la procédure de réinitialisation de la configuration d'une unité logique StorEdge/Netra st A1000, reportez-vous au Sun StorEdge RAID Manager User's Guide.


    Remarque :

    Utilisez la commande format pour vérifier les noms d'unités logiques de Solaris.


  5. Utilisez la commande format pour libeller la nouvelle LUN 0.

  6. Supprimez les chemins d'accès à la ou aux anciennes LUN(s) réinitialisées :


    # rm /dev/rdsk/cNtXdY*
    # rm /dev/dsk/cNtXdY*
    
    # rm /dev/osa/dev/dsk/cNtXdY*
    # rm /dev/osa/dev/rdsk/cNtXdY*
    

  7. Actualisez les espaces de noms des unités sur les deux noeuds :


    devfsadm -C
    

  8. Supprimez les ID d'unités obsolètes sur les deux noeuds :


    # scdidadm -C
    

  9. Désactivez les ressources et les groupes d'unités du noeud :


    # scswitch -Sh nom_noeud
    

  10. Arrêtez le noeud :


    # shutdown -y -g0 -i0
    

  11. Initialisez le noeud et attendez qu'il rejoigne la grappe :


    # boot -r
    

    Si le message d'erreur suivant s'affiche, ignorez-le et poursuivez vers l'étape suivante. L'ID d'unité (DID) sera actualisée une fois la procédure achevée.


    device id for '/dev/rdsk/c0t5d0' does not match physical disk's id.

  12. Une fois que le noeud réinitialisé a rejoint la grappe, répétez la procédure de l'Étape 6 à l'Étape 11 sur l'autre noeud attaché au tableau StorEdge/Netra st A1000.

    Le numéro DID (ID d'unités) de l'unité logique 0 d'origine est supprimé et un nouveau DID est attribué à LUN 0.

Comment corriger des numéros DID mal appariés

Utilisez cette section pour corriger les numéros DID (ID d'unités) mal appariés qui risquent d'apparaître à la création de LUN A1000. Pour ce faire, il suffit de supprimer les chemins Solaris et Sun Cluster d'accès aux LUN dont les numéros DID sont différents. Une fois la réinitialisation effectuée, les chemins sont corrigés.


Remarque :

N'utilisez cette procédure que si "Comment créer une unité logique" vous le demande.


  1. A partir d'un noeud connecté au tableau StorEdge/Netra st A1000, utilisez la commande format pour trouver les chemins d'accès aux LUN ayant des numéros DID distincts.


    # format
    

  2. Supprimez les chemins d'accès à la ou aux LUN(s) ayant des numéros DID différents :


    # rm /dev/rdsk/cNtXdY*
    # rm /dev/dsk/cNtXdY*
    
    # rm /dev/osa/dev/dsk/cNtXdY*
    # rm /dev/osa/dev/rdsk/cNtXdY*
    

  3. Utilisez la commande lad pour déterminer les chemins d'accès alternatifs à la ou aux LUN ayant des numéros DID différents.

    Le logiciel RAID Manager crée deux chemins d'accès à l'unité logique dans le répertoire /dev/osa/dev/rdsk. Placez dans le tableau de disques le numéro cNtXdY de l'autre tableau pour déterminer le chemin alternatif.

    Par exemple, dans cette configuration :


    # lad
    c0t5d0 1T93600714 LUNS: 0 1
    c1t4d0 1T93500595 LUNS: 2

    Les chemins alternatifs seraient les suivants.


    /dev/osa/dev/dsk/c1t4d1*
    /dev/osa/dev/rdsk/c1t4d1*

  4. Supprimez les chemins d'accès alternatifs à la ou aux LUN ayant des numéros DID différents :


    # rm /dev/osa/dev/dsk/cNtXdY*
    # rm /dev/osa/dev/rdsk/cNtXdY*
    

  5. Supprimez toutes les DID obsolètes des deux noeuds :


    # scdidadm -C
    

  6. Désactivez les ressources et les groupes d'unités du noeud :


    # scswitch -Sh nom_noeud
    

  7. Arrêtez le noeud :


    # shutdown -y -g0 -i0
    

  8. Initialisez le noeud et attendez qu'il rejoigne la grappe :


    # boot -r
    

  9. Répétez la procédure de Étape 1 à Étape 8 sur l'autre noeud attaché au tableau StorEdge/Netra st A1000.

  10. Revenez à "Comment créer une unité logique".

Maintenance d'un tableau StorEdge/Netra st A1000

Cette section regroupe les procédures de maintenance d'un tableau StorEdge/Netra st A1000 dans un environnement Sun Cluster. Certaines tâches de maintenance répertoriées dans Tableau D-2 s'effectuent de la même façon qu'en environnement sans grappe. Cette section se contente donc de faire référence aux procédures plutôt que de les décrire de nouveau. Le Tableau D-2 répertorie les procédures de maintenance du tableau StorEdge/Netra st A1000.

Tableau D-2 Tâches : maintenance d'un tableau StorEdge/Netra st A1000

Tâche 

Pour les instructions, voir... 

Procédures pour tableau A1000 : 

Ajouter un tableau dans une grappe en service. 

"Comment ajouter une paire de tableaux StorEdge/Netra st A1000 dans une grappe en service"

Supprimer un tableau d'une grappe en service. 

"Comment supprimer un tableau StorEdge/Netra st A1000 d'une grappe en service"

Remplacer un tableau en panne. 

 

Pour remplacer un tableau en panne, supprimez le tableau en panne et ajoutez-en un nouveau dans la configuration. 

"Comment supprimer un tableau StorEdge/Netra st A1000 d'une grappe en service"

 

"Comment ajouter une paire de tableaux StorEdge/Netra st A1000 dans une grappe en service"

Ajouter un disque dur dans une grappe en service. 

"Comment ajouter une unité de disque dans une grappe en service"

Remplacer un disque dur dans une grappe en service. 

"Comment remplacer une unité de disque défectueuse dans une grappe en service"

Supprimer un disque dur d'une grappe en service. 

"Comment supprimer une unité de disque d'une grappe en service"

Mettre à niveau les micrologiciels d'un tableau et le fichier NVSRAM. 

"Comment mettre à niveau les micrologiciels d'une unité de disque dans une grappe en service"

Remplacer un contrôleur en panne ou restaurer un contrôleur hors ligne. 

"Comment remplacer un contrôleur en panne ou restaurer un contrôleur hors ligne "

Remplacer le cordon d'alimentation d'un tableau. 

Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual

 

Manuel d'installation et de maintenance de Netra st A1000 et Netra st D1000 

Remplacer le réfrigérant d'un tableau.  

Suivre la même procédure que celle utilisée dans un environnement sans grappe. 

Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual

 

Manuel d'installation et de maintenance de Netra st A1000 et Netra st D1000 

Procédures de câblage : 

Remplacer le câble SCSI entre StorEdge A1000 et l'hôte.  

Suivre la même procédure que celle utilisée dans un environnement sans grappe. 

Sun StorEdge RAID Manager User's Guide

 

Sun StorEdge RAID Manager 6.22.1 Release Notes

Procédures relatives à l'alimentation électrique : 

Remplacer la batterie. 

Sun StorEdge RAID Manager 6.22.1 Release Notes

 

Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual

 

Manuel d'installation et de maintenance de Netra st A1000 et Netra st D1000 

Remplacer une source d'alimentation. 

Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual

 

Manuel d'installation et de maintenance de Netra st A1000 et Netra st D1000 

Procédures relatives aux noeuds/adaptateurs hôtes : 

Remplacer un adaptateur hôte dans un noeud. 

"Comment remplacer un adaptateur hôte dans un noeud (connecté à un tableau StorEdge/Netra st A1000)"

Comment ajouter une paire de tableaux StorEdge/Netra st A1000 dans une grappe en service

Utilisez cette procédure pour ajouter une paire de tableaux StorEdge/Netra st A1000 dans une grappe en service.

  1. Installez le logiciel RAID Manager sur les noeuds de la grappe.

    Pour connaitre la procédure d'installation du logiciel RAID Manager, reportez-vous au Sun StorEdge RAID Manager Installation and Support Guide.


    Remarque :

    Vous devez utiliser RAID Manager 6.22 ou une version compatible pour pouvoir effectuer une mise en grappe avec Sun Cluster 3.0.


  2. Installez les éventuels patchs pour le tableau StorEdge/Netra st A1000 sur les noeuds de la grappe.


    Remarque :

    Pour connaître la liste actualisée des logiciels, micrologiciels et patchs requis pour le tableau StorEdge/Netra st A1000 array, reportez-vous à EarlyNotifier 20029, "A1000/A3x00/A1000FC Software/Firmware Configuration Matrix." Ce document est accessible en ligne pour les fournisseurs de services Sun ainsi que pour les clients ayant souscrit des contrats de service SunSolve, sur le site web de SunSolve: http://sunsolve.sun.com.


  3. Réglez les paramètres Rdac du fichier /etc/osa/rmparams des deux noeuds.


    Rdac_RetryCount=1
    Rdac_NoAltOffline=TRUE
    

  4. Mettez le tableau StorEdge/Netra st A1000 sous tension.

    Pour mettre un tableau StorEdge/Netra st A1000 sous tension, positionnez l'interrupteur en position ON (côté droit) puis relâchez-le.

  5. Arrêtez le premier noeud.


    # scswitch -S -h nom_noeud
    # shutdown -y -g0 -i0
    

  6. Si vous installez de nouveaux adaptateurs hôtes, mettez le premier noeud hors tension.

    Pour connaître la procédure complète d'arrêt et de mise hors tension d'un noeud, reportez-vous au Guide d'administration système de Sun Cluster 3.0 12/01.

  7. Installez les adaptateurs hôtes sur le premier noeud.

    Pour connaître la procédure d'installation des adaptateurs hôtes, reportez-vous à la documentation livrée avec les adaptateurs hôtes et les noeuds.

  8. Câblez le tableau StorEdge/Netra st A1000 au premier noeud.

    Si vous ajoutez un tableau StorEdge/Netra st A1000, connectez le câble SCSI différentiel entre le noeud et le tableau. Vérifiez que la longueur totale du bus SCSI à chaque enveloppe est inférieure à 25 m. Cette longueur inclut les câbles vers les deux noeuds, ainsi que la longueur de bus interne vers chaque enveloppe, noeud et adaptateur hôte.

    Figure D-2 Câblage des tableaux StorEdge/Netra st A1000

    Graphic

  9. Avez-vous mis le premier noeud hors tension pour installer un adaptateur hôte?

    • Si ce n'est pas le cas, allez à l'Étape 10.

    • Si c'est le cas, mettez le premier noeud sous tension et activez le tableau StorEdge/Netra st A1000, mais empêchez le noeud de s'initialiser. Au besoin, interrompez la suite des tâches OpenBoot PROM (OBP) du tableau.

  10. Trouvez les chemins d'accès aux adaptateurs hôtes SCSI.


    {0} ok show-disks
    ...b) /sbus@6,0/QLGC,isp@2,10000/sd...d) /sbus@2,0/QLGC,isp@2,10000/sd...

    Identifiez les deux contrôleurs connectés aux tableau de disque, enregistrez-les et enregistrez leurs chemins d'accès. Utilisez ces informations pour changer les adresses SCSI de ces contrôleurs dans le script nvramrc, situé dans l'Étape 11. N'incluez pas les répertoires sd dans les chemins des unités.

  11. Modifiez le script nvramrc de manière à changer le scsi-initiator-id des adaptateurs hôtes du premier noeud.

    L'adresse SCSI par défaut des adaptateurs hôtes est 7. Réservez l'adresse SCSI 7 pour un adaptateur hôte de la chaîne SCSI. Cette procédure concerne l'adaptateur hôte dont l'adresse SCSI est 7 comme l'adaptateur hôte du "second noeud."

    Pour éviter les conflits, vous devez changer scsi-initiator-id de l'adaptateur hôte restant dans la chaîne SCSI en adresse SCSI utilisable. Cette procédure concerne l'adaptateur hôte ayant une adresse SCSI utilisable comme adaptateur hôte du "premier noeud."

    Pour accéder à une liste partielle des commandes éditeur nvramrc et des commandes clavier nvedit, reportez-vous à l'Annexe B de Sun Cluster 3.0 12/01 Hardware Guide. Pour accéder à une liste complète des commandes, reportez-vous à l'OpenBoot 3.x Command Reference Manual.

    L'exemple suivant règle scsi-initiator-id sur 6. OpenBoot PROM Monitor imprime les numéros de ligne (0:, 1:, et ainsi de suite).


    Remarque :

    Insérez un seul espace après le guillement et avant scsi-initiator-id.


    {0} ok nvedit 
    0: probe-all
    1: cd /sbus@6,0/QLGC,isp@2,10000 
    2: 6 " scsi-initiator-id" integer-property 
    3: device-end 
    4: cd /sbus@2,0/QLGC,isp@2,10000
    5: 6 " scsi-initiator-id" integer-property 
    6: device-end 
    7: install-console 
    8: banner <Control C>
    {0} ok


  12. Enregistrez les modifications.

    Les modifications effectuées avec la commande nvedit sont conservées dans une copie temporaire du script nvramrc. Vous pouvez modifier cette copie sans risque. Une fois les modifications effectués, enregistrez-les. Si les modifications ne vous conviennent pas, annulez-les.

    • Pour enregistrer les modifications, tapez :


      {0} ok nvstore
      {0} ok 

    • Pour annuler les modifications, tapez :


      {0} ok nvquit
      {0} ok 

  13. Vérifiez le contenu du script nvramrc créé à l'Étape 11, comme l'indique l'exemple ci-après.

    Si le contenu du script nvramrc est incorrect, utilisez la commande nvedit pour y apporter des corrections.


    {0} ok printenv nvramrc
    nvramrc =             probe-all
                          cd /sbus@6,0/QLGC,isp@2,10000
                          6 " scsi-initiator-id" integer-property
                          device-end 
                          cd /sbus@2,0/QLGC,isp@2,10000
                          6 " scsi-initiator-id" integer-property
                          device-end 
                          install-console
                          banner
    {0} ok

  14. Réglez OpenBoot PROM Monitor pour qu'il utilise le script nvramrc :


    {0} ok setenv use-nvramrc? true
    use-nvramrc? = true
    {0} ok 

  15. Initialisez le premier noeud.


    {0} ok boot -r
    

    Pour de plus amples informations sur l'initialisation des noeuds, reportez-vous au Guide d'administration système de Sun Cluster 3.0 12/01.

  16. Contrôlez le numéro de révision du fichier NVSRAM du tableau StorEdge/Netra st A1000, et installez au besoin la dernière version disponible.

    Pour vérifier que vous disposez de la dernière révision, reportez-vous aux Sun StorEdge RAID Manager Release Notes. Pour connaître la procédure de mise à niveau du fichier NVSRAM et des micrologiciels, reportez-vous au Sun StorEdge RAID Manager User's Guide.

  17. Arrêtez le second noeud.


    # scswitch -S -h nom_noeud
    # shutdown -y -g0 -i0
    

  18. Si vous installez de nouveaux adaptateurs hôtes, mettez le second noeud hors tension.

    Pour connaître la procédure complète d'arrêt et de mise hors tension d'un noeud, reportez-vous au Guide d'administration système de Sun Cluster 3.0 12/01.

  19. Installez les adaptateurs hôtes sur le second noeud.

    Pour connaître la procédure d'installation des adaptateurs hôtes, reportez-vous à la documentation livrée avec les noeuds.

  20. Câblez le tableau StorEdge/Netra st A1000 au noeud.

    Connectez le câble SCSI différentiel entre le noeud et le tableau. Vérifiez que la longueur totale du bus SCSI à chaque enveloppe est inférieure à 25 m. Cette longueur inclut les câbles vers les deux noeuds, ainsi que la longueur de bus interne vers chaque enveloppe, noeud et adaptateur hôte.

    Figure D-3 Câblage des tableaux StorEdge/Netra st A1000

    Graphic

  21. Avez-vous mis le second noeud hors tension pour installer un adaptateur hôte ?

    • Si ce n'est pas le cas, allez à l'Étape 23.

    • Si c'est le cas, mettez le second noeud sous tension et activez le tableau StorEdge/Netra st A1000, mais empêchez le noeud de s'initialiser. Au besoin, interrompez la suite des tâches OpenBoot PROM (OBP) du tableau.

  22. Vérifiez que le second noeud reconnaît les nouveaux adaptateurs hôtes et unités de disques.

    Si le noeud ne reconnaît pas le nouveau matériel, vérifiez tous les branchements et répétez la procédure d'installation de l'Étape 19.


    {0} ok show-disks
    ...b) /sbus@6,0/QLGC,isp@2,10000/sd...d) /sbus@2,0/QLGC,isp@2,10000/sd...{0} ok

  23. Vérifiez que la valeur de scsi-initiator-id pour les adaptateurs hôtes du second noeud est bien 7.

    Utilisez la commande show-disks pour trouver les chemins d'accès aux adaptateurs hôtes connectés à ces enveloppes. Sélectionnez le noeud de l'unité de chaque adaptateur hôte, puis affichez les propriétés du noeud afin de confirmer que la valeur de scsi-initiator-id de chaque adaptateur hôte est bien 7.


    {0} ok cd /sbus@6,0/QLGC,isp@2,10000
    {0} ok .properties
    scsi-initiator-id        00000007 
    ...

  24. Initialisez le second noeud.


    {0} ok boot -r
    

    Pour de plus amples informations, reportez-vous au Guide d'administration système de Sun Cluster 3.0 12/01.

  25. A partir de l'un des noeuds, vérifiez que les ID d'unités (DID) ont bien été attribuées aux LUN StorEdge/Netra st A1000 de tous les noeuds attachés au tableau StorEdge/Netra st A1000 :


    # scdidadm -L
    

Etape suivante

Pour créer une unité logique à partir des disques durs non attribués, reportez-vous à la section "Comment créer une unité logique".

Pour mettre à niveau les micrologiciels du tableau StorEdge/Netra st A1000, reportez-vous à la section "Comment mettre à niveau les micrologiciels d'une unité de disque dans une grappe en service".

Comment supprimer un tableau StorEdge/Netra st A1000 d'une grappe en service

Utilisez cette procédure pour supprimer un tableau StorEdge/Netra st A1000 d'une grappe en service.


Caution - Caution -

Cette procédure supprime toutes les données figurant sur le tableau StorEdge/Netra st A1000 que vous supprimez.


  1. Faites migrer toutes les tables Oracle Parallel Server/Real Application Clusters (OPS), les services de données ou les volumes hors du tableau.

  2. Déterminez si le tableau comporte une unité logique configurée comme périphérique de quorum.


    # scstat -q
    
    • Si le tableau ne comporte pas de périphérique de quorum, allez à l'Étape 3.

    • Si le tableau comporte une unité logique configurée comme un périphérique de quorum, choisissez et configurez un autre périphérique comme périphérique de quorum sur un autre tableau. Supprimez ensuite l'ancien périphérique de quorum.

  3. Interrompez toute activité du tableau.

    Reportez-vous au RAID Manager User's Guide et à la documentation correspondant au tableau en service pour de plus amples instructions.

  4. Supprimez l'unité logique des ensembles de disques ou des groupes de disques.

    Si un gestionnaire de volumes gère effectivement l'unité logique, exécutez les commandes Solstice DiskSuite/Solaris Volume Manager ou VERITAS Volume Manager appropriées pour supprimer l'unité logique de tout ensemble de disques ou groupe de disques. Pour de plus amples informations, reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager ou de VERITAS Volume Manager. Le paragraphe suivant répertorie les commandes VERITAS Volume Manager supplémentaires requises.

    Les LUN qui étaient gérées par VERITAS Volume Manager doivent être complètement retirées du contrôle de VERITAS Volume Manager avant que vous puissiez les supprimer. Pour supprimer les LUN, après avoir supprimé l'unité logique du groupe de disques concerné, utilisez les commandes suivantes :


    # vxdisk offline cNtXdY
    # vxdisk rm cNtXdY
    

  5. Placez-vous sur l'un des noeuds et supprimez l'unité logique.

    Pour connaître la procédure de suppression d'une unité logique, reportez-vous au Sun StorEdge RAID Manager User's Guide.

  6. Débranchez tous les câbles en sortie du tableau et supprimez le matériel de votre grappe.

  7. Supprimez les chemins d'accès à la ou aux anciennes LUN que vous souhaitez supprimer :


    # rm /dev/rdsk/cNtXdY*
    # rm /dev/dsk/cNtXdY*
    
    # rm /dev/osa/dev/dsk/cNtXdY*
    # rm /dev/osa/dev/rdsk/cNtXdY*
    

  8. Sur tous les noeuds de la grappe, supprimez les références au tableau StorEdge/Netra st A1000.


    # scdidadm -C
    

  9. Supprimez tous les adaptateurs hôtes non utilisés qui étaient attachés au tableau StorEdge/Netra st A1000.

    1. Arrêtez et mettez hors tension le premier noeud duquel vous supprimez un adaptateur hôte :


      # scswitch -S -h nom_noeud
      # shutdown -y -g0 -i0
      

      Pour connaître la procédure complète d'arrêt et de mise hors tension d'un noeud, reportez-vous au Guide d'administration système de Sun Cluster 3.0 12/01.

    2. Supprimez l'adaptateur hôte du premier noeud.

      Reportez-vous à la documentation livrée avec le matériel du noeud pour connaître les instructions de retrait.

    3. Initialisez le noeud et attendez qu'il rejoigne la grappe.


      ok boot -r
      

    4. Répétez la procédure de l' Étape a à l' Étape c pour le second noeud attaché au tableau StorEdge/Netra st A1000.

  10. Restituez les groupes de ressources à leurs noeuds d'origine.


    # scswitch -Z
    

  11. Etes-vous prêt à supprimer le dernier tableau StorEdge/Netra st A1000 de votre grappe ?

    • Si ce n'est pas le cas, vous en avez terminé avec cette procédure.

    • Si vous supprimez le dernier tableau StorEdge/Netra st A1000 de votre grappe, allez à l'Étape 12.

  12. Supprimez les patchs RAID Manager, puis les logiciels RAID Manager.


    Caution - Caution -

    Si vous supprimez mal les logiciels RAID Manager, la prochaine réinitialisation du noeud échouera. Avant de supprimer les logiciels RAID Manager, reportez-vous aux Sun StorEdge RAID Manager 6.22.1 Release Notes pour de plus amples informations sur la procédure de désinstallation.


    Pour connaître la procédure de suppression de modules logiciels, consultez la documentation livrée avec votre tableau StorEdge/Netra st A1000.

Comment remplacer un contrôleur en panne ou restaurer un contrôleur hors ligne

Utilisez cette procédure pour remplacer un contrôleur StorEdge/Netra st A1000 ou pour restaurer un contrôleur hors ligne.

Pour de plus amples informations sur les réservations SCSI et les corrections des pannes, reportez-vous aux Sun Cluster 3.0 12/01 Concepts.

  1. Déterminez si le tableau comporte une unité logique configurée comme périphérique de quorum.


    # scstat -q
    
    • Si le tableau ne comporte pas de périphérique de quorum, allez à l'Étape 2.

    • Si le tableau comporte une unité logique configurée comme un périphérique de quorum, choisissez et configurez une autre LUN comme nouveau périphérique de quorum sur un autre tableau. Supprimez ensuite l'ancien périphérique de quorum.

  2. Redémarrez le démon RAID Manager :


    # /etc/init.d/amdemon stop
    # /etc/init.d/amdemon start
    

  3. L'un de vos contrôleurs est-il en panne ?

    • Si votre tableau est hors ligne, mais qu'aucun contrôleur n'est en panne, allez à l'Étape 4.

    • Si l'un des contrôleurs est en panne, remplacez-le par un nouveau contrôleur, mais ne le mettez pas en ligne.

      Pour connaitre la procédure de remplacement de contrôleurs StorEdge/Netra st A1000, reportez-vous aux Sun StorEdge A3500/A3500FC Controller Module Guide et Sun StorEdge RAID Manager Installation and Support Guide pour de plus amples informations.

  4. A partir de l'un des noeuds, utilisez l'application de restauration de l'interface RAID Manager pour restaurer le contrôleur en ligne.


    Remarque :

    Vous devez impérativement utiliser l'application de restauration de l'interface RAID Manager pour restaurer le contrôleur en ligne.


    Pour de plus amples informations sur l'application de restauration, reportez-vous au Sun StorEdge RAID Manager User's Guide. Si vous avez des problèmes pour mettre le contrôleur en ligne, reportez-vous au Sun StorEdge RAID Manager Installation and Support Guide.

  5. A partir d'un noeud connecté au tableau StorEdge/Netra st A1000, vérifiez que le contrôleur a un état de réservation SCSI correct.

    Exécutez l'option de réparation scdidadm(1M) (-R) sur LUN 0 du contrôleur que vous souhaitez mettre en ligne :


    # scdidadm -R /dev/dsk/cNtXdY
    

Comment ajouter une unité de disque dans une grappe en service

Utilisez cette procédure pour ajouter un disque dur dans un tableau StorEdge/Netra st A1000 situé dans une grappe en service.

  1. Vérifiez que le nouveau disque dur est formaté et qu'il n'est pas transféré depuis un autre tableau.

    Pour de plus amples informations sur le déplacement de disques entre les sous-systèmes de tableaux StorEdge/Netra st, reportez-vous aux Sun StorEdge RAID Manager 6.22.1 Release Notes.

  2. Installez la nouvelle unité de disque sur le tableau de disques.

    Pour connaître la procédure d'installation d'une unité de disque, reportez-vous au Sun StorEdge A1000 and D1000 Installation, Operations, and Service Manual ou au Netra st A1000 and Netra st D1000 Installation and Maintenance Manual.

  3. Laissez le lecteur accélérer (environ 30 secondes).

  4. Exécutez Health Check pour vérifier que le nouveau disque dur n'est pas défectueux.

    Pour de plus amples instructions concernant l'exécution de Recovery Guru et Health Check, reportez-vous au Sun StorEdge RAID Manager User's Guide.

  5. Désactivez le nouveau disque puis relancez-le pour mettre à jour DacStore sur le disque dur.

    Pour de plus amples instructions concernant la désactivation de disques et les procédures de restauration manuelle, reportez-vous au Sun StorEdge RAID Manager User's Guide.

  6. Répétez la procédure de l'Étape 2 à l'Étape 5 pour chaque disque dur que vous ajoutez.

Etape suivante

Pour créer des unités logiques sur les nouveaux disques durs, consultez "Comment créer une unité logique" pour de plus amples informations.

Comment remplacer une unité de disque défectueuse dans une grappe en service

Utilisez cette procédure pour remplacer une unité de disque défectueuse dans une grappe en service.

  1. Le remplacement d'unité de disque a-t-il une incidence sur la disponibilité de l'unité logique ?

    • Si ce n'est pas le cas, allez à l'Étape 2.

    • Si c'est le cas, supprimez la ou les LUN du contrôle de gestion des volumes. Pour de plus amples informations, reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager ou de VERITAS Volume Manager.

  2. Remplacez l'unité de disque dans le tableau de disques.

    Pour connaître la procédure de remplacement d'une unité de disque, reportez-vous au Sun StorEdge D1000 Storage Guide.

  3. Exécutez Health Check pour vérifier que le nouveau disque dur n'est pas défectueux.

    Pour de plus amples instructions concernant l'exécution de Recovery Guru et Health Check, reportez-vous au Sun StorEdge RAID Manager User's Guide.

  4. Le disque défectueux appartient-il à un groupe de disques ?

    • Si le disque n'appartient pas à un groupe d'unités, allez à l'Étape 5.

    • Si le disque appartient à un groupe d'unités, la reconstruction démarre automatiquement. Si la reconstruction ne démarre pas automatiquement pour quelque motif que ce soit, sélectionnez Reconstruct dans l'application de restauration manuelle. Ne sélectionnez pas Revive. Une fois la reconstruction achevée, allez à l'Étape 6.

  5. Désactivez le nouveau disque puis relancez-le pour mettre à jour DacStore sur le disque dur.

    Pour de plus amples instructions concernant la désactivation des disques et les procédures de restauration manuelle, reportez-vous au Sun StorEdge RAID Manager User's Guide.

  6. Si vous avez supprimé des unités logiques du contrôle de gestion des volumes à l'Étape 1, restituez-les sous le controle de gestion des volumes.

    Pour de plus amples informations, reportez-vous à la documentation de Solstice DiskSuite/Solaris Volume Manager ou de VERITAS Volume Manager.

Comment supprimer une unité de disque d'une grappe en service

Utilisez cette procédure pour supprimer un disque dur d'une grappe en service.

  1. Déterminez si l'unité logique associée au disque dur que vous souhaitez supprimer est configurée comme un périphérique de quorum.


    # scstat -q
    
    • Si l'unité logique n'est pas un périphérique de quorum, allez à l'Étape 2.

    • Si l'unité logique est configurée comme un périphérique de quorum, choisissez et configurez un autre périphérique comme nouveau périphérique de quorum. Supprimez ensuite l'ancien périphérique de quorum.

  2. Supprimez l'unité logique associée à l'unité de disque que vous êtes en train de supprimer.

    Pour connaître la procédure de suppression d'une unité logique, reportez-vous à la section "Comment supprimer une unité logique".

  3. Supprimez l'unité de disque du tableau de disques.

    Pour connaître la procédure de suppression d'une unité de disque, reportez-vous au Sun StorEdge D1000 Storage Guide.


    Caution - Caution -

    Une fois le disque dur supprimé, installez un disque fictif pour garantir un refroidissement adéquat.


Comment mettre à niveau les micrologiciels d'une unité de disque dans une grappe en service


Remarque :

Seuls des techniciens qualifiés sont habilités à mettre à jour les micrologiciels d'une unité de disque. Pour mettre à niveau les micrologiciels de votre disque dur, contactez votre centre local de solutions Sun ou votre fournisseur de services Sun.


Comment remplacer un adaptateur hôte dans un noeud (connecté à un tableau StorEdge/Netra st A1000)

Cette section décrit la procédure de remplacement d'un adaptateur hôte défectueux sur un noeud en service, attaché à un tableau StorEdge/Netra st A1000.

Dans la procédure suivante, l'adaptateur hôte du Noeud 1 sur le bus SCSI A a besoin d'être remplacé tandis que le Noeud 2 reste en service.


Remarque :

Plusieurs étapes de cette procédure nécessitent une interruption des activités d'E/S. Pour ce faire, mettez le tableau hors ligne à l'aide de la procédure de restauration manuelle de l'interface RAID Manager décrite dans le Sun StorEdge RAID Manager User's Guide.


  1. Sans mettre le noeud hors tension, arrêtez le Noeud 1.


    # scswitch -S -h nom_noeud
    # shutdown -y -g0 -i0
    

    Pour connaître la procédure d'arrêt d'un noeud, reportez-vous au Guide d'administration système de Sun Cluster 3.0 12/01.

  2. A partir du Noeud 2, interrompez l'activité d'E/S vers le bus SCSI A.

    Reportez-vous au RAID Manager User's Guide pour de plus amples instructions.

  3. A l'extrémité tableau du câble SCSI, débranchez le câble du bus SCSI A qui connecte le tableau au Noeud 1, puis remplacez ce câble par un connecteur SCSI différentiel.

  4. Relancez l'activité d'E/S sur le bus SCSI A.

    Reportez-vous au RAID Manager User's Guide pour de plus amples instructions.

  5. L'intervention sur l'adaptateur hôte en panne a-t-elle une incidence sur le bus SCSI B ?

    • Si le bus SCSI B n'est pas affecté, allez à l'Étape 9.

    • Si le bus SCSI B est affecté, passez à l'Étape 6.

  6. A partir du Noeud 2, interrompez l'activité d'E/S vers le tableau sur le bus SCSI B.

    Reportez-vous au RAID Manager User's Guide pour de plus amples instructions.

  7. A l'extrémité tableau du câble SCSI, débranchez le câble du bus SCSI B qui connecte le tableau au Noeud 1, puis remplacez ce câble par un connecteur SCSI différentiel.

  8. Relancez l'activité d'E/S sur le bus SCSI B.

    Reportez-vous au RAID Manager User's Guide pour de plus amples instructions.

  9. Mettez le Noeud 1 hors tension.

  10. Remplacez l'adaptateur hôte du Noeud 1.

    Reportez-vous à la documentation livrée avec le matériel du noeud pour connaître les instructions.

  11. Mettez le Noeud 1 hors tension, mais empêchez-le de s'initialiser. Si nécessaire, interrompez le tableau.

  12. A partir du Noeud 2, interrompez l'activité d'E/S vers le tableau sur le bus SCSI A.

    Reportez-vous au RAID Manager User's Guide pour de plus amples instructions.

  13. Retirez le connecteur SCSI différentiel du bus SCSI A, puis réinstallez le câble SCSI pour connecter le tableau au Noeud 1.

  14. Relancez l'activité d'E/S sur le bus SCSI A.

    Reportez-vous au RAID Manager User's Guide pour de plus amples instructions.

  15. Avez-vous installé un connecteur SCSI différentiel sur le bus SCSI B à l'Étape 7?

    • Si ce n'est pas le cas, allez directement à l'Étape 18.

    • Si vous avez effectivement installé un connecteur SCSI différentiel sur le bus SCSI B, interrompez l'activité d'E/S sur le bus SCSI B, puis poursuivez avec l'Étape 16.

  16. Retirez le connecteur SCSI différentiel du bus SCSI B, puis réinstallez le câble SCSI pour connecter le tableau au Noeud 1.

  17. Relancez l'activité d'E/S sur le bus SCSI B.

    Reportez-vous au RAID Manager User's Guide pour de plus amples instructions.

  18. Remettez le tableau en ligne.

    Reportez-vous au RAID Manager User's Guide pour de plus amples instructions.

  19. Rééquilibrez toutes les unités logiques (LUN).

    Reportez-vous au RAID Manager User's Guide pour de plus amples instructions.

  20. Initialisez le Noeud 1 en mode grappe.


    {0} ok boot