Ce chapitre fournit les instructions nécessaires à l'administration des tableaux SPARCstorage 100, SPARCstorage Array200 avec plateau SCSI différentiel et SPARCstorage Array 200 avec plateaux de disques RSM(TM). Consultez également le Chapitre 3 du Sun Cluster 2.2 Hardware Service Manual.
Ce chapitre présente les rubriques suivantes :
"Administration des plateaux d'un tableau SPARCstorage Array"
"Remplacement d'un contrôleur du tableau SPARCstorage Array et modification du nom universel"
"Administration de la mémoire vive non-volatile (NVRAM) d'un tableau SPARCstorage Array"
Consultez toujours le manuel d'entretien de SPARCstorage Arrayainsi que la documentation du gestionnaire de volumes lorsque vous remplacez ou réparez le matériel SPARCstorage Array utilisé dans le cadre d'une configuration Sun Cluster.
Lorsqu'un tableau SPARCstorage Arraycesse d'être alimenté, les opérations d'E/S génèrent des erreurs qui sont détectées par le logiciel de gestion des volumes. Les erreurs ne sont pas signalées tant que des transactions d'E/S ne sont pas effectuées sur le disque. Un remplacement dynamique peut être effectué si les périphériques affectés sont configurés à cette fin.
La configuration doit normalement faire l'objet d'une surveillance pour que ces événements soient toujours détectés. Pour de plus amples informations sur la surveillance de la configuration, voir le Chapitre 2.
La liste qui suit énumère les étapes générales d'une reprise après panne de courant sur un tableau SPARCstorage Array dans une configuration Solstice DiskSuite :
Identification des répliques défectueuses.
Remise en service des répliques défectueuses.
Identification des périphériques défectueux.
Remise en service des périphériques défectueux.
Resynchronisation des disques.
Les étapes expliquées maintenant décrivent en détail la reprise après panne de courant sur un tableau SPARCstorage Arraydans une configuration Solstice DiskSuite.
Une fois le courant rétabli, exécutez la commande metadb(1M) pour identifier les répliques contenant des erreurs.
# metadb -s ensemble_disques |
Remettez en service les répliques.
Après une panne de courant, toutes les répliques de base de données d'état des métapériphériques du châssis de tableau SPARCstorage Array affecté passent à l'état d'erreur. Comme la restauration des répliques de base de données d'état des métapériphériques n'est pas automatique, il est plus prudent de récupérer celles-ci dès que le tableau SPARCstorage Array redevient opérationnel. A défaut, une nouvelle panne risque de mettre hors service la plupart des répliques et de provoquer une panne du noyau. Ce comportement de Solstice DiskSuitese produit en général lorsque le nombre de répliques disponibles n'est pas suffisant.
Bien que ces répliques erronées soient restaurées lors de la relève suivante (commande haswitch(1M) ou reboot(1M)), il est préférable de les remettre en service manuellement en les supprimant puis en les ajoutant de nouveau.
Veillez à rajouter le même nombre de répliques que celui qui a été supprimé sur chaque tranche. Vous pouvez supprimer plusieurs répliques simultanément à l'aide de la commande metadb(1M). Si une tranche doit contenir plusieurs exemplaires des répliques, ajoutez ces dernières en exécutant une seule fois la commande metadb(1M), accompagnée de l'indicateur -c.
Exécutez la commande metastat(1M) pour identifier les métapériphériques contenant des erreurs.
# metastat -s ensemble_disques |
Remettez en service les métapériphériques défectueux à l'aide de la commande metareplace(1M), laquelle permet la resynchronisation des disques.
# metareplace -s ensemble_disques -e miroir composant |
L'option -e permet au composant (tranche) de passer à l'état Disponible et lance la resynchronisation.
Les composants remplacés par une réserve dynamique doivent être remplacés en dernier, à l'aide de la commande metareplace(1M). Si la réserve dynamique est remplacée en premier, elle pourrait remplacer un autre sous-miroir défectueux dès qu'elle sera disponible.
Vous ne pouvez resynchroniser qu'un seul composant de sous-miroir (métapériphérique) à la fois. Si tous les composants d'un sous-miroir ont été touchés par la panne de courant, chaque composant doit être remplacé séparément. La resynchronisation d'un disque de 1,05 Go demande environ 10 minutes.
Si plusieurs ensembles de disques ont été touchés par la panne de courant, vous pouvez resynchroniser simultanément les sous-miroirs de chaque ensemble. Ouvrez une session distincte sur chaque hôte et restaurez son ensemble de disques en y exécutant la commande metareplace(1M).
Selon le nombre de sous-miroirs et de composants figurant dans ces sous-miroirs, la resynchronisation peut demander beaucoup de temps. Ainsi, pour un seul sous-miroir contenant 30 disques de 1,05 Go, elle peut durer environ cinq heures. Avec une configuration moins complexe composée de cinq sous-miroirs, la resynchronisation est achevée au bout de 50 minutes environ.
Les pannes de courant peuvent provoquer la déconnexion des unités de disque et donc des périphériques virtuels, qui ne sont alors plus disponibles. Dans un miroir toutefois, le volume reste actif car les périphériques virtuels restants du volume sont toujours disponibles. Il est possible de reconnecter les unités de disque et de remédier à la situation sans arrêter les noeuds de la grappe.
La liste qui suit énumère les étapes générales d'une reprise après panne de courant sur un tableau SPARCstorage Array utilisé dans une configuration VxVM:
Identification des périphériques virtuels défectueux à l'aide des commandes vxprint et vxdisk.
Correction du problème qui a causé la panne de courant.
Création des entrées /devices et /dev à l'aide des commandes drvconfig et disks.
Analyse de la configuration de disque actuelle.
Reconnexion des disques qui contenaient des erreurs temporaires.
Vérification de la présence d'autres erreurs.
(Facultatif) Dans le cas de groupes de disques partagés, exécution de la commande vxdg pour chaque disque dont l'alimentation a été coupée.
Lancement de la récupération de volume.
Ces étapes expliquent la reprise après panne de courant sur un tableau SPARCstorage Array dans une configuration VxVM.
Exécutez la commande vxprint pour afficher les périphériques virtuels contenant des erreurs.
Au besoin, spécifiez un groupe de disques avec l'option -g groupe_disques.
Exécutez la commande vxdisk pour identifier les disques contenant des erreurs.
# vxdisk list DEVICE TYPE DISK GROUP STATUS ... - - c1t5d0 toi failed was:c1t5d0s2 ... |
Corrigez l'erreur qui a causé le problème afin de rétablir l'alimentation électrique de tous les disques en panne.
Vérifiez que les disques tournent avant de poursuivre.
Entrez les commandes suivantes sur tous les noeuds de la grappe.
Dans certains cas, les disques doivent être de nouveau reconnus par les noeuds.
# drvconfig # disks |
Entrez les commandes suivantes sur tous les noeuds de la grappe.
VxVM doit lire de nouveau la configuration actuelle du disque.
# vxdctl enable # vxdisk -a online |
Entrez la commande suivante sur tous les noeuds de la grappe.
Si vous utilisez la fonction grappe de VxVM (utilisée avec Oracle Parallel Server), entrez d'abord la commande sur le noeud maître, puis ensuite seulement sur les noeuds esclaves.
Les disques qui contenaient des erreurs temporaires sont alors reconnectés.
# vxreattach |
Vérifiez la sortie de la commande vxdisk pour repérer toute autre erreur éventuelle.
# vxdisk list |
S'il reste des erreurs, exécutez de nouveau la commande vxreattach selon la marche à suivre indiquée (voir Étape 6).
Fonction grappe VxVM (OPS) exclusivement : si vous aviez des groupes de disques partagés et si le support a été remplacé à partir du noeud maître, exécutez une nouvelle fois la commande pour chaque disque ayant été déconnecté.
Le disque physique et le nom d'accès du gestionnaire de volumes de ce disque doivent être reconnectés.
# vxdg -g nom-groupe_disques -k adddisk nom_support=nom_accès |
Les valeurs pour nom_support et nom_accès figurent à la fin de la sortie de la commande vxdisk list.
Exemple :
# vxdg -g toi -k adddisk c1t5d0=c1t5d0s2 # vxdg -g toi -k adddisk c1t5d1=c1t5d1s2 # vxdg -g toi -k adddisk c1t5d2=c1t5d2s2 # vxdg -g toi -k adddisk c1t5d3=c1t5d3s2 # vxdg -g toi -k adddisk c1t5d4=c1t5d4s2 |
Vous pouvez également reconnecter les disques à l'aide de la commande vxdiskadm ou de l'interface graphique utilisateur.
Lancez la restauration du volume à partir du noeud (ou du noeud maître dans le cas de groupes de disques partagés).
# vxrecover -bv [-g groupe_disques] |
(Facultatif) Exécutez la commande vxprint -g pour visualiser les résultats.
L'interruption de la connexion entre un tableau SPARCstorage Arrayet l'un des hôtes est le plus souvent provoquée par une défaillance d'un câble à fibres optiques, une carte SBus FC/S ou un module FC/OM.
Dès que la défaillance est détectée sur un hôte, ce dernier commence à générer des messages d'erreur. Par la suite, tout accès au tableau SPARCstorage Arrayengendre des erreurs supplémentaires. L'hôte se comporte comme si la panne de courant touchait le tableau SPARCstorage Array en entier.
Les opérations d'E/S effectuées depuis les autres noeuds de la grappe ne sont pas touchées par ce type de panne.
Pour établir le diagnostic du problème, examinez l'affichage du tableau SPARCstorage Array. Celui-ci doit indiquer la connexion (A ou B) ayant été interrompue. Testez la carte FC/S et les modules FC/OM conformément aux procédures décrites dans le manuel d'entretien du noeud Sun Cluster afin d'identifier le composant défectueux. Pour effectuer un dépannage du matériel, libérez un noeud Sun Cluster et le tableau SPARCstorage Arrayqui paraît en panne.
Préparez le système Sun Cluster comme pour un remplacement de composants.
Selon l'origine du problème, utilisez l'une des procédures suivantes pour préparer le système Sun Cluster.
Si la défaillance s'est produite sur la carte FC/S ou le module FC/OM d'une carte FC/S, consultez le Chapitre 7 pour savoir comment préparer le système Sun Clusterpour la mise hors tension.
Si c'est le câble à fibres optiques qui est défectueux, le logiciel de gestion de volumes aura déjà détecté le problème et préparé le système en vue du remplacement du câble.
Si la défaillance s'est produite sur le module FC/OM du tableau SPARCstorage Array, exécutez la procédure intitulée "Comment mettre hors service un plateau de tableau SPARCstorage Array(Solstice DiskSuite)" ou la procédure "Comment mettre hors service un plateau de tableau SPARCstorage Array(VxVM)" sur chacun des plateaux de SPARCstorage Arrayde façon à préparer le tableau SPARCstorage Arrayen entier.
Remplacez le composant défectueux.
En cas de défaillance du câble à fibres optiques, de la carte SBus FC/S ou du module FC/OM, consultez le manuel d'entretien du noeud Sun Cluster pour des instructions détaillées sur leur remplacement.
Corrigez les erreurs du logiciel de gestion de volumes.
Effectuez les procédures décrites à la section "Reprise après une panne de courant".
Vous pouvez ajouter un tableau SPARCstorage Arrayà une configuration Sun Cluster à tout moment.
Toutefois, avant d'ajouter un tableau SPARCstorage Array, vous devez passer en revue la configuration des groupes de disques de votre grappe. Pour connaître l'impact du tableau SPARCstorage Array sur cette configuration, reportez-vous aux rubriques concernant la planification de la configuration du manuel Sun Cluster 2.2 Software Installation Guide.
Arrêtez le noeud de grappe devant recevoir le nouveau tableau SPARCstorage Array.
Exécutez la procédure intitulée "Comment arrêter Sun Cluster sur un noeud de grappe" pour arrêter le noeud.
Installez la carte FC/S (carte SBus de câble de fibres optiques) dans le noeud.
Installez la carte FC/S conformément aux directives du manuel d'entretien du matériel pour le noeud Sun Cluster.
Installez la carte FC/S dans le premier emplacement SBus disponible à la suite des autres cartes du noeud. Cela permet de conserver la numérotation des contrôleurs si l'environnement d'exploitation Solaris est réinstallé. Pour de plus amples informations à ce sujet, voir "Désignation et numérotation des instances".
Branchez les câbles au tableau SPARCstorage Arrayet à la carte FC/S.
Suivez les instructions du manuel d'entretien du noeud Sun Cluster.
Effectuez une réinitialisation de reconfiguration du noeud.
ok boot -r |
Exécutez la commande haswitch(1M) pour que le noeud réinitialisé devienne propriétaire de tous les hôtes logiques pouvant être contrôlés par un noeud maître.
phys-hahost1# haswitch phys-hahost2 hahost1 hahost2 |
Reprenez la procédure Étape 1 jusqu'à Étape 4 sur les autres noeuds connectés au tableau SPARCstorage Array.
Au besoin, réattribuez au maître par défaut approprié la propriété des hôtes logiques.
phys-hahost1# haswitch phys-hahost2 hahost2 |
Ajoutez les disques du tableau SPARCstorage Arrayau(x) groupe(s) de disques sélectionné(s).
Suivez les instructions de la documentation du gestionnaire de volumes pour ajouter les disques au(x) groupe(s) de disques sélectionné(s). Consultez également le manuel Sun Cluster 2.2 Software Installation Guide pour plus de renseignements sur Solstice DiskSuite et VxVM.
(Configuration Solstice DiskSuite exclusivement) Après avoir ajouté les disques à l'ensemble de disques au moyen de la commande metaset(1M), exécutez la commande scadmin(1M) pour réserver et activer le mode failfast sur les disques spécifiés.
phys-hahost1# scadmin reserve cN tXdYsZ |
Cette section décrit les procédures d'administration des plateaux de tableaux SPARCstorage Array. Utilisez les procédures décrites dans le manuel d'entretien du matériel de votre noeud pour identifier le plateau associé au composant défectueux.
Pour éviter toute perte de données ainsi que les défaillances qui pourraient exiger le remplacement du châssis SPARCstorage Arrayen entier, configurez les miroirs de telle façon que chaque châssis ne contienne qu'un seul sous-miroir.
Sun Cluster prend en charge plusieurs modèles de tableaux SPARCstorage Array. Les procédures décrites dans cette section ne s'appliquent qu'aux tableaux SPARCstorage Array 100.
Avant de supprimer un plateau d'un tableau SPARCstorage Array, vous devez interrompre toutes les opérations d'E/S en cours et arrêter tous les disques du plateau. Comme les disques démarrent automatiquement en présence de demandes d'E/S, il faut absolument interrompre ces dernières avant d'arrêter les unités de disque.
La liste qui suit énumère les étapes générales de la mise hors service d'un plateau de tableau SPARCstorage Arraydans une configuration Solstice DiskSuite :
Commutation des hôtes logiques sur un noeud de grappe.
Interruption des E/S sur le plateau affecté.
Identification des répliques, des réserves dynamiques et des sous-miroirs sur le plateau affecté.
Au besoin, vidage de la mémoire vive non-volatile (NVRAM).
Arrêt et retrait du plateau.
Pour traiter le tableau SPARCstorage Array en entier, exécutez les étapes suivantes sur chaque plateau.
Les étapes expliquées maintenant décrivent en détail la mise hors service d'un plateau de tableau SPARCstorage Arraydans une configuration Solstice DiskSuite.
Exécutez la commande haswitch(1M) pour que d'autres noeuds deviennent propriétaires des hôtes logiques affectés.
phys-hahost1# haswitch phys-hahost1 hahost1 hahost2 |
Il est possible que le tableau SPARCstorage Arrayà supprimer contienne des disques inclus dans plusieurs hôtes logiques. Si c'est le cas, attribuez à un autre noeud de la grappe la propriété de tous les hôtes logiques contenant des disques utilisant ce plateau. La commande luxadm(1M) sera utilisée plus tard pour arrêter les disques. Dans l'exemple qui suit, la commande haswitch(1M) a commuté les hôtes logiques sur phys-hahost1, permettant ainsi à phys-hahost2 d'exécuter les fonctions administratives.
Exécutez la commande metastat(1M) sur tous les hôtes logiques affectés pour identifier tous les sous-miroirs contenant des tranches sur le plateau à supprimer.
phys-hahost1# metastat -s ensemble_disques |
Interrompez les E/S aux sous-miroirs dont les composants (tranches) se trouvent sur le plateau affecté.
Utilisez la commande metaoffline(1M) pour cette étape. Cela met le sous-miroir hors ligne. Vous pouvez utiliser la commande metadetach(1M) pour interrompre les E/S, mais cela prolonge la durée de la resynchronisation.
Lorsque les sous-miroirs d'un plateau sont mis hors ligne, les miroirs correspondants n'assurent qu'une mise en miroir unidirectionnelle (c'est-à-dire sans redondance des données). (Un miroir tridirectionnel ne présente pas ce type de problème.) Lorsque le miroir est remis en ligne, la resynchronisation est effectuée automatiquement.
Lorsque tous les sous-miroirs affectés sont hors ligne, les E/S sur le plateau sont interrompues.
Exécutez la commande metadb(1M) pour identifier les répliques sur le plateau.
Enregistrez la sortie metadb(1M) pour pouvoir l'utiliser lorsque vous remplacerez le plateau.
Exécutez la commande metahs(1M) pour identifier les périphériques à réserve dynamique disponibles et les sous-miroirs correspondants.
Enregistrez la sortie metahs(1M) pour pouvoir l'utiliser lorsque vous remplacerez le plateau.
Si la mémoire vive non-volatile (NVRAM) est activée, videz-la en transférant les données qui s'y trouvent sur le contrôleur, le plateau ou le(s) disque(s) approprié(s).
phys-hahost1# luxadm sync_cache chemin |
Le message de confirmation affiché indique que la mémoire vive non-volatile est maintenant vide. Pour plus de détails sur le vidage de la mémoire NVRAM, reportez-vous à la section "Vidage et purge de la mémoire NVRAM".
Arrêtez le plateau à l'aide de la commande luxadm stop.
Lorsque le voyant de verrouillage du plateau s'éteint, retirez le plateau et effectuez les corrections nécessaires.
phys-hahost1# luxadm stop c1 |
Avant de supprimer un plateau d'un tableau SPARCstorage Array, vous devez interrompre toutes les opérations d'E/S en cours et arrêter tous les disques du plateau. Comme les disques démarrent automatiquement en présence de demandes d'E/S, il faut absolument interrompre ces dernières avant d'arrêter les unités de disque.
La liste qui suit énumère les étapes générales de la mise hors service d'un plateau de tableau SPARCstorage Arraydans une configuration VxVM :
Commutation des hôtes logiques sur un noeud de grappe.
Identification des objets VxVM sur le plateau affecté.
Interruption des E/S sur le plateau affecté.
Au besoin, vidage de la mémoire vive non-volatile (NVRAM).
Arrêt et retrait du plateau.
Pour traiter le tableau SPARCstorage Array en entier, exécutez les étapes suivantes sur chaque plateau.
Les étapes expliquées maintenant décrivent en détail la mise hors service d'un plateau de tableau SPARCstorage Arraydans une configuration VxVM.
Exécutez la commande haswitch(1M) pour que d'autres noeuds deviennent propriétaires des hôtes logiques affectés.
phys-hahost1# haswitch phys-hahost1 hahost1 hahost2 |
Il est possible que le tableau SPARCstorage Arrayà supprimer contienne des disques inclus dans plusieurs hôtes logiques. Si c'est le cas, attribuez à un autre noeud de la grappe la propriété de tous les hôtes logiques contenant des disques utilisant ce plateau. La commande luxadm(1M) sera utilisée plus tard pour arrêter les disques. Dans cet exemple, la commande haswitch(1M) a commuté les hôtes logiques sur phys-hahost1, permettant ainsi à phys-hahost1 d'exécuter les fonctions administratives.
Identifiez tous les volumes et périphériques virtuels correspondants sur les disques du plateau à mettre hors service.
Trouvez, dans l'adresse physique du périphérique (cNtNdN), le numéro du contrôleur et le numéro de la cible.
Dans l'adresse c3t2d0, par exemple, le numéro du contrôleur est 3 et la cible 2.
Trouvez, dans la sortie produite par la commande vxdisk list, les périphériques VxVM du plateau affecté.
Si la cible est 0 ou 1, identifiez tous les périphériques dont l'adresse physique commence par cNt0 et cNt1. Si la cible est 2 ou 3, identifiez tous les périphériques dont l'adresse physique commence par cNt2 et cNt3. Si la cible est 4 ou 5, identifiez tous les périphériques dont l'adresse physique commence par cNt4 et cNt5. Voici un exemple illustrant comment la commande vxdisk peut être utilisée pour obtenir les informations.
# vxdisk -g groupe_disques -q list | egrep c3t2\|c3t3 | nawk '{print $3}' |
Identifiez tous les périphériques virtuels sur les périphériques ci-dessus, à l'aide de la version qui convient (csh, ksh, ou shell Bourne) de la commande suivante.
PLLIST=`vxprint -ptq -g groupe_disques -e '(aslist.sd_dm_name in ("c3t2d0","c3t3d0","c3t3d1")) && (pl_kstate=ENABLED)' | nawk '{print $2}'` |
Pour csh, la syntaxe est set PLLIST .... Pour ksh, la syntaxe est export PLLIST= .... Avec le shell Bourne, vous devez utiliser la commande export PLLIST après définition de la variable.
Après avoir défini la variable, interrompez les E/S sur les volumes dont les composants (sous-disques) se trouvent sur le plateau.
Veillez à ce que tous les volumes associés à ce plateau soient détachés (configurations en miroir ou RAID5) ou arrêtés (périphériques virtuels simples). Exécutez la commande suivante pour détacher un périphérique virtuel mis en miroir.
# vxplex det ${PLLIST} |
Autre commande permettant de détacher un périphérique virtuel d'un plateau :
# vxplex -g groupe_disques -v volume det périphérique_virtuel |
Pour interrompre les E/S sur des périphériques virtuels simples, démontez les systèmes de fichiers ou interrompez tout accès à la base de données.
Les volumes mis en miroir seront quand même actifs, car l'autre moitié du miroir est encore disponible.
Si la mémoire vive non-volatile (NVRAM) est activée, videz-la en transférant les données qui s'y trouvent sur le contrôleur, le plateau ou le(s) disque(s) approprié(s). Sinon, passez à Étape 5.
# luxadm sync_cache chemin |
Le message de confirmation affiché indique que la mémoire vive non-volatile est maintenant vide. Pour plus de détails sur le vidage de la mémoire NVRAM, reportez-vous à la section "Vidage et purge de la mémoire NVRAM".
Pour retirer le plateau, exécutez la commande luxadm stop afin de l'arrêter.
Lorsque le voyant de verrouillage du plateau s'éteint, retirez le plateau et effectuez les corrections nécessaires.
# luxadm stop c1 |
La liste qui suit énumère les étapes générales de remise en service d'un plateau de tableau SPARCstorage Arraydans une configuration Solstice DiskSuite :
Démarrage des unités de disque.
Restauration des répliques, des sous-miroirs et des réserves dynamiques.
Commutation des hôtes logiques sur leurs maîtres par défaut.
Si le tableau SPARCstorage Array a fait l'objet d'un entretien complet, exécutez les étapes suivantes sur chacun des plateaux.
Les étapes expliquées maintenant décrivent en détail la remise en service d'un plateau de tableau SPARCstorage Arraydans une configuration Solstice DiskSuite.
Si le tableau SPARCstorage Array a été retiré, démarrez les disques du plateau SPARCstorage Array. Sinon, passez à Étape 3.
Après avoir effectué toutes les opérations voulues sur un plateau SPARCstorage Array, remettez-le en place dans le châssis. Les disques démarrent automatiquement. Si les disques ne démarrent pas, exécutez la commande luxadm(1M) start pour les démarrer manuellement. Il y a ensuite un court délai (quelques secondes) entre l'exécution de la commande et le démarrage des disques du tableau SPARCstorage Array. Dans l'exemple qui suit, c1 est l'ID de contrôleur :
phys-hahost1# luxadm start c1 |
Ajoutez toutes les répliques de base de données d'état des métapériphériques qui ont été supprimées des disques du plateau.
Utilisez les informations enregistrées à l' Étape 4 de la procédure "Comment mettre hors service un plateau de tableau SPARCstorage Array(Solstice DiskSuite)" pour restaurer les répliques de base de données d'état des métapériphériques.
phys-hahost1# metadb -s hahost1 -a répliques-supprimées |
Pour ajouter plusieurs répliques sur la même tranche, utilisez l'option -c.
Après démarrage des disques, remettez en ligne tous les sous-miroirs qui avaient été mis hors ligne.
Exécutez la commande metaonline(1M) qui convient pour les disques du plateau.
phys-hahost1# metaonline -s hahost1 d15 d35 phys-hahost1# metaonline -s hahost1 d24 d54 ... |
Lorsque la commande metaonline(1M) est exécutée, une resynchronisation optimisée met automatiquement à jour les sous-miroirs. Cette resynchronisation optimisée ne copie que les zones de disque modifiées lorsque le sous-miroir était hors ligne. Cette zone ne représente généralement qu'une petite partie de la capacité du sous-miroir.
Exécutez la commande metaonline(1M) autant de fois que nécessaire, jusqu'à ce que tous les sous-miroirs soient de nouveau en ligne.
Si vous avez utilisé la commande metadetach(1M) pour détacher le sous-miroir plutôt que la commande metaoffline(1M), vous devez synchroniser le miroir en entier avec la commande metattach(1M). Cette opération dure environ 10 minutes par giga-octet de données.
Ajoutez de nouveau toutes les réserves dynamiques supprimées au moment de la mise hors service du tableau SPARCstorage Array.
Exécutez la commande metahs(1M) qui convient à votre configuration des réserves dynamiques. Utilisez les informations enregistrées à l' Étape 5 de la procédure "Comment mettre hors service un plateau de tableau SPARCstorage Array(Solstice DiskSuite)" pour remplacer les réserves dynamiques.
phys-hahost1# metahs -s hahost1 -a pool_réserves_dynamiques cNtXdYsZ |
Au besoin, commutez chaque hôte logique sur son maître par défaut.
phys-hahost1# haswitch phys-hahost2 hahost2 |
La liste qui suit énumère les étapes générales de remise en service d'un plateau de tableau SPARCstorage Arraydans une configuration VxVM :
Démarrage des unités de disque.
Restauration des objets VxVM.
Commutation des hôtes logiques sur leurs maîtres par défaut.
Si le tableau SPARCstorage Array a fait l'objet d'un entretien complet, exécutez les étapes suivantes sur chacun des plateaux.
Les étapes expliquées maintenant décrivent la remise en service d'un plateau de tableau SPARCstorage Array dans une configuration VxVM.
Si le tableau SPARCstorage Array a été retiré, démarrez les disques du plateau SPARCstorage Array. Sinon, passez à Étape 2.
Après avoir effectué toutes les opérations voulues sur un plateau SPARCstorage Array, remettez-le en place dans le châssis. Les disques démarrent automatiquement. Si les disques ne démarrent pas, exécutez la commande luxadm(1M) start pour les démarrer manuellement. Il y a ensuite un court délai (quelques secondes) entre l'exécution de la commande et le démarrage des disques du tableau SPARCstorage Array. Dans l'exemple qui suit, c1 est l'ID de contrôleur :
phys-hahost1# luxadm start c1 |
Une fois que les disques tournent, surveillez le déroulement de la reprise de la gestion des volumes.
Les volumes du plateau précédemment affectés devraient être progressivement remis en ligne, et la restauration des données devrait débuter automatiquement au bout de quelques minutes. Au besoin, exécutez les commandes vxreattach et vxrecover pour rattacher les disques et effectuer la reprise sur erreur. Pour de plus amples renseignements, reportez-vous aux pages correspondantes du manuel.
Les sous-disques DRL détachés doivent être rattachés manuellement.
Au besoin, commutez chaque hôte logique sur son maître par défaut.
phys-hahost1# haswitch phys-hahost2 hahost2 |
Le contrôleur SPARCstorage Arrayporte un identificateur unique appelé "nom universel" qui permet au logiciel Solaris de l'identifier comme tel. Par conséquent, lorsque des défaillances du tableau SPARCstorage Array exigent le remplacement du contrôleur ou du châssis contenant le contrôleur, des procédures spéciales doivent être appliquées.
Le nom universel est semblable à l'ID machine stocké dans l'IDPROM de l'hôte d'une machine SPARC. Les quatre derniers chiffres du nom universel du tableau SPARCstorage Array sont affichés à l'écran ACL du châssis. Le nom universel fait partie du chemin /devices associé au tableau SPARCstorage Array et à ses disques.
Si vous devez remplacer le contrôleur du tableau SPARCstorage Arrayou le châssis en entier, les noeuds Sun Cluster reconnaîtront le nouveau nom universel lors de leur réinitialisation. Pour éviter que le nouveau nom universel ne confonde pas les couches supérieures du logiciel Sun Cluster, remplacez le nom universel du nouveau contrôleur par le nom universel de l'ancien contrôleur. (Cette opération est semblable à la permutation de l'IDPROM lors du remplacement d'une carte système dans une machine SPARC.)
Choisissez la procédure qui convient en fonction de la situation :
Dans la procédure décrite à la section "Comment modifier le nom universel d'un tableau SPARCstorage Arrayau moyen d'un système de maintenance", un système de maintenance distinct est utilisé pour activer le contrôleur à remplacer sans arrêter les noeuds de la grappe.
Si la défaillance ne touche pas le tableau SPARCstorage Array en entier ou si celui-ci n'est pas remplacé pour une autre raison, préparez le remplacement en exécutant, pour chaque plateau du tableau SPARCstorage Array, les étapes décrites à la section "Administration des plateaux d'un tableau SPARCstorage Array". Exécutez ensuite la procédure décrite à la section "Comment modifier le nom universel d'un tableau SPARCstorage Array".
Si la défaillance touche la totalité du contrôleur SPARCstorage Array, le logiciel de gestion de volumes aura déjà effectué les préparatifs en vue de l'échange. Dans ce cas, vous pouvez utiliser la procédure décrite à la section "Comment modifier le nom universel d'un tableau SPARCstorage Arrayau moyen d'un système de maintenance".
Cette procédure explique comment modifier un contrôleur de tableau SPARCstorage Array et son nom universel par celui du contrôleur défectueux. Elle permet de remplacer le contrôleur d'un tableau SPARCstorage Array sans arrêter les noeuds de la grappe.
Dans cette procédure, le "système de maintenance" utilisé peut être n'importe quelle architecture Sun Microsystems capable de prendre en charge un tableau SPARCstorage Array. La présence d'un système de maintenance permet d'exécuter cette procédure sans arrêter les noeuds de la grappe.
Ce système doit être chargé avec la même version de l'environnement d'exploitation Solaris que celle utilisée pour les noeuds de la grappe, et doit contenir tous les fichiers correctifs applicables. Il doit également être doté d'un lecteur de CD-ROM, d'une carte SBus de canal de fibres optiques (FC/S) et d'un module de canal de fibres optiques (FC/OM). Le système doit comporter les révisions FCODE et matérielles qui conviennent. Comme solution de rechange, vous pouvez initialiser le système de maintenance sur le réseau.
Si aucun "système de maintenance" n'est disponible, utilisez à cette fin l'un des noeuds de la grappe en suivant les étapes de cette procédure.
La liste qui suit énumère les étapes générales de la modification du nom universel d'un tableau SPARCstorage Arrayà l'aide d'un système de maintenance :
(Facultatif) Si le contrôleur est le périphérique de quorum, utilisation de la commande scconf(1M) pour sélectionner un nouveau périphérique de quorum.
Obtention du nom universel du tableau précédent.
Débranchement des câbles optiques et remplacement du contrôleur ou du tableau.
Branchement du câble optique entre le système de maintenance et le nouveau contrôleur.
Initialisation du système de maintenance avec système "mini-unix" à partir d'un CD Solaris.
Téléchargement du nom universel d'origine.
Réinitialisation du SSA.
Arrêt du système de maintenance.
Connexion du contrôleur SSA aux noeuds de grappe.
Vérification du niveau du microprogramme du nouveau contrôleur à partir du noeud de grappe.
(Facultatif) Au besoin, mise à niveau du microprogramme du nouveau contrôleur à partir du noeud de grappe.
Mise en ligne du plateau SSA et réactivation de la gestion des volumes.
Les étapes expliquées maintenant décrivent en détail la modification du nom universel d'un tableau SPARCstorage Arrayau moyen d'un système de maintenance.
Si le contrôleur du tableau SPARCstorage Arraydéfaillant est le contrôleur de quorum, sélectionnez un nouveau contrôleur de quorum à l'aide de la commande scconf(1M).
Pour de plus amples renseignements, consultez la page de manuel scconf(1M).
Trouvez le nom universel du tableau SPARCstorage Arrayendommagé.
Si le tableau SPARCstorage Array est hors tension, suivez les instructions ci-dessous pour obtenir ce nom.
Le nom universel est constitué de 12 chiffres hexadécimaux. Ces chiffres font partie du composant de chemin d'accès. Il s'agit des 12 derniers chiffres suivant les caractères pln@a0, à l'exclusion de la virgule. Utilisez la commande ls(1) sur un noeud de grappe connecté au SSA pour identifier le nom universel actuel.
# ls -l /dev/rdsk/cNt0d0s0 ...SUNW,pln@a0000000,7412bf ... |
Dans cet exemple, le nom universel du tableau SPARCstorage Arrayremplacé est 0000007412bf. La variable N dans le nom de périphérique correspond au numéro de contrôleur pour le tableau SPARCstorage Array défaillant. La chaîne "t0d0s0" n'est utilisée ici qu'à titre d'exemple. Utilisez un nom de périphérique existant sur le tableau SPARCstorage Arrayou encore /dev/rdsk/cN* pour désigner tous les périphériques.
Si le tableau SPARCstorage Arrayest opérationnel, vous pouvez obtenir le nom universel en exécutant la commande luxadm(1M).
Lorsque vous exécutez la commande luxadm(1M) avec l'option display et spécifiez un contrôleur, tous les renseignements à propos du tableau SPARCstorage Array sont affichés. Le numéro de série retourné par la commande luxadm(1M) est le nom universel.
# /usr/sbin/luxadm display cN |
Débranchez le câble optique du contrôleur du tableau SPARCstorage Array défectueux.
Remplacez ce contrôleur.
Effectuez cette opération conformément aux instructions fournies dans le manuel d'entretien du tableau SPARCstorage Array.
Si le tableau SPARCstorage Array n'est pas entièrement défaillant ou s'il est remplacé pour une raison autre qu'une défaillance du contrôleur, préparez le remplacement en exécutant, pour chaque plateau du tableau SPARCstorage Array, les étapes décrites à la section "Administration des plateaux d'un tableau SPARCstorage Array".
Si la défaillance touche la totalité du contrôleur SPARCstorage Array, le gestionnaire de volumes aura déjà effectué les préparatifs en vue de l'échange.
Branchez le câble optique entre le système de maintenance et le nouveau contrôleur.
Accédez à la PROM OpenBoot du système de maintenance et initialisez-la avec "mini-unix".
Effectuez cette opération à partir du CD de distribution (ou son équivalent réseau) pour mettre le système de maintenance en mode mono-utilisateur et pour obtenir une version en mémoire de la structure de périphérique contenant le nouveau nom universel SPARCstorage Array.
<#0> ok boot cdrom -s ou <#0> ok boot netqe1 -s |
Utilisez "mini-unix" pour empêcher la modification permanente des données de périphérique.
Exécutez la commande luxadm download pour définir le nom universel.
# /usr/sbin/luxadm -s -w nom download cN |
Nom est le nom universel à 12 chiffres du contrôleur remplacé et N le numéro du contrôleur à partir de cNtXdX dans le nom de périphérique. Vous devez avoir obtenu le nom universel à Étape 2.
Les zéros de gauche font partie du nom universel et doivent être entrés pour obtenir un nom à 12 chiffres.
N'interrompez pas le téléchargement. Attendez que l'invite du shell soit affichée après l'exécution de la commande luxadm(1M).
Lorsque l'invite est de nouveau affichée, réinitialisez le SSA.
La nouvelle adresse devrait apparaître dans la fenêtre du tableau SPARCstorage Array.
Arrêtez le système de maintenance.
Rattachez le contrôleur SPARCstorage Array aux noeuds de grappe.
Vérifiez le niveau de microprogramme SPARCstorage Array sur le noeud de grappe.
Exécutez la commande luxadm(1M) pour déterminer la version actuelle du microprogramme. Indiquez le numéro du contrôleur (N dans l'exemple) dans la commande luxadm(1M).
# /usr/sbin/luxadm display cN |
Si le système Solaris détecte une version ancienne du microprogramme, il affiche un message sur la console et dans /var/adm/messages semblable à ce qui suit : NOTICE: pln0: Old SSA firmware has been detected (Ver:3.11) : Expected (Ver:3.12) - Please upgrade
(Facultatif) Procédez comme suit pour mettre à niveau le microprogramme de contrôleur.
Téléchargez le microprogramme qui convient. Pour plus de détails, consultez le fichier README accompagnant le fichier correctif du microprogramme.
# /usr/sbin/ssaadm download -f chemin /ssafirmware cN |
où chemin est le chemin d'accès au répertoire où se trouve le microprogramme et N le numéro du contrôleur. Exemple :
# /usr/sbin/ssaadm download -f /usr/lib/firmware/ssa/ssafirmware cN |
Réinitialisez le tableau SPARCstorage Arrayen appuyant sur le bouton SYS OK de l'unité.
L'unité est réinitialisée après un court délai.
Vérifiez de nouveau le niveau du microprogramme (Étape 11). Si le niveau du microprogramme ou le nom universel est toujours erroné, répétez l'Étape 12 en utilisant un autre contrôleur.
Débutez la restauration du gestionnaire de volumes.
Reportez-vous à la section "Administration des plateaux d'un tableau SPARCstorage Array". Attendez que le tableau SPARCstorage Array soit en ligne pour tous les noeuds et que tous les noeuds puissent voir tous les disques.
Cette procédure ne fonctionne pas si le disque racine est encapsulé par VxVM ou si le disque d'initialisation de l'un des noeuds se trouve sur ce tableau SPARCstorage Array. Dans de tels cas, utilisez la procédure décrite à la section "Comment modifier le nom universel d'un tableau SPARCstorage Arrayau moyen d'un système de maintenance".
S'il y a défaillance d'un contrôleur de quorum, vous devez sélectionner un nouveau contrôleur de quorum avant d'arrêter un noeud.
La liste qui suit énumère les étapes générales de la modification du nom universel d'un tableau SPARCstorage Array:
(Facultatif) Si le contrôleur est le périphérique de quorum, utilisation de la commande scconf(1M) pour sélectionner un nouveau périphérique de quorum.
Commutation de la propriété des hôtes logiques à partir du noeud faisant l'objet des réparations ou du contrôleur devant être remplacé.
Obtention du nom universel du tableau précédent.
Remplacement du contrôleur ou du tableau.
Arrêt du logiciel Sun Cluster et du noeud qui n'est pas propriétaire des disques.
Avec "mini-unix", réinitialisation du noeud qui n'est pas propriétaire des disques.
Identification du numéro du contrôleur pour le nouveau tableau.
Définition du nouveau nom universel et reconfiguration du tableau.
Réinitialisation, au besoin, des autres noeuds de grappe.
Restauration de la gestion des volumes.
Les étapes expliquées maintenant décrivent en détail la modification du nom universel d'un tableau SPARCstorage Array.
Si le contrôleur du tableau SPARCstorage Arraydéfaillant est le contrôleur de quorum, sélectionnez un nouveau contrôleur de quorum à l'aide de la commande scconf(1M).
Pour de plus amples informations, consultez la page de manuel scconf(1M).
Sur le noeud de grappe connecté au SSA en cours de réparation, arrêtez le logiciel Sun Cluster et le système.
Exécutez la commande scadmin(1M) pour attribuer la propriété de tous les hôtes logiques aux autres noeuds de la grappe et pour arrêter le logiciel Sun Cluster. Exécutez ensuite la commande halt(1M) afin d'arrêter la machine.
Dans cet exemple, phys-hahost2 est le noeud à partir duquel la procédure de réparation est effectuée.
phys-hahost2# scadmin stopnode ... phys-hahost2# halt |
Trouvez le nom universel du tableau SPARCstorage Arrayendommagé.
Si le tableau SPARCstorage Array est hors tension, suivez les instructions ci-dessous pour obtenir ce nom.
Le nom universel est constitué de 12 chiffres hexadécimaux. Ces chiffres font partie du composant de chemin de périphérique contenant les caractères pln@a0. Il s'agit des 12 derniers chiffres suivant les caractères pln@a0, à l'exclusion de la virgule. Utilisez la commande ls(1) sur un noeud de grappe connecté au SSA pour identifier le nom universel actuel.
phys-hahost1# ls -l /dev/rdsk/cN t0d0s0 ...SUNW,pln@a0000000,7412bf ... |
Dans cet exemple, le nom universel du tableau SPARCstorage Arrayremplacé est 0000007412bf. La variable N dans le nom de périphérique correspond au numéro de contrôleur pour le tableau SPARCstorage Array défaillant. La chaîne t0d0s0 n'est utilisée ici qu'à titre d'exemple. Utilisez un nom de périphérique existant sur le tableau SPARCstorage Array ou encore /dev/rdsk/cN* pour désigner tous les périphériques.
Si le tableau SPARCstorage Arrayest opérationnel, vous pouvez obtenir le nom universel en exécutant la commande luxadm(1M).
Lorsque vous exécutez la commande luxadm(1M) avec l'option display et spécifiez un contrôleur, tous les renseignements à propos du tableau SPARCstorage Array sont affichés. Le numéro de série retourné par la commande luxadm(1M) est le nom universel.
phys-hahost1# /usr/sbin/luxadm display cN |
Remplacez le contrôleur ou le tableau SPARCstorage Array.
Effectuez cette opération conformément aux instructions fournies dans le manuel d'entretien du tableau SPARCstorage Array.
Si le tableau SPARCstorage Array n'est pas entièrement défaillant ou s'il est remplacé pour une raison autre qu'une défaillance du contrôleur, préparez le remplacement en exécutant, pour chaque plateau du tableau SPARCstorage Array, les étapes décrites à la section "Administration des plateaux d'un tableau SPARCstorage Array".
Si la défaillance affecte la totalité du contrôleur SPARCstorage Array, le gestionnaire de volumes aura déjà effectué les préparatifs en vue de ce remplacement.
Accédez à la PROM OpenBoot sur le noeud arrêté et initialisez-la avec "mini-unix".
Effectuez cette opération à partir du CD de distribution (ou son équivalent réseau) pour mettre l'hôte en mode mono-utilisateur et obtenir une version en mémoire de la structure de périphérique contenant le nouveau nom universel SPARCstorage Array.
<#0> ok boot cdrom -s ou <#0> ok boot netqe1 -s |
Utilisez "mini-unix" pour empêcher la modification permanente des données de périphérique sur le noeud de grappe.
Trouvez le numéro de contrôleur pour le nouveau tableau SPARCstorage Array.
Utilisez la commande ls(1) et les quatre chiffres affichés à l'écran ACL du nouveau tableau SPARCstorage Array pour identifier le numéro de contrôleur.
Dans cet exemple, les quatre chiffres affichés à l'écran ACL sont 143b. Il est à noter que le nom de périphérique c*t0d0s0 utilise une correspondance par modèle pour le numéro de contrôleur, mais spécifie une tranche existante connue. Cela réduit le nombre de lignes générées dans la sortie.
# ls -l /dev/rdsk/c*t0d0s0 | grep -i 143b lrwxrwxrwx 1 root root 98 Mar 14 13:38 /dev/rdsk/c3t0d0s0 -> ../../devices/iommu@f,e0000000/sbus@f,e0001000/SUNW,soc@3,0/SUNW,pln@a0000000, 74143b/ssd@0,0:a,raw |
Dans cet exemple, 3 (dans /dev/rdsk/c3...) est le numéro de contrôleur du nouveau tableau SPARCstorage Array sous "mini-unix".
Les caractères hexadécimaux dans l'affichage ACL comportent des majuscules (lettres A, C, E et F) et des minuscules (b et d). Dans l'exemple, grep -i permet de ne pas tenir compte de la casse dans la comparaison.
Exécutez la commande luxadm download pour définir le nom universel.
Utilisez le numéro de contrôleur identifié à l'Étape 6. La commande suivante, par exemple, remplace la valeur de nom universel actuelle par la valeur déterminée à Étape 3 (0000007412bf). Le contrôleur SPARCstorage Array est le contrôleur 3.
phys-hahost2# /usr/sbin/luxadm download -w 0000007412bf c3 |
Les zéros de gauche font partie du nom universel et doivent être entrés pour obtenir un nom à 12 chiffres.
N'interrompez pas le téléchargement. Attendez que l'invite du shell soit affichée après l'exécution de la commande luxadm(1M).
Réinitialisez le tableau SPARCstorage Arrayen appuyant sur le bouton SYS OK de l'unité.
L'unité est réinitialisée au bout d'un court délai et la communication est établie avec les noeuds Sun Cluster.
Annulez "mini-unix" et initialisez l'hôte selon la procédure normale.
Envoyez une interruption à la console et initialisez l'ordinateur.
Vérifiez le niveau de microprogramme de SPARCstorage Array sur le noeud de grappe.
Exécutez la commande luxadm(1M) pour déterminer la version actuelle du microprogramme. Indiquez le numéro du contrôleur (N dans l'exemple) dans la commande luxadm(1M).
phys-hahost2# /usr/sbin/luxadm display cN |
Si le système Solaris détecte une version ancienne du microprogramme, il affiche un message sur la console et dans /var/adm/messages semblable à ce qui suit : NOTICE : pln0 : Old SSA firmware has been detected (Ver:3.11) : Expected (Ver:3.12) - Please upgrade
(Facultatif) Procédez comme suit pour mettre à niveau le microprogramme de contrôleur.
Téléchargez le microprogramme qui convient. Pour plus de détails, consultez le fichier README accompagnant le fichier correctif du microprogramme.
# /usr/sbin/ssaadm download -f chemin/ssafirmware cN |
où chemin est le chemin d'accès au répertoire où se trouve le microprogramme et N le numéro du contrôleur. Exemple :
# /usr/sbin/ssaadm download -f /usr/lib/firmware/ssa/ssafirmware cN |
Réinitialisez le tableau SPARCstorage Arrayen appuyant sur le bouton SYS OK de l'unité.
L'unité est réinitialisée après un court délai.
Vérifiez de nouveau le niveau de microprogramme (voir Étape 10). Si le niveau du microprogramme ou le nom universel est toujours erroné, reprenez Étape 11 en utilisant un autre contrôleur.
Lancez le noeud.
phys-hahost2# scadmin startnode |
Refaites passer les hôtes logiques au maître par défaut, au besoin.
Achevez le remplacement en restaurant les composants du gestionnaire de volumes sur le tableau SPARCstorage Array réparé.
Cette procédure est décrite dans la section "Administration des plateaux d'un tableau SPARCstorage Array".
Au besoin, réinitialisez les autres noeuds de la grappe.
Vous pourriez avoir à réinitialiser les autres noeuds de la grappe s'ils ne peuvent pas reconnaître tous les disques du tableau SPARCstorage Array après remplacement. Dans un tel cas, utilisez la commande scadmin stopnode pour arrêter l'activité de Sun Cluster, puis réinitialisez le système. Au besoin, après la réinitialisation, commutez de nouveau les hôtes logiques sur leurs maîtres par défaut. Pour de plus amples renseignements, consultez la page de manuel scadmin(1M).
Dans le cadre de l'administration standard de Sun Cluster, il vous incombe de surveiller l'état de la configuration. Pour de plus amples informations sur les méthodes de surveillance, voir le Chapitre 2. Durant le processus de surveillance, vous pouvez découvrir des problèmes avec les disques multihôtes. Les sections qui suivent présentent des instructions qui permettent de corriger ces problèmes.
Sun Cluster prend en charge les types de disques SSA suivants :
Modèles 100
Modèles 200 avec plateau SCSI différentiel
Modèles 200 avec RSM (214 RSM)
Selon le type de disque que vous utilisez et les caractéristiques mécaniques et électriques du boîtier, l'ajout de disques peut exiger la préparation de tous les disques connectés à un contrôleur particulier, de tous les disques d'un plateau particulier ou des disques ajoutés seulement. Ainsi, pour les modèles de tableau SPARCstorage Array 200 avec plateau SCSI différentiel, vous devez préparer le contrôleur de tableau et le boîtier de disque. Pour les modèles SPARCstorage Array 200 avec RSM (214 RSM), seul le nouveau disque doit être préparé. Pour le modèle SPARCstorage Array 110, un seul plateau doit être préparé.
Si vous utilisez un tableau SPARCstorage Array100, suivez les étapes indiquées. Si vous utilisez un tableau SPARCstorage Array200 avec plateau SCSI différentiel, vous devez arrêter tous les disques attachés au contrôleur de tableau qui sera connecté au nouveau disque. Autrement dit, vous devez répéter toutes les étapes relatives au plateau pour tous les boîtiers de disque attachés au contrôleur de tableau qui sera connecté au nouveau disque. Si vous utilisez un tableau SPARCstorage Array 214 RSM, il n'est pas nécessaire d'exécuter les étapes relatives au plateau, puisque les disques individuels peuvent être installés sans affecter les autres disques.
Pour la description du boîtier de disque, reportez-vous au manuel d'entretien de l'unité d'expansion de disque multihôtes.
Selon le type du boîtier de disque, l'ajout de disques multihôtes à un tableau SPARCstorage Array (SSA) peut nécessiter la mise hors ligne de tous les objets du gestionnaire de volumes dans le plateau ou le boîtier de disque affecté. Par ailleurs, il est possible que le plateau ou le boîtier de disque contienne des disques de plusieurs groupes de disques, auquel cas un seul noeud doit être propriétaire de tous les groupes de disques affectés.
La liste qui suit énumère les étapes générales de l'ajout d'un disque multihôtes dans une configuration Solstice DiskSuite:
Commutation des hôtes logiques sur un noeud de grappe.
Identification du contrôleur pour le nouveau disque et d'un connecteur libre dans le plateau ou le boîtier.
Dans le cas d'un tableau SPARCstorage Array modèle 100, préparation du boîtier de disque en vue du retrait d'un plateau.
Dans le cas d'un tableau SPARCstorage Array modèle 200 avec plateaux différentiels Wide-SCSI, mise hors tension du contrôleur et de tous les disques attachés.
Suppression de toutes les réserves dynamiques sur les unités affectées.
Suppression de toutes les bases de données d'état des métapériphériques des unités affectées.
Mise hors ligne de tous les métapériphériques contenant des unités affectées.
Arrêt de toutes les unités affectées.
Ajout du nouveau disque.
Remise en service des unités affectées.
Démarrage de toutes les unités.
Remise en ligne de tous les métapériphériques affectés.
Rajout de toutes les réserves dynamiques supprimées.
Recréation de tous les métapériphériques supprimés.
Exécution des tâches administratives pour la préparation du disque pour son utilisation par Sun Cluster.
Création des fichiers spéciaux /devices et des liens /dev/dsk et /dev/rdsk.
Exécution de la commande scdidadm -r.
Ajout du disque à l'ensemble de disques.
Formatage et partitionnement du disque, au besoin.
Exécution des tâches administratives relatives au gestionnaire de volumes.
Les étapes expliquées maintenant décrivent en détail l'ajout d'un nouveau disque multihôtes dans une configuration Solstice DiskSuite.
Rendez d'autres noeuds de la grappe propriétaires de l'hôte logique qui inclura le nouveau disque.
Commutez les hôtes logiques dont les disques se trouvent dans le plateau qui sera retiré.
phys-hahost1# haswitch phys-hahost1 hahost1 hahost2 |
Trouvez le numéro de contrôleur du plateau auquel le disque sera ajouté.
Des noms universels sont attribués aux tableaux SPARCstorage Array. Le nom universel à l'avant du tableau SPARCstorage Arrayfigure également dans l'entrée /devices, laquelle est reliée par un pointeur à l'entrée /dev contenant le numéro du contrôleur. Exemple :
phys-hahost1# ls -l /dev/rdsk | grep -i WWN | tail -1 |
Si le nom universel à l'avant du tableau SPARCstorage Arrayest 36cc, la sortie suivante sera affichée et le numéro de contrôleur sera c2 :
phys-hahost1# ls -l /dev/rdsk | grep -i 36cc | tail -1 lrwxrwxrwx 1 root root 94 Jun 25 22:39 c2t5d2s7 -> ../../devices/io-unit@f,e1200000/sbi@0,0/SUNW,soc@3,0/SUNW, pln@a0000800,201836cc/ssd@5,2:h,raw |
Exécutez la commande luxadm(1M) avec l'option display pour afficher les emplacements libres.
phys-hahost1# luxadm display c2 SPARCstorage Array Configuration ... DEVICE STATUS TRAY 1 TRAY 2 TRAY 3 slot 1 Drive: 0,0 Drive: 2,0 Drive: 4,0 2 Drive: 0,1 Drive: 2,1 Drive: 4,1 3 NO SELECT NO SELECT NO SELECT 4 NO SELECT NO SELECT NO SELECT 5 NO SELECT NO SELECT NO SELECT 6 Drive: 1,0 Drive: 3,0 Drive: 5,0 7 Drive: 1,1 NO SELECT NO SELECT 8 NO SELECT NO SELECT NO SELECT 9 NO SELECT NO SELECT NO SELECT 10 NO SELECT NO SELECT NO SELECT ... |
Les emplacements vides ont l'état AUCUN CHOIX. La sortie affichée ici provient d'un tableau SPARCstorage Array110 ; l'affichage sera légèrement différent si vous utilisez un autre modèle.
Identifiez le plateau auquel vous ajouterez le nouveau disque. Si vous pouvez ajouter le disque sans influencer les autres unités (avec le modèle SPARCstorage Array 214 RSM, par exemple), passez à Étape 11.
Dans les étapes suivantes de la procédure, le plateau 2 est utilisé à titre d'exemple. L'emplacement sélectionné pour le nouveau disque est le plateau 2, emplacement 7. Le nouveau disque porte la désignation c2t3d1.
Trouvez toutes les réserves dynamiques affectées par l'installation.
Pour connaître l'état et l'emplacement de toutes les réserves dynamiques, exécutez la commande metahs(1M) avec l'option -i sur chaque hôte logique.
phys-hahost1# metahs -s hahost1 -i ... phys-hahost1# metahs -s hahost2 -i ... |
Enregistrez la liste des réserves dynamiques. Cette liste sera utilisée plus tard dans cette procédure de maintenance. Prenez en note la liste des réserves dynamiques et de leurs pools.
Exécutez la commande metahs(1M) avec l'option -d pour supprimer toutes les réserves dynamiques affectées.
Pour plus de détails, consultez la page de manuel metahs(1M).
phys-hahost1# metahs -s hahost1 -d composants-pool-réserves dynamiques phys-hahost1# metahs -s hahost2 -d composants-pool-réserves dynamiques |
Trouvez toutes les répliques de base de données d'état des métapériphériques situées sur les disques affectés.
Exécutez la commande metadb(1M) sur chaque hôte logique pour trouver toutes les bases de données d'état des métapériphériques. Dirigez la sortie vers des fichiers temporaires.
phys-hahost1# metadb -s hahost1 > /usr/tmp/mddb1 phys-hahost1# metadb -s hahost2 > /usr/tmp/mddb2 |
La sortie de la commande metadb(1M) indique l'emplacement des répliques de base de données d'état des métapériphériques dans ce boîtier de disque. Enregistrez ces informations pour utilisation lors de la restauration des répliques.
Supprimez les répliques de base de données d'état des métapériphériques situées sur les disques affectés.
Notez le numéro et l'emplacement des répliques que vous supprimez. Les répliques doivent être restaurées plus tard au cours de la procédure.
phys-hahost1# metadb -s hahost1 -d répliques phys-hahost1# metadb -s hahost2 -d répliques |
Exécutez la commande metastat(1M) pour identifier tous les composants de métapériphérique sur les disques affectés.
Dirigez la sortie de la commande metastat(1M) vers un fichier temporaire pour pouvoir utiliser ces informations plus tard au cours de la suppression et de l'ajout des métapériphériques.
phys-hahost1# metastat -s hahost1 > /usr/tmp/replicalog1 phys-hahost1# metastat -s hahost2 > /usr/tmp/replicalog2 |
Mettez hors ligne tous les sous-miroirs contenant des disques affectés.
Utilisez les fichiers temporaires pour créer un script de mise hors ligne de tous les sous-miroirs affectés dans l'unité d'expansion de disque. S'il n'y a que quelques sous-miroirs, exécutez la commande metaoffline(1M) pour les mettre chacun hors ligne. Voici un script d'exemple.
#!/bin/sh # metaoffline -s <ensemble_disques> <miroir> <sous-miroir> metaoffline -s hahost1 d15 d35 metaoffline -s hahost2 d15 d35 ... |
Arrêtez les disques SPARCstorage Array du plateau au moyen de la commande luxadm(1M).
phys-hahost1# luxadm stop -t 2 c2 |
Ajoutez le nouveau disque.
Ajoutez le disque conformément aux directives du manuel d'entretien du matériel pour votre unité d'expansion de disque multihôtes. Après avoir ajouté le disque :
Vérifiez que tous les disques du plateau sont en rotation.
Les disques dans le plateau SPARCstorage Arraydémarrent normalement automatiquement, mais si le plateau n'a pas démarré dans les deux minutes, forcez le démarrage au moyen de la commande suivante :
phys-hahost1# luxadm start -t 2 c2 |
Remettez en ligne les sous-miroirs.
Modifiez le script que vous avez créé à l' Étape 9 pour remettre en ligne les sous-miroirs.
#!/bin/sh # metaonline -s <ensemble_disques> <miroir> <sous_miroir> metaonline -s hahost1 d15 d35 metaonline -s hahost2 d15 d35 ... |
Restaurez les réserves dynamiques supprimées à l'Étape 5.
phys-hahost1# metahs -s hahost1 -a composants-pool-réserves dynamiques phys-hahost1# metahs -s hahost2 -a composants-pool-réserves dynamiques |
Restaurez le nombre initial de répliques de base de données d'état des métapériphériques sur les périphériques du plateau.
Les répliques ont été supprimées à Étape 7.
phys-hahost1# metadb -s hahost1 -a répliques phys-hahost1# metadb -s hahost2 -a répliques |
Exécutez les commandes drvconfig(1M) et disks(1M) pour créer les nouvelles entrées dans /devices, /dev/dsk et /dev/rdsk pour tous les nouveaux disques.
phys-hahost1# drvconfig phys-hahost1# disks |
Attribuez la propriété de l'hôte logique auquel le disque va être ajouté à l'autre noeud connecté au tableau SPARCstorage Array.
Pour cette opération, on suppose que chaque disque est connecté à deux noeuds.
phys-hahost1# haswitch phys-hahost2 hahost2 |
Exécutez les commandes drvconfig(1M) et disks(1M) sur le noeud de grappe désormais propriétaire de l'ensemble de disques auquel le disque sera ajouté.
phys-hahost2# drvconfig phys-hahost2# disks |
Exécutez la commande scdidadm(1M) pour initialiser le nouveau disque pour son utilisation par le pseudo-pilote DID.
Vous devez exécuter la commande scdidadm(1M) sur le noeud 0 de la grappe. Pour plus de détails sur le pseudo-pilote DID, reportez-vous au Sun Cluster 2.2 Software Installation Guide.
phys-hahost2# scdidadm -r |
Ajoutez le disque à un ensemble de disques.
La syntaxe de la commande est la suivante, où ensemble_disques représente le nom de l'ensemble de disques contenant le disque défectueux et unité le nom DID du disque dans le format dN (pour les nouvelles installations de Sun Cluster) ou cNtYdZ (pour les installations mises à niveau à partir de HA 1.3) :
# metaset -s ensemble_disques -a unité |
La commande metaset(1M) peut repartitionner ce disque automatiquement. Pour de plus amples informations, voir la documentation de Solstice DiskSuite.
Exécutez la commande scadmin(1M) pour réserver et activer le mode failfast sur le disque spécifié qui vient d'être ajouté à l'ensemble de disques.
phys-hahost2# scadmin reserve cNtXdYsZ |
Exécutez les tâches administratives habituelles pour le nouveau disque.
Vous pouvez maintenant exécuter les étapes d'administration habituelles pour la mise en service du nouveau disque (partitionnement du disque, ajout de celui-ci à la configuration comme réserve dynamique ou configuration comme métapériphérique, entre autres). Pour de plus amples informations sur ces tâches, voir la documentation de Solstice DiskSuite.
Au besoin, retransférez les hôtes logiques à leurs maîtres par défaut.
La liste qui suit énumère les étapes générales de l'ajout d'un disque multihôtes dans une configuration VxVM:
Commutation des hôtes logiques sur un noeud de grappe.
Identification du contrôleur pour le nouveau disque et d'un emplacement vide dans le plateau ou le boîtier.
Dans le cas d'un tableau SPARCstorage Array modèle 100, préparation du boîtier de disque en vue du retrait d'un plateau.
Dans le cas d'un tableau SPARCstorage Array modèle 200 avec plateaux différentiels Wide-SCSI, mise hors tension du contrôleur et de tous les disques attachés.
Identification des objets VxVM sur le plateau affecté.
Arrêt des E/S dans les volumes avec sous-disques sur le plateau affecté.
Ajout du nouveau disque.
Remise en service des unités affectées.
Démarrage de toutes les unités.
Remise en ligne de tous les objets VxVM affectés.
Exécution des tâches administratives pour la préparation du disque pour son utilisation par Sun Cluster.
Création des fichiers spéciaux /devices et des liens /dev/dsk et /dev/rdsk.
Repérage du nouveau disque.
Mise du disque sous le contrôle de la machine virtuelle (VM).
Formatage et partitionnement du disque, au besoin.
Exécution des tâches administratives relatives au gestionnaire de volumes.
Les étapes expliquées maintenant décrivent en détail l'ajout d'un disque multihôtes dans une configuration VxVM.
Rendez un autre noeud de la grappe propriétaire de l'hôte logique qui inclura le nouveau disque.
Commutez les hôtes logiques dont les disques se trouvent dans le plateau qui sera retiré.
phys-hahost1# haswitch phys-hahost1 hahost1 hahost2 |
Dans une configuration en miroir, il n'est pas nécessaire de commuter les hôtes logiques si le noeud n'est pas arrêté.
Trouvez le numéro de contrôleur du plateau auquel le disque sera ajouté.
Des noms universels sont attribués aux tableaux SPARCstorage Array. Le nom universel à l'avant du tableau SPARCstorage Arrayfigure également dans l'entrée /devices, laquelle est reliée par un pointeur à l'entrée /dev contenant le numéro du contrôleur. Exemple :
phys-hahost1# ls -l /dev/rdsk | grep -i WWN | tail -1 |
Si le nom universel à l'avant du tableau SPARCstorage Arrayest 36cc, la sortie suivante sera affichée et le numéro de contrôleur sera c2 :
phys-hahost1# ls -l /dev/rdsk | grep -i 36cc | tail -1 lrwxrwxrwx 1 root root 94 Jun 25 22:39 c2t5d2s7 -> ../../devices/io-unit@f,e1200000/sbi@0,0/SUNW,soc@3,0/SUNW, pln@a0000800,201836cc/ssd@5,2:h,raw phys-hahost1# |
Exécutez la commande luxadm(1M) avec l'option display pour afficher les emplacements vides.
Si vous pouvez ajouter le disque sans influencer les autres unités, passez à Étape 11.
phys-hahost1# luxadm display c2 SPARCstorage Array Configuration ... DEVICE STATUS TRAY 1 TRAY 2 TRAY 3 slot 1 Drive: 0,0 Drive: 2,0 Drive: 4,0 2 Drive: 0,1 Drive: 2,1 Drive: 4,1 3 NO SELECT NO SELECT NO SELECT 4 NO SELECT NO SELECT NO SELECT 5 NO SELECT NO SELECT NO SELECT 6 Drive: 1,0 Drive: 3,0 Drive: 5,0 7 Drive: 1,1 NO SELECT NO SELECT 8 NO SELECT NO SELECT NO SELECT 9 NO SELECT NO SELECT NO SELECT 10 NO SELECT NO SELECT NO SELECT ... |
Les emplacements vides ont l'état AUCUN CHOIX. La sortie affichée ici provient d'un tableau SPARCstorage Array110 ; l'affichage sera légèrement différent si vous utilisez un autre modèle.
Identifiez le plateau auquel vous ajouterez le nouveau disque.
Dans les étapes suivantes de la procédure, le plateau 2 est utilisé à titre d'exemple. L'emplacement sélectionné pour le nouveau disque est le plateau 2, emplacement 7. Le nouveau disque porte la désignation c2t3d1.
Identifiez tous les volumes et les périphériques virtuels sur les disques du plateau qui contiendra le nouveau disque.
Trouvez, dans l'adresse physique du périphérique (cNtNdN), le numéro du contrôleur et le numéro de la cible.
Dans cet exemple, le numéro du contrôleur est 2 et la cible 3.
Identifiez les périphériques dans la sortie de la commande vxdisk list.
L'exemple qui suit montre comment la commande vxdisk peut être utilisée pour obtenir les informations.
# vxdisk -g groupe_disques -q list | nawk '/^c2/ {print $3}' |
Notez le nom du volume pour les disques figurant sur la sortie de la commande.
Identifiez tous les périphériques virtuels sur les périphériques ci-dessus, à l'aide de la version qui convient (csh, ksh, ou shell Bourne) de la commande suivante.
PLLIST=`vxprint -ptq -g groupe_disques -e '(aslist.sd_dm_name in ("c2t3d0")) && (pl_kstate=ENABLED)' | nawk '{print $2}'` |
Pour csh, la syntaxe est set PLLIST .... Pour ksh, la syntaxe est export PLLIST= .... Avec le shell Bourne, vous devez utiliser la commande export PLLIST après définition de la variable.
Après avoir défini la variable, interrompez les E/S sur les volumes dont les composants (sous-disques) se trouvent sur le plateau.
Veillez à ce que tous les volumes associés à ce plateau soient détachés (configurations en miroir ou RAID5) ou arrêtés (périphériques virtuels simples). Exécutez la commande suivante pour détacher un périphérique virtuel mis en miroir.
# vxplex -g groupe_disques det ${PLLIST} |
Autre commande permettant de détacher un périphérique virtuel d'un plateau :
# vxplex -g groupe_disques -v volume det périphérique_virtuel |
Pour interrompre les E/S sur des périphériques virtuels simples, démontez les systèmes de fichiers ou interrompez tout accès à la base de données.
Les volumes mis en miroir seront quand même actifs, car l'autre moitié du miroir est encore disponible.
Ajoutez le nouveau disque.
Ajoutez le disque conformément aux directives du manuel d'entretien du matériel pour votre unité d'expansion de disque multihôtes.
Vérifiez que tous les disques du plateau sont en rotation.
Les disques du plateau SPARCstorage Array démarrent normalement automatiquement, mais si le plateau ne démarre pas dans les deux minutes, forcez le démarrage au moyen de la commande suivante :
phys-hahost1# luxadm start -t 2 c2 |
Exécutez les commandes drvconfig(1M) et disks(1M) pour créer les nouvelles entrées dans /devices, /dev/dsk et /dev/rdsk pour tous les nouveaux disques.
phys-hahost1# drvconfig phys-hahost1# disks |
Forcez le pilote vxconfigd VxVMà rechercher les nouveaux disques.
phys-hahost1# vxdctl enable |
Mettez le nouveau disque sous le contrôle de la machine virtuelle (VM) à l'aide de la commande vxdiskadd.
Exécutez les tâches administratives habituelles pour le nouveau disque.
Vous pouvez maintenant exécuter les étapes d'administration habituelles pour la mise en service du nouveau disque (partitionnement du disque, ajout de celui-ci à la configuration comme réserve dynamique ou configuration comme périphérique virtuel, entre autres).
Ainsi prend fin la procédure d'ajout d'un disque multihôtes à un tableau SPARCstorage Array existant.
Cette section explique comment remplacer un disque multihôtes dans un tableau SPARCstorage Array (SSA) sans interrompre les services Sun Cluster (remplacement en ligne) lorsque le gestionnaire de volumes signale des problèmes tels que :
Composants affichant l'état "Maintenance requise".
Remplacement de réserve dynamique.
Erreurs de disque intermittentes.
La liste qui suit énumère les étapes générales du remplacement d'un disque multihôtes dans une configuration Solstice DiskSuite. Certaines de ces étapes ne s'appliquent que dans le cas de configurations utilisant les tableaux SPARCstorage Arraymodèles 100 ou 200 (avec plateau SCSI différentiel).
Commutation des hôtes logiques sur un noeud de grappe.
Identification du disque qui doit être remplacé.
Identification du plateau contenant le disque à remplacer.
(SSA100 et SSA 200 exclusivement) Déconnexion des sous-miroirs du plateau ou du boîtier de disque affecté.
(SSA100 et SSA 200 exclusivement) Exécution de la commande metaclear(1M) sur les sous-miroirs déconnectés.
(SSA100 et SSA 200 exclusivement) Suppression des réserves dynamiques disponibles dans le plateau affecté.
Retrait du disque défectueux de l'ensemble de disques.
(SSA100 et SSA 200 exclusivement) Suppression des répliques de base de données d'état des métapériphériques éventuellement affectées sur les disques du plateau affecté.
(SSA100 et SSA 200 exclusivement) Production d'une liste de métapériphériques dans le plateau affecté.
(SSA100 et SSA 200 exclusivement) Exécution de la commande metaoffline(1M) sur les sous-miroirs dans le plateau affecté ou les sous-miroirs exploitant les réserves dynamiques du plateau.
(SSA100 et SSA 200 exclusivement) Vidage de la mémoire non-volatile NVRAM, si celle-ci est activée.
Arrêt des disques et retrait du plateau ou du boîtier de disque.
Remplacement de l'unité de disque.
Exécution de la commande scdidadm -R.
Ajout du nouveau disque à l'ensemble de disques.
Réservation et activation du mode failfast sur le nouveau disque.
Partitionnement du nouveau disque.
(SSA100 et SSA 200 exclusivement) Exécution de la commande metainit(1M) pour initialiser les périphériques précédemment supprimés par la commande metaclear(1M).
(SSA100 et SSA 200 exclusivement) Remise en ligne des miroirs hors ligne avec la commande metaonline(1M) et resynchronisation.
(SSA100 et SSA 200 exclusivement) Reconnexion des sous-miroirs précédemment déconnectés.
(SSA100 et SSA 200 exclusivement) Remplacement des réserves dynamiques utilisées par les sous-miroirs venant d'être reconnectés.
(SSA100 et SSA 200 exclusivement) Retour des réserves dynamiques supprimées à leurs pools d'origine.
Exécution de la commande metastat(1M) pour vérifier si le problème a été corrigé.
Les étapes expliquées maintenant décrivent le remplacement d'un disque multihôtes défectueux dans une configuration Solstice DiskSuite.
Exécutez la commande haswitch(1M) pour que d'autres noeuds deviennent propriétaires des hôtes logiques affectés.
phys-hahost1# haswitch phys-hahost1 hahost1 hahost2 |
Il est possible que le plateau SPARCstorage Arraycontenant le disque défectueux contienne aussi des disques inclus dans plusieurs hôtes logiques. Si c'est le cas, attribuez à un autre noeud de la grappe la propriété de tous les hôtes logiques contenant des disques utilisant ce plateau.
Trouvez le disque devant être remplacé en examinant les sorties produites par les commandes metastat(1M) et /var/adm/messages.
Si la commande metastat(1M) signale qu'un périphérique est en état de maintenance ou que des composants ont été remplacés par des réserves dynamiques, vous devez trouver et remplacer le périphérique en question. Un exemple de sortie de la commande metastat(1M) est présenté ci-après. Dans cet exemple, le périphérique c3t3d4s0 est en état de maintenance.
phys-hahost1# metastat -s hahost1 ... d50:Submirror of hahost1/d40 State: Needs Maintenance Stripe 0: Device Start Block Dbase State Hot Spare c3t3d4s0 0 No Okay c3t5d4s0 ... |
Vérifiez /var/adm/messages afin de déterminer quel type de problème a été détecté.
... Jun 1 16:15:26 host1 unix: WARNING: /io-unit@f,e1200000/sbi@0.0/SUNW,pln@a0000000,741022/ssd@3,4(ssd49): Jun 1 16:15:26 host1 unix: Error for command `write(I))' Err Jun 1 16:15:27 host1 unix: or Level: Fatal Jun 1 16:15:27 host1 unix: Requested Block 144004, Error Block: 715559 Jun 1 16:15:27 host1 unix: Sense Key: Media Error Jun 1 16:15:27 host1 unix: Vendor `CONNER': Jun 1 16:15:27 host1 unix: ASC=0x10(ID CRC or ECC error),ASCQ=0x0,FRU=0x15 ... |
Déterminez l'emplacement du disque défaillant à l'aide de la commande luxadm(1M).
La commande luxadm(1M) énumère les plateaux et les disques qui leur sont associés. La sortie varie en fonction du modèle de tableau SPARCstorage Array. Un exemple de sortie pour un tableau SPARCstorage Array 100 est illustré ci-dessous. Le disque défectueux figure en caractères gras.
phys-hahost1# luxadm display c3 SPARCstorage Array Configuration Controller path: /devices/iommu@f,e0000000/sbus@f,e0001000/SUNW,soc@0,0/SUNW,pln@a0000000,779a16:ctlr DEVICE STATUS TRAY1 TRAY2 TRAY3 Slot 1 Drive:0,0 Drive:2,0 Drive:4,0 2 Drive:0,1 Drive:2,1 Drive:4,1 3 Drive:0,2 Drive:2,2 Drive:4,2 4 Drive:0,3 Drive:2,3 Drive:4,3 5 Drive:0,4 Drive:2,4 Drive:4,4 6 Drive:1,0 Drive:3,0 Drive:5,0 7 Drive:1,1 Drive:3,1 Drive:5,1 8 Drive:1,2 Drive:3,2 Drive:5,2 9 Drive:1,3 Drive:3,3 Drive:5,3 10 Drive:1,4 Drive:3,4 Drive:5,4 CONTROLLER STATUS Vendor: SUN Product ID: SSA110 Product Rev: 1.0 Firmware Rev: 3.9 Serial Num: 000000741022 Accumulate performance Statistics: Enabled |
Déconnectez tous les sous-miroirs avec composants sur le disque à remplacer.
Si vous détachez un sous-miroir dont un composant est défectueux, vous devez forcer l'opération au moyen de la commande metadetach -f. Dans l'exemple qui suit, la commande détache le sous-miroir d50 du métamiroir d40.
phys-hahost1# metadetach -s hahost1 -f d40 d50 |
Exécutez la commande metaclear(1M) pour supprimer les sous-miroirs détachés à l' Étape 4.
phys-hahost1# metaclear -s hahost1 -f d50 |
Avant de supprimer les répliques et les réserves dynamiques, notez l'emplacement (tranche), le nombre de répliques et les informations relatives aux réserves dynamiques (nom et liste des périphériques contenant les pools correspondants) afin de pouvoir répéter les actions dans l'ordre inverse, une fois le disque remplacé.
Supprimez toutes les réserves dynamiques ayant l'état Disponible qui se trouvent dans le plateau contenant le disque défectueux.
Cela inclut toutes les réserves dynamiques, quel que soit l'hôte logique auquel elles sont attribuées. Dans l'exemple qui suit, la commande metahs(1M) signale la présence de réserves dynamiques sur hahost1, mais indique également qu'il n'y en a aucune sur hahost2.
phys-hahost1# metahs -s hahost1 -i hahost1:hsp000 2 hot spares c1t4d0s0 Available 2026080 blocks c3t2d5s0 Available 2026080 blocks phys-hahost1# metahs -s hahost1 -d hsp000 c3t2d4s0 hahost1:hsp000: Hotspare is deleted phys-hahost1# metahs -s hahost2 -i phys-hahost1# hahost1:hsp000 1 hot spare c3t2d5s0 Available 2026080 blocks |
Exécutez la commande metaset(1M) afin de supprimer le disque défectueux de l'ensemble de disques.
La syntaxe de la commande est précisée ci-après. Dans cet exemple, ensemble_disques représente le nom de l'ensemble de disques contenant le disque défectueux et unité le nom DID du disque dans le format dN (pour les nouvelles installations de Sun Cluster) ou cNtYdZ (pour les installations mises à niveau à partir de la version HA 1.3).
# metaset -s ensemble_disques -d unité |
Cette opération peut demander 15 minutes et même davantage, selon la taille de la configuration et le nombre de disques.
Supprimez les répliques de base de données d'état des métapériphériques présentes sur les disques du plateau affecté.
La commande metadb(1M) avec l'option -s signale des répliques dans l'ensemble de disques spécifié.
phys-hahost1# metadb -s hahost1 phys-hahost1# metadb -s hahost2 phys-hahost1# metadb -s hahost1 -d répliques-dans-plateau phys-hahost1# metadb -s hahost2 -d répliques-dans-plateau |
Trouvez les sous-miroirs utilisant des composants résidant dans le plateau affecté.
Une méthode possible consiste à utiliser la commande metastat(1M) pour créer des fichiers temporaires contenant les noms de tous les métapériphériques. Exemple :
phys-hahost1# metastat -s hahost1 > /usr/tmp/hahost1.stat phys-hahost1# metastat -s hahost2 > /usr/tmp/hahost2.stat |
Recherchez les composants en question dans les fichiers temporaires (c3t3dn et c3t2dn dans cet exemple). Les informations contenues dans les fichiers temporaires se présentent de la manière suivante :
... hahost1/d35: Submirror of hahost1/d15 State: Okay Hot Spare pool: hahost1/hsp100 Size: 2026080 blocks Stripe 0: Device Start Block Dbase State Hot Spare c3t3d3s0 0 No Okay hahost1/d54: Submirror of hahost1/d24 State: Okay Hot Spare pool: hahost1/hsp106 Size: 21168 blocks Stripe 0: Device Start Block Dbase State Hot Spare c3t3d3s6 0 No Okay ... |
Mettez hors ligne tous les autres sous-miroirs ayant des composants dans le plateau affecté.
En utilisant la sortie obtenue des fichiers temporaires à l'Étape 10, exécutez la commande metaoffline(1M) sur tous les sous-miroirs du plateau affecté.
phys-hahost1# metaoffline -s hahost1 d15 d35 phys-hahost1# metaoffline -s hahost1 d24 d54 ... |
Exécutez la commande metaoffline(1M) autant de fois que nécessaire pour mettre hors ligne tous les sous-miroirs. Cela force Solstice DiskSuite à cesser d'utiliser les composants de sous-miroir.
Si la mémoire non-volatile NVRAM est activée, videz-la en transférant ses données au contrôleur, au plateau, au disque ou aux disques qui conviennent.
phys-hahost1# luxadm sync_cache pathname |
Le message de confirmation affiché indique que la mémoire non-volatile NVRAM a été vidée. Pour plus de détails sur le vidage de la mémoire NVRAM, reportez-vous à la section "Vidage et purge de la mémoire NVRAM".
Arrêtez tous les disques contenus dans les plateaux de tableau SPARCstorage Array affectés.
Utilisez la commande luxadm stop pour arrêter les disques. Pour plus de détails à ce sujet, consultez la page de manuel luxadm(1M).
phys-hahost1# luxadm stop -t 2 c3 |
N'exécutez pas de commandes Solstice DiskSuitependant l'arrêt d'un plateau du tableau SPARCstorage Array, car cela pourrait entraîner le démarrage d'un ou plusieurs disques du plateau.
Remplacez le disque.
Pour plus de détails sur cette procédure, reportez-vous aux manuels d'entretien du matériel de tableau SPARCstorage Array.
Mettez à jour la base de données de pilotes DID en précisant l'ID du nouveau périphérique.
Utilisez l'indicateur -l avec la commande scdidadm(1M) pour identifier le nom DID du périphérique de bas niveau de l'unité à remplacer. Mettez ensuite à jour la base de données des pilotes DID en utilisant l'indicateur -R avec la commande scdidadm(1M). Consultez le Sun Cluster 2.2 Software Installation Guide pour des détails complémentaires sur le pseudo-pilote DID.
phys-hahost1# scdidadm -o name -l /dev/rdsk/c3t3d4 6 phys-hahost1:/dev/rdsk/c3t3d4 /dev/did/rdsk/d6 phys-hahost1# scdidadm -R d6 |
Vérifiez que tous les disques dans l'unité d'expansion de disque multihôtes sont en rotation.
Les disques dans l'unité d'expansion de disque multihôtes démarrent normalement automatiquement. Si le plateau n'a pas démarré au bout de deux minutes, forcez le démarrage au moyen de la commande suivante :
phys-hahost1# luxadm start -t 2 c3 |
Ajoutez le nouveau disque dans l'ensemble de disques avec la commande metaset(1M).
Au cours de cette étape, les répliques supprimées du disque défectueux sont automatiquement ajoutées. La syntaxe de la commande est la suivante, où ensemble_disques représente le nom de l'ensemble de disques contenant le disque défectueux et unité le nom DID du disque dans le format dN (pour les nouvelles installations de Sun Cluster) ou cNtYdZ (pour les installations mises à niveau à partir de HA 1.3) :
# metaset -s ensemble_disques -a unité |
(Facultatif) Si vous avez supprimé des répliques, appartenant à d'autres ensembles de disques, de disques contenus dans le même plateau que le disque défectueux, exécutez la commande metadb(1M) pour rétablir ces répliques.
phys-hahost1# metadb -s hahost2 -a répliques-supprimées |
Pour ajouter plusieurs répliques sur la même tranche, utilisez l'option -c.
Exécutez la commande scadmin(1M) pour réserver et activer le mode failfast sur le disque spécifié qui vient d'être ajouté à l'ensemble de disques.
phys-hahost2# scadmin reserve c3t3d4 |
Exécutez la commande format(1M) ou fmthard(1M) pour repartitionner le nouveau disque.
Veillez à partitionner le nouveau disque exactement de la même manière que l'ancien. (L'enregistrement des données de format du disque est recommandé au Chapitre 1.)
Exécutez la commande metainit(1M) pour réinitialiser les disques supprimés à l'Étape 5.
phys-hahost1# metainit -s hahost1 d50 |
Remettez en ligne tous les sous-miroirs mis hors ligne à l' Étape 11.
phys-hahost1# metaonline -s hahost1 d15 d35 phys-hahost1# metaonline -s hahost1 d24 d54 ... |
Exécutez la commande metaonline(1M) autant de fois que nécessaire pour mettre en ligne tous les sous-miroirs.
Lorsque les sous-miroirs sont remis en ligne, Solstice DiskSuiteresynchronise automatiquement tous les sous-miroirs et met ainsi à jour toutes les données.
Si la commande metastat(1M) était exécutée à cette étape-ci, l'affichage indiquerait que tous les métapériphériques contenant des composants résidant sur le plateau affecté seraient en cours de resynchronisation.
Attachez les sous-miroirs déconnectés à l'Étape 4.
Pour ce faire, exécutez la commande metattach(1M). Pour plus de détails, consultez la page de manuel metattach(1M).
phys-hahost1# metattach -s hahost1 d40 d50 |
Remplacez s'il y a lieu les réserves dynamiques utilisées dans les sous-miroirs attachés à l'Étape 23.
Si, avant d'être détaché, un sous-miroir a fait l'objet d'un remplacement dynamique, ce remplacement reste en vigueur lorsque le sous-miroir est rattaché. Au cours de cette étape, la réserve dynamique retourne à l'état Disponible.
phys-hahost1# metareplace -s hahost1 -e d40 c3t3d4s0 |
Restaurez toutes les réserves dynamiques supprimées à l'Étape 7.
Exécutez la commande metahs(1M) pour rajouter les réserves dynamiques. Pour plus de détails, consultez la page de manuel metahs(1M).
phys-hahost1# metahs -s hahost1 -a hsp000 c3t2d5s0 |
Au besoin, commutez les hôtes logiques sur leurs maîtres par défaut.
phys-hahost1# haswitch phys-hahost2 hahost2 |
Vérifiez si le remplacement a remédié au problème.
phys-hahost1# metastat -s hahost1 |
Dans une configuration VxVM, il est possible de remplacer un disque SPARCstorage Array sans arrêter le système, à condition que la configuration en question ait été mise en miroir.
Si vous devez remplacer un disque dans un tableau SPARCstorage Arrayamorçable, ne supprimez pas les plateaux SSA contenant le disque d'initialisation des hôtes. Arrêtez plutôt l'hôte dont le disque d'initialisation se trouve sur ce plateau. Laissez le logiciel de grappe reconfigurer les noeuds restants pour qu'il y ait reprise avant la réparation du disque défaillant. Pour de plus amples informations, reportez-vous au Guide de l'utilisateur des tableaux SPARCstorage.
La liste qui suit énumère les étapes générales du remplacement d'un disque multihôtes dans un environnement VxVM utilisant des disques de tableau SPARCstorage Array100 :
Identification de tous les volumes et des périphériques virtuels correspondants sur les disques du plateau contenant le disque défectueux.
Identification du contrôleur et du numéro de cible du disque défectueux.
Identification des périphériques du plateau au moyen de la commande vxdisk list.
Identification de tous les périphériques virtuels sur le plateau affecté.
Déconnexion des tous les périphériques virtuels sur le plateau affecté.
Suppression du disque de son groupe de disques.
Arrêt des disques du plateau.
Remplacement de l'unité de disque.
Démarrage des disques du plateau.
Initialisation du disque de remplacement.
Analyse de la configuration de disque actuelle.
Ajout du disque de remplacement dans le groupe de disques.
Resynchronisation des volumes.
Les étapes expliquées maintenant décrivent en détail le remplacement d'un disque multihôtes dans un environnement VxVMutilisant des disques de tableau SPARCstorage Array 100.
Si le disque remplacé est un périphérique de quorum, utilisez la commande scconf -q pour faire d'un autre disque le périphérique de quorum.
Identifiez tous les volumes et les périphériques virtuels correspondants sur les disques du plateau contenant le disque défectueux.
Trouvez, dans l'adresse physique du périphérique (cNtNdN), le numéro du contrôleur et le numéro de la cible.
Dans l'adresse c3t2d0, par exemple, le numéro du contrôleur est 3 et la cible 2.
Identifiez les périphériques dans la sortie de la commande vxdisk list.
Si la cible est 0 ou 1, identifiez tous les périphériques dont l'adresse physique commence par cNt0 et cNt1, où N est le numéro du contrôleur. Si la cible est 2 ou 3, identifiez tous les périphériques dont l'adresse physique commence par cNt2 et cNt3. Si la cible est 4 ou 5, identifiez tous les périphériques dont l'adresse physique commence par cNt4 et cNt5. Voici un exemple illustrant comment la commande vxdisk peut être utilisée pour obtenir les informations.
# vxdisk -g groupe_disques -q list | egrep c3t2\|c3t3 | nawk '{print $3}' |
Notez le nom du support du volume pour le disque défectueux (selon la sortie produite par la commande).
Vous en aurez besoin à l'Étape 10.
Identifiez tous les périphériques virtuels sur les périphériques ci-dessus, à l'aide de la version qui convient (csh, ksh, ou shell Bourne) de la commande suivante.
PLLIST=`vxprint -ptq -g groupe_disques -e '(aslist.sd_dm_name in ("c3t2d0","c3t3d0","c3t3d1")) && (pl_kstate=ENABLED)' | nawk '{print $2}'` |
Pour csh, la syntaxe est set PLLIST .... Pour ksh, la syntaxe est export PLLIST= .... Avec le shell Bourne, vous devez utiliser la commande export PLLIST après définition de la variable.
Après avoir défini la variable, interrompez les E/S sur les volumes dont les composants (sous-disques) se trouvent sur le plateau.
Veillez à ce que tous les volumes associés à ce plateau soient détachés (configurations en miroir ou RAID5) ou arrêtés (périphériques virtuels simples). Exécutez la commande suivante pour détacher un périphérique virtuel mis en miroir.
# vxplex det ${PLLIST} |
Autre commande permettant de détacher un périphérique virtuel d'un plateau :
# vxplex -g groupe_disques -v volume det périphérique_virtuel |
Pour interrompre les E/S sur des périphériques virtuels simples, démontez les systèmes de fichiers ou interrompez tout accès à la base de données.
Les volumes mis en miroir seront quand même actifs, car l'autre moitié du miroir est encore disponible.
Supprimez le disque du groupe de disques.
# vxdg -g groupe_disques rmdisk disque |
Arrêtez les disques du plateau.
# luxadm stop -t contrôleur plateau |
Remplacez le disque défectueux.
Démarrez les disques.
# luxadm start -t contrôleurplateau |
Initialisez le disque de remplacement.
# vxdisksetup -i périphérique |
Détectez de nouveau la configuration actuelle du disque.
Exécutez les commandes suivantes sur tous les noeuds de la grappe.
# vxdctl enable # vxdisk -a online |
Ajoutez le nouveau disque au groupe de disques.
L'élément nom_support_périphérique correspond au nom du support de volume enregistré à l'Étape 2c.
# vxdg -g groupe_disques -k adddisk nom-support-périphérique=nom-périphérique |
Resynchronisez les volumes.
# vxrecover -g groupe_disques -b -o |
La mémoire NVRAM prend en charge les opérations d'écriture rapide dans les tableaux SPARCstorage Array. En l'absence de cette mémoire, les demandes d'écriture synchrone en provenance d'un programme doivent être enregistrées sur disque, et un accusé de réception doit être reçu par le programme pour que la demande suivante puisse être soumise. La mémoire NVRAM met en cache les demandes d'écriture dans une mémoire non-volatile et vide périodiquement les données sur disque. Après le stockage des données en mémoire NVRAM, un accusé de réception est renvoyé au programme comme si les données avaient été écrites sur disque. Cela améliore les performances des applications qui font intervenir un grand nombre d'opérations d'écriture avec les tableaux SPARCstorage Array.
Les procédures décrites ici utilisent l'interface de ligne de commande. Cependant, dans les configurations Solstice DiskSuite, vous pouvez également utiliser l'interface graphique metatool pour gérer la mémoire NVRAM d'un disque, d'un plateau ou d'un contrôleur. Pour de plus amples informations sur Solstice DiskSuite, consultez la documentation correspondante.
Faites usage de cette fonctionnalité avec prudence. Il s'agit d'un outil puissant de gestion des tableaux SPARCstorage Array. Sauvegardez toujours vos données avant d'exécuter ces procédures.
L'écriture rapide peut être configurée :
au niveau du contrôleur, pour tous les disques d'un tableau SPARCstorage Array ;
au niveau du disque, pour l'écriture rapide sur un disque individuel ;
au niveau du plateau, par l'intermédiaire de l'interface graphique (GUI) de Solstice DiskSuite.
Lorsque l'écriture rapide est activée, elle peut être enregistrée et conservée -- lors des cycles sous tension -- comme élément de la configuration SPARCstorage Array.
L'écriture rapide est automatiquement désactivée au niveau du contrôleur si la batterie de la mémoire NVRAM est déchargée, absente ou défectueuse.
Avant d'activer l'écriture rapide, vous devez interrompre toutes les E/S sur le contrôleur ou le disque. Vous devez plus particulièrement vous assurer que le propriétaire de l'ensemble de disques est libéré, car des flux d'E/S sont maintenus tant que ce propriétaire existe. La procédure qui suit permet d'interrompre toutes les E/S.
Exécutez la commande luxadm(1M) pour activer et désactiver la mémoire NVRAM. Pour des informations complètes sur cette commande, consultez la page de manuel luxadm(1M).
La mémoire NVRAM doit être désactivée si vous utilisez la fonction de grappe de VxVM (utilisée avec Oracle Parallel Server).
La liste qui suit énumère les étapes générales de l'activation et de la désactivation de la mémoire NVRAM :
Création d'une copie de sauvegarde de toutes les données.
Obtention des privilèges de root (superutilisateur).
Identification du contrôleur ou du disque sur lequel la mémoire NVRAM doit être activée ou désactivée.
Arrêt de toutes les E/S sur le périphérique.
Activation ou désactivation de la mémoire NVRAM.
Redémarrage du périphérique et resynchronisation des données.
Les étapes expliquées maintenant décrivent l'activation et la désactivation de la mémoire NVRAM.
Identifiez le contrôleur, le plateau ou le disque individuel dont la mémoire NVRAM doit être activée ou désactivée.
Vous pouvez tirer parti de la commande luxadm(1M) pour afficher des informations sur le contrôleur, le plateau ou le disque individuel spécifié. L'affichage reproduit ci-dessous, par exemple, identifie tous les disques du contrôleur c2.
phys-hahost1# luxadm display c2 SPARCstorage Array Configuration Controller path: /devices/iommu@f,e0000000/sbus@f,e0001000/SUNW,soc@0,0/SUNW,pln@a0000000,779a16:ctlr DEVICE STATUS TRAY 1 TRAY 2 TRAY 3 slot 1 Drive: 0,0 Drive: 2,0 Drive: 4,0 2 Drive: 0,1 Drive: 2,1 Drive: 4,1 3 NO SELECT NO SELECT NO SELECT 4 NO SELECT NO SELECT NO SELECT 5 NO SELECT NO SELECT NO SELECT 6 Drive: 1,0 Drive: 3,0 Drive: 5,0 7 Drive: 1,1 NO SELECT NO SELECT 8 NO SELECT NO SELECT NO SELECT 9 NO SELECT NO SELECT NO SELECT 10 NO SELECT NO SELECT NO SELECT CONTROLLER STATUS ... |
Interrompez toutes les E/S sur le périphérique affecté.
Solstice DiskSuite :
Dans le cas d'un contrôleur ou d'un plateau, voir les étapes qui s'appliquent dans la procédure intitulée "Comment mettre hors service un plateau de tableau SPARCstorage Array(Solstice DiskSuite)".
Dans le cas d'un disque, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remplacer un disque de tableau SPARCstorage Array(Solstice DiskSuite)".
VxVM :
Dans le cas d'un contrôleur ou d'un plateau, voir les étapes qui s'appliquent dans la procédure intitulée "Comment mettre hors service un plateau de tableau SPARCstorage Array(VxVM)".
Dans le cas d'un disque, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remplacer un disque de tableau SPARCstorage Array(VxVM)".
Activez ou désactivez l'écriture rapide sur le contrôleur ou le disque.
Choisissez l'option qui convient parmi les trois disponibles pour la commande luxadm(1M) (activation de l'écriture rapide pour toutes les opérations d'écriture, pour les opérations d'écriture synchrone seulement ou désactivation de l'écriture rapide).
-e active l'écriture rapide pour toutes les opérations d'écriture.
-c n'active l'écriture rapide que pour les opérations d'écriture synchrone.
-d désactive l'écriture rapide.
Dans l'exemple suivant, la configuration de la mémoire NVRAM est enregistrée lorsque la machine est remise sous tension, et l'écriture rapide est activée pour toutes les opérations d'écriture. Pour plus de détails sur ces options, consultez la page de manuel luxadm(1M).
phys-hahost# luxadm fast_write -s -e chemin |
Le message de confirmation affiché indique que l'écriture rapide a été activée.
Exécutez les étapes nécessaires pour que le composant fonctionne normalement sous Sun Cluster.
Solstice DiskSuite :
Dans le cas d'un contrôleur ou d'un plateau, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remettre en service un plateau de tableau SPARCstorage Array(Solstice DiskSuite)".
Dans le cas d'un disque, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remplacer un disque de tableau SPARCstorage Array(Solstice DiskSuite)".
VxVM :
Dans le cas d'un contrôleur ou d'un plateau, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remettre en service un plateau de tableau SPARCstorage Array(VxVM)".
Dans le cas d'un disque, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remplacer un disque de tableau SPARCstorage Array(VxVM)".
La commande luxadm sync_cache permet de vider sur disque toutes les opérations d'écriture en attente dans la mémoire NVRAM. Si une erreur survient au cours du vidage, vous devez purger les données au moyen de la commande luxadm purge. La purge des données entraîne la "suppression" des opérations d'écriture en attente dans la mémoire NVRAM.
La purge des données d'écriture rapide doit être effectuée avec prudence, et uniquement en cas de panne d'une unité de disque, car elle peut entraîner la perte de données.
Si la batterie de la mémoire NVRAM est déchargée, absente ou défectueuse, la mémoire NVRAM n'est pas opérationnelle et les données qui s'y trouvent sont perdues.
La liste qui suit énumère les étapes générales de vidage ou de purge, sur disque, des opérations d'écriture en attente pour le contrôleur sélectionné (et tous les disques correspondants) ou des opérations d'écriture individuelles :
Création d'une copie de sauvegarde de toutes les données.
Obtention des privilèges de root (superutilisateur).
Identification du contrôleur ou du disque sur lequel les opérations d'écriture doivent être vidées.
Vidage ou purge de toutes les opérations d'écriture en attente.
Arrêt de toutes les E/S sur le périphérique.
Remise en service du périphérique sous Sun Cluster.
Les étapes expliquées maintenant décrivent le vidage ou la purge des données de la mémoire NVRAM.
Identifiez le contrôleur ou le disque individuel devant être vidé ou purgé.
Vous pouvez utiliser la commande luxadm(1M) pour afficher des informations relatives au contrôleur, au plateau ou au disque spécifié. L'affichage reproduit ci-dessous, par exemple, identifie tous les disques du contrôleur c2.
phys-hahost1# luxadm display c2 SPARCstorage Array Configuration Controller path: /devices/iommu@f,e0000000/sbus@f,e0001000/SUNW,soc@0,0/SUNW,pln@a0000000,779a16:ctlr DEVICE STATUS TRAY 1 TRAY 2 TRAY 3 slot 1 Drive: 0,0 Drive: 2,0 Drive: 4,0 2 Drive: 0,1 Drive: 2,1 Drive: 4,1 3 NO SELECT NO SELECT NO SELECT 4 NO SELECT NO SELECT NO SELECT 5 NO SELECT NO SELECT NO SELECT 6 Drive: 1,0 Drive: 3,0 Drive: 5,0 7 Drive: 1,1 NO SELECT NO SELECT 8 NO SELECT NO SELECT NO SELECT 9 NO SELECT NO SELECT NO SELECT 10 NO SELECT NO SELECT NO SELECT CONTROLLER STATUS Vendor: SUN Product ID: SSA110 Product Rev: 1.0 Firmware Rev: 3.9 Serial Num: 000000779A16 Accumulate Performance Statistics: Enabled phys-hahost1# |
Interrompez toutes les E/S sur le périphérique affecté.
Solstice DiskSuite :
Dans le cas d'un contrôleur ou d'un plateau, voir les étapes qui s'appliquent dans la procédure intitulée "Comment mettre hors service un plateau de tableau SPARCstorage Array(Solstice DiskSuite)".
Dans le cas d'un disque, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remplacer un disque de tableau SPARCstorage Array(Solstice DiskSuite)".
VxVM :
Dans le cas d'un contrôleur ou d'un plateau, voir les étapes qui s'appliquent dans la procédure intitulée"Comment mettre hors service un plateau de tableau SPARCstorage Array(VxVM)".
Dans le cas d'un disque, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remplacer un disque de tableau SPARCstorage Array(VxVM)".
Videz ou purgez le contenu de la mémoire NVRAM sur un contrôleur, un plateau ou un disque individuel.
Si vous pouvez accéder aux disques du tableau SPARCstorage Array, videz la mémoire NVRAM. Ne purgez la mémoire NVRAM que si vous ne pouvez plus accéder au tableau SPARCstorage Array ou au disque.
phys-hahost1# luxadm sync_cache chemin ou phys-hahost1# luxadm purge chemin |
Le message de confirmation affiché indique que la mémoire NVRAM a été vidée ou purgée.
Exécutez les étapes nécessaires pour que le composant fonctionne normalement sous Sun Cluster.
Solstice DiskSuite :
Dans le cas d'un contrôleur ou d'un plateau, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remettre en service un plateau de tableau SPARCstorage Array(Solstice DiskSuite)".
Dans le cas d'un disque, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remplacer un disque de tableau SPARCstorage Array(Solstice DiskSuite)".
VxVM :
Dans le cas d'un contrôleur ou d'un plateau, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remettre en service un plateau de tableau SPARCstorage Array(VxVM)".
Dans le cas d'un disque, voir les étapes qui s'appliquent dans la procédure intitulée "Comment remplacer un disque de tableau SPARCstorage Array(VxVM)".