Cette section décrit les procédures d'administration des plateaux de tableaux SPARCstorage Array. Utilisez les procédures décrites dans le manuel d'entretien du matériel de votre noeud pour identifier le plateau associé au composant défectueux.
Pour éviter toute perte de données ainsi que les défaillances qui pourraient exiger le remplacement du châssis SPARCstorage Arrayen entier, configurez les miroirs de telle façon que chaque châssis ne contienne qu'un seul sous-miroir.
Sun Cluster prend en charge plusieurs modèles de tableaux SPARCstorage Array. Les procédures décrites dans cette section ne s'appliquent qu'aux tableaux SPARCstorage Array 100.
Avant de supprimer un plateau d'un tableau SPARCstorage Array, vous devez interrompre toutes les opérations d'E/S en cours et arrêter tous les disques du plateau. Comme les disques démarrent automatiquement en présence de demandes d'E/S, il faut absolument interrompre ces dernières avant d'arrêter les unités de disque.
La liste qui suit énumère les étapes générales de la mise hors service d'un plateau de tableau SPARCstorage Arraydans une configuration Solstice DiskSuite :
Commutation des hôtes logiques sur un noeud de grappe.
Interruption des E/S sur le plateau affecté.
Identification des répliques, des réserves dynamiques et des sous-miroirs sur le plateau affecté.
Au besoin, vidage de la mémoire vive non-volatile (NVRAM).
Arrêt et retrait du plateau.
Pour traiter le tableau SPARCstorage Array en entier, exécutez les étapes suivantes sur chaque plateau.
Les étapes expliquées maintenant décrivent en détail la mise hors service d'un plateau de tableau SPARCstorage Arraydans une configuration Solstice DiskSuite.
Exécutez la commande haswitch(1M) pour que d'autres noeuds deviennent propriétaires des hôtes logiques affectés.
phys-hahost1# haswitch phys-hahost1 hahost1 hahost2 |
Il est possible que le tableau SPARCstorage Arrayà supprimer contienne des disques inclus dans plusieurs hôtes logiques. Si c'est le cas, attribuez à un autre noeud de la grappe la propriété de tous les hôtes logiques contenant des disques utilisant ce plateau. La commande luxadm(1M) sera utilisée plus tard pour arrêter les disques. Dans l'exemple qui suit, la commande haswitch(1M) a commuté les hôtes logiques sur phys-hahost1, permettant ainsi à phys-hahost2 d'exécuter les fonctions administratives.
Exécutez la commande metastat(1M) sur tous les hôtes logiques affectés pour identifier tous les sous-miroirs contenant des tranches sur le plateau à supprimer.
phys-hahost1# metastat -s ensemble_disques |
Interrompez les E/S aux sous-miroirs dont les composants (tranches) se trouvent sur le plateau affecté.
Utilisez la commande metaoffline(1M) pour cette étape. Cela met le sous-miroir hors ligne. Vous pouvez utiliser la commande metadetach(1M) pour interrompre les E/S, mais cela prolonge la durée de la resynchronisation.
Lorsque les sous-miroirs d'un plateau sont mis hors ligne, les miroirs correspondants n'assurent qu'une mise en miroir unidirectionnelle (c'est-à-dire sans redondance des données). (Un miroir tridirectionnel ne présente pas ce type de problème.) Lorsque le miroir est remis en ligne, la resynchronisation est effectuée automatiquement.
Lorsque tous les sous-miroirs affectés sont hors ligne, les E/S sur le plateau sont interrompues.
Exécutez la commande metadb(1M) pour identifier les répliques sur le plateau.
Enregistrez la sortie metadb(1M) pour pouvoir l'utiliser lorsque vous remplacerez le plateau.
Exécutez la commande metahs(1M) pour identifier les périphériques à réserve dynamique disponibles et les sous-miroirs correspondants.
Enregistrez la sortie metahs(1M) pour pouvoir l'utiliser lorsque vous remplacerez le plateau.
Si la mémoire vive non-volatile (NVRAM) est activée, videz-la en transférant les données qui s'y trouvent sur le contrôleur, le plateau ou le(s) disque(s) approprié(s).
phys-hahost1# luxadm sync_cache chemin |
Le message de confirmation affiché indique que la mémoire vive non-volatile est maintenant vide. Pour plus de détails sur le vidage de la mémoire NVRAM, reportez-vous à la section "Vidage et purge de la mémoire NVRAM".
Arrêtez le plateau à l'aide de la commande luxadm stop.
Lorsque le voyant de verrouillage du plateau s'éteint, retirez le plateau et effectuez les corrections nécessaires.
phys-hahost1# luxadm stop c1 |
Avant de supprimer un plateau d'un tableau SPARCstorage Array, vous devez interrompre toutes les opérations d'E/S en cours et arrêter tous les disques du plateau. Comme les disques démarrent automatiquement en présence de demandes d'E/S, il faut absolument interrompre ces dernières avant d'arrêter les unités de disque.
La liste qui suit énumère les étapes générales de la mise hors service d'un plateau de tableau SPARCstorage Arraydans une configuration VxVM :
Commutation des hôtes logiques sur un noeud de grappe.
Identification des objets VxVM sur le plateau affecté.
Interruption des E/S sur le plateau affecté.
Au besoin, vidage de la mémoire vive non-volatile (NVRAM).
Arrêt et retrait du plateau.
Pour traiter le tableau SPARCstorage Array en entier, exécutez les étapes suivantes sur chaque plateau.
Les étapes expliquées maintenant décrivent en détail la mise hors service d'un plateau de tableau SPARCstorage Arraydans une configuration VxVM.
Exécutez la commande haswitch(1M) pour que d'autres noeuds deviennent propriétaires des hôtes logiques affectés.
phys-hahost1# haswitch phys-hahost1 hahost1 hahost2 |
Il est possible que le tableau SPARCstorage Arrayà supprimer contienne des disques inclus dans plusieurs hôtes logiques. Si c'est le cas, attribuez à un autre noeud de la grappe la propriété de tous les hôtes logiques contenant des disques utilisant ce plateau. La commande luxadm(1M) sera utilisée plus tard pour arrêter les disques. Dans cet exemple, la commande haswitch(1M) a commuté les hôtes logiques sur phys-hahost1, permettant ainsi à phys-hahost1 d'exécuter les fonctions administratives.
Identifiez tous les volumes et périphériques virtuels correspondants sur les disques du plateau à mettre hors service.
Trouvez, dans l'adresse physique du périphérique (cNtNdN), le numéro du contrôleur et le numéro de la cible.
Dans l'adresse c3t2d0, par exemple, le numéro du contrôleur est 3 et la cible 2.
Trouvez, dans la sortie produite par la commande vxdisk list, les périphériques VxVM du plateau affecté.
Si la cible est 0 ou 1, identifiez tous les périphériques dont l'adresse physique commence par cNt0 et cNt1. Si la cible est 2 ou 3, identifiez tous les périphériques dont l'adresse physique commence par cNt2 et cNt3. Si la cible est 4 ou 5, identifiez tous les périphériques dont l'adresse physique commence par cNt4 et cNt5. Voici un exemple illustrant comment la commande vxdisk peut être utilisée pour obtenir les informations.
# vxdisk -g groupe_disques -q list | egrep c3t2\|c3t3 | nawk '{print $3}' |
Identifiez tous les périphériques virtuels sur les périphériques ci-dessus, à l'aide de la version qui convient (csh, ksh, ou shell Bourne) de la commande suivante.
PLLIST=`vxprint -ptq -g groupe_disques -e '(aslist.sd_dm_name in ("c3t2d0","c3t3d0","c3t3d1")) && (pl_kstate=ENABLED)' | nawk '{print $2}'` |
Pour csh, la syntaxe est set PLLIST .... Pour ksh, la syntaxe est export PLLIST= .... Avec le shell Bourne, vous devez utiliser la commande export PLLIST après définition de la variable.
Après avoir défini la variable, interrompez les E/S sur les volumes dont les composants (sous-disques) se trouvent sur le plateau.
Veillez à ce que tous les volumes associés à ce plateau soient détachés (configurations en miroir ou RAID5) ou arrêtés (périphériques virtuels simples). Exécutez la commande suivante pour détacher un périphérique virtuel mis en miroir.
# vxplex det ${PLLIST} |
Autre commande permettant de détacher un périphérique virtuel d'un plateau :
# vxplex -g groupe_disques -v volume det périphérique_virtuel |
Pour interrompre les E/S sur des périphériques virtuels simples, démontez les systèmes de fichiers ou interrompez tout accès à la base de données.
Les volumes mis en miroir seront quand même actifs, car l'autre moitié du miroir est encore disponible.
Si la mémoire vive non-volatile (NVRAM) est activée, videz-la en transférant les données qui s'y trouvent sur le contrôleur, le plateau ou le(s) disque(s) approprié(s). Sinon, passez à Étape 5.
# luxadm sync_cache chemin |
Le message de confirmation affiché indique que la mémoire vive non-volatile est maintenant vide. Pour plus de détails sur le vidage de la mémoire NVRAM, reportez-vous à la section "Vidage et purge de la mémoire NVRAM".
Pour retirer le plateau, exécutez la commande luxadm stop afin de l'arrêter.
Lorsque le voyant de verrouillage du plateau s'éteint, retirez le plateau et effectuez les corrections nécessaires.
# luxadm stop c1 |
La liste qui suit énumère les étapes générales de remise en service d'un plateau de tableau SPARCstorage Arraydans une configuration Solstice DiskSuite :
Démarrage des unités de disque.
Restauration des répliques, des sous-miroirs et des réserves dynamiques.
Commutation des hôtes logiques sur leurs maîtres par défaut.
Si le tableau SPARCstorage Array a fait l'objet d'un entretien complet, exécutez les étapes suivantes sur chacun des plateaux.
Les étapes expliquées maintenant décrivent en détail la remise en service d'un plateau de tableau SPARCstorage Arraydans une configuration Solstice DiskSuite.
Si le tableau SPARCstorage Array a été retiré, démarrez les disques du plateau SPARCstorage Array. Sinon, passez à Étape 3.
Après avoir effectué toutes les opérations voulues sur un plateau SPARCstorage Array, remettez-le en place dans le châssis. Les disques démarrent automatiquement. Si les disques ne démarrent pas, exécutez la commande luxadm(1M) start pour les démarrer manuellement. Il y a ensuite un court délai (quelques secondes) entre l'exécution de la commande et le démarrage des disques du tableau SPARCstorage Array. Dans l'exemple qui suit, c1 est l'ID de contrôleur :
phys-hahost1# luxadm start c1 |
Ajoutez toutes les répliques de base de données d'état des métapériphériques qui ont été supprimées des disques du plateau.
Utilisez les informations enregistrées à l' Étape 4 de la procédure "Comment mettre hors service un plateau de tableau SPARCstorage Array(Solstice DiskSuite)" pour restaurer les répliques de base de données d'état des métapériphériques.
phys-hahost1# metadb -s hahost1 -a répliques-supprimées |
Pour ajouter plusieurs répliques sur la même tranche, utilisez l'option -c.
Après démarrage des disques, remettez en ligne tous les sous-miroirs qui avaient été mis hors ligne.
Exécutez la commande metaonline(1M) qui convient pour les disques du plateau.
phys-hahost1# metaonline -s hahost1 d15 d35 phys-hahost1# metaonline -s hahost1 d24 d54 ... |
Lorsque la commande metaonline(1M) est exécutée, une resynchronisation optimisée met automatiquement à jour les sous-miroirs. Cette resynchronisation optimisée ne copie que les zones de disque modifiées lorsque le sous-miroir était hors ligne. Cette zone ne représente généralement qu'une petite partie de la capacité du sous-miroir.
Exécutez la commande metaonline(1M) autant de fois que nécessaire, jusqu'à ce que tous les sous-miroirs soient de nouveau en ligne.
Si vous avez utilisé la commande metadetach(1M) pour détacher le sous-miroir plutôt que la commande metaoffline(1M), vous devez synchroniser le miroir en entier avec la commande metattach(1M). Cette opération dure environ 10 minutes par giga-octet de données.
Ajoutez de nouveau toutes les réserves dynamiques supprimées au moment de la mise hors service du tableau SPARCstorage Array.
Exécutez la commande metahs(1M) qui convient à votre configuration des réserves dynamiques. Utilisez les informations enregistrées à l' Étape 5 de la procédure "Comment mettre hors service un plateau de tableau SPARCstorage Array(Solstice DiskSuite)" pour remplacer les réserves dynamiques.
phys-hahost1# metahs -s hahost1 -a pool_réserves_dynamiques cNtXdYsZ |
Au besoin, commutez chaque hôte logique sur son maître par défaut.
phys-hahost1# haswitch phys-hahost2 hahost2 |
La liste qui suit énumère les étapes générales de remise en service d'un plateau de tableau SPARCstorage Arraydans une configuration VxVM :
Démarrage des unités de disque.
Restauration des objets VxVM.
Commutation des hôtes logiques sur leurs maîtres par défaut.
Si le tableau SPARCstorage Array a fait l'objet d'un entretien complet, exécutez les étapes suivantes sur chacun des plateaux.
Les étapes expliquées maintenant décrivent la remise en service d'un plateau de tableau SPARCstorage Array dans une configuration VxVM.
Si le tableau SPARCstorage Array a été retiré, démarrez les disques du plateau SPARCstorage Array. Sinon, passez à Étape 2.
Après avoir effectué toutes les opérations voulues sur un plateau SPARCstorage Array, remettez-le en place dans le châssis. Les disques démarrent automatiquement. Si les disques ne démarrent pas, exécutez la commande luxadm(1M) start pour les démarrer manuellement. Il y a ensuite un court délai (quelques secondes) entre l'exécution de la commande et le démarrage des disques du tableau SPARCstorage Array. Dans l'exemple qui suit, c1 est l'ID de contrôleur :
phys-hahost1# luxadm start c1 |
Une fois que les disques tournent, surveillez le déroulement de la reprise de la gestion des volumes.
Les volumes du plateau précédemment affectés devraient être progressivement remis en ligne, et la restauration des données devrait débuter automatiquement au bout de quelques minutes. Au besoin, exécutez les commandes vxreattach et vxrecover pour rattacher les disques et effectuer la reprise sur erreur. Pour de plus amples renseignements, reportez-vous aux pages correspondantes du manuel.
Les sous-disques DRL détachés doivent être rattachés manuellement.
Au besoin, commutez chaque hôte logique sur son maître par défaut.
phys-hahost1# haswitch phys-hahost2 hahost2 |