Ce document fournit les informations suivantes relatives au logiciel SunTM Cluster 3.1.
pour de plus amples informations concernant les services de données de Sun Cluster 3.1, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.
Cette rubrique présente les nouvelles fonctions et fonctionnalités ainsi que les nouveaux produits pris en charge par Sun Cluster 3.1.
Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrintsTM, afin de renforcer la sécurité de base des grappes. Solaris Security Toolkit assure la mise en oeuvre automatique de Sun Cluster Security Hardening.
La documentation relative à Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/blueprints/0203/817-1079.pdf . Vous pouvez aussi y accéder depuis http://wwws.sun.com/software/security/blueprints. À partir de cet URL, faites dérouler le texte jusqu'à l'en-tête Architecture afin de localiser l'article “Securing the Sun Cluster 3.x Software”. La documentation décrit la procédure de sécurisation des déploiements de Sun Cluster 3.1 dans un environnement Solaris 8 et Solaris 9. L'utilisation de Solaris Security Toolkit et d'autres techniques de sécurité de pointe conseillées par les experts de Sun y sont également décrites.
Le logiciel Sun Cluster 3.1 prend désormais en charge les topologies ouvertes. Vous n'êtes plus limité aux topologies de stockage décrites dans le document Sun Cluster 3.1 Concepts.
Reportez-vous aux instructions ci-après pour configurer votre grappe.
Sun Cluster prend en charge un maximum de huit noeuds dans une grappe, quelles que soient les configurations de stockage implémentées.
Les périphériques de stockage partagés peuvent être connectés à autant de noeuds qu'ils peuvent en prendre en charge.
Ils n'ont pas besoin d'être connectés à tous les noeuds de la grappe. Toutefois, ils doivent être reliés à au moins deux noeuds.
Sun Cluster 3.1 prend désormais en charge des configurations de grappes à plus de trois noeuds sans périphériques de stockage partagés. Il est toujours nécessaire que les grappes à deux noeuds aient un périphérique de stockage partagé afin de maintenir le quorum. Ce périphérique de stockage n'a besoin d'avoir aucune autre fonction.
Des services de données peuvent désormais être configurés de façon à être lancés sous un nom de projet Solaris au moment de leur mise en ligne à l'aide du gestionnaire du groupe de ressources (RGM). Reportez-vous à la rubrique “Data Service Project Configuration” du “Key Concepts for Administration and Application Development” in Sun Cluster 3.1 Concepts Guide pour obtenir des informations détaillées sur la planification de la configuration de projets pour vos services de données.
Pour de plus amples informations sur la prise en charge de la mise en oeuvre Solaris du multi-acheminement sur réseau IP sur les réseaux publics, reportez-vous aux rubriques “Planification de la configuration Sun Cluster” du Guide d'installation du logiciel Sun Cluster 3.1 et “Administration du réseau public” du Guide d'administration système de Sun Cluster 3.1.
Pour de plus amples informations sur la définition du nombre de noeuds secondaires pour un groupe de périphériques de disques, veuillez consulter la rubrique “Administration des groupes de périphériques de disques” dans Guide d'administration système de Sun Cluster 3.1 (reportez-vous aux procédures de configuration du nombre souhaité de noeuds secondaires et de changement des propriétés des périphériques de disques). Vous trouverez aussi des informations complémentaires à la rubrique “Cluster Administration and Application Development” in Sun Cluster 3.1 Concepts Guide (reportez-vous à la rubrique portant sur les basculements de disques multi-ports).
Pour de plus amples informations sur les améliorations apportées aux services de données, reportez-vous à la rubrique “What's New in Sun Cluster 3.1 Data Services 5/03” in Sun Cluster 3.1 Data Service 5/03 Release Notes.
Cette rubrique décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.1.
Environnement d'exploitation et correctifs : les versions Solaris et correctifs pris en charge sont disponibles à l'adresse suivante :
Pour de plus amples détails, reportez-vous à la rubrique Correctifs et niveaux de microprogrammes requis.
Gestionnaires de volumes
Pour Solaris 8 : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.2 et 3.5.
Pour Solaris 9 : Solaris Volume Manager et VERITAS Volume Manager 3.5.
si vous effectuez une mise à niveau de VERITAS Volume Manager (VxVM) 3.2 vers 3.5, la fonction Cluster Volume Manager (CVM) ne sera disponible que lorsque vous aurez installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 ne permet pas d'activer CVM et doit être mise à niveau vers la clé de licence CVM de la version 3.5.
Systèmes de fichiers
Pour Solaris 8 : Solaris UFS et Système de fichiers VERITAS 3.4 et 3.5.
Pour Solaris 9 : Solaris UFS et Système de fichiers VERITAS 3.5.
Services de données (agents) : pour de plus amples informations sur les services de données pris en charge, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.
les services de données de Sun Cluster 3.0 peuvent fonctionner sous Sun Cluster 3.1, sauf dans les cas indiqués à la rubrique Exécution de Sun Cluster HA pour Oracle 3.0 sur Sun Cluster 3.1.
Configuration minimale requise : le logiciel Sun Cluster 3.1 nécessite davantage de mémoire qu'un noeud opérant dans des conditions normales. Le supplément de mémoire requis correspond à 128 Mo plus dix pour cent. Par exemple, si un noeud autonome a normalement besoin de 1 Go de mémoire, il manque encore 256 Mo de mémoire pour atteindre la configuration minimale requise.
RSMAPI : Sun Cluster 3.1 prend en charge l'Interface de programmation d'application de mémoire partagée distante (RSMAPI) sur les câbles d'interconnexion compatibles RSM, tels que PCI-SCI.
Les restrictions suivantes s'appliquent à la version Sun Cluster 3.1 :
Paramètres svc_default_stksize et lwp_default_stksize : définissez le paramètre rpcmod:svc_default_stksize sur 0x8000 et le paramètre lwp_default_stksize sur 0x6000 dans le fichier /etc/system, afin d'éviter le dépassement de la pile.
si vous ajoutez un module VxFS ou un correctif, veillez à ce que la définition des paramètres du fichier /etc/system corresponde aux valeurs indiquées ci-dessus.
Variable local-mac-address?: la variable local-mac-address? doit avoir la valeur true pour les adaptateurs Ethernet. Le logiciel Sun Cluster 3.0 demandait l'inverse, c'est-à-dire que cette variable soit définie sur false.
Types de transport RSM (Remote Shared Memory) : ces types de transport ne sont pas pris en charge, même si la documentation y fait parfois référence. Si vous utilisez l'interface RSMAPI, indiquez dlpi comme type de transport.
Interface SCI (Scalable Coherent Interface) : l'interface SCI SBus n'est pas prise en charge comme interconnexion de grappe. Par contre, l'interface PCI-SCI est prise en charge.
Interfaces de réseau logique : l'usage de ces interfaces est réservé au logiciel Sun Cluster 3.1.
Surveillance des chemins de disques : seuls les chemins de disque actifs du noeud primaire actuel sont surveillés par le logiciel Sun Cluster afin de détecter les éventuelles défaillances. Vous devez surveiller manuellement les chemins des disques afin d'éviter toute double défaillance ou perte de chemin vers un périphérique de quorum.
Périphériques de stockage avec plus de deux chemins d'accès physiques à l'enveloppe : la prise en charge de plus de deux chemins d'accès n'est pas assurée, sauf pour Sun StorEdge TM A3500, pour lequel deux chemins d'accès à chacun des deux noeuds sont pris en charge, tout périphérique prenant en charge Sun StorEdge Traffic Manager, et les périphériques de stockage EMC qui utilisent le logiciel EMC PowerPath.
SunVTSTM : non pris en charge.
Bande, CD et DVD multihôtes: non pris en charge.
LOFS (Loopback File System) : le logiciel Sun Cluster 3.1 ne prend pas en charge l'utilisation du système de fichiers loopback (LOFS) sur les noeuds de grappe.
Exécution d'applications clients sur les noeuds de la grappe : les applications clients exécutées sur des noeuds de grappe ne peuvent en aucun cas faire référence à des adresses IP logiques faisant partie d'un service de données HA. Au cours d'un basculement, ces adresses IP logiques pourraient en effet disparaître, laissant le client sans connexion.
Exécution de processus à haut niveau de priorité programmant des classes sur des noeuds de grappe : non prise en charge. Les processus qui s'exécutent dans la classe de programmation à temps partagé avec un haut niveau de priorité ou les processus qui s'exécutent dans la classe de programmation à temps réel ne doivent pas être exécutés sur des noeuds de grappe. Le logiciel Sun Cluster 3.1 s'appuie sur des threads du noyau qui ne s'exécutent pas dans la classe en temps réel. D'autres processus à temps partagé qui s'exécutent avec une priorité supérieure à la normale ou ceux en temps réel peuvent empêcher les threads du noyau de Sun Cluster d'acquérir les cycles CPU requis.
Mise à niveau Solaris 8 vers Solaris 9 : la mise à niveau du logiciel Solaris 8 vers le logiciel Solaris 9 sur une configuration Sun Cluster n'est pas prise en charge. Vous ne pouvez mettre à niveau que vers des versions ultérieures et compatibles de l'environnement d'exploitation Solaris 8. Pour exécuter le logiciel Sun Cluster 3.1 sur l'environnement d'exploitation Solaris 9, vous devez effectuer une nouvelle installation de la version Solaris 9 de Sun Cluster 3.1 après l'installation des noeuds à l'aide de Solaris 9.
IPv6 : non pris en charge.
SNDR ne peut être utilisé avec HAStoragePlus : actuellement, SNDR ne peut être utilisé qu'avec HAStorage. Cette restriction ne s'applique qu'au groupe de ressources « de faible poids », y compris l'hôte logique que SNDR utilise pour la réplication. Les groupe de ressources d'application peuvent toujours utiliser HAStoragePlus avec SNDR. Vous pouvez utiliser le système de fichiers de basculement avec HAStoragePlus et SNDR en utilisant HAStorage pour le groupe de ressources SNDR, et HAStoragePlus pour le groupe de ressources d'application, où les ressources HAStorage et HAStoragePlus pointent sur le même périphérique DCS sous-jacent. Un correctif visant à permettre à SNDR de fonctionner avec HAStoragePlus est en train d'être mis au point.
Options de montage : (1) vous ne pouvez pas remonter un système de fichiers en ajoutant l'option de montage directio lors du remontage, et (2) vous ne pouvez pas définir l'option de montage directio sur un fichier unique à l'aide de directio ioctl.
Clé de licence : la clé de licence ne peut être installée que de façon interactive ou à l'aide de l'option scvxinstall -e.
Autres restrictions : pour consulter d'autres problèmes connus ou restrictions, reportez-vous à la rubrique Problèmes connus et bogues.
Le logiciel Sun Cluster 3.1 ne peut fournir des services qu'aux services de données livrés avec Sun Cluster ou configurés à l'aide de l'API de services de données de Sun Cluster.
Actuellement, le logiciel Sun Cluster ne possède pas de service de données à haute disponibilité pour le sous-système sendmail(1M). Il est possible d'exécuter sendmail sur les noeuds de grappe individuels, mais cette fonctionnalité - les fonctions d'envoi, d'acheminement, d'attente ou de nouvelle tentative - ne sera pas hautement disponible.
Ne configurez pas les noeuds de grappe comme routeurs (passerelles). Si le système est immobilisé, les clients ne pourront pas trouver de routeur alternatif et, de ce fait, effectuer une reprise.
Ne configurez pas les noeuds de grappe comme serveurs NIS ou NIS+. Les noeuds de grappe peuvent toutefois être des clients NIS ou NIS+.
N'utilisez pas de configuration Sun Cluster pour fournir un service d'initialisation ou d'installation à haut niveau de disponibilité sur des systèmes clients.
N'utilisez pas de configuration Sun Cluster 3.1 pour fournir un service rarpd.
AP (Alternate Pathing) n'est pas pris en charge.
Si vous utilisez un serveur Sun EnterpriseTM 420R équipé d'une carte PCI à l'emplacement J4701, la carte mère doit être au moins de niveau 15 (501-5168-15 ou supérieure). La référence de la carte mère et son niveau de révision figurent sur la tranche de la carte, à proximité de l'emplacement PCI 1.
Des erreurs graves de système ont été observées dans le cas de grappes où des cartes UDWIS I/O sont insérées dans l'emplacement 0 d'une carte mère d'un serveur Sun Enterprise 10000 ; évitez donc d'installer des cartes UDWIS I/O à l'emplacement 0 de la carte de ce serveur.
Si vous effectuez une mise à niveau à partir de VERITAS Volume Manager (VxVM) 3.2 à 3.5, la fonction Cluster Volume Manager (CVM) n'est pas disponible tant que vous n'avez pas installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 n'active pas CVM et doit être mise à niveau avec la clé de licence CVM de la version 3.5.
Dans les configurations Solstice DiskSuite/Solaris Volume Manager qui utilisent des médiateurs, chaque ensemble de disques doit être associé à exactement deux hôtes médiateurs.
DiskSuite Tool (Solstice DiskSuite metatool) et le module de stockage amélioré de la console de gestion Solaris (Solaris Volume Manager) ne sont pas compatibles avec le logiciel Sun Cluster 3.1.
L'utilisation conjointe de VxVM Dynamic Multipathing (DMP) et du logiciel Sun Cluster 3.1 pour gérer plusieurs chemins à partir d'un même noeud n'est pas prise en charge. À partir de VxVM 3.2 et au-delà, il n'est plus possible de désactiver DMP, mais sa présence dans la pile d'E/S des systèmes avec un seul chemin d'accès par noeud ne pose aucun problème. Toutefois, si vous utilisez VxVM dans une configuration à plusieurs chemins d'accès par noeud, vous devez alors adopter une autre solution de multi-acheminement, telle que MPxIO ou EMC PowerPath.
Les groupes simples de disques racine (rootdg créés sur une même tranche du disque racine) ne sont pas pris en charge en tant que types de disques avec VxVM par le logiciel Sun Cluster 3.1.
RAID 5 n'est pas pris en charge.
Les systèmes de fichiers de Sun Cluster ne prennent pas en charge les quotas.
La commande umount -f se comporte exactement de la même façon que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
Seuls les répertoires vides prennent en charge la commande unlink (1M).
La commande lockfs -d n'est pas prise en charge. Utilisez la commande lockfs -n à la place.
Le système de fichiers de grappe ne prend en charge aucune des fonctions des systèmes de fichiers Solaris qui permettent de placer une marque de fin de communication dans l'espace de noms du système de fichiers. Par conséquent, même si vous pouvez créer une socket domaine UNIX portant le nom d'un nom de chemin dans le système de fichiers de la grappe, cette socket ne résisterait pas à une reprise sur panne du noeud. En outre, aucun fifo ou tube nommé créé sur un système de fichiers n'est globalement accessible, et vous devez éviter d'essayer d'employer la commande fattach à partir de n'importe quel noeud autre que le noeud local.
L'exécution de fichiers binaires de systèmes de fichiers, montés par le biais de l'option de montage forcedirectio, n'est pas prise en charge.
La configuration Sun Cluster 3.1 ne prend pas en charge les fonctions VxFS suivantes :
Quick I/O (E/S rapide)
Snapshots (instantanés)
Storage checkpoints (points de contrôle du stockage)
Les avis de cache (s'ils sont utilisés, ils ne s'appliquent qu'au noeud sélectionné)
VERITAS CFS (nécessite la fonction de grappe VERITAS et VCS)
Toutes les autres fonctions et options VxFS prises en charge dans une configuration de grappe sont également prises en charge par le logiciel Sun Cluster 3.1. Consultez la documentation de VxFS et les pages de manuel pour plus de détails sur les options de VxFS prises en charge ou non dans une configuration de grappe.
La configuration Sun Cluster 3.1 ne prend pas en charge les options de montage spécifiques à VxFS.
convosync (Convertir O_SYNC)
mincache
qlog, delaylog, tmplog
Pour de plus amples informations sur l'administration des systèmes de fichiers de grappe VxFS dans le cadre d'une configuration Sun Cluster, consultez la rubrique “Administration des systèmes de fichiers de grappe : présentation” du Guide d'administration système de Sun Cluster 3.1.
Cette rubrique décrit les restrictions liées à l'utilisation du multi-acheminement sur réseau IP s'appliquant à un environnement Sun Cluster 3.1 exclusivement, ou n'étant pas référencées dans les informations fournies dans la documentation Solaris pour le multi-acheminement sur réseau IP.
IPv6 n'est pas pris en charge.
Tous les adaptateurs de réseaux publics doivent figurer dans des groupes IPMP.
Dans le fichier /etc/default/mpathd, ne remplacez pas yes par no pour TRACK_INTERFACES_ONLY_WITH_GROUPS.
Pour les bogues et problèmes connus reportez-vous à la rubrique Écrasement de hostname.int par l'option "Create IPMP group" (4731768) .
La plupart des procédures, instructions et restrictions définies dans la documentation Solaris pour le multi-acheminement sur réseau IP sont les mêmes pour les environnements grappe et non-grappe. Par conséquent, consultez le document Solaris approprié pour de plus amples informations sur les restrictions liées au multi-acheminement sur réseau IP.
Version de l'environnement d'exploitation |
Pour les instructions, voir... |
---|---|
Environnement d'exploitation Solaris 8 |
IP Network Multipathing Administration Guide |
Environnement d'exploitation Solaris 9 |
“ IP Network Multipathing Topics” dans le System Administration Guide : IP Series |
Aucune restriction ne s'applique à l'ensemble de services de données. Pour de plus amples informations sur les restrictions s'appliquant à des services de données spécifiques, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.
Le service de données Sun Cluster HA pour Oracle 3.0 peut fonctionner sur Sun Cluster 3.1 uniquement s'il est utilisé avec les versions suivantes de l'environnement d'exploitation Solaris :
Solaris 8, version 32 bits
Solaris 8, version 64 bits
Solaris 9, version 32 bits
le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas fonctionner sur Sun Cluster 3.1 s'il est utilisé avec la version 64 bits de Solaris 9.
Les problèmes connus et les bogues ci-après concernent la version Sun Cluster 3.1. Pour connaître les informations les plus récentes, consultez le Sun Cluster 3.x Release Notes Supplement à l'adresse http://docs.sun.com.
Récapitulatif du problème : le fichier /etc/mnttab n'indique pas l'état largefile actuel d'un système de fichiers VxFS monté globalement.
Solution : pour vérifier l'état largefile du système de fichier, utilisez la commande fsadm plutôt que l'entrée /etc/mnttab.
Récapitulatif du problème : pour une taille de fichier donnée, le système de fichiers VxFS global semble allouer plus de blocs de disques que le système de fichiers local VxFS.
Solution : en démontant puis remontant le système de fichiers, vous éliminerez les blocs de disques supplémentaires indiqués comme étant alloués à ce fichier.
Récapitulatif du problème : il arrive que les chemins de transport d'interconnexion privée finissant par un adaptateur qfe ne parviennent pas à se mettre en ligne.
Solution : suivez les étapes indiquées ci-dessous.
Identifiez l'adaptateur défectueux à l'aide de scstat -W. Le résultat affichera tous les chemins de transport avec cet adaptateur comme l'une des extrémités du chemin à l'état faulted ou waiting.
Utilisez la commande scsetup pour supprimer de la configuration de la grappe tous les câbles connectés à cet adaptateur.
Utilisez à nouveau la commande scsetup pour supprimer cet adaptateur de la configuration de la grappe.
Replacez l'adaptateur et les câbles.
Vérifiez que les chemins apparaissent. Si le problème persiste, répétez plusieurs fois les étapes 1 à 5.
Vérifiez que les chemins apparaissent. Si le problème persiste toujours, réinitialisez le noeud où se trouve l'adaptateur défectueux. Avant de réinitialiser le noeud, assurez-vous que le reste de la grappe a suffisamment de votes de quorum pour résister à la réinitialisation du noeud.
Récapitulatif du problème : le nombre de blocs de fichiers n'est pas toujours consistant sur des noeuds de grappe après les opérations d'écriture d'allocation de blocs dans un fichier fragmenté. Pour un système de fichiers de grappes en couches sur UFS (ou VxFS 3.4), l'inconsistance du bloc sur plusieurs noeuds de grappe disparaît au bout de 30 secondes environ.
Solution : les opérations de métadonnée de fichier actualisant l'inode (touch, etc.) doivent synchroniser la valeur st_blocks afin que les opérations de métadonnée qui suivent assurent des valeurs st_blocks consistantes.
Récapitulatif du problème : l'utilisation simultanée de l'option de montage forcedirectio et de la fonction mmap(2) peut entraîner la corruption de données, l'arrêt du système ou des erreurs graves.
Solution : respectez les restrictions ci-dessous.
Ne remontez jamais un système de fichiers avec l'option de montage directio ajoutée au temps de remontage.
Ne paramétrez pas l'option de montage directio sur un seul fichier au moyen de ioctl directio.
Si vous devez utiliser directio, montez l'ensemble du système de fichiers avec les options directio.
Récapitulatif du problème : il arrive que le démontage d'un système de fichiers de grappes échoue, même si la commande fuser indique qu'il n'y a aucun utilisateur sur les noeuds.
Solution : relancez le remontage après que toutes les E/S asynchrones vers le système de fichiers sous-jacent ont été effectuées.
Récapitulatif du problème : après l'arrêt de l'un des tableaux Sun StorEdge T3 et de l'exécution de scshutdown, la réinitialisation des deux noeuds place la grappe à l'état inactif.
Solution : en cas de perte de la moitié des répliques, procédez comme indiqué ci-dessous.
Assurez-vous que la grappe est en mode grappe.
Importez obligatoirement l'ensemble de disques.
# metaset -s set-name -f -C take |
Supprimez les répliques endommagées.
# metadb -s set-name -fd /dev/did/dsk/dNsX |
Libérez l'ensemble de disques.
# metaset -s set-name -C release |
Vous pouvez à présent monter et utiliser le système de fichiers. Néanmoins, vous n'avez pas restauré la redondance dans les répliques. En cas de perte de la seconde moitié des répliques, vous ne pourrez pas restaurer l'état de bon fonctionnement du miroir.
Recréez les bases de données après l'application de la procédure de réparation décrite ci-dessus.
Récapitulatif du problème :
la dissociation ou séparation d'un plex d'un groupe de disques sous
Sun Cluster peut entraîner une erreur grave au niveau du noeud de grappe
avec les chaînes d'erreur suivantes :
panic[cpu2]/thread=30002901460: BAD TRAP: type=31 rp=2a101b1d200 addr=40 mmu_fsr=0 occurred in module "vxfs" due to a NULL pointer dereference
Solution : avant de dissocier ou de détacher un plex d'un groupe de disques, démontez les systèmes de fichiers correspondants.
Récapitulatif du problème : la commande scvxinstall -i accepte une clé de licence avec l'option -L. Cependant, la clé est ignorée et n'est pas installée.
Solution : ne fournissez pas de clé de licence sous la forme -i de scvxinstall, elle ne sera pas installée. Les clés de licence doivent être installées de façon interactive ou à l'aide de l'option -e. Avant de procéder à l'encapsulage de la racine, examinez les conditions de licence et fournissez les clés requises à l'aide de l'option -e ou de façon interactive.
Récapitulatif du problème : l'agent Sun Cluster HA-Siebel ne contrôle pas les composants Siebel individuels. En cas de détection d'une panne sur un composant Siebel, seul un message d'avertissement est consigné dans syslog.
Solution : redémarrez le groupe de ressources du serveur Siebel sur lequel les composants sont déconnectés à l'aide de la commande scswitch -R -h noeud-g groupe_ressources .
Récapitulatif du problème : le script remove ne parvient pas à désenregistrer le type de ressources SUNW.gds et affiche le message indiqué ci-dessous.
Le type de ressources a déjà été désenregistré.
Solution : après avoir utilisé le script remove, désenregistrez manuellement SUNW.gds. Vous pouvez aussi utiliser la commande scsetup ou SunPlex Manager.
Récapitulatif du problème : l'option Create IPMP group de SunPlex Manager ne peut être utilisée qu'avec des adaptateurs qui ne sont pas déjà configurés. Si un adaptateur est déjà configuré avec une adresse IP, il doit être configuré manuellement pour IPMP.
Solution : l'option Create IPMP Group de SunPlex Manager ne doit être utilisée qu'avec des adaptateurs qui ne sont pas déjà configurés. Si un adaptateur est déjà configuré avec une adresse IP, il doit être configuré manuellement à l'aide des outils de gestion IPMP de Solaris.
Récapitulatif du problème :
l'utilisation de la commande Solaris shutdown ou de commandes
similaires (par exemple, uadmin) pour désactiver
un noeud de grappe peut entraîner une erreur grave au niveau des noeuds,
et l'affichage du message suivant :
CMM: Shutdown timer expired. Halting.
Solution : demandez l'assistance de votre représentant Sun. Cette erreur grave est nécessaire, elle permet à un autre noeud de la grappe de reprendre en toute sécurité les services qui étaient hébergés par le noeud désactivé.
Récapitulatif du problème :
même si une grappe a le nombre minimum de votes requis pour un quorum,
une commande d'administration pour l'ajout d'un périphérique
de quorum à la grappe échoue, et le message ci-dessous s'affiche.
Cluster could lose quorum
.Solution : demandez l'assistance de votre représentant Sun.
Récapitulatif du problème : les grappes utilisant des adaptateurs ce sur l'interconnexion privée peuvent rencontrer des problèmes temporisations de chemin suivis d'erreurs graves de noeud, si un ou plusieurs noeuds ont plus de quatre processeurs.
Solution : définissez le paramètre ce_taskq_disable dans le gestionnaire ce en ajoutant set ce:ce_taskq_disable=1 au fichier /etc/system sur tous les noeuds de la grappe, puis réinitialisez les noeuds. Cela permet de toujours envoyer les pulsations (et autres paquets) dans le contexte de l'interruption, et d'éliminer les problèmes de temporisation de chemins suivis d'erreurs graves. Prenez en considération les indications du Quorum lors de la réinitialisation des noeuds.
Récapitulatif du problème : l'échec d'un réseau public peut provoquer la temporisation de la sonde de la passerelle Siebel et finir par mettre la ressource de la passerelle Siebel hors ligne. Cela peut arriver si le chemin du noeud sur lequel s'exécute la passerelle Siebel commence par /home, qui dépend de ressources réseau telles que NFS et NIS. Sans le réseau public, la sonde de la passerelle Siebel s'interrompt tandis qu'elle tente d'ouvrir un fichier à partir de /home, ce qui provoque sa temporisation.
Solution : suivez les étapes qui suivent pour tous les noeuds pouvant héberger la passerelle Siebel.
Assurez-vous que les entrées passwd, group, et project de /etc/nsswitch.conf ne font référence qu'à des fichiers, et pas à des nis.
Assurez-vous qu'il n'y a aucune dépendance NFS ou NIS pour tout chemin commençant par /home.
Vous pouvez soit monter localement le chemin /home, soit remplacer le point de montage /home par /export/home ou tout autre nom ne commençant pas par /home.
Dans le fichier /etc/auto_master, mettez à l'écart la ligne contenant l'entrée +auto_master. Mettez également à l'écart toute entrée /home qui utilise auto_home.
Dans etc/auto_home, mettez à l'écart la ligne contenant +auto_home.
Récapitulatif du problème : pour être en mesure de fournir, pour chaque noeud, des communications à haute disponibilité entre adresses IP logiques via une interconnexion privée, le logiciel Sun Cluster utilise des routes avec passerelles sur les noeuds de grappe. Le vidage des routes avec passerelles interrompt les communications entre adresses IP logiques pour chaque noeud.
Solution : réinitialisez les noeuds sur lesquels des routes ont été vidées par inadvertance. Pour restaurer des routes avec passerelles, il suffit de réinitialiser les noeuds de grappe un par un. Les communications entre adresses IP logiques pour chaque noeud restent interrompues tant que les routes n'ont pas été restaurées. Prenez en considération les indications du Quorum lors de la réinitialisation des noeuds.
Récapitulatif du problème : un échec de basculement ou de commutation d'un système de fichiers peut générer une erreur.
Solution : démontez puis remontez le système de fichiers.
Récapitulatif du problème : l'activation de TCP-selective acknowledgements (accusés de réception sélectifs) sur des noeuds de grappe peut entraîner l'altération de données.
Solution : aucune intervention n'est requise. Pour éviter l'altération de données sur le système de fichiers global, ne réactivez pas TCP selective acknowledgements sur les noeuds de la grappe.
Récapitulatif du problème : scinstall affiche à tort que les services de données indiqués ci-dessous ne sont pas pris en charge par Solaris 9.
Sun Cluster HA pour SAP
Sun Cluster HA pour SAP liveCache
Solution : Solaris 8 et 9 prennent en charge Sun Cluster HA pour SAP et Sun Cluster HA pour SAP liveCache. Ignorez la liste des fonctions non prises en charge de scinstall.
Récapitulatif du problème :
l'implémentation actuelle de scdidadm(1M) dépend
de la présence de /dev/rmt et /dev/(r)dsk pour exécuter correctement scdiadm -r.
Solaris les installe tous les deux, sans tenir compte de la présence
des périphériques de stockage sous-jacents réels. Si /dev/rmt est manquant, scdidadm affiche l'erreur
suivante :
Cannot walk /dev/rmt" during execution of 'scdidadm -r
.Solution : sur chaque noeud où /dev/rmt est manquant, utilisez mkdir pour créer un répertoire /dev/rmt. Exécutez ensuite scgdevs à partir d'un noeud.
Récapitulatif du problème : l'altération de données peut se produire sur les systèmes Sun Cluster 3.x exécutant les correctifs 113454-04, 113073-02 et 113276-02 (ou un sous-ensemble de ces correctifs). Ce problème ne survient qu'avec les systèmes de fichiers UFS montés globalement. L'altération de données se traduit par la disparition de certaines données (des zéros apparaissent là où devraient figurer des données), et le nombre de données manquantes est toujours le multiple d'un bloc de disques. Une perte de données peut se produire dès que la panne d'un noeud entraîne l'arrêt du noeud primaire du système de fichiers peu de temps après que le fichier systemclient a accompli (ou rapporte qu'il a accompli) une opération d'écriture. La période de vulnérabilité est limitée et n'est pas systématique.
Solution : utilisez l'option de montage -o syncdir pour obliger les systèmes de fichiers UFS à utiliser des transactions de journaux UFS synchrones.
Récapitulatif du problème : si la commutation d'un groupe de périphériques est en cours au moment où un noeud rejoint la grappe, la jonction du noeud et l'opération de commutation risquent de s'interrompre. Toute tentative d'accès à un service du périphérique s'interrompra également. Ce problème est plus susceptible de se produire si la grappe comporte plus de deux noeuds, et si le système de fichiers monté sur le périphérique est un système de fichiers VxFS.
Solution : pour éviter cette situation, ne lancez pas de basculement de groupes de périphériques au moment où un noeud rejoint la grappe. Si vous rencontrez ce problème, réinitialisez tous les noeuds de la grappe pour restaurer l'accès aux groupes de périphériques.
Récapitulatif du problème :
lorsqu'un système de fichiers de grappe est plein, dans certains cas
des erreurs graves peuvent survenir sur ce système de fichiers, et
l'un des messages indiqués ci-dessous s'affiche. 1)
assertion failed: cur_data_token & PXFS_WRITE_TOKEN or PXFS_READ_TOKEN
ou 2)vp->v_pages == NULL
. Ces erreurs graves permettent d'éviter l'altération de données lorsqu'un système de fichiers est plein.Solution : pour réduire les risques d'apparition de ce problème, utilisez dans la mesure du possible un système de fichiers de grappe avec UFS. Il est extrêmement rare qu'une de ces erreurs graves surviennent lorsqu'on utilise un système de fichiers de grappe avec UFS ; le risque est en revanche plus grand si on utilise un système de fichiers de grappes avec VxFS.
Récapitulatif du problème : lorsque la demande de commutation d'un service de périphérique, à l'aide de scswitch -z -D <device-group> -h <node> , est concurrente à la réinitialisation d'un noeud et que des systèmes de fichiers globaux sont configurés sur le service de périphérique, le système de fichiers global risque de devenir indisponible et les modifications ultérieures de la configuration impliquant tout service de périphérique ou système de fichiers global risquent aussi de s'interrompre, tout comme les jonctions de noeuds de grappe ultérieures.
Solution : pour reprendre, vous devez réinitialiser tous les noeuds de la grappe.
Récapitulatif du problème :
si vous exécutez la commande scconf -rq pour supprimer
un périphérique de quorum dans une configuration vulnérable,
tous les noeuds de la grappe connaîtront un état d'erreur grave
avec le message ci-dessous.
CMM lost operational quorum
.Solution : avant de supprimer un périphérique de quorum d'une grappe, vérifiez le résultat de scstat -q. Si le périphérique de quorum est répertorié dans la colonne Present comme ayant plus d'un vote, il doit alors d'abord être mis en mode maintenance à l'aide de scconf -cq globaldev=QD,maintstate. Une fois que la commande est terminée et que le périphérique de quorum apparaît dans scstat -qavec 0 vote, il peut être retiré à l'aide de scconf -rq.
Récapitulatif du problème : si on utilise Solstice DiskSuite/Solaris Volume Manager et qu'un volume mis en miroir est ouvert à l'aide de l'indicateur O_EXCL, le basculement du groupe de périphériques contenant ce volume échoue. Cela génère une erreur grave du noeud primaire du nouveau groupe de périphériques, lors du premier accès au volume après le basculement.
Solution : lorsque vous utilisez Solstice DiskSuite/Solaris Volume Manager, n'ouvrez pas de volumes mis en miroir avec l'indicateur O_EXCL.
Récapitulatif du problème : lorsque la demande de commutation d'un service de périphérique est concurrente à la réinitialisation ou à la jonction d'un noeud et que des systèmes de fichiers de grappe sont configurés sur le service de périphérique, les systèmes de fichiers risquent de devenir indisponibles et les modifications ultérieures de la configuration impliquant tout service de périphérique ou système de fichiers global risquent aussi de s'interrompre, tout comme les jonctions de noeuds de grappe ultérieures.
Solution : la récupération nécessite la réinitialisation de tous les noeuds de la grappe.
Récapitulatif du problème : des parties de texte non traduites apparaissent lors de l'utilisation de SunPlex Manager pour installer Sun Cluster dans la version localisée française.
Solution : cette erreur n'a pas d'incidence sur les fonctionnalités de SunPlex Manager. Vous pouvez ignorer le texte non traduit ou définir la langue de votre navigateur en anglais pour éviter le mélange de traductions.
Cette rubrique fournit des informations sur les correctifs applicables aux configurations de Sun Cluster. .
vous devez être enregistré comme utilisateur SunSolveTM pour pouvoir afficher et télécharger les correctifs nécessaires à Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant Sun ou enregistrez-vous en ligne à l'adresse http://sunsolve.sun.com.
PatchPro est un outil de gestion de correctifs destiné à faciliter la sélection et le téléchargement des correctifs nécessaires à l'installation ou à la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des correctifs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers correctifs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des correctifs développés, pas uniquement des correctifs de sécurité et de haut niveau de disponibilité.
Pour accéder à l'outil PatchPro pour le logiciel Sun Cluster, allez à l'adresse http://www.sun.com/PatchPro/, cliquez sur “Sun Cluster,” puis choisissez Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre grappe et télécharger les correctifs applicables.
Le site web SunSolveTM Online vous offre un accès permanent aux dernières mises à jour et versions des correctifs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et correctifs prises en charge.
Vous pouvez trouver des informations sur les correctifs de Sun Cluster 3.1 dans les Info Docs. Pour y accéder, connectez-vous à SunSolve et sélectionnez Simple search en haut de la page principale. Dans la page Simple Search, cliquez sur la boîte Info Docs et entrez Sun Cluster 3.1 dans le champ des critères de recherche. La page Info Docs du logiciel Sun Cluster 3.1 s'affiche.
Avant d'installer le logiciel Sun Cluster 3.1 et d'appliquer les correctifs à un élément de grappe (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les Info Docs et les fichiers README qui accompagnent les correctifs. Le même niveau de correctifs doit être appliqué à tous les noeuds de grappe pour permettre à celui-ci de fonctionner correctement.
Pour consultez les procédures propres aux correctifs et les conseils relatifs à leur administration, reportez-vous au Guide d'administration système de Sun Cluster 3.1.
Le logiciel Public Network Management (PNM) n'est pas pris en charge par Sun Cluster 3.1. Le contrôle et le basculement de l'adaptateur de réseau logiciel pour Sun Cluster sont donc accomplis par la fonction de multi-acheminement sur réseau IP de Solaris. Pour de plus amples informations, reportez-vous à la rubrique Nouveautés de Sun Cluster 3.1.
HAStorage risque de ne plus être pris en charge dans une version ultérieure du logiciel Sun Cluster. Des fonctions presque équivalentes sont toutefois prises en charge par HAStoragePlus. Exécutez une des procédures suivantes pour migrer de HAStorage vers HAStoragePlus.
HAStorage risque de ne plus être pris en charge dans une version ultérieure du logiciel Sun Cluster. Des fonctions équivalentes sont toutefois prises en charge par HAStoragePlus. Pour mettre à niveau HAStorage vers HAStoragePlus si vous utilisez des systèmes de fichiers de grappe ou des groupes de périphériques, procédez comme indiqué ci-dessous.
L'exemple suivant utilise une ressource HA-NFS simple, active avec HAStorage. Les ServicePaths correspondent au groupe de disques nfsdg et la propriété AffinityOn est définie sur TRUE. En outre, la Resource_Dependencies du service HA-NFS est définie sur la ressource HAStorage.
Supprimez les dépendances que les ressources d'application ont sur la ressource HAStorage.
# scrgadm -c -j nfsserver-rs -y Resource_Dependencies="" |
Désactivez la ressource HAStorage.
# scswitch -n -j nfs1storage-rs |
Supprimez la ressource HAStorage du groupe de ressources d'application.
# scrgadm -r -j nfs1storage-rs |
Désenregistrez le type de ressource HAStorage.
# scrgadm -r -t SUNW.HAStorage |
Enregistrez le type de ressource HAStoragePlus.
# scrgadm -a -t SUNW.HAStoragePlus |
Créez la ressource HAStoragePlus.
Entrez le texte suivant pour spécifier un point de montage pour le système de fichiers :
# scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \ SUNW.HAStoragePlus -x FilesystemMountPoints=/global/nfsdata -x \ AffinityOn=True |
Entrez le texte suivant pour spécifier les chemins des périphériques globaux :
# scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \ SUNW.HAStoragePlus -x GlobalDevicePaths=nfsdg -x AffinityOn=True |
au lieu d'utiliser la propriété ServicePaths pour HAStorage, vous devez utiliser les propriétés GlobalDevicePaths ou FilesystemMountPoints pour HAStoragePlus. La propriété d'extension FilesystemMountPoints doit correspondre à la séquence spécifiée dans le fichier /etc/vfstab .
Activez la ressource HAStoragePlus.
# scswitch -e -j nfs1-hastp-rs |
Définissez les dépendances entre le serveur d'application et HAStoragePlus.
# scrgadm -c -j nfsserver-rs -y \ Resource_Depencencies=nfs1=hastp-rs |
HAStorage risque de ne plus être pris en charge dans une version ultérieure de Sun Cluster. Des fonctions équivalentes sont toutefois prises en charge par HAStoragePlus. Pour mettre à niveau HAStorage vers HAStoragePlus à l'aide du FFS, procédez comme indiqué ci-dessous.
L'exemple suivant utilise un service NFS simple, actif avec HAStorage. Les ServicePaths correspondent au groupe de disques nfsdg et la propriété AffinityOn est définie sur TRUE. En outre, la Resource_Dependencies du service HA-NFS est définie sur la ressource HAStorage.
Supprimez les dépendances de la ressource d'application sur la ressource HAStorage.
# scrgadm -c -j nfsserver-rs -y Resource_Dependencies=""' |
Désactivez la ressource HAStorage.
# scswitch -n -j nfs1storage-rs |
Supprimez la ressource HAStorage du groupe de ressources d'application.
# scrgadm -r -j nfs1storage-rs |
Désenregistrez le type de ressource HAStorage.
# scrgadm -r -t SUNW.HAStorage |
Modifiez le fichier /etc/vfstab afin de supprimer l'indicateur global et modifiez mount at boot sur no. Cette action doit être effectuée sur tous les noeuds primaires potentiels du groupe de ressources.
Enregistrez le type de ressources HAStoragePlus.
# scrgadm -a -t SUNW.HAStoragePlus |
Créez la ressource HAStoragePlus.
Entrez le texte suivant pour spécifier un point de montage pour le système de fichiers :
# scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \ SUNW.HAStoragePlus -x FilesystemMountPoints=/global/nfsdata -x \ AffinityOn=True |
Entrez le texte suivant pour spécifier les chemins des périphériques globaux :
# scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \ SUNW.HAStoragePlus -x GlobalDevicePaths=nfsdg -x AffinityOn=True |
au lieu d'utiliser la propriété ServicePaths pour HAStorage, vous devez utiliser les propriétés GlobalDevicePaths ou FilesystemMountPoints pour HAStoragePlus. La propriété d'extension FilesystemMountPoints doit correspondre à la séquence spécifiée dans le fichier /etc/vfstab .
Déconnectez le groupe de ressources d'application.
# scswitch -F -g nfs1-rg |
Désactivez la ressource d'application.
# scswitch -n -j nfsserver-rs |
Démontez le système de fichiers CFS.
Activez la ressource HAStoragePlus.
# scswitch -e -j nfs1-hastp-rs |
Connectez le groupe de ressources d'applications à un hôte donné.
# scswitch -z -g nfs1-rg -h hostname |
Définissez les dépendances entre la ressource d'application et HAStoragePlus.
# scrgadm -c -j nfsserver-rs -y \ Resource_Depencencies=nfs1=hastp-rs |
Activez la ressource d'application.
# scswitch -e -j nfs1-hastp-rs |
Les composants du logiciel Sun Cluster sélectionnés sont localisés dans les langues suivantes :
Langue |
Composant Sun Cluster localisé |
---|---|
Français |
Installation Cluster Control Panel (panneau de contrôle de la grappe) Logiciel Sun Cluster Services de données de Sun Cluster Module Sun Cluster pour Sun Management Center SunPlex Manager |
Japonais |
Installation Cluster Control Panel (panneau de contrôle de la grappe) Logiciel Sun Cluster Services de données de Sun Cluster Module Sun Cluster pour Sun Management Center SunPlex Manager Pages de manuel de Sun Cluster Pages de manuel du Cluster Control Panel (CCP) Pages de manuel des messages des services de données Sun Cluster |
Chinois simplifié |
Module Sun Cluster pour Sun Management Center SunPlex Manager |
Chinois traditionnel |
Module Sun Cluster pour Sun Management Center (aide en ligne uniquement) SunPlex Manager (aide en ligne uniquement) |
Coréen |
Module Sun Cluster pour Sun Management Center (aide en ligne uniquement) SunPlex Manager (aide en ligne uniquement) |
Les rubriques suivantes fournissent des instructions sur l'installation des modules localisés de différents composants Sun Cluster :
Avant d'utiliser le CCP, vous devez installer les modules suivants sur votre console administrative, à l'aide de la commande pkgadd(1M).
Langue |
Nom du module |
Description du progiciel |
---|---|---|
Français |
SUNWfccon |
Console Sun Cluster française |
Japonais |
SUNWjccon |
Console Sun Cluster japonaise |
Chinois simplifié |
SUNWcccon |
Console Sun Cluster en chinois simplifié |
Pour utiliser l'utilitaire scinstall(1M) localisé pour l'installation du logiciel Sun Cluster 3.1, installez les modules suivants sur les noeuds de la grappe à l'aide de la commande pkgadd(1M) avant d'exécuter scinstall.
Langue |
Nom du module |
Description du progiciel |
---|---|---|
Français |
SUNWfsc |
Messages Sun Cluster en français |
Japonais |
SUNWjsc SUNWjscman |
Messages Sun Cluster en japonais Pages de manuel Sun Cluster en japonais |
Pour de plus amples informations sur l'utilisation de la version localisée de SunPlex Manager pour l'installation du logiciel Sun Cluster 3.1, reportez-vous à la rubrique SunPlex Manager.
Pour utiliser la version localisée de SunPlex Manager, les modules suivants doivent être installés sur les noeuds de la grappe.
Langue |
Nom |
Description du progiciel |
---|---|---|
Français |
SUNWfsc SUNWfscvw |
Messages Sun Cluster en français Aide en ligne de SunPlex Manager en français |
Japonais |
SUNWjsc SUNWjscvw |
Messages Sun Cluster en japonais Aide en ligne de SunPlex Manager en japonais |
Chinois simplifié |
SUNWcsc SUNWcscvw |
Messages Sun Cluster en chinois simplifié Aide en ligne de SunPlex Manager en chinois simplifié |
Chinois traditionnel |
SUNWhscvw |
Aide en ligne de SunPlex Manager en chinois traditionnel |
Coréen |
SUNWkscvw |
Aide en ligne de SunPlex Manager en coréen |
Après avoir installé les modules SunPlex Manager localisés, choisissez la langue dans le navigateur. Si vous utilisez Netscape, vous pouvez vérifier et modifier les langues du navigateur en suivant les étapes décrites ci-dessous :
Lancez Netscape.
Sélectionnez Edition> Préférences dans le menu principal.
Sélectionnez Navigateur> Langues dans la boîte de dialogue Préférences.
Cliquez sur Ajouter, puis choisissez la langue dans la boîte de dialogue Ajouter des langues.
Cliquez sur OK.
Pour utiliser la version localisée du module Sun Cluster pour Sun Management Center, installez les modules ci-dessous sur la couche du serveur Sun Management Center à l'aide de la commande pkgadd(1M).
Langue |
Nom du module |
Description du progiciel |
---|---|---|
Français |
SUNWfscssv |
Ajout serveur SyMON Sun Cluster en français |
Japonais |
SUNWjscssv |
Ajout serveur SyMON Sun Cluster en japonais |
Chinois simplifié |
SUNWcscssv |
Ajout serveur SyMON Sun Cluster en chinois simplifié |
Pour utiliser l'aide en ligne localisée du module Sun Cluster pour Sun Management Center, installez les modules ci-dessous sur la couche de la console Sun Management Center à l'aide de la commande pkgadd(1M).
Langue |
Nom du module |
Description du progiciel |
---|---|---|
Français |
SUNWfscshl |
Modules SyMON Sun Cluster en français |
Japonais |
SUNWjscshl |
Modules SyMON Sun Cluster en japonais |
Chinois simplifié |
SUNWcscshl |
Modules SyMON Sun Cluster en chinois simplifié |
Chinois traditionnel |
SUNWhscshl |
Modules SyMON Sun Cluster en chinois traditionnel |
Coréen |
SUNWkscshl |
Modules SyMON Sun Cluster en coréen |
Les modules de localisation Sun Cluster ci-dessous s'installent automatiquement sur le noeud de la grappe lors de l'installation ou de la mise à niveau vers Sun Cluster 3.1.
Langue |
Nom du module |
Description du progiciel |
---|---|---|
Français |
SUNWfsc |
Messages Sun Cluster en français |
Japonais |
SUNWjsc SUNWjscman |
Messages Sun Cluster en japonais Pages de manuel Sun Cluster en japonais |
Chinois simplifié |
SUNWcsc |
Messages Sun Cluster en chinois simplifié |
Lorsque vous installez ou mettez à niveau vers Sun Cluster 3.1, les modules de localisation des services de données que vous avez sélectionnés s'installent automatiquement. Pour de plus amples informations, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.
L'ensemble de la documentation utilisateur Sun Cluster 3.1 est disponible aux formats PDF et HTML sur le CD Sun Cluster 3.1 et le CD Sun Cluster 3.1 Agents. Vous n'avez pas besoin du logiciel serveur AnswerBook2TM pour lire la documentation Sun Cluster 3.1. Pour de plus amples informations, consultez le fichier index.html au niveau supérieur des CD. Ce fichier vous permet de lire les manuels PDF et HTML directement à partir du disque et d'accéder aux instructions concernant l'installation des modules de documentation.
vous devez installer le module SUNWsdocs avant d'installer tout module Sun Cluster. Vous pouvez utiliser pkgadd pour installer le module SUNWsdocs à partir du répertoire SunCluster_3.1/Sol_ N/Packages/ du CD Sun Cluster 3.1, où N est soit 8 pour Solaris 8, soit 9 pour Solaris 9. Le module SUNWsdocs s'installe automatiquement lorsque vous exécutez le programme d'installation du CD de documentation de Solaris 9.
La documentation Sun Cluster 3.1 est composée des collections ci-dessous.
La Sun Cluster 3.1 Software Collection, qui comprend les manuels suivants :
Sun Cluster 3.1 Concepts Guide
Sun Cluster 3.1 Data Services Developer's Guide
Sun Cluster 3.1 Error Messages Guide
La Sun Cluster 3.x Hardware Administration Collection, qui comprend les manuels suivants :
Sun Cluster 3.x Hardware Administration Manual
Sun Cluster 3.x With Sun StorEdge 3310 Array Manual
Sun Cluster 3.x With Sun StorEdge 3900 or 6900 Series System Manual
Sun Cluster 3.x With Sun StorEdge 9900 Series Storage Device Manual
Sun Cluster 3.x With Sun StorEdge A1000 or Netra st A1000 Array Manual
Sun Cluster 3.x With Sun StorEdge A3500/A3500FC System Manual
Sun Cluster 3.x With Sun StorEdge A5x00 Array Manual
Sun Cluster 3.x With Sun StorEdge D1000 or Netra st D1000 Disk Array Manual
Sun Cluster 3.x With Sun StorEdge D2 Array Manual
Sun Cluster 3.x With Sun StorEdge MultiPack Enclosure Manual
Sun Cluster 3.x With Sun StorEdge Netra D130 or StorEdge S1 Enclosure Manual
La Sun Cluster 3.1 Reference Collection, qui comprend le manuel suivant :
La Sun Cluster 3.1 Data Services Collection : pour obtenir une liste des manuels appartenant à cette collection, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.
En outre, le site web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur l'internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.
Cette rubrique détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.
Cette rubrique traite des erreurs connues ou des omissions contenues dans le Guide d'installation du logiciel Sun Cluster 3.1.
Dans le Guide d'installation du logiciel Sun Cluster 3.1, l'énoncé ci-dessous relatif aux périphériques de quorum est incorrect :
Connexion : ne connectez jamais un périphérique de quorum à plus de deux noeuds.
L'énoncé correct est le suivant :
Connexion : un périphérique de quorum doit être connecté à au moins deux noeuds.
Lorsque vous utilisez la commande scvxinstall pour installer VERITAS Volume Manager (VxVM), il n'est désormais plus nécessaire d'ajouter le noeud à la liste d'authentification des noeuds de la grappe. Lorsque vous utilisez les procédures décrites dans « Installation du logiciel VERITAS Volume Manager et d'encapsulage du disque racine » ; ou « Installation du logiciel VERITAS Volume Manager uniquement », ignorez l'étape 3, « Ajoutez tous les noeuds de la grappe dans la liste d'authentification des noeuds ».
Dans “Mise à niveau du ligiciel Sun Cluster” dans Guide d'installation du logiciel Sun Cluster 3.1, la procédure affirme que si vous faites une mise à niveau depuis le logiciel Sun Cluster 3.0 5/02, il est possible d'utiliser l'utilitaire scsetup au lieu de la commande scswitch pour désactiver les ressources. Cette affirmation est fausse et doit être ignorée.
Une remarque figurant dans la procédure d'installation des services de données Oracle est incorrecte.
Incorrect :
Remarque : en l'absence de valeurs en face des variables shmsys et semsys dans le fichier /etc/system, une fois les modules de SunPlex Manager installés, des valeurs par défaut sont automatiquement appliquées à ces variables dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.
Correct :
Remarque : en l'absence de valeurs en face des variables shmsys et semsys, dans le fichier /etc/system, l'installation du service de données Oracle permet une insertion automatique des valeurs par défaut dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.
Cette rubrique traite des erreurs et omissions contenues dans le Sun Cluster 3.1 System Administration Guide.
Les groupes de disques racine simples ne sont pas pris en charge en tant que type de disques par VERITAS Volume Manager sur le logiciel Sun Cluster. Ainsi si vous suivez les directives de la rubrique « Restauration d'un système de fichiers racine (/) non encapsulé (VERITAS Volume Manager) » du Sun Cluster 3.1 System Administration Guide, vous devez ignorer l'étape 9, qui vous demande de déterminer si le groupe de disques racine (rootdg) est sur une seule tranche du disque racine. Suivez les étapes de 1 à 8, passez l'étape 9, et continuez avec l'étape 10 jusqu'à la fin de la procédure.
Lorsque vous augmentez ou diminuez le nombre de noeuds reliés à un périphérique de quorum, le nombre de votes de quorum n'est pas recalculé automatiquement. Vous pouvez rétablir le nombre de votes correct en retirant tous les périphériques de quorum puis en les rajoutant à la configuration.
Les erreurs et omissions relatives à la documentation des services de données sont décrites dans les Sun Cluster 3.1 Data Service 5/03 Release Notes.
Pour afficher la page de manuel relative aux services de données Sun Cluster 3.0, installez les derniers correctifs appliqués au logiciel Sun Cluster 3.1 pour ces services de données. Reportez-vous à la rubrique Correctifs et niveaux de microprogrammes requis pour de plus amples informations.
Après avoir appliqué le correctif, accédez aux pages d'aide en ligne des services de données Sun Cluster 3.0 en exécutant la commande man -M avec le chemin d'accès entier à la page de manuel comme argument. L'exemple suivant permet d'ouvrir la page de manuel relative à Apache.
% man -M /opt/SUNWscapc/man SUNW.apache |
Envisagez d'exporter votre MANPATH pour activer l'accès aux pages de manuel des services de données Sun Cluster 3.0 sans spécifier le chemin complet. L'exemple suivant décrit l'entrée de commande permettant d'ajouter le chemin des pages de manuel d' Apache à votre MANPATH et d'afficher ces pages.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |
La page de manuel scconf_transp_adap_wrsm(1M) remplace la page de manuel scconf_transp_adap_wrsm(1M) existante.
NOM
scconf_transp_adap_wrsm.1m- configure l'adaptateur de transport wrsm
DESCRIPTION
Les adaptateurs wrsm peuvent être configurés comme des adaptateurs de transport de grappe. Ces adaptateurs ne peuvent être utilisés qu'avec des dispositifs de transport de type dlpi .
L'adaptateur wrsm est connecté à une jonction de transport ou à un autre adaptateur wrsm sur un noeud différent. Dans tous les cas, la connexion est établie par le biais d'un câble de transport.
Bien qu'il soit possible de connecter les adaptateurs wrsm directement à l'aide de configurations point à point, le logiciel Sun Cluster requiert la spécification d'une jonction de transport, d'une jonction de transport virtuelle. Par exemple, si node1:wrsm1 est directement connecté à node2:wsrm1 par le biais d'un câble, vous devez spécifier les informations de configuration suivantes :
node1:wrsm1 <--cable1--> Transport Junction sw_wrsm1 <--cable2--> node2:wrsm1 |
La jonction de transport, qu'elle soit un commutateur virtuel ou matériel, doit avoir un nom spécifique. Ce nom doit être sw_wrsm N où l'adaptateur correspond à wrsm N. Cette contrainte est due à une restriction de Wildcat qui requiert que tous les contrôleurs wrsm sur un même réseau Wildcat aient le même numéro d'instance.
Si vous utilisez une jonction de transport et si les extrémités du câble de transport sont configurées à l'aide de scconf, scinstall, ou d'un autre outil, on vous demande de spécifier un nom de port sur la jonction de transport. Vous pouvez donner n'importe quel nom de port, ou accepter le nom par défaut, dans la mesure où il est unique pour la jonction de transport.
Le nom par défaut définit le nom du port avec l'ID du noeud qui héberge l'adaptateur à l'autre extrémité du câble.
Reportez-vous à scconf(1M) pour obtenir plus de détails sur la configuration.
Il n'y a pas de propriétés configurables par l'utilisateur pour les adaptateurs de transport de grappe de ce type.
VOIR AUSSI
scconf(1M), scinstall(1M), wrsmconf(1M), wrsmstat(1M), wrsm(7D), wrsmd(7D)
La page d'aide scconf_transp_adap_sci(1M) affirme que les adaptateurs de transport SCI peuvent être utilisés avec le type de transport rsm. Cette affirmation est incorrecte. Les adaptateurs de transportSCI ne prennent pas en charge les dispositifs de transport de type rsm. Les adaptateurs de transport SCI ne prennent en charge que le type de transport dlpi.
La phrase ci-dessous permet de clarifier le nom d'un adaptateur SCI–PCI. Actuellement, cette information ne figure pas dans la page de manuel scconf_transp_adap_sci (1M).
Nouvelles informations :
Utilisez le nom sciN pour spécifier un adaptateur SCI.
Le paragraphe ci-dessous clarifie le comportement de la commande scgdevs. Actuellement, ces informations ne figurent pas dans la page de manuel scgdevs(1M).
Nouvelles informations :
Si vous appelez la commande scgdevs(1M) à partir du noeud local, celle-ci effectue sa tâche de manière asynchrone sur les noeuds distants. Par conséquent, la fin de l'action de la commande sur le noeud local ne signifie pas nécessairement que celle-ci a terminé sa tâche dans toute la grappe.
Il y a une erreur dans la rubrique Nom. Cette rubrique devrait avoir le libellé suivant :
Implémentations de type de ressources sap_ci, SUNW.sap_ci et SUNW.sap_ci_v2 pour l'instance centrale Sun Cluster HA pour SAP.
Il y a une erreur dans la rubrique Description. Cette rubrique devrait avoir le libellé suivant :
Le RGM (Resource Group Manager) gère le service de données SAP du logiciel Sun Cluster. Configurez l'instance centrale Sun Cluster HA pour SAP en tant que ressource de nom d'hôte logique et ressource d'instance centrale SAP.
Il y a une erreur dans la rubrique Nom. Cette rubrique devrait avoir le libellé suivant :
Implémentation de type de ressource sap_as, SUNW.sap_as pour Sun Cluster HA for SAP en tant que services de données de reprise sur panne.
Implémentations de type de ressources sap_as, SUNW.sap_as_v2 for Sun Cluster HA pour SAP en tant que service de données à la carte ou de reprise sur panne.
Il y a une erreur dans la rubrique Description. Cette rubrique devrait avoir le libellé suivant :
Le RGM (Resource Group Manager) gère le service de données SAP du logiciel Sun Cluster. Si vous configurez le serveur d'application Sun Cluster HA pour SAP comme service de données de basculement, configurez-le en tant que ressource de nom d'hôte logique et ressource de serveur d'application SAP. Si vous configurez Sun Cluster HA pour serveur d'application SAP en tant que service de données à la carte, configurez-le comme ressource de serveur d'application SAP à la carte.
La nouvelle propriété de groupe de ressources suivante doit être ajoutée à la page de manuel rg_properties(5).
Auto_start_on_new_cluster
Cette propriété vérifie que le Resource Group Manager lance automatiquement le groupe de ressources lors de la formation d'une nouvelle grappe.
La valeur par défaut est TRUE. En cas de configuration sur TRUE, le Resource Group Manager essaie de lancer le groupe de ressources automatiquement afin d'obtenir les Desired_primaries lors de la réinitialisation simultanée de l'ensemble des noeuds de la grappe. S'il est défini sur FALSE, le groupe de ressources ne démarre pas automatiquement lorsque la grappe est réinitialisée. Le groupe de ressources reste déconnecté jusqu'au moment où il est mis en ligne manuellement pour la première fois à l'aide de la commande scswitch (1M). Après cela, il retrouvera un comportement de basculement normal.
Catégorie : Défaut : True Réglable :à tout moment
Dans cette version, la valeur de la API_version actuelle qui était de 2 auparavant a été augmentée à 3. Pour éviter qu'un type de ressource ne soit enregistré sur une version antérieure du logiciel Sun Cluster, annoncez API_version=3. Pour de plus amples informations, reportez-vous à rt_reg (4) et rt_properties (5).