Notes de version de Sun Cluster 3.1

Notes de version de Sun Cluster 3.1

Ce document fournit les informations suivantes relatives au logiciel SunTM Cluster 3.1.


Remarque :

pour de plus amples informations concernant les services de données de Sun Cluster 3.1, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.


Nouveautés de Sun Cluster 3.1

Cette rubrique présente les nouvelles fonctions et fonctionnalités ainsi que les nouveaux produits pris en charge par Sun Cluster 3.1.

Nouvelles fonctions et fonctionnalités

Sun Cluster Security Hardening

Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrintsTM, afin de renforcer la sécurité de base des grappes. Solaris Security Toolkit assure la mise en oeuvre automatique de Sun Cluster Security Hardening.

La documentation relative à Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/blueprints/0203/817-1079.pdf . Vous pouvez aussi y accéder depuis http://wwws.sun.com/software/security/blueprints. À partir de cet URL, faites dérouler le texte jusqu'à l'en-tête Architecture afin de localiser l'article “Securing the Sun Cluster 3.x Software”. La documentation décrit la procédure de sécurisation des déploiements de Sun Cluster 3.1 dans un environnement Solaris 8 et Solaris 9. L'utilisation de Solaris Security Toolkit et d'autres techniques de sécurité de pointe conseillées par les experts de Sun y sont également décrites.

Topologies flexibles

Le logiciel Sun Cluster 3.1 prend désormais en charge les topologies ouvertes. Vous n'êtes plus limité aux topologies de stockage décrites dans le document Sun Cluster 3.1 Concepts.

Reportez-vous aux instructions ci-après pour configurer votre grappe.

Grappes sans disque

Sun Cluster 3.1 prend désormais en charge des configurations de grappes à plus de trois noeuds sans périphériques de stockage partagés. Il est toujours nécessaire que les grappes à deux noeuds aient un périphérique de stockage partagé afin de maintenir le quorum. Ce périphérique de stockage n'a besoin d'avoir aucune autre fonction.

Prise en charge de la configuration de projets de services de données

Des services de données peuvent désormais être configurés de façon à être lancés sous un nom de projet Solaris au moment de leur mise en ligne à l'aide du gestionnaire du groupe de ressources (RGM). Reportez-vous à la rubrique “Data Service Project Configuration” du “Key Concepts for Administration and Application Development” in Sun Cluster 3.1 Concepts Guide pour obtenir des informations détaillées sur la planification de la configuration de projets pour vos services de données.

Prise en charge de la mise en oeuvre Solaris du multi-acheminement sur réseau IP sur les réseaux publics

Pour de plus amples informations sur la prise en charge de la mise en oeuvre Solaris du multi-acheminement sur réseau IP sur les réseaux publics, reportez-vous aux rubriques “Planification de la configuration Sun Cluster” du Guide d'installation du logiciel Sun Cluster 3.1 et “Administration du réseau public” du Guide d'administration système de Sun Cluster 3.1.

Définition des noeuds secondaires d'un groupe de périphériques de disques

Pour de plus amples informations sur la définition du nombre de noeuds secondaires pour un groupe de périphériques de disques, veuillez consulter la rubrique “Administration des groupes de périphériques de disques” dans Guide d'administration système de Sun Cluster 3.1 (reportez-vous aux procédures de configuration du nombre souhaité de noeuds secondaires et de changement des propriétés des périphériques de disques). Vous trouverez aussi des informations complémentaires à la rubrique “Cluster Administration and Application Development” in Sun Cluster 3.1 Concepts Guide (reportez-vous à la rubrique portant sur les basculements de disques multi-ports).

Services de données

Pour de plus amples informations sur les améliorations apportées aux services de données, reportez-vous à la rubrique “What's New in Sun Cluster 3.1 Data Services 5/03” in Sun Cluster 3.1 Data Service 5/03 Release Notes.

Produits pris en charge

Cette rubrique décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.1.

Restrictions

Les restrictions suivantes s'appliquent à la version Sun Cluster 3.1 :

Restrictions liées aux services et aux applications

Restrictions liées au matériel

Restrictions liées au gestionnaire de volumes

Restrictions liées au système de fichiers de grappes

Restrictions liées à VxFS

Restrictions liées au multi-acheminement sur réseau IP

Cette rubrique décrit les restrictions liées à l'utilisation du multi-acheminement sur réseau IP s'appliquant à un environnement Sun Cluster 3.1 exclusivement, ou n'étant pas référencées dans les informations fournies dans la documentation Solaris pour le multi-acheminement sur réseau IP.

La plupart des procédures, instructions et restrictions définies dans la documentation Solaris pour le multi-acheminement sur réseau IP sont les mêmes pour les environnements grappe et non-grappe. Par conséquent, consultez le document Solaris approprié pour de plus amples informations sur les restrictions liées au multi-acheminement sur réseau IP.

Version de l'environnement d'exploitation 

Pour les instructions, voir... 

Environnement d'exploitation Solaris 8 

IP Network Multipathing Administration Guide

Environnement d'exploitation Solaris 9 

“ IP Network Multipathing Topics” dans le System Administration Guide : IP Series

Restrictions liées aux services de données

Aucune restriction ne s'applique à l'ensemble de services de données. Pour de plus amples informations sur les restrictions s'appliquant à des services de données spécifiques, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.

Exécution de Sun Cluster HA pour Oracle 3.0 sur Sun Cluster 3.1

Le service de données Sun Cluster HA pour Oracle 3.0 peut fonctionner sur Sun Cluster 3.1 uniquement s'il est utilisé avec les versions suivantes de l'environnement d'exploitation Solaris :

Problèmes connus et bogues

Les problèmes connus et les bogues ci-après concernent la version Sun Cluster 3.1. Pour connaître les informations les plus récentes, consultez le Sun Cluster 3.x Release Notes Supplement à l'adresse http://docs.sun.com.

État Largefile incorrect (4419214)

Récapitulatif du problème : le fichier /etc/mnttab n'indique pas l'état largefile actuel d'un système de fichiers VxFS monté globalement.

Solution : pour vérifier l'état largefile du système de fichier, utilisez la commande fsadm plutôt que l'entrée /etc/mnttab.

Le système de fichiers VxFS global ne répertorie pas les mêmes allocations de blocs que le système de fichiers local VxFS (4449437)

Récapitulatif du problème : pour une taille de fichier donnée, le système de fichiers VxFS global semble allouer plus de blocs de disques que le système de fichiers local VxFS.

Solution : en démontant puis remontant le système de fichiers, vous éliminerez les blocs de disques supplémentaires indiqués comme étant alloués à ce fichier.

Noeuds incapables d'activer les chemins qfe (4526883)

Récapitulatif du problème : il arrive que les chemins de transport d'interconnexion privée finissant par un adaptateur qfe ne parviennent pas à se mettre en ligne.

Solution : suivez les étapes indiquées ci-dessous.

  1. Identifiez l'adaptateur défectueux à l'aide de scstat -W. Le résultat affichera tous les chemins de transport avec cet adaptateur comme l'une des extrémités du chemin à l'état faulted ou waiting.

  2. Utilisez la commande scsetup pour supprimer de la configuration de la grappe tous les câbles connectés à cet adaptateur.

  3. Utilisez à nouveau la commande scsetup pour supprimer cet adaptateur de la configuration de la grappe.

  4. Replacez l'adaptateur et les câbles.

  5. Vérifiez que les chemins apparaissent. Si le problème persiste, répétez plusieurs fois les étapes 1 à 5.

  6. Vérifiez que les chemins apparaissent. Si le problème persiste toujours, réinitialisez le noeud où se trouve l'adaptateur défectueux. Avant de réinitialiser le noeud, assurez-vous que le reste de la grappe a suffisamment de votes de quorum pour résister à la réinitialisation du noeud.

Blocs de fichiers non mis à jour après les opérations d'écritures sur les trous du fichier fragmenté (4607142)

Récapitulatif du problème : le nombre de blocs de fichiers n'est pas toujours consistant sur des noeuds de grappe après les opérations d'écriture d'allocation de blocs dans un fichier fragmenté. Pour un système de fichiers de grappes en couches sur UFS (ou VxFS 3.4), l'inconsistance du bloc sur plusieurs noeuds de grappe disparaît au bout de 30 secondes environ.

Solution : les opérations de métadonnée de fichier actualisant l'inode (touch, etc.) doivent synchroniser la valeur st_blocks afin que les opérations de métadonnée qui suivent assurent des valeurs st_blocks consistantes.

Risques d'erreurs graves dus à l'utilisation concurrente de forcedirectio et mmap (2) (4629536)

Récapitulatif du problème : l'utilisation simultanée de l'option de montage forcedirectio et de la fonction mmap(2) peut entraîner la corruption de données, l'arrêt du système ou des erreurs graves.

Solution : respectez les restrictions ci-dessous.

Si vous devez utiliser directio, montez l'ensemble du système de fichiers avec les options directio.

Échec du démontage d'un système de fichiers (4656624)

Récapitulatif du problème : il arrive que le démontage d'un système de fichiers de grappes échoue, même si la commande fuser indique qu'il n'y a aucun utilisateur sur les noeuds.

Solution : relancez le remontage après que toutes les E/S asynchrones vers le système de fichiers sous-jacent ont été effectuées.

État inactif des noeuds après une réinitialisation (4664510)

Récapitulatif du problème : après l'arrêt de l'un des tableaux Sun StorEdge T3 et de l'exécution de scshutdown, la réinitialisation des deux noeuds place la grappe à l'état inactif.

Solution : en cas de perte de la moitié des répliques, procédez comme indiqué ci-dessous.

  1. Assurez-vous que la grappe est en mode grappe.

  2. Importez obligatoirement l'ensemble de disques.


    # metaset -s set-name -f -C take
    
  3. Supprimez les répliques endommagées.


    # metadb -s set-name -fd /dev/did/dsk/dNsX
    
  4. Libérez l'ensemble de disques.


    # metaset -s set-name -C release
    

    Vous pouvez à présent monter et utiliser le système de fichiers. Néanmoins, vous n'avez pas restauré la redondance dans les répliques. En cas de perte de la seconde moitié des répliques, vous ne pourrez pas restaurer l'état de bon fonctionnement du miroir.

  5. Recréez les bases de données après l'application de la procédure de réparation décrite ci-dessus.

Erreur grave due à la séparation d'un plex d'un groupe de disques (4657088)

Récapitulatif du problème : la dissociation ou séparation d'un plex d'un groupe de disques sous Sun Cluster peut entraîner une erreur grave au niveau du noeud de grappe avec les chaînes d'erreur suivantes :

panic[cpu2]/thread=30002901460: BAD TRAP: type=31 rp=2a101b1d200 addr=40 mmu_fsr=0 occurred in module "vxfs" due to a NULL pointer dereference

Solution : avant de dissocier ou de détacher un plex d'un groupe de disques, démontez les systèmes de fichiers correspondants.

Échec de scvxinstall -i pour l'installation d'une clé de licence (4706175)

Récapitulatif du problème : la commande scvxinstall -i accepte une clé de licence avec l'option -L. Cependant, la clé est ignorée et n'est pas installée.

Solution : ne fournissez pas de clé de licence sous la forme -i de scvxinstall, elle ne sera pas installée. Les clés de licence doivent être installées de façon interactive ou à l'aide de l'option -e. Avant de procéder à l'encapsulage de la racine, examinez les conditions de licence et fournissez les clés requises à l'aide de l'option -e ou de façon interactive.

Échec de Sun Cluster HA–Siebel pour contrôler des composants Siebel (4722288)

Récapitulatif du problème : l'agent Sun Cluster HA-Siebel ne contrôle pas les composants Siebel individuels. En cas de détection d'une panne sur un composant Siebel, seul un message d'avertissement est consigné dans syslog.

Solution : redémarrez le groupe de ressources du serveur Siebel sur lequel les composants sont déconnectés à l'aide de la commande scswitch -R -h noeud-g groupe_ressources .

Échec du script remove pour désenregistrer le type de ressources SUNW.gds (4727699)

Récapitulatif du problème : le script remove ne parvient pas à désenregistrer le type de ressources SUNW.gds et affiche le message indiqué ci-dessous.


Le type de ressources a déjà été désenregistré.

Solution : après avoir utilisé le script remove, désenregistrez manuellement SUNW.gds. Vous pouvez aussi utiliser la commande scsetup ou SunPlex Manager.

Écrasement de hostname.int par l'option "Create IPMP group" (4731768)

Récapitulatif du problème : l'option Create IPMP group de SunPlex Manager ne peut être utilisée qu'avec des adaptateurs qui ne sont pas déjà configurés. Si un adaptateur est déjà configuré avec une adresse IP, il doit être configuré manuellement pour IPMP.

Solution : l'option Create IPMP Group de SunPlex Manager ne doit être utilisée qu'avec des adaptateurs qui ne sont pas déjà configurés. Si un adaptateur est déjà configuré avec une adresse IP, il doit être configuré manuellement à l'aide des outils de gestion IPMP de Solaris.

Risque d'erreur grave au niveau des noeuds dû à l'utilisation de la commande Solaris shutdown (4745648)

Récapitulatif du problème : l'utilisation de la commande Solaris shutdown ou de commandes similaires (par exemple, uadmin) pour désactiver un noeud de grappe peut entraîner une erreur grave au niveau des noeuds, et l'affichage du message suivant :

CMM: Shutdown timer expired. Halting.

Solution : demandez l'assistance de votre représentant Sun. Cette erreur grave est nécessaire, elle permet à un autre noeud de la grappe de reprendre en toute sécurité les services qui étaient hébergés par le noeud désactivé.

Échec de la commande d'administration pour l'ajout d'un périphérique de quorum à la grappe (4746088)

Récapitulatif du problème : même si une grappe a le nombre minimum de votes requis pour un quorum, une commande d'administration pour l'ajout d'un périphérique de quorum à la grappe échoue, et le message ci-dessous s'affiche.

Cluster could lose quorum

.

Solution : demandez l'assistance de votre représentant Sun.

Temporisation de chemin lors de l'utilisation d'adaptateurs ce sur l'interconnexion privée (4746175)

Récapitulatif du problème : les grappes utilisant des adaptateurs ce sur l'interconnexion privée peuvent rencontrer des problèmes temporisations de chemin suivis d'erreurs graves de noeud, si un ou plusieurs noeuds ont plus de quatre processeurs.

Solution : définissez le paramètre ce_taskq_disable dans le gestionnaire ce en ajoutant set ce:ce_taskq_disable=1 au fichier /etc/system sur tous les noeuds de la grappe, puis réinitialisez les noeuds. Cela permet de toujours envoyer les pulsations (et autres paquets) dans le contexte de l'interruption, et d'éliminer les problèmes de temporisation de chemins suivis d'erreurs graves. Prenez en considération les indications du Quorum lors de la réinitialisation des noeuds.

Temporisation de la sonde de la passerelle Siebel en cas d'échec d'un réseau public (4764204)

Récapitulatif du problème : l'échec d'un réseau public peut provoquer la temporisation de la sonde de la passerelle Siebel et finir par mettre la ressource de la passerelle Siebel hors ligne. Cela peut arriver si le chemin du noeud sur lequel s'exécute la passerelle Siebel commence par /home, qui dépend de ressources réseau telles que NFS et NIS. Sans le réseau public, la sonde de la passerelle Siebel s'interrompt tandis qu'elle tente d'ouvrir un fichier à partir de /home, ce qui provoque sa temporisation.

Solution : suivez les étapes qui suivent pour tous les noeuds pouvant héberger la passerelle Siebel.

  1. Assurez-vous que les entrées passwd, group, et project de /etc/nsswitch.conf ne font référence qu'à des fichiers, et pas à des nis.

  2. Assurez-vous qu'il n'y a aucune dépendance NFS ou NIS pour tout chemin commençant par /home.

    Vous pouvez soit monter localement le chemin /home, soit remplacer le point de montage /home par /export/home ou tout autre nom ne commençant pas par /home.

  3. Dans le fichier /etc/auto_master, mettez à l'écart la ligne contenant l'entrée +auto_master. Mettez également à l'écart toute entrée /home qui utilise auto_home.

  4. Dans etc/auto_home, mettez à l'écart la ligne contenant +auto_home.

Interruption des communications entre adresses IP logiques pour chaque noeud dû au vidage de routes avec passerelles (4766076)

Récapitulatif du problème : pour être en mesure de fournir, pour chaque noeud, des communications à haute disponibilité entre adresses IP logiques via une interconnexion privée, le logiciel Sun Cluster utilise des routes avec passerelles sur les noeuds de grappe. Le vidage des routes avec passerelles interrompt les communications entre adresses IP logiques pour chaque noeud.

Solution : réinitialisez les noeuds sur lesquels des routes ont été vidées par inadvertance. Pour restaurer des routes avec passerelles, il suffit de réinitialiser les noeuds de grappe un par un. Les communications entre adresses IP logiques pour chaque noeud restent interrompues tant que les routes n'ont pas été restaurées. Prenez en considération les indications du Quorum lors de la réinitialisation des noeuds.

Erreur due à un échec de basculement (4766781)

Récapitulatif du problème : un échec de basculement ou de commutation d'un système de fichiers peut générer une erreur.

Solution : démontez puis remontez le système de fichiers.

Risque d'altération de données dû à l'activation de la fonction TCP-Selective Acknowledgments (4775631)

Récapitulatif du problème : l'activation de TCP-selective acknowledgements (accusés de réception sélectifs) sur des noeuds de grappe peut entraîner l'altération de données.

Solution : aucune intervention n'est requise. Pour éviter l'altération de données sur le système de fichiers global, ne réactivez pas TCP selective acknowledgements sur les noeuds de la grappe.

scinstall affiche à tort que certains services de données ne sont pas pris en charge (4776411)

Récapitulatif du problème : scinstall affiche à tort que les services de données indiqués ci-dessous ne sont pas pris en charge par Solaris 9.

Solution : Solaris 8 et 9 prennent en charge Sun Cluster HA pour SAP et Sun Cluster HA pour SAP liveCache. Ignorez la liste des fonctions non prises en charge de scinstall.

scdidadm affiche une erreur si /dev/rmt (4783135) est manquant

Récapitulatif du problème : l'implémentation actuelle de scdidadm(1M) dépend de la présence de /dev/rmt et /dev/(r)dsk pour exécuter correctement scdiadm -r. Solaris les installe tous les deux, sans tenir compte de la présence des périphériques de stockage sous-jacents réels. Si /dev/rmt est manquant, scdidadm affiche l'erreur suivante :

Cannot walk /dev/rmt" during execution of 'scdidadm -r

.

Solution : sur chaque noeud où /dev/rmt est manquant, utilisez mkdir pour créer un répertoire /dev/rmt. Exécutez ensuite scgdevs à partir d'un noeud.

Altération de données lors de la panne d'un noeud entraînant l'arrêt du noeud primaire du système de fichiers de grappe(4804964)

Récapitulatif du problème : l'altération de données peut se produire sur les systèmes Sun Cluster 3.x exécutant les correctifs 113454-04, 113073-02 et 113276-02 (ou un sous-ensemble de ces correctifs). Ce problème ne survient qu'avec les systèmes de fichiers UFS montés globalement. L'altération de données se traduit par la disparition de certaines données (des zéros apparaissent là où devraient figurer des données), et le nombre de données manquantes est toujours le multiple d'un bloc de disques. Une perte de données peut se produire dès que la panne d'un noeud entraîne l'arrêt du noeud primaire du système de fichiers peu de temps après que le fichier systemclient a accompli (ou rapporte qu'il a accompli) une opération d'écriture. La période de vulnérabilité est limitée et n'est pas systématique.

Solution : utilisez l'option de montage -o syncdir pour obliger les systèmes de fichiers UFS à utiliser des transactions de journaux UFS synchrones.

Interruption des noeuds après initialisation lorsque la commutation est en cours (4806621)

Récapitulatif du problème : si la commutation d'un groupe de périphériques est en cours au moment où un noeud rejoint la grappe, la jonction du noeud et l'opération de commutation risquent de s'interrompre. Toute tentative d'accès à un service du périphérique s'interrompra également. Ce problème est plus susceptible de se produire si la grappe comporte plus de deux noeuds, et si le système de fichiers monté sur le périphérique est un système de fichiers VxFS.

Solution : pour éviter cette situation, ne lancez pas de basculement de groupes de périphériques au moment où un noeud rejoint la grappe. Si vous rencontrez ce problème, réinitialisez tous les noeuds de la grappe pour restaurer l'accès aux groupes de périphériques.

Erreur grave sur un système de fichiers lorsque le système de fichiers de la grappe est plein (4808748)

Récapitulatif du problème : lorsqu'un système de fichiers de grappe est plein, dans certains cas des erreurs graves peuvent survenir sur ce système de fichiers, et l'un des messages indiqués ci-dessous s'affiche. 1)

assertion failed: cur_data_token & PXFS_WRITE_TOKEN or PXFS_READ_TOKEN

ou 2)

vp->v_pages == NULL

. Ces erreurs graves permettent d'éviter l'altération de données lorsqu'un système de fichiers est plein.

Solution : pour réduire les risques d'apparition de ce problème, utilisez dans la mesure du possible un système de fichiers de grappe avec UFS. Il est extrêmement rare qu'une de ces erreurs graves surviennent lorsqu'on utilise un système de fichiers de grappe avec UFS ; le risque est en revanche plus grand si on utilise un système de fichiers de grappes avec VxFS.

Interruption des noeuds de grappe lors de l'initialisation (4809076)

Récapitulatif du problème : lorsque la demande de commutation d'un service de périphérique, à l'aide de scswitch -z -D <device-group> -h <node> , est concurrente à la réinitialisation d'un noeud et que des systèmes de fichiers globaux sont configurés sur le service de périphérique, le système de fichiers global risque de devenir indisponible et les modifications ultérieures de la configuration impliquant tout service de périphérique ou système de fichiers global risquent aussi de s'interrompre, tout comme les jonctions de noeuds de grappe ultérieures.

Solution : pour reprendre, vous devez réinitialiser tous les noeuds de la grappe.

Erreur grave de la grappe dû au retrait d'un périphérique de quorum à l'aide de scconf -rq (4811232)

Récapitulatif du problème : si vous exécutez la commande scconf -rq pour supprimer un périphérique de quorum dans une configuration vulnérable, tous les noeuds de la grappe connaîtront un état d'erreur grave avec le message ci-dessous.

CMM lost operational quorum

.

Solution : avant de supprimer un périphérique de quorum d'une grappe, vérifiez le résultat de scstat -q. Si le périphérique de quorum est répertorié dans la colonne Present comme ayant plus d'un vote, il doit alors d'abord être mis en mode maintenance à l'aide de scconf -cq globaldev=QD,maintstate. Une fois que la commande est terminée et que le périphérique de quorum apparaît dans scstat -qavec 0 vote, il peut être retiré à l'aide de scconf -rq.

Échec du volume mis en miroir lors de l'utilisation de l'indicateur O_EXCL (4820273)

Récapitulatif du problème : si on utilise Solstice DiskSuite/Solaris Volume Manager et qu'un volume mis en miroir est ouvert à l'aide de l'indicateur O_EXCL, le basculement du groupe de périphériques contenant ce volume échoue. Cela génère une erreur grave du noeud primaire du nouveau groupe de périphériques, lors du premier accès au volume après le basculement.

Solution : lorsque vous utilisez Solstice DiskSuite/Solaris Volume Manager, n'ouvrez pas de volumes mis en miroir avec l'indicateur O_EXCL.

Interruption de la grappe après la réinitialisation d'un noeud au cours d'une commutation (4823195)

Récapitulatif du problème : lorsque la demande de commutation d'un service de périphérique est concurrente à la réinitialisation ou à la jonction d'un noeud et que des systèmes de fichiers de grappe sont configurés sur le service de périphérique, les systèmes de fichiers risquent de devenir indisponibles et les modifications ultérieures de la configuration impliquant tout service de périphérique ou système de fichiers global risquent aussi de s'interrompre, tout comme les jonctions de noeuds de grappe ultérieures.

Solution : la récupération nécessite la réinitialisation de tous les noeuds de la grappe.

Texte non traduit dans la version localisée française (4840085)

Récapitulatif du problème : des parties de texte non traduites apparaissent lors de l'utilisation de SunPlex Manager pour installer Sun Cluster dans la version localisée française.

Solution : cette erreur n'a pas d'incidence sur les fonctionnalités de SunPlex Manager. Vous pouvez ignorer le texte non traduit ou définir la langue de votre navigateur en anglais pour éviter le mélange de traductions.

Correctifs et niveaux de microprogrammes requis

Cette rubrique fournit des informations sur les correctifs applicables aux configurations de Sun Cluster. .


Remarque :

vous devez être enregistré comme utilisateur SunSolveTM pour pouvoir afficher et télécharger les correctifs nécessaires à Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant Sun ou enregistrez-vous en ligne à l'adresse http://sunsolve.sun.com.


PatchPro

PatchPro est un outil de gestion de correctifs destiné à faciliter la sélection et le téléchargement des correctifs nécessaires à l'installation ou à la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des correctifs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers correctifs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des correctifs développés, pas uniquement des correctifs de sécurité et de haut niveau de disponibilité.

Pour accéder à l'outil PatchPro pour le logiciel Sun Cluster, allez à l'adresse http://www.sun.com/PatchPro/, cliquez sur “Sun Cluster,” puis choisissez Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre grappe et télécharger les correctifs applicables.

SunSolve Online

Le site web SunSolveTM Online vous offre un accès permanent aux dernières mises à jour et versions des correctifs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et correctifs prises en charge.

Vous pouvez trouver des informations sur les correctifs de Sun Cluster 3.1 dans les Info Docs. Pour y accéder, connectez-vous à SunSolve et sélectionnez Simple search en haut de la page principale. Dans la page Simple Search, cliquez sur la boîte Info Docs et entrez Sun Cluster 3.1 dans le champ des critères de recherche. La page Info Docs du logiciel Sun Cluster 3.1 s'affiche.

Avant d'installer le logiciel Sun Cluster 3.1 et d'appliquer les correctifs à un élément de grappe (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les Info Docs et les fichiers README qui accompagnent les correctifs. Le même niveau de correctifs doit être appliqué à tous les noeuds de grappe pour permettre à celui-ci de fonctionner correctement.

Pour consultez les procédures propres aux correctifs et les conseils relatifs à leur administration, reportez-vous au Guide d'administration système de Sun Cluster 3.1.

Annonces de fin de prise en charge d'une fonction

Public Network Management (PNM)

Le logiciel Public Network Management (PNM) n'est pas pris en charge par Sun Cluster 3.1. Le contrôle et le basculement de l'adaptateur de réseau logiciel pour Sun Cluster sont donc accomplis par la fonction de multi-acheminement sur réseau IP de Solaris. Pour de plus amples informations, reportez-vous à la rubrique Nouveautés de Sun Cluster 3.1.

HAStorage

HAStorage risque de ne plus être pris en charge dans une version ultérieure du logiciel Sun Cluster. Des fonctions presque équivalentes sont toutefois prises en charge par HAStoragePlus. Exécutez une des procédures suivantes pour migrer de HAStorage vers HAStoragePlus.

Procédure de mise à niveau de HAStorage vers HAStoragePlus lors de l'utilisation de groupes de périphériques ou de systèmes de fichiers de grappe

HAStorage risque de ne plus être pris en charge dans une version ultérieure du logiciel Sun Cluster. Des fonctions équivalentes sont toutefois prises en charge par HAStoragePlus. Pour mettre à niveau HAStorage vers HAStoragePlus si vous utilisez des systèmes de fichiers de grappe ou des groupes de périphériques, procédez comme indiqué ci-dessous.

L'exemple suivant utilise une ressource HA-NFS simple, active avec HAStorage. Les ServicePaths correspondent au groupe de disques nfsdg et la propriété AffinityOn est définie sur TRUE. En outre, la Resource_Dependencies du service HA-NFS est définie sur la ressource HAStorage.

  1. Supprimez les dépendances que les ressources d'application ont sur la ressource HAStorage.


    # scrgadm -c -j nfsserver-rs -y Resource_Dependencies=""
    
  2. Désactivez la ressource HAStorage.


    # scswitch -n -j nfs1storage-rs
    
  3. Supprimez la ressource HAStorage du groupe de ressources d'application.


    # scrgadm -r -j nfs1storage-rs
    
  4. Désenregistrez le type de ressource HAStorage.


    # scrgadm -r -t SUNW.HAStorage
    
  5. Enregistrez le type de ressource HAStoragePlus.


    # scrgadm -a -t SUNW.HAStoragePlus
    
  6. Créez la ressource HAStoragePlus.

    Entrez le texte suivant pour spécifier un point de montage pour le système de fichiers :


    # scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \
    SUNW.HAStoragePlus -x FilesystemMountPoints=/global/nfsdata -x \
    AffinityOn=True
    

    Entrez le texte suivant pour spécifier les chemins des périphériques globaux :


    # scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \
    SUNW.HAStoragePlus -x GlobalDevicePaths=nfsdg -x AffinityOn=True
    

    Remarque :

    au lieu d'utiliser la propriété ServicePaths pour HAStorage, vous devez utiliser les propriétés GlobalDevicePaths ou FilesystemMountPoints pour HAStoragePlus. La propriété d'extension FilesystemMountPoints doit correspondre à la séquence spécifiée dans le fichier /etc/vfstab .


  7. Activez la ressource HAStoragePlus.


    # scswitch -e -j nfs1-hastp-rs
    
  8. Définissez les dépendances entre le serveur d'application et HAStoragePlus.


    # scrgadm -c -j nfsserver-rs -y \
    Resource_Depencencies=nfs1=hastp-rs
    

Procédure de mise à niveau de HAStorage avec les systèmes de fichiers de grappe vers HAStoragePlus à l'aide du système de fichiers de basculement (FFS)

HAStorage risque de ne plus être pris en charge dans une version ultérieure de Sun Cluster. Des fonctions équivalentes sont toutefois prises en charge par HAStoragePlus. Pour mettre à niveau HAStorage vers HAStoragePlus à l'aide du FFS, procédez comme indiqué ci-dessous.

L'exemple suivant utilise un service NFS simple, actif avec HAStorage. Les ServicePaths correspondent au groupe de disques nfsdg et la propriété AffinityOn est définie sur TRUE. En outre, la Resource_Dependencies du service HA-NFS est définie sur la ressource HAStorage.

  1. Supprimez les dépendances de la ressource d'application sur la ressource HAStorage.


    # scrgadm -c -j nfsserver-rs -y Resource_Dependencies=""'
  2. Désactivez la ressource HAStorage.


    # scswitch -n -j nfs1storage-rs
    
  3. Supprimez la ressource HAStorage du groupe de ressources d'application.


    # scrgadm -r -j nfs1storage-rs
    
  4. Désenregistrez le type de ressource HAStorage.


    # scrgadm -r -t SUNW.HAStorage
    
  5. Modifiez le fichier /etc/vfstab afin de supprimer l'indicateur global et modifiez mount at boot sur no. Cette action doit être effectuée sur tous les noeuds primaires potentiels du groupe de ressources.

  6. Enregistrez le type de ressources HAStoragePlus.


    # scrgadm -a -t SUNW.HAStoragePlus
    
  7. Créez la ressource HAStoragePlus.

    Entrez le texte suivant pour spécifier un point de montage pour le système de fichiers :


    # scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \
    SUNW.HAStoragePlus -x FilesystemMountPoints=/global/nfsdata -x \
    AffinityOn=True
    

    Entrez le texte suivant pour spécifier les chemins des périphériques globaux :


    # scrgadm -a -j nfs1-hastp-rs -g nfs1-rg -t \
    SUNW.HAStoragePlus -x GlobalDevicePaths=nfsdg -x AffinityOn=True
    

    Remarque :

    au lieu d'utiliser la propriété ServicePaths pour HAStorage, vous devez utiliser les propriétés GlobalDevicePaths ou FilesystemMountPoints pour HAStoragePlus. La propriété d'extension FilesystemMountPoints doit correspondre à la séquence spécifiée dans le fichier /etc/vfstab .


  8. Déconnectez le groupe de ressources d'application.


    # scswitch -F -g nfs1-rg
    
  9. Désactivez la ressource d'application.


    # scswitch -n -j nfsserver-rs
    
  10. Démontez le système de fichiers CFS.

  11. Activez la ressource HAStoragePlus.


    # scswitch -e -j nfs1-hastp-rs
    
  12. Connectez le groupe de ressources d'applications à un hôte donné.


    # scswitch -z -g nfs1-rg -h hostname
    
  13. Définissez les dépendances entre la ressource d'application et HAStoragePlus.


    # scrgadm -c -j nfsserver-rs -y \
    Resource_Depencencies=nfs1=hastp-rs
    
  14. Activez la ressource d'application.


    # scswitch -e -j nfs1-hastp-rs
    

Localisation du logiciel Sun Cluster 3.1

Les composants du logiciel Sun Cluster sélectionnés sont localisés dans les langues suivantes :

Langue 

Composant Sun Cluster localisé 

Français 

Installation 

Cluster Control Panel (panneau de contrôle de la grappe) 

Logiciel Sun Cluster 

Services de données de Sun Cluster 

Module Sun Cluster pour Sun Management Center 

SunPlex Manager 

Japonais 

Installation 

Cluster Control Panel (panneau de contrôle de la grappe)  

Logiciel Sun Cluster 

Services de données de Sun Cluster 

Module Sun Cluster pour Sun Management Center 

SunPlex Manager 

Pages de manuel de Sun Cluster 

Pages de manuel du Cluster Control Panel (CCP)  

Pages de manuel des messages des services de données Sun Cluster 

Chinois simplifié  

Module Sun Cluster pour Sun Management Center 

SunPlex Manager 

Chinois traditionnel  

Module Sun Cluster pour Sun Management Center (aide en ligne uniquement) 

SunPlex Manager (aide en ligne uniquement) 

Coréen 

Module Sun Cluster pour Sun Management Center (aide en ligne uniquement) 

SunPlex Manager (aide en ligne uniquement) 

Les rubriques suivantes fournissent des instructions sur l'installation des modules localisés de différents composants Sun Cluster :

Cluster Control Panel (CCP)

Avant d'utiliser le CCP, vous devez installer les modules suivants sur votre console administrative, à l'aide de la commande pkgadd(1M).

Langue 

Nom du module 

Description du progiciel  

Français 

SUNWfccon

Console Sun Cluster française 

Japonais 

SUNWjccon

Console Sun Cluster japonaise 

Chinois simplifié  

SUNWcccon

Console Sun Cluster en chinois simplifié 

Outils d'installation

Pour utiliser l'utilitaire scinstall(1M) localisé pour l'installation du logiciel Sun Cluster 3.1, installez les modules suivants sur les noeuds de la grappe à l'aide de la commande pkgadd(1M) avant d'exécuter scinstall.

Langue 

Nom du module 

Description du progiciel  

Français 

SUNWfsc

Messages Sun Cluster en français 

Japonais 

SUNWjsc

SUNWjscman

Messages Sun Cluster en japonais 

Pages de manuel Sun Cluster en japonais 

Pour de plus amples informations sur l'utilisation de la version localisée de SunPlex Manager pour l'installation du logiciel Sun Cluster 3.1, reportez-vous à la rubrique SunPlex Manager.

SunPlex Manager

Pour utiliser la version localisée de SunPlex Manager, les modules suivants doivent être installés sur les noeuds de la grappe.

Langue 

Nom 

Description du progiciel 

Français 

SUNWfsc 

SUNWfscvw 

Messages Sun Cluster en français 

Aide en ligne de SunPlex Manager en français 

Japonais 

SUNWjsc 

SUNWjscvw 

Messages Sun Cluster en japonais 

Aide en ligne de SunPlex Manager en japonais 

Chinois simplifié  

SUNWcsc 

SUNWcscvw 

Messages Sun Cluster en chinois simplifié  

Aide en ligne de SunPlex Manager en chinois simplifié 

Chinois traditionnel  

SUNWhscvw  

Aide en ligne de SunPlex Manager en chinois traditionnel 

Coréen 

SUNWkscvw 

Aide en ligne de SunPlex Manager en coréen 

Après avoir installé les modules SunPlex Manager localisés, choisissez la langue dans le navigateur. Si vous utilisez Netscape, vous pouvez vérifier et modifier les langues du navigateur en suivant les étapes décrites ci-dessous :

  1. Lancez Netscape.

  2. Sélectionnez Edition> Préférences dans le menu principal.

  3. Sélectionnez Navigateur> Langues dans la boîte de dialogue Préférences.

  4. Cliquez sur Ajouter, puis choisissez la langue dans la boîte de dialogue Ajouter des langues.

  5. Cliquez sur OK.

Module Sun Cluster pour Sun Management Center

Pour utiliser la version localisée du module Sun Cluster pour Sun Management Center, installez les modules ci-dessous sur la couche du serveur Sun Management Center à l'aide de la commande pkgadd(1M).

Langue 

Nom du module 

Description du progiciel  

Français 

SUNWfscssv 

Ajout serveur SyMON Sun Cluster en français 

Japonais 

SUNWjscssv 

Ajout serveur SyMON Sun Cluster en japonais 

Chinois simplifié  

SUNWcscssv 

Ajout serveur SyMON Sun Cluster en chinois simplifié 

Pour utiliser l'aide en ligne localisée du module Sun Cluster pour Sun Management Center, installez les modules ci-dessous sur la couche de la console Sun Management Center à l'aide de la commande pkgadd(1M).

Langue 

Nom du module 

Description du progiciel  

Français 

SUNWfscshl 

Modules SyMON Sun Cluster en français 

Japonais 

SUNWjscshl 

Modules SyMON Sun Cluster en japonais 

Chinois simplifié  

SUNWcscshl 

Modules SyMON Sun Cluster en chinois simplifié 

Chinois traditionnel  

SUNWhscshl 

Modules SyMON Sun Cluster en chinois traditionnel 

Coréen 

SUNWkscshl 

Modules SyMON Sun Cluster en coréen 

Logiciel Sun Cluster

Les modules de localisation Sun Cluster ci-dessous s'installent automatiquement sur le noeud de la grappe lors de l'installation ou de la mise à niveau vers Sun Cluster 3.1.

Langue 

Nom du module 

Description du progiciel  

Français 

SUNWfsc

Messages Sun Cluster en français 

Japonais 

SUNWjsc

SUNWjscman

Messages Sun Cluster en japonais 

Pages de manuel Sun Cluster en japonais 

Chinois simplifié  

SUNWcsc

Messages Sun Cluster en chinois simplifié  

Services de données Sun Cluster

Lorsque vous installez ou mettez à niveau vers Sun Cluster 3.1, les modules de localisation des services de données que vous avez sélectionnés s'installent automatiquement. Pour de plus amples informations, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.

Documentation Sun Cluster 3.1

L'ensemble de la documentation utilisateur Sun Cluster 3.1 est disponible aux formats PDF et HTML sur le CD Sun Cluster 3.1 et le CD Sun Cluster 3.1 Agents. Vous n'avez pas besoin du logiciel serveur AnswerBook2TM pour lire la documentation Sun Cluster 3.1. Pour de plus amples informations, consultez le fichier index.html au niveau supérieur des CD. Ce fichier vous permet de lire les manuels PDF et HTML directement à partir du disque et d'accéder aux instructions concernant l'installation des modules de documentation.


Remarque :

vous devez installer le module SUNWsdocs avant d'installer tout module Sun Cluster. Vous pouvez utiliser pkgadd pour installer le module SUNWsdocs à partir du répertoire SunCluster_3.1/Sol_ N/Packages/ du CD Sun Cluster 3.1, où N est soit 8 pour Solaris 8, soit 9 pour Solaris 9. Le module SUNWsdocs s'installe automatiquement lorsque vous exécutez le programme d'installation du CD de documentation de Solaris 9.


La documentation Sun Cluster 3.1 est composée des collections ci-dessous.

En outre, le site web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur l'internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.

http://docs.sun.com

Problèmes liés à la documentation

Cette rubrique détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.

Guide d'installation du logiciel

Cette rubrique traite des erreurs connues ou des omissions contenues dans le Guide d'installation du logiciel Sun Cluster 3.1.

Connexion des périphériques de quorum

Dans le Guide d'installation du logiciel Sun Cluster 3.1, l'énoncé ci-dessous relatif aux périphériques de quorum est incorrect :

Connexion : ne connectez jamais un périphérique de quorum à plus de deux noeuds.

L'énoncé correct est le suivant :

Connexion : un périphérique de quorum doit être connecté à au moins deux noeuds.

Authentification du noeud pour scvxinstall non requise

Lorsque vous utilisez la commande scvxinstall pour installer VERITAS Volume Manager (VxVM), il n'est désormais plus nécessaire d'ajouter le noeud à la liste d'authentification des noeuds de la grappe. Lorsque vous utilisez les procédures décrites dans « Installation du logiciel VERITAS Volume Manager et d'encapsulage du disque racine » ; ou « Installation du logiciel VERITAS Volume Manager uniquement », ignorez l'étape 3, « Ajoutez tous les noeuds de la grappe dans la liste d'authentification des noeuds ».

La procédure de mise à niveau fait référence à une fonctionnalité scsetup qui est indisponible

Dans “Mise à niveau du ligiciel Sun Cluster” dans Guide d'installation du logiciel Sun Cluster 3.1, la procédure affirme que si vous faites une mise à niveau depuis le logiciel Sun Cluster 3.0 5/02, il est possible d'utiliser l'utilitaire scsetup au lieu de la commande scswitch pour désactiver les ressources. Cette affirmation est fausse et doit être ignorée.

Aide en ligne SunPlex Manager

Une remarque figurant dans la procédure d'installation des services de données Oracle est incorrecte.

Incorrect :

Remarque : en l'absence de valeurs en face des variables shmsys et semsys dans le fichier /etc/system, une fois les modules de SunPlex Manager installés, des valeurs par défaut sont automatiquement appliquées à ces variables dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.

Correct :

Remarque : en l'absence de valeurs en face des variables shmsys et semsys, dans le fichier /etc/system, l'installation du service de données Oracle permet une insertion automatique des valeurs par défaut dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.

Guide d'administration système

Cette rubrique traite des erreurs et omissions contenues dans le Sun Cluster 3.1 System Administration Guide.

Groupes de disques racine simples avec VERITAS Volume Manager

Les groupes de disques racine simples ne sont pas pris en charge en tant que type de disques par VERITAS Volume Manager sur le logiciel Sun Cluster. Ainsi si vous suivez les directives de la rubrique « Restauration d'un système de fichiers racine (/) non encapsulé (VERITAS Volume Manager) » du Sun Cluster 3.1 System Administration Guide, vous devez ignorer l'étape 9, qui vous demande de déterminer si le groupe de disques racine (rootdg) est sur une seule tranche du disque racine. Suivez les étapes de 1 à 8, passez l'étape 9, et continuez avec l'étape 10 jusqu'à la fin de la procédure.

Modification du nombre de noeuds reliés à un périphérique de quorum

Lorsque vous augmentez ou diminuez le nombre de noeuds reliés à un périphérique de quorum, le nombre de votes de quorum n'est pas recalculé automatiquement. Vous pouvez rétablir le nombre de votes correct en retirant tous les périphériques de quorum puis en les rajoutant à la configuration.

Documentation relative aux services de données

Les erreurs et omissions relatives à la documentation des services de données sont décrites dans les Sun Cluster 3.1 Data Service 5/03 Release Notes.

Pages de manuel

Pages de manuel relatives aux services de données Sun Cluster 3.0

Pour afficher la page de manuel relative aux services de données Sun Cluster 3.0, installez les derniers correctifs appliqués au logiciel Sun Cluster 3.1 pour ces services de données. Reportez-vous à la rubrique Correctifs et niveaux de microprogrammes requis pour de plus amples informations.

Après avoir appliqué le correctif, accédez aux pages d'aide en ligne des services de données Sun Cluster 3.0 en exécutant la commande man -M avec le chemin d'accès entier à la page de manuel comme argument. L'exemple suivant permet d'ouvrir la page de manuel relative à Apache.


% man -M /opt/SUNWscapc/man SUNW.apache

Envisagez d'exporter votre MANPATH pour activer l'accès aux pages de manuel des services de données Sun Cluster 3.0 sans spécifier le chemin complet. L'exemple suivant décrit l'entrée de commande permettant d'ajouter le chemin des pages de manuel d' Apache à votre MANPATH et d'afficher ces pages.


% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH
% man SUNW.apache

scconf_transp_adap_wrsm(1M)

La page de manuel scconf_transp_adap_wrsm(1M) remplace la page de manuel scconf_transp_adap_wrsm(1M) existante.

NOM

scconf_transp_adap_wrsm.1m- configure l'adaptateur de transport wrsm

DESCRIPTION

Les adaptateurs wrsm peuvent être configurés comme des adaptateurs de transport de grappe. Ces adaptateurs ne peuvent être utilisés qu'avec des dispositifs de transport de type dlpi .

L'adaptateur wrsm est connecté à une jonction de transport ou à un autre adaptateur wrsm sur un noeud différent. Dans tous les cas, la connexion est établie par le biais d'un câble de transport.

Bien qu'il soit possible de connecter les adaptateurs wrsm directement à l'aide de configurations point à point, le logiciel Sun Cluster requiert la spécification d'une jonction de transport, d'une jonction de transport virtuelle. Par exemple, si node1:wrsm1 est directement connecté à node2:wsrm1 par le biais d'un câble, vous devez spécifier les informations de configuration suivantes :


node1:wrsm1 <--cable1--> Transport Junction sw_wrsm1 <--cable2--> node2:wrsm1

La jonction de transport, qu'elle soit un commutateur virtuel ou matériel, doit avoir un nom spécifique. Ce nom doit être sw_wrsm N où l'adaptateur correspond à wrsm N. Cette contrainte est due à une restriction de Wildcat qui requiert que tous les contrôleurs wrsm sur un même réseau Wildcat aient le même numéro d'instance.

Si vous utilisez une jonction de transport et si les extrémités du câble de transport sont configurées à l'aide de scconf, scinstall, ou d'un autre outil, on vous demande de spécifier un nom de port sur la jonction de transport. Vous pouvez donner n'importe quel nom de port, ou accepter le nom par défaut, dans la mesure où il est unique pour la jonction de transport.

Le nom par défaut définit le nom du port avec l'ID du noeud qui héberge l'adaptateur à l'autre extrémité du câble.

Reportez-vous à scconf(1M) pour obtenir plus de détails sur la configuration.

Il n'y a pas de propriétés configurables par l'utilisateur pour les adaptateurs de transport de grappe de ce type.

VOIR AUSSI

scconf(1M), scinstall(1M), wrsmconf(1M), wrsmstat(1M), wrsm(7D), wrsmd(7D)

scconf_transp_adap_sci(1M)

La page d'aide scconf_transp_adap_sci(1M) affirme que les adaptateurs de transport SCI peuvent être utilisés avec le type de transport rsm. Cette affirmation est incorrecte. Les adaptateurs de transportSCI ne prennent pas en charge les dispositifs de transport de type rsm. Les adaptateurs de transport SCI ne prennent en charge que le type de transport dlpi.

scconf_transp_adap_sci(1M)

La phrase ci-dessous permet de clarifier le nom d'un adaptateur SCI–PCI. Actuellement, cette information ne figure pas dans la page de manuel scconf_transp_adap_sci (1M).

Nouvelles informations :

Utilisez le nom sciN pour spécifier un adaptateur SCI.

scgdevs(1M)

Le paragraphe ci-dessous clarifie le comportement de la commande scgdevs. Actuellement, ces informations ne figurent pas dans la page de manuel scgdevs(1M).

Nouvelles informations :

Si vous appelez la commande scgdevs(1M) à partir du noeud local, celle-ci effectue sa tâche de manière asynchrone sur les noeuds distants. Par conséquent, la fin de l'action de la commande sur le noeud local ne signifie pas nécessairement que celle-ci a terminé sa tâche dans toute la grappe.

SUNW.sap_ci(5)

SUNW.sap_as(5)

rg_properties(5)

La nouvelle propriété de groupe de ressources suivante doit être ajoutée à la page de manuel rg_properties(5).

Auto_start_on_new_cluster

Cette propriété vérifie que le Resource Group Manager lance automatiquement le groupe de ressources lors de la formation d'une nouvelle grappe.

La valeur par défaut est TRUE. En cas de configuration sur TRUE, le Resource Group Manager essaie de lancer le groupe de ressources automatiquement afin d'obtenir les Desired_primaries lors de la réinitialisation simultanée de l'ensemble des noeuds de la grappe. S'il est défini sur FALSE, le groupe de ressources ne démarre pas automatiquement lorsque la grappe est réinitialisée. Le groupe de ressources reste déconnecté jusqu'au moment où il est mis en ligne manuellement pour la première fois à l'aide de la commande scswitch (1M). Après cela, il retrouvera un comportement de basculement normal.

Catégorie : Défaut : True Réglable :à tout moment

rt_properties(5)

Dans cette version, la valeur de la API_version actuelle qui était de 2 auparavant a été augmentée à 3. Pour éviter qu'un type de ressource ne soit enregistré sur une version antérieure du logiciel Sun Cluster, annoncez API_version=3. Pour de plus amples informations, reportez-vous à rt_reg (4) et rt_properties (5).