Notes de version de Sun Cluster 3.0 5/02

Chapitre 1 Notes de version de Sun Cluster 3.0 5/02

Ce document fournit les informations suivantes pour le logiciel SunTM Cluster 3.0 5/02.

Les annexes de ce document comportent des fiches et des exemples qui vous aideront à planifier l'installation des services de données et du logiciel Sun Cluster 3.0 5/02.

Nouvelles fonctions et fonctionnalités

Le tableau suivant répertorie les nouvelles fonctions et fonctionnalités qui nécessitent une mise à jour de la documentation de Sun Cluster. La seconde colonne identifie la documentation qui a été mise à jour. Contactez votre représentant commercial Sun pour obtenir une liste complète du matériel et des logiciels pris en charge.

Tableau 1-1 Nouvelles fonctions et fonctionnalités

Fonction ou fonctionnalité 

Mises à jour de la documentation 

HAStoragePlus 

Le Supplément Sun Cluster 3.0 5/02 contient des mises à jour du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide et du Sun Cluster 3.0 12/01 Data Services Developer's Guide afin de prendre en charge le type de ressource HAStoragePlus. Le type de ressource HAStoragePlus sert à garantir le haut niveau de disponibilité d'un système de fichiers local dans l'environnement Sun Cluster. Le Sun Cluster 3.0 5/02 Error Messages Guide contient des explications sur les nouveaux messages d'erreur HAStoragePlus.

Prioritized Service Management (RGOffload) 

Le Supplément Sun Cluster 3.0 5/02 contient de nouvelles procédures et des mises à jour du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide concernant la prise en charge de RGOffload. RGOffload permet à la grappe de libérer automatiquement les ressources d'un noeud dont les services de données décisifs ont besoin. Les groupes de ressources contenant des services de données non décisifs sont ainsi déchargés. Le Sun Cluster 3.0 5/02 Error Messages Guide explicite les nouveaux messages d'erreur RGOffload.

Prise en charge de Sun Cluster Security Hardening pour des services de données supplémentaires 

Vous trouverez la documentation Sun Cluster Security Hardening à l'adresse http://www.sun.com/security/blueprints. Faites défiler la page jusqu'à l'en-tête Architecture pour accéder à l'article consacré à Sun Cluster Security Hardening. Pour de plus amples informations, reportez-vous à la section "Sun Cluster Security Hardening".

Améliorations de SunPlex Agent Builder 

Le Supplément Sun Cluster 3.0 5/02 comporte des mises à jour du Sun Cluster 3.0 12/01 Data Services Developer's Guide afin de prendre en charge la création d'un GDS (service de données générique, un service de données unique et précompilé), au moyen de SunPlex Agent Builder.

Désinstallation du logiciel Sun Cluster 

Le Supplément Sun Cluster 3.0 5/02 comporte de nouvelles procédures de désinstallation du logiciel, ainsi que des mises à jour des procédures apparentées dans le Guide d'installation du logiciel Sun Cluster 3.0 12/01 et le Guide d'administration système de Sun Cluster 3.0 12/01. La nouvelle option -r pour scinstall(1M) supprime le logiciel Sun Cluster d'un noeud.

Mise à niveau vers le logiciel Sun Cluster 3.0 5/02 à partir des versions antérieures du logiciel Sun Cluster 3.0 

Suivez les procédures de "Mise à niveau vers une version mise à jour du logiciel Sun Cluster 3.0" dans le Guide d'installation du logiciel Sun Cluster 3.0 12/01 afin de mettre à niveau une version antérieure du logiciel Sun Cluster. Consultez la section "Mise à niveau vers une version mise à jour du logiciel Sun Cluster 3.0 " pour consulter les corrections apportées aux instructions de mise à niveau de Solaris 8.

Notes à propos des nouvelles fonctions et fonctionnalités

Cette section inclut des informations supplémentaires sur les nouvelles fonctions et fonctionnalités.

Sun Cluster Security Hardening

Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrints, afin de renforcer la sécurité de base des grappes. Sun BluePrintsTM Solaris Security Toolkit procède à l'implémentation automatique de Sun Cluster Security Hardening.

Vous trouverez la documentation Sun Cluster Security Hardening à l'adresse http://www.sun.com/security/blueprints. A partir de cette URL, déroulez la liste jusqu'au titre Architecture afin de localiser l'emplacement de l'article "Securing the Sun Cluster 3.0 Software." Ce document explique la sécurisation de Sun Cluster 3.0 dans l'environnement Solaris 8. Cette description inclut l'utilisation du Solaris Security Toolkit et d'autres techniques de bonnes pratiques sécuritaires conseillées par les experts de Sun en matière de sécurité.

Sun Cluster Security Hardening prend en charge tous les services de données Sun Cluster 3.0 5/02 répertoriés dans le tableau ci-dessous, et ce dans l'environnement Solaris 8.


Remarque :

Sun Cluster Security Hardening prend en charge tous les services de données Sun Cluster 3.0 5/02 sur Solaris 8 uniquement. Security hardening n'est pas disponible pour Sun Cluster 3.0 5/02 sur Solaris 9.


Tableau 1-2 Services de données pris en charge par Sun Cluster Security Hardening

Agent de service de données 

Version de l'application : reprise sur panne 

Version de l'application : à la carte 

Serveur de messagerie Sun Cluster HA for iPlanet 

6.0 

4.1 

Sun Cluster HA for iPlanet Web Server 

6.0 

4.1 

1.3.9 

1.3.9 

Sun Cluster HA for SAP 

4.6D (32 et 64 bits) 

4.6D (32 et 64 bits) 

Sun Cluster HA for iPlanet Directory Server 

4.12 

S.O. 

Sun Cluster HA for NetBackup 

3.4  

S.O. 

Sun Cluster HA for Oracle  

8.1.7 et 9i (32 et 64 bit) 

S.O. 

Sun Cluster HA for Sybase ASE  

12.0 (32 bit) 

S.O. 

Sun Cluster Support for Oracle Parallel Server/Real Application Clusters 

8.1.7 et 9i (32 et 64 bit) 

S.O. 

Sun Cluster HA for DNS 

avec système d'exploitation 

S.O. 

Sun Cluster HA for NFS 

avec système d'exploitation 

S.O. 

Produits pris en charge

Cette section décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.0 5/02.

Fonctions en voie d'abandon

La fonction Public Network Management (PNM) ne sera pas prise en charge dans la prochaine version de Sun Cluster. La surveillance des adaptateurs de réseau et la reprise sur panne pour Sun Cluster seront désormais assurées par Solaris IP Multipathing.

Public Network Management (PNM)

La fonction PNM sert à configurer et à administrer la surveillance des cartes d'interface réseau et la reprise sur panne. Toutefois, les interfaces utilisateur du démon de PNM et les commandes d'administration de PNM sont obsolètes et seront retirées de la prochaine version de Sun Cluster. Il est donc vivement déconseillé de développer des outils reposant sur ces interfaces. Les interfaces suivantes sont officiellement prises en charge dans la version actuelle, mais devraient être supprimées ou modifiées dans la prochaine version de Sun Cluster.

Lisez ce qui suit pour préparer l'adoption de IP Multipathing, effective dans la nouvelle version de Sun Cluster.

Installation des AnswerBooks de Sun Cluster

La documentation utilisateur de Sun Cluster 3.0 5/02 est disponible en ligne sous le format AnswerBook2TM, pour une exploitation sur serveurs de documentation AnswerBook2. La documentation AnswerBook2 de Sun Cluster 3.0 5/02 comprend les collections suivantes :


Remarque :

Le Supplément Sun Cluster 3.0 5/02 contient des ajouts et des modifications de la documentation de Sun Cluster 3.0 12/01. Utilisez ce supplément avec les manuels de Sun Cluster 3.0 12/01 également fournis dans la collection de Sun Cluster 3.0 5/02 et dans la collection Sun Cluster 3.0 12/01 Data Services.


En outre, le site Web docs.sun.comSM vous permet d'accéder à la documentation de Sun Cluster sur Internet. Vous pouvez le parcourir ou y rechercher un titre de manuel ou un sujet particulier.

http://docs.sun.com

Configuration du serveur de documentation AnswerBook2


Remarque :

Le serveur de documentation AnswerBook2 n'est pas fourni sur le CD-ROM de documentation de Solaris 9. En cas d'utilisation de la version Solaris 9 du logiciel Sun Cluster 3.0 5/02 et si vous n'avez pas encore le logiciel serveur AnswerBook2, reportez-vous au site http://www.sun.com/software/ab2 pour télécharger le logiciel AnswerBook2. Vous y trouverez également les instructions d'installation et les notes de version. Vous pouvez également utiliser les versions PDF de la documentation. Vous les trouverez sur les CD-ROM Sun Cluster 3.0 5/02. Pour de plus amples informations, reportez-vous à la section "Fichiers PDF".


L'environnement d'exploitation Solaris 8 contient un logiciel serveur de documentation AnswerBook2. Ce logiciel figure sur le CD-ROM de la documentation Solaris 8, distinct du CD-ROM de l'environnement d'exploitation Solaris. Il vous faut le CD-ROM de la documentation Solaris 8 pour pouvoir installer un serveur de documentation AnswerBook2.

Si vous disposez d'un serveur de documentation AnswerBook2 installé sur votre site, vous pouvez l'utiliser pour exploiter les collections AnswerBook Sun Cluster. Sinon, installez un serveur de documentation sur une machine de votre site. Nous vous recommandons d'utiliser la console administrative comme interface d'administration avec votre grappe pour le serveur de documentation. N'utilisez pas un noeud de grappe comme serveur de documentation AnswerBook2.

Pour de plus amples informations sur l'installation d'un serveur de documentation AnswerBook2, chargez le CD-ROM de la documentation de Solaris sur un serveur et lisez les fichiers README.

Affichage des AnswerBooks de Sun Cluster

Installez les documents AnswerBook2 Sun Cluster sur un système de fichiers, situé sur le même serveur que celui sur lequel vous installez le serveur de documentation. Les collections AnswerBook de Sun Cluster 3.0 12/01 sont fournies avec un script post-installation, qui ajoute automatiquement les documents à votre bibliothèque AnswerBook.

Notez les conditions suivantes pour installer vos serveurs AB.

Comment installer les collections AnswerBook de Sun Cluster

Utilisez cette procédure pour installer les modules Sun Cluster AnswerBook pour les collections Sun Cluster 3.0 5/02 et Sun Cluster 3.0 12/01 Data Services.

  1. Devenez superutilisateur du serveur qui exploite le serveur de documentation AnswerBook2.

  2. Si vous avez déjà installé les collections AnswerBook Sun Cluster, supprimez les modules existants.

    Si vous n'avez jamais installé de collection AnswerBook Sun Cluster, ignorez cette étape.


    # pkgrm SUNWscfab SUNWscdab
    

  3. Insérez le CD-ROM Sun Cluster 3.0 5/02 ou le CD-ROM Sun Cluster 3.0 Agents 5/02 dans le lecteur de CD-ROM relié à votre serveur de documentation.

    Le démon du gestionnaire de volumes, vold(1M), charge le CD-ROM automatiquement.

  4. Placez-vous dans le répertoire correspondant au CD-ROM du module AnswerBook Sun Cluster.

    Les modules AnswerBook se trouvent aux endroits suivants :

    • CD-ROM Sun Cluster 3.0 5/02

      /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages

    • CD-ROM Sun Cluster 3.0 Agents 5/02

      /cdrom/scdataservices_3_0_u3/components /SunCluster_Data_Service_Answer_Book_3.0/Packages

  5. Utilisez la commande pkgadd(1) pour installer le module.


    # pkgadd -d .
    

  6. Sélectionnez les modules des collections Sun Cluster 3.0 5/02 (SUNWscfab) et Sun Cluster 3.0 12/01 Data Services (SUNWscdab) à installer.

  7. Dans le menu des options d'installation de pkgadd, choisissez heavy pour ajouter le module complet au système et mettre à jour le catalogue AnswerBook2.

    Sélectionnez soit la collection Sun Cluster 3.0 5/02 (SUNWscfab) soit la collection Sun Cluster 3.0 12/01 Data Services (SUNWscdab).

Le module de collections de documents fourni sur chaque CD-ROM comprend un script d'installation automatique qui, après l'installation, ajoute la collection à la base de données du serveur de documentation et fait redémarrer le serveur. Vous pouvez maintenant consulter les AnswerBook Sun Cluster sur votre serveur de documentation.

Fichiers PDF

Les CD-ROM Sun Cluster comportent un fichier PDF pour chaque livre du jeu de documentation de Sun Cluster.

Comme pour les AnswerBooks de Sun Cluster, sept fichiers PDF figurent sur le CD-ROM Sun Cluster et un fichier PDF sur le CD-ROM des agents de Sun Cluster. Le nom de chaque fichier PDF est une abréviation du livre correspondant (voir TABLEAU 1-4)

Les fichiers PDF se trouvent aux endroits suivants :

Tableau 1-4 Correspondances entre les abréviations des PDF et les titres des manuels

CD-ROM 

Abréviation PDF 

Titre de manuel 

CD-ROM Sun Cluster 3.0 5/02 

CLUSTSUPP

Supplément Sun Cluster 3.0 5/02

CLUSTINSTALL

Guide d'installation du logiciel Sun Cluster 3.0 12/01

CLUSTNETHW

Sun Cluster 3.0 12/01 Hardware Guide

CLUSTAPIPG

Sun Cluster 3.0 12/01 Data Services Developer's Guide

CLUSTSYSADMIN

Guide d'administration système de Sun Cluster 3.0 12/01

CLUSTCONCEPTS

Sun Cluster 3.0 12/01 Concepts

CLUSTERRMSG

Sun Cluster 3.0 5/02 Error Messages Guide

CD-ROM Sun Cluster 3.0 Agents 5/02 

CLUSTDATASVC

Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide

Restrictions

Les restrictions suivantes concernent la version Sun Cluster 3.0 5/02 :

Restrictions liées aux services et aux applications

Restrictions liées au matériel

Restrictions liées au gestionnaire de volumes

Restrictions liées au système de fichiers de grappe

Restrictions liées à VxFS

Restrictions NAFO (Network Adapter Failover)

Restrictions liées aux services de données

Cette section décrit les restrictions liées à certains services de données. Aucune restriction ne s'applique à l'ensemble de services de données.


Remarque :

Les futures Notes de versions de Sun Cluster n'incluront pas les restrictions liées aux services de données qui ne s'appliquent qu'à des services de données spécifiques. Néanmoins, les Notes de version de Sun Cluster décriront toutes les restrictions de services de données s'appliquant à tous les services de données.


Pour plus de restrictions liées aux services de données et s'appliquant à certains services de données, consultez le Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.

Sun Cluster HA for Oracle

Restrictions liées à Sun Cluster et NetBackup

Restrictions liées à Sun Cluster HA for NetBackup

Restrictions liées à Sun Cluster 3.0 HA for NFS

Instructions

Les instructions ci-dessous s'appliquent à la version Sun Cluster 3.0 5/02.

Instructions relatives à la temporisation du service de données

Cette instruction répond au problème relatif au bogue nº 4499573. Il s'est avéré que la fonctionnalité correspondante fonctionnait correctement. En tant que tel, le Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide doit refléter l'instruction suivante.

En cas d'utilisation de services de données demandant beaucoup d'E/S et ayant un grand nombre de disques configurés dans la grappe, il se peut que l'application ait un retard en raison des nouvelles tentatives dans le sous-système E/S pendant les défaillances du disque. Il se peut que le sous-système E/S prenne plusieurs minutes pour réessayer et récupérer après une défaillance du disque. En raison de ce retard, il se peut que Sun Cluster passe l'application sur un autre noeud, même si le disque a finalement récupéré sur le sien. Afin d'éviter toute reprise sur panne dans ce cas, vous pouvez augmenter la temporisation par défaut du service de données. Contactez l'assistance technique locale pour de plus amples informations sur l'augmentation de la temporisation des services de données.

Instructions relatives à l'installation du service de données

Identifiez la configuration minimale requise par l'ensemble des services de données avant d'installer Solaris et Sun Cluster. Sinon vous risquez de faire des erreurs d'installation et vous devrez réinstaller complètement les logiciels Solaris et Sun Cluster.

Par exemple, l'option Oracle Parallel Fail Safe/Real Application Clusters Guard de Oracle Parallel Server/Real Application Clusters impose certaines exigences quant aux noms d'hôtes et de noeuds utilisés dans la grappe. Vous devez en tenir compte avant l'installation du logiciel Sun Cluster car vous ne pourrez pas changer les noms d'hôtes après l'installation du logiciel Sun Cluster. Pour de plus amples informations sur les exigences relatives aux noms d'hôtes et aux noms des noeuds, consultez la documentation de Oracle Parallel Fail Safe/Real Application Clusters Guard.

Patchs et niveaux de microprogrammes requis

Cette section donne des informations sur les patchs applicables aux configurations de Sun Cluster.

PatchPro

Le logiciel Sun Cluster inaugure l'utilisation de PatchPro, une solution de pointe de gestion des patchs, développée par Sun. Ce nouvel outil simplifie considérablement la sélection et le téléchargement des patchs pour l'installation ou la maintenance du logiciel Sun Cluster. PatchPro fournit un outil spécifique à Sun Cluster d'installation simplifiée des patchs en mode interactif, ainsi qu'un outil de maintenance de la configuration en mode expert, par l'ajout des derniers patchs existants. Le mode expert convient surtout à ceux qui souhaitent disposer de l'ensemble des patchs développés, pas uniquement des patchs de sécurité et de haut niveau de disponibilité.


Remarque :

Vous devez posséder un compte SunSolveSM pour consulter et télécharger les patchs du produit Sun Cluster. Si vous n'avez pas de compte, contactez votre représentant commercial ou technico-commercial Sun ou enregistrez-vous sur le site Web SunSolve Online.


Pour accéder à l'outil PatchPro pour le logiciel Sun Cluster, allez à l'adresse http://www.sun.com/PatchPro/, cliquez sur "Sun Cluster," puis choisissez Interactive Mode ou Expert Mode. Suivez les instructions pour décrire la configuration de votre grappe et télécharger les patchs applicables.

SunSolve Online

Le site Web de SunSolve OnlineSM vous offre un accès permanent aux informations de dernière minute relatives aux patchs, logiciels et microprogrammes développés pour les produits Sun. Accédez au site SunSolve Online à l'adresse http://sunsolve.sun.com pour consulter les grilles actualisées des versions de logiciels, microprogrammes et patchs prises en charge.


Remarque :

Vous devez posséder un compte SunSolve pour consulter et télécharger les patchs du produit Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre représentant commercial ou technico-commercial Sun ou enregistrez-vous sur le site Web SunSolve Online.


Pour obtenir des informations sur les patchs de Sun Cluster 3.0, utilisez le service SunSolve EarlyNotifierSM. Pour accéder aux informations du service EarlyNotifier, connectez-vous à SunSolve et sélectionnez la recherche simple dans le haut de la page principale. Dans la page Simple Search, cliquez sur EarlyNotifier et tapez Sun Cluster 3.0 dans le champ des critères de recherche. La page EarlyNotifier pour le logiciel Sun Cluster 3.0 s'ouvre.

Avant d'installer Sun Cluster 3.0 et d'appliquer des patchs à un élément de grappe (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les informations EarlyNotifier et tous les fichiers README qui accompagnent les patchs. Les patchs appliqués à tous les noeuds de la grappe doivent être de même niveau pour que la grappe puisse fonctionner correctement.

Pour connaître les procédures spécifiques aux patchs ainsi que les astuces d'administration des patchs, reportez-vous au document Guide d'administration système de Sun Cluster 3.0 12/01.

Termes de licence mod_ssl

Pour consulter les termes de licence et d'attribution, ainsi que le copyright de mod_ssl, reportez-vous au fichier Sun Cluster 3.0 README sur le CD-ROM Sun Cluster 3.0 5/02.

Mise à niveau du logiciel Sun Management Center

Cette section décrit la mise à niveau de Sun Management Center 2.1.1 vers Sun Management Center 3.0 sur une configuration Sun Cluster 3.0 5/02.

Comment mettre à niveau le logiciel Sun Management Center

Cette procédure permet d'effectuer la mise à niveau de Sun Management Center 2.1.1 vers Sun Management Center 3.0 sur une configuration Sun Cluster 3.0 5/02.

  1. Ayez les éléments suivants à portée de main :

    • CD-ROM Sun Cluster 3.0 5/02 ou chemin vers l'image du CD-ROM. Vous utiliserez le CD-ROM pour réinstaller les modules de Sun Cluster une fois effectuée la mise à niveau du logiciel Sun Management Center.

    • La documentation de Sun Management Center 3.0.

    • Les patchs de Sun Management Center 3.0 et ceux du module Sun Cluster, le cas échéant. Reportez-vous au document "Patchs et niveaux de microprogrammes requis" pour connaître l'emplacement des patchs et les instructions d'installation.

  2. Arrêtez tous les processus de Sun Management Center en cours.

    1. Si la console Sun Management Center est active, fermez-la.

      Dans la fenêtre de la console, sélectionnez File>Exit dans la barre des menus.

    2. Arrêtez les processus de l'agent Sun Management Center sur chacune des machines agent de Sun Management Center (noeud de grappe).


      # /opt/SUNWsymon/sbin/es-stop -a
      

    3. Sur la machine serveur de Sun Management Center, arrêtez le processus serveur de Sun Management Center.


      # /opt/SUNWsymon/sbin/es-stop -S
      

  3. En tant que superutilisateur, supprimez les modules de Sun Cluster des emplacements répertoriés dans le TABLEAU 1-5.

    Vous devez supprimer tous les modules Sun Cluster de tous les emplacements. Sinon, la mise à niveau du logiciel Sun Management Center risque d'échouer en raison de problèmes de dépendance des modules. Une fois le logiciel Sun Management Center mis à niveau, vous procéderez à la réinstallation de ces modules à l'Étape 5.


    # pkgrm module-package
    

    Tableau 1-5 Emplacements où supprimer les modules Sun Cluster

    Emplacement 

    Module à supprimer 

    Chaque noeud de la grappe 

    SUNWscsam, SUNWscsal

    Console Sun Management Center 

    SUNWscscn

    Serveur Sun Management Center 

    SUNWscssv

    Serveur d'aide Sun Management Center 

    SUNWscshl

  4. Effectuez la mise à niveau vers le logiciel Sun Management Center 3.0.

    Suivez les procédures de mise à niveau de la documentation de Sun Management Center 3.0.

  5. En tant que superutilisateur, supprimez les modules de Sun Cluster des emplacements répertoriés dans le TABLEAU 1-6.

    Pour le logiciel Sun Management Center 3.0, vous devez installer le module du serveur d'aide SUNWscshl à la fois sur la console et sur le serveur d'aide.


    # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
    # pkgadd module
    

    Tableau 1-6 Emplacement d'installation des modules de Sun Cluster

    Emplacement 

    Module à installer 

    Chaque noeud de la grappe 

    SUNWscsam, SUNWscsal

    Console Sun Management Center 

    SUNWscscn, SUNWscshl

    Serveur Sun Management Center 

    SUNWscssv

    Serveur d'aide Sun Management Center 

    SUNWscshl

  6. Appliquez les patchs de Sun Management Center et les patchs des modules de Sun Cluster sur chaque noeud de la grappe.

  7. Relancez les processus agent, serveur et console de Sun Management Center sur toutes les machines impliquées.

    Pour ce faire, suivez les procédures de la section "Démarrage de Sun Management Center" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.

  8. Chargez le module Sun Cluster.

    Pour ce faire, suivez les procédures de la section "Chargement du module Sun Cluster" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.

    Si le module Sun Cluster a été chargé précédemment, déchargez-le et chargez-le à nouveau pour effacer toutes les définitions d'alarmes mises en cache sur le serveur. Pour décharger le module, sélectionnez Module>Unload Module dans la fenêtre Details de la console.

Assistants de création de groupes de ressources et de ressources de modules de Sun Cluster

Cette section donne des compléments d'informations sur le module Sun Cluster 3.0 de l'interface graphique utilisateur Sun Management Center. Pour de plus amples informations sur la mise à niveau vers Sun Management Center 3.0, reportez-vous à la section "Mise à niveau du logiciel Sun Management Center".

A partir de la console du module Sun Cluster, vous pouvez créer, modifier l'état ou supprimer des ressources et des groupes de ressources. Pour y accéder, il vous suffit d'ouvrir la fenêtre Details de Sun Cluster et de sélectionner les options de votre choix dans l'arborescence ou dans les vues de la topologie.

Options du nouveau menu déroulant et tableaux associés

Depuis le tableau Resource Group Status et le tableau Resource Group Properties :

  • Bring Online (mettre en ligne)

  • Take Offline (mettre hors ligne)

  • Delete Selected Resource Group (supprimer le groupe de ressources sélectionné)

  • Create New Resource Group (créer un nouveau groupe de ressources)

  • Create New Resource (créer une nouvelle ressource)

Depuis le tableau Resource Status et le tableau Resource Configuration :

  • Enable (activer)

  • Disable (désactiver)

  • Delete Resource (supprimer la ressource sélectionnée)

  • Create New Resource Group (créer un nouveau groupe de ressources)

  • Create New Resource (créer une nouvelle ressource)

Comment accéder aux assistants de création à partir de l'arborescence

Procédez comme suit pour accéder aux assistants de création d'une ressource ou d'un groupe de ressources.

  1. Dans l'arborescence ou la vue topologique, cliquez deux fois sur Operating System>Sun Cluster.

  2. Avec le bouton droit de la souris, cliquez sur l'entrée Resource Groups ou sur n'importe quelle entrée de la sous-arborescence Resource Groups.

  3. Dans le menu déroulant, sélectionnez "Create New Resource Group" ou "Create New Resource".

Comment créer des ressources et des groupes de ressources

Procédez comme suit pour utiliser les assistants de création, à partir des menus déroulants qui accompagnent les tableaux des ressources et des groupes de ressources.

  1. Affichez le tableau des ressources ou celui des groupes de ressources.

  2. Placez le curseur sur n'importe quelle cellule du tableau, à l'exception de celles de la ligne d'en-tête.

  3. Cliquez avec le bouton droit de la souris.

  4. Sélectionnez l'action voulue dans le menu déroulant.

Comment supprimer ou modifier des ressources et des groupes de ressources

Procédez comme suit pour supprimer une ressource ou un groupe de ressources, ou en modifier l'état. Utilisez les menus déroulants qui accompagnent les tableaux des ressources et groupes de ressources pour activer ou désactiver une ressource et mettre un groupe de ressources en ligne ou hors ligne.

  1. Affichez le tableau des ressources ou celui des groupes de ressources.

  2. Sélectionnez l'entrée que vous souhaitez modifier.

    • Sélectionnez la ressource ou le groupe de ressources que vous souhaitez supprimer

    • Pour modifier l'état d'une ressource ou d'un groupe de ressources, sélectionnez la cellule d'état qui figure sur la ligne correspondante.

  3. Cliquez avec le bouton droit de la souris.

  4. Choisissez l'une des tâches proposées par le menu déroulant, parmi :

    • Bring Online (mettre en ligne)

    • Take Offline (mettre hors ligne)

    • Enable (activer)

    • Disable (désactiver)

    • Delete Selected Resource Group (supprimer le groupe de ressources sélectionné)

    • Delete Resource (supprimer la ressource sélectionnée)


Remarque :

Lorsque vous supprimez une ressource ou un groupe de ressources ou que vous en modifiez l'état, le module Sun Cluster ouvre une fenêtre Probe Viewer. Si le module Sun Cluster effectue correctement la tâche choisie, la fenêtre Probe Viewer affiche le message Probe command returned no data. Dans le cas contraire, la fenêtre affiche un message d'erreur.


Consultez la documentation de Sun Management Center ainsi que l'aide en ligne correspondante, pour de plus amples informations sur Sun Management Center.

Problèmes connus

Les problèmes suivants ont une incidence sur le fonctionnement de Sun Cluster 3.0 5/02. Pour obtenir les informations les plus récentes, voir le Sun Cluster 3.0 5/02 Release Notes Supplement en ligne à l'adresse http://docs.sun.com.

Bogue nº 4490386

Récapitulatif du problème : Lorsqu'une grappe utilise des serveurs Sun Enterprise 10000, ceux-ci ont tendance à ne plus savoir comment se comporter lorsque les cartes E/S sont configurées d'une telle façon.

Solution : N'installez pas de cartes E/S UDWIS dans l'emplacement 0 d'une carte E/S SBus de serveurs Sun Enterprise 10000 en grappe.

Bogue nº 4501655

Récapitulatif du problème : Le blocage d'enregistrements ne fonctionne pas sur un ou plusieurs autre(s) noeud(s) lorsque le périphérique essayant de se verrouiller est un périphérique global, par exemple /dev/global/rdsk/d4s0.

La fonction semble marcher normalement lorsque le programme est exécuté à plusieurs reprises dans l'arrière-plan d'un noeud déterminé. Le comportement attendu est que, après que la première copie du programme verrouille une partie du périphérique, les copies suivantes se bloquent et attendent que le périphérique soit déverrouillé. Néanmoins, lorsque le programme est exécuté à partir d'un noeud différent, il arrive à verrouiller à nouveau le périphérique, alors que, en fait, il devrait se bloquer et attendre le déverrouillage du périphérique.

Solution : Il n'y a pas de solution pour l'instant.

Bogue nº 4504311

Récapitulatif du problème : Lors du passage au logiciel Solaris 8 10/01 (obligatoire pour la mise à niveau de Sun Cluster 3.0 12/01) dans une configuration Sun Cluster, les scripts Apache de début et de fin sont restaurés. Si un service de données Apache (Sun Cluster HA for Apache) est déjà présent sur la grappe et est paramétré sur la configuration par défaut (le fichier /etc/apache/httpd.conf existe et le fichier /etc/rc3.d/S50apache n'existe pas), l'application Apache démarre toute seule, indépendamment du service de données Sun Cluster HA for Apache. Cela empêche le lancement du service de données, car l'application Apache est déjà en cours d'exécution.

Solution : Procédez comme suit sur chaque noeud.

  1. Avant d'arrêter un noeud que vous souhaitez mettre à niveau, voyez si les liens suivants existent et, si c'est le cas, si les noms de fichiers comportent un K ou un S majuscule.


    /etc/rc0.d/K16apache
    /etc/rc1.d/K16apache
    /etc/rc2.d/K16apache
    /etc/rc3.d/S50apache
    /etc/rcS.d/K16apache

    Si ces liens existent et qu'un K ou un S majuscule figure dans le nom de fichier, vous n'avez rien à faire de plus. Sinon, passez à l'étape suivante, une fois que le logiciel Solaris 8 10/01 est installé sur le noeud.

  2. Une fois que le logiciel Solaris 8 10/01 est installé sur le noeud, mais avant de réinitialiser le noeud, mettez de coté les liens Apache restaurés en insérant un k ou un s minuscule dans les noms de fichiers.


    # mv /a/etc/rc0.d/K16apache /a/etc/rc0.d/k16apache
    # mv /a/etc/rc1.d/K16apache /a/etc/rc1.d/k16apache
    # mv /a/etc/rc2.d/K16apache /a/etc/rc2.d/k16apache
    # mv /a/etc/rc3.d/S50apache /a/etc/rc3.d/s50apache
    # mv /a/etc/rcS.d/K16apache /a/etc/rcS.d/k16apache
    

Bogue nº 4511699

Récapitulatif du problème : Sun Cluster HA for NFS impose files [SUCCESS=return] pour l'entrée de recherche hosts dans le fichier /etc/nsswitch.conf, et impose que toutes les adresses IP privées de la grappe soient présentes dans le fichier /etc/inet/hosts sur tous les noeuds de la grappe.

Sinon, Sun Cluster HA for NFS ne peut pas procéder correctement à la reprise sur panne en cas de défaillances du réseau public.

Solution : Effectuez les étapes suivantes sur chaque noeud de la grappe.

  1. Modifiez l'entrée hosts dans le fichier /etc/nsswitch.conf de sorte que, en cas de réussite de résolution d'un nom localement, elle renvoie immédiatement la réussite et ne contacte ni NIS, ni DNS.


    hosts: cluster files [SUCCESS=return] nis dns

  2. Ajoutez des entrées pour toutes les adresses IP privées de la grappe dans le fichier /etc/inet/hosts.

Vous devez uniquement répertorier les adresses IP présentes sur les interfaces privées physiques dans les fichiers /etc/nsswitch.conf et /etc/inet/hosts. Les adresses IP logiques sont déjà solutionnables via la bibliothèque de la grappe nsswitch.

Pour répertorier les adresses IP privées physiques, exécutez la commande suivante sur un noeud de la grappe.


% grep ip_address /etc/cluster/ccr/infrastructure

Chaque adresse IP dans cette liste doit se voir attribuer un nom d'hôte distinct, différent des autres noms d'hôte du domaine.


Remarque :

Le logiciel Sun Cluster impose déjà que les adresses IP HA (LogicalHostname/SharedAddresses) soient présentes dans /etc/inet/hosts sur tous les noeuds de la grappe et que files soit répertorié avant nis ou dns. Les exigences supplémentaires imposées par ce bogue sont de répertorier [SUCCESS=return] après files et de répertorier toutes les adresses IP privées de la grappe dans le fichier /etc/inet/hosts.


Bogue nº 4526883

Récapitulatif du problème : Rarement, il se peut que le chemin de transport d'interconnexion privée se terminant à un adaptateur qfe ne fonctionne pas correctement.

Solution : Procédez comme suit.

  1. Identifiez l'adaptateur défectueux.

    La commande Scstat -W doit normalement afficher tous les chemins de transport de cet adaptateur, en tant que points terminaux du chemin en état "faulted" ou "waiting".

  2. Utilisez la commande scsetup(1M) pour supprimer de la configuration de la grappe tous les câbles connectés à cet adaptateur.

  3. Utilisez à nouveau la commande scsetup pour supprimer cet adaptateur de la configuration de la grappe.

  4. Ajoutez ensuite l'adaptateur et les câbles à la configuration de la grappe.

  5. Vérifiez que le problème est bien résolu grâce aux étapes effectuées et que les chemins peuvent désormais revenir.

Si la suppression, puis l'ajout des câbles et de l'adaptateur ne fonctionnent pas, répétez la procédure à plusieurs reprises. Si le problème n'est toujours pas résolu, réinitialisez le noeud ayant l'adaptateur défectueux. Il est probable que le problème disparaîtra lors de l'initialisation du noeud. Avant de réinitialiser le noeud, assurez-vous que le reste de la grappe a suffisamment de votes de quorum pour résister à la réinitialisation du noeud.

Bogue nº 4620185

Récapitulatif du problème : Si le démon rpc.pmfd surveille un processus qui scinde un nouveau processus en raison du traitement d'un signal, l'utilisation de pmfadm -k tag signal peut entraîner l'apparition d'une boucle infinie. Ceci peut se produire car la commande pmfadm(1M) tente d'éliminer tous les processus dans l'arborescence de la balise tandis que les processus nouvellement scindés sont ajoutés à l'arborescence (chacun étant ajouté à la suite de l'élimination du précédent).


Remarque :

Ce bogue n'apparaît normalement pas avec pmfadm -s tag signal.


Solution : Utilisez la commande pmfadm -s tag signal au lieu de pmfadm -k. L'option -s de la commande pmfadm n'a pas la même condition que l'option -k.

Bogue nº 4629536

Récapitulatif du problème : L'utilisation simultanée de l'option de montage forcedirectio et de la fonction mmap(2) peut provoquer la corruption des données, ce qui entraîne l'arrêt ou la panique du système.

Solution : Respectez les restrictions suivantes.

Si vous devez utiliser directio, montez l'ensemble du système de fichiers avec les options directio.

Bogue nº 4634409

Récapitulatif du problème : Si vous essayez de monter le même périphérique sur différents points de monatge, le système capte la plupart du temps cette erreur et provoque l'échec du second montage. Néanmoins, il arrive parfois, dans de très rares circonstances, que le système ne puisse pas capter cette erreur, et qu'il permette donc aux deux montages de s'effectuer. C'est uniquement le cas lorsque les quatre conditions suivantes sont vérifiées.

Solution : L'administrateur système doit être attentif lors du montage des systèmes de fichiers sur la grappe.

Bogue nº 4638586

Récapitulatif du problème : Il se peut que la commande scconf(1M) ne réminorise pas les groupes de disques VxVM dans certains cas et affiche un message d'erreur disant que le périphérique est déjà utilisé dans un autre groupe de périphériques.

Solution : Effectuez les tâches suivantes pour attribuer un nouveau code mineur au groupe de disques.

  1. Cherchez les codes mineurs déjà utilisés.

    Observez les codes mineurs utilisés avec le code majeur répertorié dans la sortie suivante.


    % ls -l /dev/vx/rdsk/*/*
     
    crw-------   1 root     root     210,107000 Mar 11 18:18 /dev/vx/rdsk/fix/vol-01
    crw-------   1 root     root     210,88000 Mar 15 16:31 /dev/vx/rdsk/iidg/vol-01
    crw-------   1 root     root     210,88001 Mar 15 16:32 /dev/vx/rdsk/iidg/vol-02
    crw-------   1 root     root     210,88002 Mar 15 16:33 /dev/vx/rdsk/iidg/vol-03
    crw-------   1 root     root     210,88003 Mar 15 16:49 /dev/vx/rdsk/iidg/vol-04
    crw-------   1 root     root     210,13000 Mar 18 16:09 /dev/vx/rdsk/sndrdg/vol-01
    crw-------   1 root     root     210,13001 Mar 18 16:08 /dev/vx/rdsk/sndrdg/vol-02

  2. Choisissez n'importe quel multiple de 1000 non utilisé comme code mineur de base pour le nouveau groupe de disques.

  3. Attribuez le code mineur non encore utilisé au groupe de disques en état de dysfonctionnement.

    Utilisez l'option de réminorisation de la commande vxdg.

  4. Essayez à nouveau la commande scconf qui avait échoué.

Bogue nº 4644289

Récapitulatif du problème : Sur Solaris 9, la méthode d'arrêt du service de données Sun Cluster HA for Oracle peut temporiser en cas de panne du réseau public, si aucun service externe d'attribution de noms n'est disponible. Le service de données Sun Cluster HA for Oracle emploie la commande utilisateur su(1M) pour démarrer et arrêter la base de données.

Solution : Sur chaque noeud pouvant être primaire pour la ressource oracle_server ou oracle_listener, modifiez le fichier /etc/nsswitch.conf afin d'inclure les entrées suivantes pour les bases de données passwd, group, publickey et project.


passwd:       files
group:        files
publickey:    files
project:      files

Ces modifications garantissent que la commande su(1M) ne réfèrera pas aux services d'attribution de noms NIS/NIS+, et garantit que le service d'attribuion de noms démarre et s'arrête correctement en cas de panne du réseau public.

Bogue nº 4648767

Récapitulatif du problème : L'utilisation de sendfile(3EXT) provoque la panique du noeud.

Solution : Il n'existe aucune solution à ce problème, hormis l'utilisation de sendfile.

Bogue nº 4651392

Récapitulatif du problème : Sur Solaris 9, un noeud de grappe en cours de fermeture est susceptible de paniquer et d'afficher le message suivant en cours de fermeture.


CMM: Shutdown timer expired. Halting

Solution : Il n'existe pas de solution à ce problème. La panique du noeud n'a pas d'autre effet secondaire et peut être considérée comme relativement bénigne.

Bogue nº 4653151

Récapitulatif du problème : La création d'une ressource HAStoragePlus échoue si l'ordre des points de montage du système de fichiers spécifié dans la propriété d'extension FilesystemMountPoints n'est pas le même que l'ordre indiqué dans le fichier /etc/vfstab.

Solution : Assurez-vous que la liste des points de montage spécifiée dans la propriété d'extension FilesystemMountPoints correspond à la séquence indiquée dans le fichier /etc/vfstab. Par exemple, si le fichier /etc/vfstab spécifie les entrées du système de fichiers dans la séquence /a, /b, et /c, la séquence FilesystemMountPoints peut être "/a,/b,/c" ou "/a,/b" ou encore "/a,/c" mais pas "/a,/c,/b."

Bogue nº 4653788

Récapitulatif du problème : La propriété d'extension Failover_enabled paramétrée sur FALSE est censée empêcher le moniteur de la ressource de lancer une reprise sur panne du groupe de ressources.

Néanmoins, si le moniteur essaie de redémarrer une ressource, et que la méthode START ou STOP échoue ou temporise, le moniteur essaie de transférer, quel que soit le paramétrage de Failover_enabled.

Solution : Il n'existe aucune solution à ce problème.

Bogue nº 4655194

Récapitulatif du problème : Les groupes de périphériques basés sur partition logicielle Solstice DiskSuite sur un VxFS monté localement sont susceptibles de provoquer des erreurs si les commandes de commutation du groupe de périphériques (scswitch -D device-group) sont exécutées.

Solstice DiskSuite effectue en interne des opérations de resynchronisation miroir qui peuvent prendre un certain temps. Les resynchronisations miroir diminuent la redondance. VxFS rapporte des erreurs pour cette jonction et provoque des pannes E/S moniteur/application, ce qui entraîne le redémarrage de l'application.

Solution : Pour tout groupe de périphériques Solstice DiskSuite configuré avec HAStoragePlus, ne basculez pas manuellement le groupe de périphériques. En revanche, basculez le groupe de ressources, ce qui entraînera alors la bascule correcte des périphériques.

Vous pouvez également configurer les systèmes de fichiers VxFS montés localement sur les groupes de disques VxVM.

Bogue nº 4656367

Récapitulatif du problème : Certains messages d'erreur n'ont pas été repris dans le CD-ROM Sun Cluster 3.0 5/02.

Solution : Vous trouverez l'explication de ces messages d'erreur dans "Nouveaux messages d'erreur".

Bogue nº 4656391

Récapitulatif du problème : La commande fsck(1M) d'un système de fichiers résidant sur un groupe de périphériques Sun Cluster global Solstice DiskSuite/VxVM échoue s'il est executé à partir d'un noeud non primaire (secondaire). Nous avons constaté ce problème sur Solaris 9, mais il se peut que les versions antérieures n'aient pas ce comportement.

Solution : Invoquez uniquement la commande fsck sur le noeud primaire.

Bogue nº 4656531

Récapitulatif du problème : Une ressource écouteur de Sun Cluster HA for Oracle ne se comporte pas correctement si plusieurs ressources écouteur sont configurées pour lancer les écouteurs avec le même nom d'écouteur.

Solution : N'utilisez pas le même nom d'écouteur pour les différents écouteurs d'une même grappe.

Bogue nº 4657088

Récapitulatif du problème : La dissociation/séparation d'un plex d'un groupe de disques VxVM sous Sun Cluster 3.0 peut provoquer la panique du noeud de la grappe avec la chaîne de panique suivante :


  panic[cpu2]/thread=30002901460: BAD TRAP: type=31 rp=2a101b1d200 addr=40
  mmu_fsr=0 occurred in module "vxfs" due to a NULL pointer dereference

Solution : Avant de dissocier/séparer un plex, démontez le système de fichiers correspondant.

Bogue nº 4657833

Récapitulatif du problème : La reprise sur panne ne se produit pas lorsque la propriété du groupe de ressources auto_start_on_new_cluster est configurée sur false.

Solution : A chaque réinitialisation de l'ensemble de la grappe, pour les groupes de ressources ayant la propriété auto_start_on_new_cluster configurée sur false, paramétrez la propriété auto_start_on_new_cluster sur true, puis reconfigurez la propriété auto_start_on_new_cluster sur false.


# scrgadm -c -g rgname -y auto_start_on_new_cluster=true
# scrgadm -c -g rgname -y auto_start_on_new_cluster=false

Bogue nº 4659042

Récapitulatif du problème : Pour les systèmes de fichiers VxFS montés globalement, le fichier /etc/mnttab est susceptible de ne pas afficher l'option globale.

Solution : Si une entrée /etc/mnttab est détectée sur tous les noeuds de la grappe pour le système de fichiers concerné, cela signifie que le système de fichiers est monté globalement.

Bogue nº 4659091

Récapitulatif du problème : Lors du remontage d'un système de fichiers monté globalement, /etc/mnttab n'est pas mis à jour.

Solution : Il n'y a pas de solution pour l'instant.

Bogue nº 4660479

Récapitulatif du problème : En cas d'utilisation de Sun Cluster HA for NFS avec HAStoragePlus, les verrouillages de blocage ne sont pas récupérés durant les reprises sur panne et les bascules. En conséquence, lockd ne peut pas être relancé par Sun Cluster HA for NFS, ce qui provoque l'échec de la méthode nfs_postnet_stop, avec pour résultat le blocage du noeud de la grappe.

Solution : N'utilisez pas Sun Cluster HA for NFS sur HAStoragePlus. Les systèmes de fichier de grappe ne rencontrent pas ce problème, et vous pouvez donc configurer Sun Cluster HA for NFS sur un système de fichiers de grappe pour éviter cette difficulté.

Bogue nº 4660521

Récapitulatif du problème : Lors de l'élimination d'un serveur HTTP sur un noeud, un fichier PID reste sur le noeud. Lors du lancement suivant du serveur HTTP, il y a une vérification de l'existence du fichier PID et d'un processus éventuellement en cours avec le fichier PID (kill -0). Comme les PID sont recyclés, il se peut qu'il y ait un autre processus avec le même PID que celui du dernier serveur HTTP. Dans ce cas, le lancement du serveur HTTP échoue.

Solution : Si le serveur HTTP ne démarre pas avec un message d'erreur semblable à celui ci-dessous, supprimez manuellement le fichier PID du serveur HTTP afin de redémarrer correctement.


Mar 27 17:47:58 ppups4 uxwdog[939]: could not log PID to PidLog
/app/iws/https-schost-5.example.com/logs/pid, server already running
(No such file or directory)

Bogue nº 4662264

Récapitulatif du problème : Afin d'éviter de provquer une panique lors de l'utilisation des produits VERITAS comme VxFS avec le logiciel Sun Cluster, il faut augmenter la taille d'empilement des threads par défaut.

Solution : Augmentez cette taille en introduisant les lignes suivantes dans le fichier /etc/system.


set lwp_default_stksize=0x6000
set svc_default_stksize 0x8000

L'entrée svc_default_stksize est indispensable pour les opérations NFS.

Après l'installation des modules VERITAS, vérifiez que VERITAS n'a pas ajouté de lignes similaires dans le fichier /etc/system. Si tel est le cas, il faut les ramener à un argument au moyen de la valeur la plus élevée.

Bogue nº 4663876

Récapitulatif du problème : Dans un groupe de périphériques comprenant plus de deux éléments avec une liste de noeuds ordonnée, si le noeud à supprimer n'est pas le dernier de la liste, la commande scconf affiche des informations partielles sur la liste de noeuds.

Solution :

Bogue nº 4664510

Récapitulatif du problème : Après l'arrêt de l'un des Sun StorEdge T3 Array et de l'exécution de scshutdown, la réinitialisation des deux noeuds place la grappe dans un état de non fonctionnement.

Solution : En cas de perte de la moitié des répliques, procédez comme suit :

  1. Assurez-vous que la grappe est en mode grappe.

  2. Importez obligatoirement l'ensemble de disques.


    # metaset -s nom_ensemble -f -C take
    

  3. Supprimez les répliques endommagées.


    # metadb -s nom_ensemble -fd /dev/did/dsk/dNsX
    

  4. Libérez l'ensemble de disques.


    # metaset -s nom_ensemble -C release
    

    Vous pouvez à présent monter et utiliser le système de fichiers. Néanmoins, vous n'avez pas restauré la redondance dans les répliques. En cas de perte de la seconde moitié des répliques, vous ne pourrez pas restaurer le miroir dans un état de bon fonctionnement.

  5. Recréez les bases de données après l'application de la procédure de réparation décrite ci-dessus.

Problèmes détectés dans la documentation

Cette section détaille les erreurs connues et les omissions de la documentation, de l'aide en ligne et des pages de manuel, et indique la marche à suivre pour y remédier.

Correction de l'aide en ligne de SunPlex Manager

Une note erronée figure dans l'aide en ligne de SunPlex Manager. Cette note apparaît dans la procédure d'installation du service de données Oracle. La correction est indiquée ci-dessous.

Incorrect :

Remarque : En l'absence de valeur en face des variables shmsys et semsys dans le fichier /etc/system, une fois les modules de SunPlex Manager installés, des valeurs par défaut sont automatiquement appliquées à ces variables dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.

Correct :

Remarque : En l'absence de valeurs en face des variables shmsys et semsys, dans le fichier /etc/system, l'installation du service de données Oracle permet une insertion automatique des valeurs par défaut dans le fichier /etc/system. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.

Modules Sun Cluster HA for Oracle

Le paragraphe d'introduction de la section "Installation des modules Sun Cluster HA for Oracle" du document Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide n'évoque pas le module supplémentaire dont ont besoin les utilisateurs des grappes exploitant Sun Cluster HA for Oracle avec Oracle 64 bits. La section suivante corrige le paragraphe d'introduction de la section "Installation des modules Sun Cluster HA for Oracle" du Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide.

Installation des modules Sun Cluster HA for Oracle

Utilisez l'utilitaire scinstall(1M) pour installer un des modules suivants sur votre grappe, voire les deux, selon votre configuration. N'appliquez pas l'option -s à la commande non interactive scinstall si vous souhaitez installer tous les modules de services de données.


Remarque :

SUNWscorx dépend du module SUNWscor.


Si vous avez installé le module des services de données SUNWscor lors de l'installation initiale de Sun Cluster, allez directement à la section "Enregistrement et configuration de Sun Cluster HA for Oracle", page 30. Sinon, procédez comme suit pour installer les modules SUNWscor et SUNWscorx.

Groupes de disques root simples avec VERITAS Volume Manager

Les groupes de disques simples ne sont pas pris en charge en tant que types de disques par VERITAS Volume Manager sur le logiciel Sun Cluster. En conséquence, pour effectuer la procédure "How to Restore a Non-Encapsulated root (/) File System (VERITAS Volume Manager)" du Guide d'administration système de Sun Cluster 3.0 12/01, vous devez passer l'étape 9, qui vous demande de déterminer si le groupe de disques root (rootdg) est sur une seule tranche du disque root. Suivez les étapes de 1 à 8, passez l'étape 9, et continuez avec l'étape 10 jusqu'à la fin de la procédure.

Mise à niveau vers une version mise à jour du logiciel Sun Cluster 3.0

Vous trouverez ci-dessous une correction apportée à l'étape 8 de "Mise à niveau vers une version mise à jour du logiciel Sun Cluster 3.0" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.

  1. (Facultatif) Mettez à niveau le logiciel Solaris 8.

    1. Mettez provisoirement à l'écart toutes les entrées de périphériques globaux du fichier /etc/vfstab.

      Vous éviterez ainsi à la mise à niveau de Solaris de monter les périphériques globaux.

    2. Arrêtez le noeud que vous voulez mettre à niveau.


      # shutdown -y -g0
      ok

    3. Suivez les instructions du manuel d'installation concernant la version de Solaris 8 Maintenance Update qui vous intéresse.


      Remarque :

      Ne réinitialisez pas le noeud lorsque vous êtes invité à le faire.


    4. Supprimez les commentaires de toutes les entrées des périphériques globaux dont vous avez supprimé les commentaires à l'Étape a dans le fichier /a/etc/vfstab.

    5. Installez tous les patchs logiciels Solaris ainsi que les patchs matériels, puis téléchargez tous les microprogrammes des patchs matériels dont vous pourriez avoir besoin.

      Si certains patchs imposent une réinitialisation, réinitialisez le noeud en mode hors-grappe (non-cluster) comme décrit à l'Étape f.

    6. Réinitialisez le noeud en mode hors-grappe.

      N'oubliez pas d'insérer les symboles (--) et (") dans la commande.


      # reboot -- "-x"
      

Mise à niveau de Sun Cluster 2.2 vers Sun Cluster 3.0

Les procédures suivantes de mise à niveau comportent les modifications et les corrections apportées aux procédures depuis la sortie du Guide d'installation du logiciel Sun Cluster 3.0 12/01.

Pour mettre à niveau de Sun Cluster 2.2 vers Sun Cluster 3.0 5/02, suivez les procédures suivantes au lieu des versions documentées dans le Guide d'installation du logiciel Sun Cluster 3.0 12/01.

Comment mettre à niveau des modules logiciels de la grappe

  1. Connectez-vous en tant que superutilisateur sur un noeud de la grappe.

  2. Si vous installez à partir du CD-ROM, insérez le CD-ROM Sun Cluster 3.0 5/02 dans le lecteur de CD-ROM d'un noeud.

    Si le démon de gestion des volumes vold(1M) est en fonctionnement et qu'il est configuré pour gérer les lecteurs de CD-ROM, il charge automatiquement le CD-ROM dans le répertoire /cdrom/suncluster_3_0_u3.

  3. Choisissez le répertoire /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages.


    # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
    

  4. Si votre gestionnaire de volumes est Solstice DiskSuite, installez le dernier module du médiateur de Solstice DiskSuite (SUNWmdm) sur chaque noeud.

    1. Ajoutez le module SUNWmdm.


      # pkgadd -d . SUNWmdm
      

    2. Réinitialisez le noeud.


      # shutdown -g0 -y -i6
      

    3. Répétez l'opération sur l'autre noeud.

  5. Reconfigurez les médiateurs.

    1. Identifiez le noeud possédant l'ensemble de disques auquel vous souhaitez ajouter les hôtes médiateurs.


      # metaset -s nom_ensemble
      
      -s nom_ensemble

      Indique le nom de l'ensemble de disques

    2. Si aucun noeud n'a de propriétaire, devenez propriétaire de l'ensemble de disques.


      # metaset -s nom_ensemble -t
      
      -t

      Attribue la propriété de l'ensemble de disques

    3. Recréez les médiateurs.


      # metaset -s nom_ensemble -a -m liste_hôtes_médiateurs
      
      -a

      Ajoute des éléments à l'ensemble de disques

      -m liste_hôte_médiateurs

      Indique le nom des noeuds à ajouter en tant qu'hôtes médiateurs pour l'ensemble de disques

    4. Répétez l'opération pour chaque ensemble de disques.

  6. Sur chaque noeud, arrêtez le démon rpc.pfmd.


    # /etc/init.d/initpmf stop
    

  7. Mettez à niveau le premier noeud vers le logiciel Sun Cluster 3.0 5/02.

    Ces procédures feront désormais référence à ce noeud comme étant le noeud installé en premier.

    1. Sur le premier noeud à mettre à niveau, choisissez le répertoire /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools .


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    2. Mettez à niveau la structure logicielle de la grappe.


      # ./scinstall -u begin -F
      
      -F

      Indique que c'est le premier noeud installé dans la grappe

      Reportez-vous à la page de manuel scinstall(1M) pour de plus amples informations.

    3. Le cas échéant, installez les patchs de Sun Cluster sur le premier noeud.

      Reportez-vous au document Notes de version de Sun Cluster 3.0 5/02 pour connaître l'emplacement des patchs et les instructions d'installation.

    4. Réinitialisez le noeud.


      # shutdown -g0 -y -i6
      

      Lorsque le premier noeud se réinitialise en mode grappe, il établit la grappe.

  8. Mettez à niveau le deuxième noeud vers le logiciel Sun Cluster 3.0 5/02.

    1. Choisissez le répertoire /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools sur le deuxième noeud.


      # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
      

    2. Mettez à niveau la structure logicielle de la grappe.


      # ./scinstall -u begin -N noeud1
      
      -N noeud1

      Indique le nom du premier noeud installé dans la grappe, et non le nom du second noeud à installer.

      Reportez-vous à la page de manuel scinstall(1M) pour de plus amples informations.

    3. Le cas échéant, installez les patchs Sun Cluster sur le deuxième noeud.

      Reportez-vous au document Notes de version de Sun Cluster 3.0 5/02 pour connaître l'emplacement des patchs et les instructions d'installation.

    4. Réinitialisez le noeud.


      # shutdown -g0 -y -i6
      

  9. Une fois les deux noeuds réinitialisés, vérifiez à partir de l'un des noeuds que les deux noeuds sont membres de la grappe.


    -- Cluster Nodes --
                       Node name      Status
                       ---------      ------
      Cluster node:    phys-schost-1  Online
      Cluster node:    phys-schost-2  Online

    Reportez-vous à la page de manuel scstat(1M) pour de plus amples informations sur l'affichage de l'état de la grappe.

  10. Choisissez un disque partagé en tant que périphérique de quorum.

    Vous pouvez utiliser n'importe quel disque partagé par les deux noeuds en tant que périphérique de quorum. A partir de l'un des noeuds, utilisez la commande scdidadm(1M) pour déterminer le nom de l'ID de périphérique (DID) du disque partagé. Vous spécifiez ce nom de périphérique à l'Étape 5, dans l'option -q globaldev=DIDname de scinstall.


    # scdidadm -L
    

  11. Configurez le périphérique de quorum partagé.

    1. Lancez l'utilitaire scsetup(1M).


      # scsetup
      

      L'écran Initial Cluster Setup apparaît.

      Si le processus de configuration du quorum est interrompu ou ne se termine pas correctement, relancez scsetup.

    2. A l'invite Do you want to add any quorum disks?, configurez un périphérique de quorum partagé.

      Une grappe à deux noeuds reste en mode installation jusqu'à ce qu'un périphérique de quorum partagé soit configuré. Une fois que l'utilitaire scsetup a configuré le périphérique de quorum, le message Command completed successfully apparaît.

    3. A l'invite Is it okay to reset "installmode"?, répondez Yes.

      Après avoir défini les configurations de quorum et le nombre de votes pour la grappe, l'utilitaire scsetup affiche le message Cluster initialization is complete et vous renvoie au menu principal.

    4. Quittez l'utilitaire scsetup.

  12. A partir d'un noeud quelconque, vérifiez la configuration de quorum des périphériques et des noeuds.

    Vous n'avez pas besoin d'être un superutilisateur pour exécuter cette commande.


    % scstat -q
    

  13. A partir d'un noeud quelconque, vérifiez que le mode d'installation de la grappe est désactivé.

    Vous n'avez pas besoin d'être un superutilisateur pour exécuter cette commande.


    % scconf -p | grep "Cluster install mode:"
    Cluster install mode:                                  disabled

  14. Mettez à jour les chemins d'accès des répertoires.

    Consultez la section "Mise à niveau de l'environnement root" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.

Exemple : Mise à niveau de Sun Cluster 2.2 vers le logiciel Sun Cluster 3.0 5/02 - Lancement du processus

L'exemple suivant présente le début du processus de mise à niveau d'une grappe à deux noeuds de Sun Cluster 2.2 vers Sun Cluster 3.0 5/02. Les noms des noeuds de la grappe sont phys-schost-1, le premier noeud installé, et phys-schost-2, qui rejoint la grappe établie par phys-schost-1. Le gestionnaire de volumes est Solstice DiskSuite et les deux noeuds sont utilisés comme hôtes médiateurs pour l'ensemble de disques schost-1.


(Installez le dernier module du médiateur de Solstice DiskSuite sur chaque noeud)
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packagespkgadd -d . SUNWmdm
 
(Restaurez le médiateur)
# metaset -s schost-1 -tmetaset -s schost-1 -a -m phys-schost-1 phys-schost-2
 
(Fermez le démon rpc.pmfd)
# /etc/init.d/initpmf stop
 
(Commencez la mise à niveau sur le premier noeud et réinitialisez-le)
phys-schost-1# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
phys-schost-1# ./scinstall -u begin -F
phys-schost-1# shutdown -g0 -y -i6
 
(Commencez la mise à niveau sur le deuxième noeud et réinitialisez-le)
phys-schost-2# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools
phys-schost-2# ./scinstall -u begin -N phys-schost-1
phys-schost-2# shutdown -g0 -y -i6
 
(Vérifiez l'appartenance à la grappe)
# scstat
 
(Sélectionnez un disque partagé et configurez-le comme périphérique de quorum)
# scdidadm -L
# scsetup
Sélectionnez Quorum>Add a quorum disk
 
Vérifiez que le périphérique de quorum est configuré.
# scstat -q
 
(Vérifiez que la grappe n'est plus en mode installation)
% scconf -p | grep "Cluster install mode:"
Cluster install mode:                                  disabled

Comment terminer la mise à niveau du logiciel d'une grappe

Cette procédure termine le processus de mise à niveau scinstall(1M) commencé dans la section "Comment mettre à niveau des modules logiciels de la grappe". Procédez comme suit sur chaque noeud de la grappe.

  1. Connectez-vous en tant que superutilisateur sur chaque noeud de la grappe.

  2. Votre gestionnaire de volumes est-il VxVM ?

    • Si tel n'est pas le cas, passez à l'Étape 3.

    • Si tel est le cas, installez VxVM et tout patch VxVM éventuel, et créez le groupe de disques root (rootdg) comme pour une nouvelle installation.

      • Pour installer VxVM et encapsuler le disque root, suivez les procédures de "Installation du logiciel VERITAS Volume Manager et encapsulage du disque root" du Guide d'installation du logiciel Sun Cluster 3.0 12/01. Pour donner un miroir au disque root, suivez les procédures décrites dans "Mise en miroir du disque root encapsulé" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.

      • Pour installer VxVM et créer rootdg sur des disques locaux non root, suivez les procédures décrites dans "Installation du logiciel VERITAS Volume Manager Software uniquement" et dans "Création d'un groupe de disques rooutdg sur un disque non root" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.

  3. Mettez-vous à niveau Sun Cluster HA for NFS ?

    Si oui, allez à l'Étape 4.

    Sinon, passez à l'Étape 5.

  4. Terminez la mise à niveau du logiciel Sun Cluster 3.0 et convertissez la configuration de Sun Cluster HA for NFS.

    Si vous ne mettez pas à niveau Sun Cluster HA for NFS, effectuez l'Étape 5 à la place.

    1. Insérez le Guide d'installation du logiciel Sun Cluster 3.0 12/01 dans le lecteur de CD-ROM d'un noeud.

      On considère ici que le démon vold(1M) du volume fonctionne et est configuré pour gérer les CD-ROM.

    2. Terminez la mise à niveau du logiciel de la grappe sur ce noeud.


      # scinstall -u finish -q globaldev=DIDname \
      -d /cdrom/scdataservices_3_0_u3 -s nfs
      
      -q globaldev=DIDname

      Indique le nom DID (ID de périphérique) du périphérique de quorum

      -d scdataservices_3_0_u3

      Indique le répertoire où se trouve l'image du CD-ROM

      -s nfs

      Indique le nom du service de données Sun Cluster HA for NFS à configurer.


      Remarque :

      Un message d'erreur similaire à celui présenté ci-après peut apparaître. Vous pouvez l'ignorer sans risque.


      ** Installing Sun Cluster - Highly Available NFS Server **
      Skipping "SUNWscnfs" - already installed


    3. Ejectez le CD-ROM.

    4. Répétez l'opération de l'Étape a à l'Étape c sur l'autre noeud.

      Lorsque vous avez terminé sur les deux noeuds, le mode installation de la grappe est désactivé et tous les votes de quorum sont affectés.

    5. Allez directement à l'Étape 6.

  5. Terminez la mise à niveau du logiciel Sun Cluster 3.0 sur chaque noeud.

    Si vous mettez à niveau Sun Cluster HA for NFS, effectuez l'Étape 4 à la place.


    # scinstall -u finish -q globaldev=DIDname
    
    -q globaldev=DIDname

    Indique le nom DID (ID de périphérique) du périphérique de quorum

  6. Si vous mettez à niveau des services de données autres que Sun Cluster HA for NFS, configurez les ressources pour ces services de données comme s'il s'agissait d'une nouvelle installation.

    Voir le Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide pour la marche à suivre.

  7. Si votre gestionnaire de volumes est Solstice DiskSuite, démarrez les groupes de périphériques de disques préexistants à partir de n'importe quel noeud.


    # scswitch -z -D groupe-unité-disque -h noeud
    
    -z

    Effectue le changement

    -D groupe-unité-disque

    Indique le nom du groupe de périphériques de disques, qui correspond au nom de l'ensemble de disques pour le logiciel Solstice DiskSuite.

    -h noeud

    Indique le nom du noeud de grappe jouant le rôle de noeud principal pour le groupe d'unités de disques

  8. A partir de l'un des noeuds, faites démarrer les groupes de ressources de service de données préexistants.

    A ce stade, les hôtes logiques de Sun Cluster 2.2 sont convertis en groupes de ressources de Sun Cluster 3.0 5/02 et les noms des hôtes logiques reçoivent le suffixe -lh. Par exemple, un hôte logique appelé lhost-1 devient groupe de ressources nommé lhost-1-lh. Utilisez ces noms de groupes de ressources convertis dans la commande suivante :


    # scswitch -z -g group_ressources -h noeud
    
    -g groupes_ressources

    Indique le nom du groupe de ressources à faire démarrer

    Vous pouvez utiliser la commande scrgadm -p pour afficher une liste de tous les types de ressources et groupes de ressources de la grappe. La commande scrgadm -pv affiche cette même liste avec plus de détails.

  9. Si vous utilisez Sun Management Center pour surveiller votre configuration Sun Cluster, installez le module Sun Cluster pour Sun Management Center.

    1. Assurez-vous que vous utilisez la version la plus récente de Sun Management Center.

      Reportez-vous à la documentation de Sun Management Center pour connaître les procédures d'installation ou de mise à jour.

    2. Suivez les instructions et les procédures décrites dans la section "Configuration minimale requise pour la surveillance de Sun Cluster" du Guide d'installation du logiciel Sun Cluster 3.0 12/01 pour installer les modules de Sun Cluster.

  10. Vérifiez que tous les noeuds ont rejoint la grappe.

    Allez à la section "Vérification des membres de la grappe" du Guide d'installation du logiciel Sun Cluster 3.0 12/01.

Exemple : Mise à niveau de Sun Cluster 2.2 vers le logiciel Sun Cluster 3.0 5/02 - Fin du processus

L'exemple suivant présente la fin du processus de mise à niveau d'une grappe à deux noeuds de Sun Cluster 2.2 vers Sun Cluster 3.0 5/02. Les noms des noeuds de la grappe sont phys-schost-1 et phys-schost-2, les noms des groupes de périphériques sont dg-schost-1 et dg-schost-2, et les noms des groupes de ressources des services de données sont lh-schost-1 et lh-schost-2. La commande scinstall convertit automatiquement la configuration Sun Cluster HA for NFS.


(Terminez la mise à niveau sur chaque noeud)
phys-schost-1# scinstall -u finish -q globaldev=d1 \
-d /cdrom/scdataservices_3_0_u3 -s nfs
phys-schost-2# scinstall -u finish -q globaldev=d1 \
-d /cdrom/scdataservices_3_0_u3 -s nfs
 
(Démarrez les groupes de périphériques et les groupes de ressources de services de données sur chaque noeud)
phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1
phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2
phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2

Retrait d'un noeud de l'état de maintenance

La procédure "How to Bring a Node Out of Maintenance State" du Guide d'administration système de Sun Cluster 3.0 12/01 ne s'applique pas aux grappes binodales. Nous allons procéder à l'évaluation d'une procédure ad hoc pour les grappes binodales en vue de la prochaine version.

Pages de manuel

Page de manuel scgdevs(1M)

Le paragraphe ci-dessous clarifie le comportement de la commande scgdevs. Actuellement, ces informations ne figurent pas dans la page de manuel scgdevs(1M).

Nouvelles informations :

Si vous appelez la commande scgdevs(1M) à partir du noeud local, celle-ci effectue sa tâche de manière asynchrone sur les noeuds distants. Par conséquent, la fin de l'action de la commande sur le noeud local ne signifie pas que celle-ci a terminé sa tâche dans toute la grappe.

Page de manuel SUNW.sap_ci(5)

Page de manuel SUNW.sap_as(5)

Page de manuel rg_properties(5)

La nouvelle propriété de groupe de ressources suivante doit être ajoutée à la page de manuel rg_properties(5).

Auto_start_on_new_cluster

Cette propriété vérifie que le Resource Group Manager lance automatiquement le groupe de ressources lors de la formation d'une nouvelle grappe.

La valeur par défaut est TRUE. En cas de configuration sur TRUE, le Resource Group Manager essaie de lancer le groupe de ressources automatiquement afin d'obtenir les Desired_primaries lors de la réinitialisation simultanée de l'ensemble des noeuds de la grappe. En cas de configuration sur FALSE, le Resource Group ne démarre pas automatiquement lors de la réinitialisation de la grappe.

Catégorie : Défaut : True Réglable : Tout délai

Nouveaux messages d'erreur

Les messages d'erreur suivants ne se trouvent pas sur le CD-ROM Sun Cluster 3.0 5/02.


360600:Oracle UDLM package wrong instruction set architecture.

Le module Oracle UDLM actuellement installé a une mauvaise architecture d'ensemble d'instructions pour le mode sur lequel est actuellement initialisé le noeud (par exemple, Oracle UDLM est en 64 bits (sparc9) et le noeud est actuellement initialisé en mode 32 bits (sparc)).

Procurez-vous et installez le module Oracle UDLM correct pour l'architecture d'ensemble d'instructions du système, ou initialisez le noeud dans une architecture d'ensemble d'instructions compatible avec la version actuelle d'Oracle UDLM.


800320:Fencing %s from shared disk devices.

Il y a eu une réservation pour séparer les noeuds non membres des disques partagés entre les noeuds de la grappe.

Aucun.


558777:Enabling failfast on all shared disk devices.

Activation d'une sécurité de réservation, de façon à éliminer les noeuds partageant ces groupes de disques s'ils sont délimités par d'autres noeuds.

Aucun.


309875:Error encountered enabling failfast.

Erreur lors de la tentative d'activation de la sécurité de réservation sur les disques partagés par d'autres noeuds.

Il s'agit d'une erreur interne. Sauvegardez le contenu de /var/adm/messages, /var/cluster/ucmm/ucmm_reconf.log et /var/cluster/ucmm/dlm*/logs/* de tous les noeuds et prenez contact avec le représentant commercial de Sun le plus proche.