Ce document contient les informations suivantes au sujet de SunTM Cluster 3.0 Update 1 (U1).
Les annexes de ce document fournissent des fiches et des exemples qui vous aideront à planifier l'installation des services de données et du logiciel Sun Cluster 3.0 U1.
Le tableau suivant répertorie les nouvelles fonctions et fonctionnalités qui exigent une mise à jour de la documentation de Sun Cluster. La seconde colonne identifie la documentation qui a été mise à jour. Contactez votre représentant commercial Sun pour obtenir une liste complète du matériel et des logiciels pris en charge.
Tableau 1-1 Nouvelles fonctions
Fonction ou fonctionnalité |
Mises à jour de la documentation |
---|---|
Interface GUI de SunPlexTM Manager |
Une aide en ligne complète est fournie avec l'interface graphique. |
Fonctions d'accessibilité dans l'interface GUI de SunPlex Manager |
SunPlex Manager prend en charge un logiciel d'accessibilité tiers lorsqu'il est exécuté via un navigateur accessible, tel qu'Internet Explorer 5. Les fonctions d'accessibilité comprennent des menus à base de texte, une navigation au clavier et des alternatives textuelles aux informations présentées graphiquement. Reportez-vous au Guide d'administration système de Sun Cluster 3.0 U1 pour plus d'informations sur les fonctions d'accessibilité dans SunPlex Manager. |
Service de données Sun Cluster HA for SAP REMARQUE : Vous devez installer le logiciel Sun Cluster 3.0 Update 1 avant de pouvoir exécuter Sun Cluster HA for SAP. Il ne tournera pas sous Sun Cluster 3.0 GA. |
|
Service de données Sun Cluster HA for Sybase ASE REMARQUE : Bien que le logiciel Sun Cluster puisse fonctionner en modes 32 bits et 64 bits, le service de données de Sun Cluster HA for Sybase ASE ne peut fonctionner qu'en mode 32 bits. |
|
Améliorations de l'utilitaire scsetup pour les ressources et groupes de ressources |
Le document Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide a été mis à jour pour inclure scsetup comme interface pour les mises à jour de RGM dans les procédures d'installation et de configuration des services de données. |
SunPlex Agent Builder |
Le document Sun Cluster 3.0 U1 Data Services Developer's Kit décrit cet assistant de création de nouveaux services de données. Les trois nouvelles pages de manuel suivantes décrivent la fonction : scdsbuilder(1HA), scdsconfig(1HA) et scdscreate(1HA). |
Data Service Enabling Technologies |
Le document Sun Cluster 3.0 U1 Data Services Developer's Kit décrit cette nouvelle interface de développement d'applications. |
script scvxinstall(1M) |
Ce nouveau script simplifie le processus de configuration de VERITAS Volume Manager dans un système SunPlex. Ce script est documenté dans Sun Cluster 3.0 U1 Installation Guide et dans la page de manuel scvxinstall (1M). |
Système Sun StorEdge A3500FC |
Le chapitre relatif à Sun StorEdge A3x00 dans le document Sun Cluster 3.0 U1 Hardware Guide a été mis à jour pour inclure les procédures d'installation, de configuration et de maintenance relatives au système A3500FC. |
Sun StorEdge T3 Array - configuration monobloc |
Un nouveau chapitre concernant Sun StorEdge T3 Array - configuration monobloc a été ajouté au document Sun Cluster 3.0 U1 Hardware Guide pour décrire les procédures d'installation, de configuration et de maintenance relatives à cette nouvelle configuration de stockage. |
Coexistence avec Solaris Ressource Manager 1.2 |
Cette coexistence est décrite dans "Installing and Configuring Solaris Resource Manager with Sun Cluster 3.0 Updates". Ce document est disponible dans la collection "Solaris Ressource Manager 1.2 AnswerBook2 Collection" sur http://docs.sun.com. |
Sun Management Center 3.0 |
Une nouvelle documentation est incluse dans les sections "Mise à niveau du logiciel Sun Management Center" et "Interface GUI de Sun Management Center" de ce document. |
Cette section inclut des informations supplémentaires sur les nouvelles fonctions et fonctionnalités.
SunPlex Manager est une interface GUI fonctionnant sur le web qui permet l'installation, la configuration et la gestion du système SunPlex. SunPlex Manager peut être utilisé pour installer et configurer tous les logiciels requis pour faire fonctionner une configuration Sun Cluster 3.0. La fonctionnalité GUI est documentée dans l'aide en ligne fournie avec SunPlex Manager.
SunPlex Agent Builder est un outil qui automatise la création et l'organisation de types de ressources (services de données) devant fonctionner sous le contrôle du Resource Group Manager de Sun Cluster. Il réduit ainsi le temps de développement de nouveaux types de ressources.
Les technologies d'activation des services de données incluses dans l'API de développement de base de Sun Cluster 3.0 apportent les nouvelles fonctionnalités suivantes :
Fourniture d'un modèle de plus haut niveau couramment utilisé pour le développement de services de données, y compris tous les services de données fournis par Sun ;
Intégration de dispositifs couramment utilisés pour le développement de services de données dans une structure API intégrée ;
Fourniture d'un modèle prédéfini pour la surveillance des défaillances, facilement accessible par le biais d'un ensemble d'API.
Tous ces nouveaux avantages sont essentiellement destinés à faciliter et accélérer le développement de services de données plus robustes.
Des extensions Resource Group Manager (RGM) à l'utilitaire scsetup permettent de créer des groupes de ressources et d'ajouter des ressources de réseau et de service de données à des groupes de ressources. Lorsque vous ajoutez des ressources de service de données, l'utilitaire scsetup cherche des types de ressources tant enregistrés que non enregistrés. Au besoin, l'utilitaire scsetup offre également un enregistrement automatique des types de ressources non enregistrés lorsque vous ajoutez des ressources de service de données. Pour lancer le sous-menu de RGM, choisissez l'option 2 dans le menu principal de scsetup.
scvxinstall est un script conçu pour automatiser le processus d'installation de VERITAS Volume Manager (VxVM) comme gestionnaire de volumes Sun Cluster. Facultativement, il encapsule aussi le disque root. L'encapsulage du disque root vous permet de mettre en miroir votre disque root ou de réduire la quantité totale d'espace disque local requise par VxVM. Ce script remplace les procédures d'installation et d'encapsulage du disque root via VxVM précédemment documentées dans la version GA du Guide d'installation de Sun Cluster 3.0 U1.
Cette section décrit les logiciels pris en charge et la mémoire requise par Sun Cluster 3.0 Update 1.
Environnement d'exploitation et correctifs : les versions de Solaris et les correctifs pris en charge sont disponibles à l'adresse suivante :
Pour plus de détails, reportez-vous à la section "Correctifs et niveaux de microprogrammes requis".
Gestionnaires de volumes : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.0.4 et 3.1.
Services de données (agents) : contactez votre représentant commercial Sun pour obtenir une liste complète des services de données et des versions d'applications pris en charge. Spécifiez les noms des types de ressources lorsque vous installez les services de données avec l'utilitaire scinstall(1M) et que vous enregistrez les types de ressources associés au service de données avec l'utilitaire scrgadm(1M).
Tableau 1-2 Services de données pris en charge pour Sun Cluster 3.0 Update 1
Service de données |
Type de ressources Sun Cluster |
---|---|
Sun Cluster HA pour DNS |
dns |
Sun Cluster HA for NFS |
nfs |
Sun Cluster HA for iPlanet Web Server |
iws |
Sun Cluster HA for Netscape LDAP |
nsldap |
Sun Cluster HA pour Oracle |
oracle |
Sun Cluster HA for Oracle Parallel Server |
S.O. |
Sun Cluster HA pour Apache |
apache |
Sun Cluster HA for SAP |
scsap |
Sun Cluster HA for Sybase ASE |
scsybase |
Mémoire requise : Sun Cluster 3.0 exige de la mémoire supplémentaire par rapport à celle qui est configurée pour un noeud à charge normale. Cette mémoire supplémentaire est de 128 Mo plus dix pour cent. Par exemple, si un noeud autonome exige normalement 1 Go de mémoire, vous devez ajouter 256 Mo à la mémoire normalement requise.
Public Network Management (PNM) ne sera pas pris en charge dans la prochaine version de la fonction Sun Cluster. La surveillance des adaptateurs de réseau et le basculement pour Sun Cluster seront désormais assurés par Solaris IP Multipathing.
Il faudrait utiliser PNM pour configurer et administrer la surveillance des cartes d'interface réseau et le basculement. Toutefois, les interfaces utilisateur du démon de PNM et des commandes d'administration de PNM sont obsolètes et seront retirées de la prochaine version de Sun Cluster. Il est donc vivement déconseillé de développer des outils reposant sur ces interfaces. Les interfaces suivantes sont officiellement prises en charge dans la version actuelle, mais devraient être supprimées de la prochaine version de Sun Cluster.
pnmd(1M)
pnmconfig(4)
pnmstat(1M)
pnmset(1M)
pnmrtop(1M)
pnmptor(1M)
La documentation utilisateur de Sun Cluster 3.0 Update 1 est disponible en ligne au format AnswerBook2TM et peut donc être utilisée avec des serveurs de documentation AnswerBook2. La documentation AnswerBook2 de Sun Cluster 3.0 Update 1 comprend les collections suivantes :
la collection Sun Cluster 3.0 7/01, qui contient les manuels suivants :
Guide d'installation de Sun Cluster 3.0 U1
Guide d'administration système de Sun Cluster 3.0 U1
Sun Cluster 3.0 U1 Hardware Guide
Sun Cluster 3.0 U1 Data Services Developer's Kit
Sun Cluster 3.0 U1 Concepts
Sun Cluster 3.0 U1 Error Messages Manual
la collection Sun Cluster 3.0 7/01 Data Services Collection, qui contient le manuel suivant :
Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide
L'environnement d'exploitation Solaris contient un logiciel serveur de documentation AnswerBook2. Le CD-ROM de la documentation de Solaris, distinct du CD-ROM de l'environnement d'exploitation Solaris, contient le logiciel du serveur de documentation. Ce CD-ROM est nécessaire pour installer un serveur de documentation AnswerBook2.
Si vous disposez d'un serveur de documentation AnswerBook2 installé sur votre site, vous pouvez l'utiliser pour les collections AnswerBook Sun Cluster 3.0 Update 1. Sinon, installez un serveur de documentation sur une machine de votre site. Nous vous recommandons d'utiliser la console administrative comme interface d'administration avec votre grappe pour le serveur de documentation. N'utilisez pas un noeud de grappe comme serveur de documentation AnswerBook2.
Pour plus d'informations sur l'installation d'un serveur de documentation AnswerBook2, chargez le CD-ROM de la documentation de Solaris sur un serveur et lisez les fichiers README.
Installez les documents AnswerBook2 Sun Cluster sur un système de fichiers situé sur le même serveur que celui où vous installez le serveur de documentation. Les AnswerBooks Sun Cluster 3.0 Update 1 sont fournis avec un script qui ajoute automatiquement les documents à votre bibliothèque AnswerBook après l'installation.
Pour configurer vos serveurs AnswerBook2 :
Vous devez disposer d'un accès root (superutilisateur) au serveur de documentation.
Ce serveur doit être équipé d'un lecteur de CD-ROM.
Si vous n'avez pas de serveur de documentation AnswerBook2 installé, il vous faut le CD-ROM de documentation de l'environnement d'exploitation Solaris, qui contient le logiciel et les instructions nécessaires pour installer un serveur de documentation AnswerBook2.
Vous devez disposer du CD-ROM Sun Cluster 3.0 7/01 contenant la collection Sun Cluster 3.0 7/01 et du CD-ROM Sun Cluster 3.0 7/01 Agents contenant la collection Sun Cluster 3.0 7/01 Data Services.
Cette procédure vous permet d'installer les modules AnswerBook Sun Cluster des collections Sun Cluster 3.0 7/01 Collection et Sun Cluster 3.0 7/01 Data Services Collection.
Devenez superutilisateur sur le serveur qui exécute le serveur de documentation AnswerBook2.
Si vous avez déjà installé les collections AnswerBook Sun Cluster, supprimez les anciens modules.
# pkgrm SUNWscfab SUNWscdab |
Si vous n'avez jamais installé de collection AnswerBook Sun Cluster, ignorez cette étape.
Insérez le CD-ROM Sun Cluster ou le CD-ROM Sun Cluster 3.0 7/01 Agents dans un lecteur de CD-ROM relié au serveur de documentation.
Le démon de gestion des volumes, vold(1M), monte automatiquement le CD-ROM.
Placez-vous dans le répertoire du CD-ROM contenant le module AnswerBook Sun Cluster.
Les modules AnswerBook se trouvent aux endroits suivants.
CD-ROM Sun Cluster
suncluster_3_0/SunCluster_3.0/Packages
CD-ROM Sun Cluster 3.0 7/01 Agents.
scdataservices_3_0/components/SunCluster_Data_Service_Answer_Book_3.0/Packages
Utilisez la commande pkgadd(1) pour installer le module.
# pkgadd -d . |
Sélectionnez les modules Sun Cluster 3.0 7/01 Collection (SUNWscfab) et Sun Cluster 3.0 7/01 Data Services Collection (SUNWscdab) à installer.
Dans le menu des options d'installation de pkgadd, sélectionnez heavy pour ajouter le module complet au système et mettre à jour le catalogue AnswerBook2.
Sélectionnez Sun Cluster 3.0 7/01 Collection (SUNWscfab) ou Sun Cluster 3.0 7/01 Data Services Collection (SUNWscdab).
Le module de collections de documents fourni sur chaque CD-ROM comprend un script d'installation automatique qui, après l'installation, ajoute la collection à la base de données du serveur de documentation et fait redémarrer le serveur. Vous pouvez maintenant consulter les AnswerBook Sun Cluster sur votre serveur de documentation.
Les CD-ROM Sun Cluster contiennent un fichier PDF pour chaque livre du jeu de documentation Sun Cluster.
Semblables aux AnswerBooks Sun Cluster, six fichiers PDF se trouvent sur le CD-ROM de Sun Cluster et un autre sur le CD-ROM Agents. Le nom de chaque fichier PDF est une abréviation du livre correspondant (voir Tableau 1-3).
Les fichiers AnswerBook se trouvent aux endroits suivants.
CD-ROM Sun Cluster
./suncluster_3_0/SunCluster_3.0/Docs/locale/C/PDF
CD-ROM Agents
./scdataservices_3_0/components/SunCluster_Data_Service_Answer_Book_3.0/Docs/locale/C/PDF
CD-ROM |
Abréviation PDF |
Titre de manuel |
---|---|---|
Sun Cluster |
CLUSTINSTALL | Guide d'installation de Sun Cluster 3.0 U1 |
CLUSTNETHW |
Sun Cluster 3.0 U1 Hardware Guide |
|
CLUSTAPIPG | Sun Cluster 3.0 U1 Data Services Developer's Kit | |
CLUSTSYSADMIN |
Guide d'administration système de Sun Cluster 3.0 U1 |
|
CLUSTCONCEPTS |
Sun Cluster 3.0 U1 Concepts |
|
CLUSTERRMSG | Sun Cluster 3.0 U1 Error Messages Manual | |
Services de données |
CLUSTDATASVC |
Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide |
Les restrictions suivantes s'appliquent à la version 3.0 de Sun Cluster 3.0 Update 1 :
Types de transport RSM (Remote Shared Memory) : ces types de transport ne sont actuellement pas pris en charge, même si la documentation y fait parfois référence.
Interface SCI (Scalable Coherent Interface) : cette interface n'est pas prise en charge en tant qu'interconnexion de grappe.
Suivi automatique des chemins de disque : cette fonctionnalité n'est pas prise en charge. Vous devez surveiller manuellement les chemins de disque pour empêcher toute double défaillance ou perte de chemin vers un périphérique de quorum. Le logiciel détecte les défaillances de chemin des disques actifs, mais pas les chemins des disques inactifs.
Les périphériques de stockage comportant plus de deux chemins physiques vers la baie ne sont pas pris en charge, à l'exception du système Sun StorEdge A3500, pour lequel deux chemins vers chacun des deux noeuds sont pris en charge.
SunVTSTM n'est pas pris en charge.
Les mises à niveau de la structure logicielle et des services de données sont uniquement prises en charge entre les versions majeures de Sun Cluster, pas dans les versions de mise à jour. Par conséquent, il n'y a pas de mise à niveau automatique entre Sun Cluster 3.0 GA et Sun Cluster 3.0 Update 1. La procédure de mise à niveau manuelle se trouve dans le fichier UPGRADE_README sur le CD-ROM Sun Cluster 3.0 7/01 à l'emplacement suivant : /cdrom/suncluster_3_0u1/SunCluster_3.0/Tools/Upgrade/
Les bandes et les CD-ROM multi-hôtes ne sont pas pris en charge.
Le logiciel ne prend pas en charge l'utilisation d'un système de fichiers LOFS sur les noeuds de grappe.
L'exécution d'applications clientes sur les noeuds de la grappe n'est pas prise en charge. Le basculement d'un groupe de ressources peut provoquer la rupture d'une liaison TCP (telnet/rlogin). Ce basculement couvre les connexions établies par les noeuds de la grappe et les connexions établies par les hôtes clients extérieurs à la grappe.
L'exécution de classes de programmation de processus de haute priorité sur les noeuds de la grappe n'est pas prise en charge. Ne lancez pas de processus, quel que soit le noeud, s'exécutant dans la classe de programmation à temps partagé avec une priorité supérieure à la normale ou un processus s'exécutant dans la classe de programmation en temps réel. Sun Cluster 3.0 s'appuie sur des threads du noyau qui ne s'exécutent pas dans la classe en temps réel. D'autres processus à temps partagé qui s'exécutent avec une priorité supérieure à la normale ou en temps réel risqueraient d'empêcher les threads du noyau Sun Cluster d'obtenir les cycles de processeur nécessaires.
Les quotas de systèmes de fichiers ne sont pas pris en charge dans le logiciel Sun Cluster 3.0 Update 1.
Les interfaces réseau logiques sont réservées pour une utilisation par le logiciel Sun Cluster 3.0 Update 1.
Restrictions liées au système de fichiers de grappe
La commande umount -f se comporte de la même manière que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
La commande unlink (1M) n'est pas prise en charge dans les répertoires non vides.
La commande lockfs -d n'est pas prise en charge. Utilisez lockfs -n comme palliatif.
Le système de fichiers de grappe ne prend en charge aucune des fonctions de système de fichiers Solaris permettant de placer une extrémité de communication dans l'espace de noms du système de fichiers. Par conséquent, vous ne pouvez pas créer un socket UNIX dont le nom est un nom de chemin menant au système de fichiers de grappe. Vous ne pouvez pas non plus créer des FIFO ni des canaux de communication nommés (named pipes). N'essayez pas non plus d'utiliser fattach.
Cette commande n'est pas prise en charge pour exécuter des fichiers binaires à partir de systèmes de fichiers montés avec l'option de montage forcedirectio.
Restrictions NAFO (Network Adapter Failover)
Toutes les cartes de réseau public doivent faire partie de groupes NAFO.
Un sous-réseau IP ne contient qu'un seul groupe NAFO pour chaque noeud. Sun Cluster 3.0 ne prend pas en charge l'entrelacement IP, même sous sa forme la plus simple, où plusieurs adresses IP peuvent exister dans le même sous-réseau.
Un groupe NAFO ne peut pas contenir plusieurs cartes actives simultanément.
Sun Cluster 3.0 n'est pas compatible avec la définition local-mac-adresse?=true de la PROM OpenBootTM.
Restrictions liées aux services et aux applications
Sun Cluster 3.0 ne peut fournir de services qu'aux services de données inclus dans le produit Sun Cluster ou construits à l'aide de l'API de services de données de ce dernier.
N'utilisez pas des noeuds de grappe comme serveurs de courrier, car l'environnement Sun Cluster ne prend pas en charge le sous-système sendmail(1M). Aucun répertoire de courrier ne doit résider sur les noeuds Sun Cluster.
Ne configurez pas les noeuds de grappe comme routeurs (passerelles). Si le système devient indisponible, les clients ne pourront pas trouver d'autre routeur et, de ce fait, ne pourront pas continuer à fonctionner.
Ne configurez pas les noeuds de grappe comme serveurs NIS ou NIS+. Les noeuds de grappe peuvent toutefois être des clients NIS ou NIS+.
N'utilisez pas une configuration Sun Cluster pour fournir un service d'initialisation ou d'installation haute disponibilité sur des systèmes clients.
N'utilisez pas une configuration Sun Cluster 3.0 pour fournir un service rarpd.
L'API des services de données Sun Cluster 3.0 prend uniquement en charge les services de données 32 bits. L'application dont dépend le service de données Sun Cluster peut être une application 64 bits, mais, dans une grappe, les méthodes et les moniteurs des services de données qu'elle utilise doivent être des programmes 32 bits.
Restrictions liées à Sun Cluster 3.0 HA for NFS
Quel que soit le noeud de la grappe, n'exécutez aucune application qui accède à un système de fichiers Sun Cluster HA for NFS sur un autre noeud. L'accès à de tels systèmes de fichiers ne doit se faire que par le système de fichiers de grappe. L'utilisation d'un système de fichiers NFS exporté à partir d'un noeud de grappe risque de produire un comportement de verrouillage imprévisible.
Sun Cluster HA for NFS exige que tous les montages de clients NFS soient des montages matériels ("hard").
Avec Sun Cluster HA for NFS, n'utilisez pas d'alias de noms d'hôte pour les ressources réseau. Si des clients NFS montent des systèmes de fichiers de grappe qui utilisent des alias de noms d'hôte, ces clients risquent de rencontrer des problèmes de reprise en présence d'un verrouillage statd.
Sun Cluster 3.0 ne prend pas en charge Secure NFS ou l'utilisation de Kerberos avec NFS. En particulier, les options secure et kerberos du sous-système share_nfs(1M) ne sont pas prises en charge.
Restrictions liées au gestionnaire de volumes
Dans les configurations Solstice DiskSuite qui utilisent des médiateurs, chaque ensemble de disques doit être associé à exactement deux hôtes médiateurs.
DiskSuite Tool (un méta-outil) n'est pas compatible avec Sun Cluster 3.0.
VxVM Dynamic Multipathing (DMP) n'est pas pris en charge avec le logiciel Sun Cluster 3.0.
Le niveau RAID 5 logiciel n'est pas pris en charge.
Restrictions liées au matériel
A l'exception des grappes qui utilisent Sun StorEdge A3x00, une paire de noeuds de grappe doit avoir au moins deux baies de disques multihôtes.
RAID 5 est uniquement pris en charge au niveau matériel avec Sun StorEdge A3x00.
AP (Alternate Pathing) n'est pas pris en charge.
Le site web SunSolve OnlineSM fournit un accès permanent aux informations les plus récentes concernant les correctifs, logiciels et microprogrammes pour les produits Sun. Accédez au site SunSolve Online sur http://sunsolve.sun.com pour obtenir des tableaux actualisés des versions de logiciels, microprogrammes et correctifs prises en charge.
Vous devez posséder un compte SunSolve pour visualiser et télécharger les correctifs requis pour le produit Sun Cluster. Si vous n'avez pas de compte SunSolve, contactez votre délégué commercial ou représentant Sun ou enregistrez-vous via le site web SunSolve Online.
Vous pouvez trouver des informations sur les correctifs de Sun Cluster 3.0 à l'aide du service EarlyNotifierSM de SunSolve. Pour visualiser les informations du service EarlyNotifier, connectez-vous à SunSolve et accédez à la recherche simple dans le haut de la page principale. Dans la page de recherche simple, cliquez sur EarlyNotifier et tapez Sun Cluster 3.0 dans le champ de critères de recherche. La page EarlyNotifier pour Sun Cluster 3.0 apparaîtra alors.
Avant d'installer Sun Cluster 3.0 et d'appliquer des correctifs à un élément de grappe (environnement d'exploitation Solaris, logiciel Sun Cluster, gestionnaire de volumes, logiciel de services de données ou matériel de disque), consultez les informations EarlyNotifier et tout fichier README fourni avec les correctifs. Le même niveau de correctifs doit être appliqué à tous les noeuds de grappe pour permettre à celui-ci de fonctionner correctement.
Pour les procédures spécifiques aux correctifs et des conseils concernant l'administration de ces correctifs, reportez-vous au Guide d'administration système de Sun Cluster 3.0 U1.
Le correctif le plus récent pour l'exécutable sapstart (reportez-vous à la note OSS 0396321) vous protège contre le lancement de plusieurs instances de SAP lorsqu'une instance est déjà active sur un noeud. Ce correctif est important, car la multiplication d'instances de SAP provoque le blocage de l'instance déjà active. Qui plus est, ce blocage empêche les scripts d'arrêt SAP d'effectuer un arrêt en bonne et due forme des instances de SAP, ce qui risque d'endommager des données.
Pour éviter ce problème, installez le correctif le plus récent de l'exécutable sapstart et configurez le nouveau paramètre du profil de démarrage SAP, qui définit le serveur d'applications et l'instance centrale.
Par exemple, modifiez le profil START_DVEBMGS00 (le profil relatif à l'instance centrale) pour ajouter le nouveau paramètre SAP sapstart/lockfile.
sapstart/lockfile =/usr/sap/D01/DVEBMGS00/work/startup_lockfile |
Nom du nouveau paramètre.
Répertoire de travail de l'instance centrale.
Nom du fichier de verrouillage utilisé par Sun Cluster HA for SAP.
Le chemin du fichier de verrouillage doit se situer sur le système de fichiers de grappe. Si le chemin du fichier de verrouillage est local pour les noeuds, il sera impossible d'éviter le lancement de la même instance à partir de différents noeuds.
Même si vous configurez le fichier de verrouillage dans le profil SAP, vous ne devez pas créer manuellement ce fichier. Le service de données Sun Cluster HA for SAP le créera pour vous.
Avec cette configuration, lorsque vous lancez l'instance de SAP, le logiciel SAP verrouille le fichier startup_lockfile. Si vous lancez l'instance SAP en dehors de l'environnement Sun Cluster et essayez ensuite d'appeler SAP sous l'environnement Sun Cluster, le service de données Sun Cluster HA for SAP tentera de lancer l'instance. Cependant, le fichier étant verrouillé, cette tentative échouera. Le service de données consignera des messages d'erreur appropriés dans syslog.
Cette section explique comment effectuer la mise à niveau de Sun Management Center 2.1.1 vers Sun Management Center 3.0 dans une configuration Sun Cluster 3.0 U1.
Exécutez cette procédure pour effectuer une mise à niveau du logiciel Sun Management Center 2.1.1 vers Sun Management Center 3.0 dans une configuration Sun Cluster 3.0 U1. Pour la mise à niveau de Sun Management Center dans des configurations Sun Cluster 3.0, reportez-vous à "Sun Management Center 3.0" dans le Sun Cluster 3.0 Release Notes Supplement.
Veillez à disposer des éléments suivants.
CD-ROM de Sun Cluster 3.0 version GA ou emplacement de l'image de ce CD-ROM. Vous aurez besoin de ce CD-ROM pour réinstaller les modules de Sun Cluster après la mise à niveau du logiciel Sun Management Center.
Documentation de Sun Management Center 3.0.
Correctifs de Sun Management Center 3.0 et des modules de Sun Cluster. Reportez-vous à la section "Correctifs et niveaux de microprogrammes requis" pour l'emplacement des correctifs et les instructions d'installation.
Arrêtez tout processus Sun Management Center en cours.
Si la console Sun Management Center est active, fermez-la.
Dans la fenêtre de la console, sélectionnez File>Exit dans la barre de menus.
Sur chaque machine agent (noeud de grappe) de Sun Management Center, arrêtez le processus de l'agent de Sun Management Center.
# /opt/SUNWsymon/sbin/es-stop -a |
Sur la machine serveur de Sun Management Center, arrêtez le processus serveur de Sun Management Center.
# /opt/SUNWsymon/sbin/es-stop -S |
En tant que superutilisateur, supprimez les modules Sun Cluster des emplacements répertoriés dans le Tableau 1-4.
Vous devez supprimer tous les modules Sun Cluster de tous les emplacements. Sinon, la mise à niveau du logiciel Sun Management Center risque d'échouer en raison de problèmes de dépendance des modules. Vous réinstallerez ces modules après la mise à niveau du logiciel Sun Management Center.
# pkgrm module |
Emplacement |
Module à supprimer |
---|---|
Chaque noeud de la grappe |
SUNWscsam, SUNWscsal |
Machine console de Sun Management Center |
SUNWscscn |
Machine serveur de Sun Management Center |
SUNWscssv |
Machine serveur d'aide de Sun Management Center |
SUNWscshl |
Mettez à niveau le logiciel Sun Management Center.
Suivez les procédures de mise à jour indiquées dans la documentation de Sun Management Center 3.0.
En tant que superutilisateur, réinstallez les modules Sun Cluster aux emplacements répertoriés dans le Tableau 1-5.
Pour Sun Management Center 3.0, le module du serveur d'aide SUNWscshl doit s'installer à la fois sur la machine console et sur la machine serveur d'aide. Les modules des noeuds de grappe sont installés à l'Étape 6.
# cd /cdrom/suncluster_3_0/SunCluster_3.0/Packages # pkgadd module |
Emplacement |
Module à installer |
---|---|
Machine console de Sun Management Center |
SUNWscscn, SUNWscshl |
Machine serveur de Sun Management Center |
SUNWscssv |
Machine serveur d'aide de Sun Management Center |
SUNWscshl |
Appliquez les correctifs des modules Sun Cluster et tout correctif de Sun Management Center sur chaque noeud de la grappe.
Un correctif de module Sun Cluster installe les versions Sun Cluster 3.0 U1 des modules SUNWscsam et SUNWscsal.
Relancez les processus agent, serveur et console de Sun Management Center sur toutes les machines impliquées.
Suivez les procédures décrites dans la section "Lancement de Sun Management Center" du Guide d'installation de Sun Cluster 3.0 U1.
Chargez le module Sun Cluster.
Suivez les procédures décrites dans la section "Chargement du module Sun Cluster" du Guide d'installation de Sun Cluster 3.0 U1.
Si le module Sun Cluster a été chargé précédemment, déchargez-le et chargez-le à nouveau pour effacer toutes les définitions d'alarmes mises en cache sur le serveur. Pour décharger le module, sélectionnez Module>Unload Module dans la fenêtre de détails de la console.
Cette section décrit les modifications et mises à jour des procédures d'administration d'une grappe.
Le correctif de Sun Cluster 3.0 Update 1 pour Sun Management Center prend en charge les versions 2.1.1 et 3.0 de Sun Management Center sur le module Sun Cluster. Ce correctif comprend les mises à jour suivantes de la console du module Sun Cluster.
Accès à l'outil de création de ressources ou de configuration de groupes de ressources depuis la console du module Sun Cluster : vous pouvez maintenant accéder à cet outil de configuration à partir de la vue hiérarchique (arborescence) et de la vue topologie du module Sun Cluster. Pour accéder à l'outil, cliquez deux fois sur le système d'exploitation Sun Cluster, puis cliquez avec le bouton droit de la souris sur l'élément Resource Groups ou sur tout élément de la branche Resource Groups. Sélectionnez ensuite "Create New Resource Group" ou "Create New Resource" dans le menu pop-up.
Vous pouvez également accéder à cet outil de configuration à partir des fenêtres Failover Resource Groups ou Scalable Resource Groups. Pour ce faire, dans la vue hiérarchie ou topologie, sélectionnez le système d'exploitation Sun Cluster, puis cliquez deux fois sur Resource Groups, puis sur Status. Sélectionnez l'élément Failover Resource Groups ou Scalable Resource Groups, selon le type de ressource que vous souhaitez modifier. Placez le pointeur de la souris sur une cellule quelconque de la table Resource Group Status ou Resource Status, à l'exclusion de la rangée d'en-têtes. Cliquez avec le bouton droit de la souris, puis sélectionnez "Create New Resource Group" ou "Create New Resource" dans le menu pop-up.
Modification de l'état ou du statut, ou suppression d'une ressource ou d'un groupe de ressources à partir de deux nouveaux emplacements : vous pouvez maintenant modifier l'état ou le statut, ou supprimer une ressource ou un groupe de ressources, à partir des tables d'état Failover Resource Groups ou Scalable Resource Groups. Pour accéder à ces tables, dans la vue hiérarchie (arborescence) ou topologie, sélectionnez le système d'exploitation Sun Cluster, puis cliquez deux fois sur Resource Groups. Cliquez deux fois sur Status, puis sur Failover Resource Groups ou Scalable Resource Groups, selon le type de ressource que vous souhaitez modifier. Dans la table Resource Group Status ou Resource Status, sélectionnez (mettez en surbrillance) la ressource ou le groupe de ressources à modifier ou supprimer. Si vous prévoyez de modifier l'état d'une ressource ou d'un groupe de ressources, sélectionnez la cellule d'état dans la ligne correspondant à la ressource ou au groupe de ressources. Enfin, cliquez avec le bouton droit de la souris et sélectionnez la tâche voulue dans le menu pop-up.
Lorsque vous modifiez l'état ou supprimez une ressource ou un groupe de ressources, le module Sun Cluster ouvre une fenêtre Probe Viewer. Si le module Sun Cluster parvient à effectuer la tâche sélectionnée, la fenêtre Probe Viewer affiche le message "Probe command returned no data".
Reportez-vous à la documentation de Sun Management Center et à l'aide en ligne correspondante pour plus d'informations sur Sun Management Center.
Les problèmes connus suivants affectent le fonctionnement Sun Cluster 3.0 U1. Pour obtenir les informations les plus récentes, consultez le document en ligne Sun Cluster 3.0 U1 Release Notes Supplement sur http://docs.sun.com.
Récapitulatif du problème : après l'installation du logiciel Solstice Disksuite, il est nécessaire d'exécuter la commande scgdevs(1M) pour que les liens vers les périphériques Solstice Disksuite apparaissent dans l'espace de noms global.
Solution : exécutez la commande scgdevs manuellement pour vous assurer que les noeuds de périphérique Solstice Disksuite sont créés.
Récapitulatif du problème : ne créez pas de ressources Sun Cluster HA for NFS dans un groupe de ressources contenant une ressource SharedAddress. Le logiciel Sun Cluster ne prend pas en charge l'utilisation des ressources SharedAddress avec ce service de données.
Solution : ajoutez les ressources de nom d'hôte logique requises au groupe de ressources de reprise.
Vous devez utiliser une ressource LogicalHostname dans cette étape. Le nom d'hôte utilisé avec Sun Cluster HA for NFS ne peut pas être une ressource SharedAddress.
# scrgadm -a -L -g nom_groupe_ressources -l nom_hôte,... |
Spécifie le groupe de ressources de reprise dans lequel les ressources du nom d'hôte logique doivent être placées.
Spécifie les ressources réseau (noms d'hôte logiques) à ajouter.
Récapitulatif du problème : l'utilitaire scinstall permet de spécifier /global comme nom de répertoire pour le système de fichiers de périphériques globaux. Cependant, comme le point de montage du système de fichiers de périphériques globaux est /global/.devices/node@id_noeud, cette caractéristique ne doit pas être activée.
Solution : réinstallez le noeud en utilisant /globaldevices comme nom de répertoire pour le système de fichiers de périphériques globaux.
Il est possible de rectifier les entrées des fichiers /etc/vfstab, de redémarrer la grappe et d'exécuter ensuite la commande scgdevs à titre de palliatif, bien que cette solution ne soit pas préconisée. Vérifiez que l'option de montage globale est activée pour l'entrée /global/.devices/node@id_noeud dans chaque fichier /etc/vfstab.
Récapitulatif du problème :
nodeA# scshutdown -g0 -y scshutdown: Unmount of /dev/md/sc/dsk/d30 failed: Device busy. scshutdown: Could not unmount all PxFS filesystems. |
Les modules Networker ont été regroupés et installés en même temps qu'Oracle. Par conséquent, le démon nsrmmd est exécuté et effectue le montage vers le répertoire /global/oracle, empêchant ainsi le démontage de tous les autres systèmes de fichiers de grappe.
nodeA# umount /global/oracle umount: global/oracle busy nodeA# fuser -c /global/oracle /global/oracle: 335co 317co 302co 273co 272co nodeA# ps -ef|grep 335 root 335 273 0 17:17:41 ? 0:00 /usr/sbin/nsrmmd -n 1 root 448 397 0 17:19:37 console 0:00 grep 335 |
Ce problème se produit durant l'arrêt de Sun Cluster, lorsque la procédure d'arrêt essaie de démonter un système de fichiers de grappe encore référencé par le processus nsrmmd.
Solution : exécutez la commande fuser(1M) sur chaque noeud pour établir la liste de tous les processus qui utilisent encore des systèmes de fichiers de grappe ne pouvant pas être démontés. Vérifiez qu'aucune ressource du logiciel Resource Group Manager n'a été relancée depuis l'échec de la commande scshutdown(1M) initiale. Arrêtez tous les processus à l'aide de la commande kill -9. Cette liste de processus à interrompre ne doit pas inclure de processus sous le contrôle du logiciel Resource Group Manager. Une fois tous les processus terminés, relancez la commande scshutdown. L'arrêt devrait se dérouler correctement.
Récapitulatif du problème : lorsque l'administrateur système modifie la propriété Nodelist d'un groupe de ressources gérés, le logiciel Resource Group Manager doit exécuter la méthode INIT sur toutes les ressources du groupe possédant la propriété Init_nodes=RG_PRIMARIES et sur tous les noeuds ajoutés à la liste de noeuds. Le logiciel Resource Group Manager doit exécuter la méthode FINI sur de telles ressources, pour les noeuds supprimés de la liste de noeuds. De même, si la propriété Installed_nodes d'un type de ressource est modifiée, il doit exécuter la méthode INIT ou FINI sur toutes les ressources de ce type qui résident dans les groupes de ressources gérés et qui ont la propriété Init_nodes=RT_installed_nodes.
Le logiciel Resource Group Manager n'exécute actuellement pas la méthode INIT ni FINI lorsque ces mises à jour sont effectuées. De ce fait, les ressources ne sont pas toujours correctement initialisées ou effacées sur ces noeuds.
Solution : à l'aide de la commande scswitch, vous devez désactiver puis réactiver la gestion des groupes de ressources affectés. Malheureusement, l'administrateur doit faire passer le groupe de ressources hors ligne pour appliquer cette procédure. L'administrateur a également la possibilité d'exécuter les actions INIT ou FINI équivalentes manuellement (sans désactiver la gestion du groupe de ressources) si ces procédures sont documentées pour les types de ressources présents dans le groupe.
Cette solution est inutile si l'une des ressources du groupe comporte la méthode INIT ou FINI. Les seuls types de ressources fournis par Sun qui utilisent les méthodes INIT et FINI sont les suivants :
SUNW.SharedAddress (type de ressource Adresse partagée)
SUNW.apache (serveur Web Apache) configuré en mode évolutif
SUNW.iws (serveur Web iPlanet/Netscape) configuré en mode évolutif
Tous les services évolutifs utilisent implicitement les méthodes INIT et FINI, même si de telles méthodes ne sont pas explicitement déclarées pour ce type de ressource.
Récapitulatif du problème : vous ne pouvez pas supprimer le dernier noeud d'un ensemble de disques Solstice DiskSuite, à moins de mettre d'abord le groupe de périphériques hors ligne.
Solution : pour supprimer le dernier noeud d'un ensemble de disques, commencez par mettre le groupe de périphériques hors ligne. Pour supprimer le dernier noeud, exécutez les deux commandes suivantes en tant que superutilisateur sur le noeud à supprimer.
# /usr/cluster/bin/scswitch -m -D nom_ensemble_disques # metaset -s nom_ensemble_disques -d -h nom_noeud |
Récapitulatif du problème : Lors des tâches suivantes :
configuration de multiples ressources Sun Cluster HA for NFS sur la grappe,
mise sous tension ou hors tension d'une ressource HA-NFS en conservant une autre ressource en ligne sur le même noeud,
le message d'avertissement ci-dessous risque de s'afficher sur le moniteur de panne HA-NFS.
clnt_tp_create_timed of program statd failed:RPC:Program not registered |
Solution : aucune solution n'est nécessaire. Ce message d'avertissement peut être ignoré sans risque.
Récapitulatif du problème : l'installation d'une carte FC-AL SBus (FC100/S) et d'une carte Sun Quad FastEthernetTM 2.0 (SQFE/S) sur le même SBus risque de produire des résultats inattendus sur la carte QFE.
Solution : évitez de configurer les noeuds de la grappe avec une carte FC-AL SBus (FC100/S) et une carte Sun Quad FastEthernet 2.0 (SQFE/S) sur le même SBus.
Récapitulatif du problème : une propriété Nodelist d'un groupe de ressources est une liste ordonnée des noeuds qui peuvent être maîtres du groupe de ressources, avec le noeud préféré en premier. Le logiciel Resource Group Manager doit toujours héberger un groupe de ressources sur le premier noeud préféré disponible. Cependant, lorsqu'un administrateur fait redémarrer la grappe (avec redémarrage simultané de tous les noeuds), les groupes de ressources gérés risquent d'être dépendants de noeuds autres que le premier noeud préféré. Ce problème ne se produit que lors d'une réinitialisation de l'ensemble de la grappe.
Solution : après redémarrage de la grappe, utilisez la commande scswitch pour transférer les groupes de ressources sur les noeuds appropriés. L'ordre de préférence Nodelist est dès lors automatiquement appliqué, tant que la grappe n'est pas arrêtée.
Récapitulatif du problème : le message de syntaxe de pnmstat indique des options non prises en charge.
Solution : utilisez la page de manuel pnmstat pour déterminer les options prises en charge.
Récapitulatif du problème : Sun Cluster HA for Sybase ASE rencontre plusieurs problèmes, y compris concernant la sauvegarde du core, lorsque la propriété d'extension Wait_for_online est à TRUE.
Solution : réglez toujours la propriété d'extension Wait_for_online à sa valeur par défaut, FALSE.
Récapitulatif du problème : l'installation d'Oracle exige les modules Solaris suivants: SUNWarc, SUNWbtool, SUNWhea, SUNWlibm, SUNWlibms, SUNWsprot et SUNWtoo. Ces modules doivent être présents et lancer l'installation du service de données SunPlex Manager Oracle.
Solution : installez ces modules manuellement, de la manière décrite dans la documentation d'Oracle.
Récapitulatif du problème : l'installation SunPlex Manager d'Oracle ne configure pas tnsnames.ora sur les noeuds de la grappe.
Solution : si les noeuds de la grappe doivent être utilisés comme clients de la base de données Oracle, les fichiers tnsnames.ora appropriés doivent être mis à jour manuellement.
Récapitulatif du problème : SunPlex Manager ne fonctionnera pas correctement si le nom d'hôte d'un ou plusieurs noeuds de la grappe est multi-home, a plus d'une adresse IP affectée. Cependant, des adresses logiques multi-home peuvent être utilisées en toute sécurité pour les services de données.
Solution : mettez en commentaire la ligne BindAddress dans /opt/SUNWscvw/conf/httpd.conf, puis lancez le serveur avec /etc/init.d/initspm start.
Récapitulatif du problème : le suivant message peut apparaître lors du démarrage initial d'un noeud de grappe.
cl_runtime: WARNING: Major number for driver (did) does not match the one on other nodes. Confirm that the /etc/name_to_major files are in sync on all cluster nodes |
|
Solution : Contactez votre fournisseur de services Sun autorisé pour déterminer si un palliatif ou un correctif est disponible.
Récapitulatif du problème : une mise à niveau Sun Cluster 2.2 vers 3.0 pour les machines Netra exige d'utiliser l'option -O de scinstall (1M) durant la phase initiale de la mise à niveau. Sinon, les plates-formes matérielles Netra risquent de ne pas être reconnues, entraînant l'échec de la mise à niveau.
Solution : utilisez l'option -O de scinstall (1M) durant la phase initiale de la mise à niveau. Cette option omet le contrôle du matériel.
Récapitulatif du problème : l'appel de scds_free_netaddr_list lorsqu'il y a plus de deux ports spécifiés dans la liste de ports entraîne une sauvegarde du core.
Solution : si vous avez spécifié plus de deux ports dans la liste de ports, n'appelez pas scds_free_netaddr_list pour libérer de la mémoire allouée par scds_get_netaddr_list. Cette mémoire sera automatiquement réallouée à la fin du processus.
Cette section décrit les erreurs de documentation que vous risquez de rencontrer et la procédure à suivre pour rectifier les problèmes.
SunPlex Manager permet d'utiliser un ensemble de caractères limité afin d'augmenter la sécurité. Les caractères qui ne font pas partie de cet ensemble sont éliminés sans avertissement lorsque les formulaires HTML sont soumis au serveur SunPlex Manager. Les caractères suivants sont acceptés par SunPlex Manager :
()+,-./0-9:=@A-Z^_a-z{|}~ |
Ce filtre peut poser des problèmes dans deux domaines.
Saisie du mot de passe pour les services iPlanet. Si le mot de passe contient des caractères inhabituels, ces caractères seront éliminés, ce qui entraîne deux problèmes. Soit le mot de passe résultant contient moins de 8 caractères et est refusé, soit l'application est configurée avec un mot de passe différent de celui prévu par l'utilisateur.
Localisation. Les autres jeux de caractères (par exemple : caractères accentués ou caractères asiatiques) ne fonctionneront pas pour la saisie.
Une note figurant dans l'aide en ligne de SunPlex Manager est inexacte. Cette note apparaît dans la procédure d'installation du service de données Oracle. La correction est indiquée ci-dessous.
Incorrect :
Remarque : Si aucune entrée n'existe pour les variables shmsys et semsys dans le fichier /etc/system lors de l'installation des modules de SunPlex Manager, des valeurs par défaut sont automatiquement placées dans le fichier /etc/system pour ces variables. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.
Correct :
Remarque : Si aucune entrée n'existe pour les variables shmsys et semsys dans le fichier /etc/system lors de l'installation du service de données Oracle, des valeurs par défaut peuvent être automatiquement placées dans le fichier /etc/system pour ces variables. Le système doit alors être réinitialisé. Consultez la documentation d'installation d'Oracle pour vérifier que ces valeurs conviennent pour votre base de données.