Cette rubrique présente les nouvelles fonctions et fonctionnalités ainsi que les nouveaux produits pris en charge par Sun Cluster 3.1.
Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrintsTM, afin de renforcer la sécurité de base des grappes. Solaris Security Toolkit assure la mise en oeuvre automatique de Sun Cluster Security Hardening.
La documentation relative à Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/blueprints/0203/817-1079.pdf . Vous pouvez aussi y accéder depuis http://wwws.sun.com/software/security/blueprints. À partir de cet URL, faites dérouler le texte jusqu'à l'en-tête Architecture afin de localiser l'article “Securing the Sun Cluster 3.x Software”. La documentation décrit la procédure de sécurisation des déploiements de Sun Cluster 3.1 dans un environnement Solaris 8 et Solaris 9. L'utilisation de Solaris Security Toolkit et d'autres techniques de sécurité de pointe conseillées par les experts de Sun y sont également décrites.
Le logiciel Sun Cluster 3.1 prend désormais en charge les topologies ouvertes. Vous n'êtes plus limité aux topologies de stockage décrites dans le document Sun Cluster 3.1 Concepts.
Reportez-vous aux instructions ci-après pour configurer votre grappe.
Sun Cluster prend en charge un maximum de huit noeuds dans une grappe, quelles que soient les configurations de stockage implémentées.
Les périphériques de stockage partagés peuvent être connectés à autant de noeuds qu'ils peuvent en prendre en charge.
Ils n'ont pas besoin d'être connectés à tous les noeuds de la grappe. Toutefois, ils doivent être reliés à au moins deux noeuds.
Sun Cluster 3.1 prend désormais en charge des configurations de grappes à plus de trois noeuds sans périphériques de stockage partagés. Il est toujours nécessaire que les grappes à deux noeuds aient un périphérique de stockage partagé afin de maintenir le quorum. Ce périphérique de stockage n'a besoin d'avoir aucune autre fonction.
Des services de données peuvent désormais être configurés de façon à être lancés sous un nom de projet Solaris au moment de leur mise en ligne à l'aide du gestionnaire du groupe de ressources (RGM). Reportez-vous à la rubrique “Data Service Project Configuration” du “Key Concepts for Administration and Application Development” in Sun Cluster 3.1 Concepts Guide pour obtenir des informations détaillées sur la planification de la configuration de projets pour vos services de données.
Pour de plus amples informations sur la prise en charge de la mise en oeuvre Solaris du multi-acheminement sur réseau IP sur les réseaux publics, reportez-vous aux rubriques “Planification de la configuration Sun Cluster” du Guide d'installation du logiciel Sun Cluster 3.1 et “Administration du réseau public” du Guide d'administration système de Sun Cluster 3.1.
Pour de plus amples informations sur la définition du nombre de noeuds secondaires pour un groupe de périphériques de disques, veuillez consulter la rubrique “Administration des groupes de périphériques de disques” dans Guide d'administration système de Sun Cluster 3.1 (reportez-vous aux procédures de configuration du nombre souhaité de noeuds secondaires et de changement des propriétés des périphériques de disques). Vous trouverez aussi des informations complémentaires à la rubrique “Cluster Administration and Application Development” in Sun Cluster 3.1 Concepts Guide (reportez-vous à la rubrique portant sur les basculements de disques multi-ports).
Pour de plus amples informations sur les améliorations apportées aux services de données, reportez-vous à la rubrique “What's New in Sun Cluster 3.1 Data Services 5/03” in Sun Cluster 3.1 Data Service 5/03 Release Notes.
Cette rubrique décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.1.
Environnement d'exploitation et correctifs : les versions Solaris et correctifs pris en charge sont disponibles à l'adresse suivante :
Pour de plus amples détails, reportez-vous à la rubrique Correctifs et niveaux de microprogrammes requis.
Gestionnaires de volumes
Pour Solaris 8 : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.2 et 3.5.
Pour Solaris 9 : Solaris Volume Manager et VERITAS Volume Manager 3.5.
si vous effectuez une mise à niveau de VERITAS Volume Manager (VxVM) 3.2 vers 3.5, la fonction Cluster Volume Manager (CVM) ne sera disponible que lorsque vous aurez installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 ne permet pas d'activer CVM et doit être mise à niveau vers la clé de licence CVM de la version 3.5.
Systèmes de fichiers
Pour Solaris 8 : Solaris UFS et Système de fichiers VERITAS 3.4 et 3.5.
Pour Solaris 9 : Solaris UFS et Système de fichiers VERITAS 3.5.
Services de données (agents) : pour de plus amples informations sur les services de données pris en charge, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.
les services de données de Sun Cluster 3.0 peuvent fonctionner sous Sun Cluster 3.1, sauf dans les cas indiqués à la rubrique Exécution de Sun Cluster HA pour Oracle 3.0 sur Sun Cluster 3.1.
Configuration minimale requise : le logiciel Sun Cluster 3.1 nécessite davantage de mémoire qu'un noeud opérant dans des conditions normales. Le supplément de mémoire requis correspond à 128 Mo plus dix pour cent. Par exemple, si un noeud autonome a normalement besoin de 1 Go de mémoire, il manque encore 256 Mo de mémoire pour atteindre la configuration minimale requise.
RSMAPI : Sun Cluster 3.1 prend en charge l'Interface de programmation d'application de mémoire partagée distante (RSMAPI) sur les câbles d'interconnexion compatibles RSM, tels que PCI-SCI.
Les restrictions suivantes s'appliquent à la version Sun Cluster 3.1 :
Paramètres svc_default_stksize et lwp_default_stksize : définissez le paramètre rpcmod:svc_default_stksize sur 0x8000 et le paramètre lwp_default_stksize sur 0x6000 dans le fichier /etc/system, afin d'éviter le dépassement de la pile.
si vous ajoutez un module VxFS ou un correctif, veillez à ce que la définition des paramètres du fichier /etc/system corresponde aux valeurs indiquées ci-dessus.
Variable local-mac-address?: la variable local-mac-address? doit avoir la valeur true pour les adaptateurs Ethernet. Le logiciel Sun Cluster 3.0 demandait l'inverse, c'est-à-dire que cette variable soit définie sur false.
Types de transport RSM (Remote Shared Memory) : ces types de transport ne sont pas pris en charge, même si la documentation y fait parfois référence. Si vous utilisez l'interface RSMAPI, indiquez dlpi comme type de transport.
Interface SCI (Scalable Coherent Interface) : l'interface SCI SBus n'est pas prise en charge comme interconnexion de grappe. Par contre, l'interface PCI-SCI est prise en charge.
Interfaces de réseau logique : l'usage de ces interfaces est réservé au logiciel Sun Cluster 3.1.
Surveillance des chemins de disques : seuls les chemins de disque actifs du noeud primaire actuel sont surveillés par le logiciel Sun Cluster afin de détecter les éventuelles défaillances. Vous devez surveiller manuellement les chemins des disques afin d'éviter toute double défaillance ou perte de chemin vers un périphérique de quorum.
Périphériques de stockage avec plus de deux chemins d'accès physiques à l'enveloppe : la prise en charge de plus de deux chemins d'accès n'est pas assurée, sauf pour Sun StorEdge TM A3500, pour lequel deux chemins d'accès à chacun des deux noeuds sont pris en charge, tout périphérique prenant en charge Sun StorEdge Traffic Manager, et les périphériques de stockage EMC qui utilisent le logiciel EMC PowerPath.
SunVTSTM : non pris en charge.
Bande, CD et DVD multihôtes: non pris en charge.
LOFS (Loopback File System) : le logiciel Sun Cluster 3.1 ne prend pas en charge l'utilisation du système de fichiers loopback (LOFS) sur les noeuds de grappe.
Exécution d'applications clients sur les noeuds de la grappe : les applications clients exécutées sur des noeuds de grappe ne peuvent en aucun cas faire référence à des adresses IP logiques faisant partie d'un service de données HA. Au cours d'un basculement, ces adresses IP logiques pourraient en effet disparaître, laissant le client sans connexion.
Exécution de processus à haut niveau de priorité programmant des classes sur des noeuds de grappe : non prise en charge. Les processus qui s'exécutent dans la classe de programmation à temps partagé avec un haut niveau de priorité ou les processus qui s'exécutent dans la classe de programmation à temps réel ne doivent pas être exécutés sur des noeuds de grappe. Le logiciel Sun Cluster 3.1 s'appuie sur des threads du noyau qui ne s'exécutent pas dans la classe en temps réel. D'autres processus à temps partagé qui s'exécutent avec une priorité supérieure à la normale ou ceux en temps réel peuvent empêcher les threads du noyau de Sun Cluster d'acquérir les cycles CPU requis.
Mise à niveau Solaris 8 vers Solaris 9 : la mise à niveau du logiciel Solaris 8 vers le logiciel Solaris 9 sur une configuration Sun Cluster n'est pas prise en charge. Vous ne pouvez mettre à niveau que vers des versions ultérieures et compatibles de l'environnement d'exploitation Solaris 8. Pour exécuter le logiciel Sun Cluster 3.1 sur l'environnement d'exploitation Solaris 9, vous devez effectuer une nouvelle installation de la version Solaris 9 de Sun Cluster 3.1 après l'installation des noeuds à l'aide de Solaris 9.
IPv6 : non pris en charge.
SNDR ne peut être utilisé avec HAStoragePlus : actuellement, SNDR ne peut être utilisé qu'avec HAStorage. Cette restriction ne s'applique qu'au groupe de ressources « de faible poids », y compris l'hôte logique que SNDR utilise pour la réplication. Les groupe de ressources d'application peuvent toujours utiliser HAStoragePlus avec SNDR. Vous pouvez utiliser le système de fichiers de basculement avec HAStoragePlus et SNDR en utilisant HAStorage pour le groupe de ressources SNDR, et HAStoragePlus pour le groupe de ressources d'application, où les ressources HAStorage et HAStoragePlus pointent sur le même périphérique DCS sous-jacent. Un correctif visant à permettre à SNDR de fonctionner avec HAStoragePlus est en train d'être mis au point.
Options de montage : (1) vous ne pouvez pas remonter un système de fichiers en ajoutant l'option de montage directio lors du remontage, et (2) vous ne pouvez pas définir l'option de montage directio sur un fichier unique à l'aide de directio ioctl.
Clé de licence : la clé de licence ne peut être installée que de façon interactive ou à l'aide de l'option scvxinstall -e.
Autres restrictions : pour consulter d'autres problèmes connus ou restrictions, reportez-vous à la rubrique Problèmes connus et bogues.
Le logiciel Sun Cluster 3.1 ne peut fournir des services qu'aux services de données livrés avec Sun Cluster ou configurés à l'aide de l'API de services de données de Sun Cluster.
Actuellement, le logiciel Sun Cluster ne possède pas de service de données à haute disponibilité pour le sous-système sendmail(1M). Il est possible d'exécuter sendmail sur les noeuds de grappe individuels, mais cette fonctionnalité - les fonctions d'envoi, d'acheminement, d'attente ou de nouvelle tentative - ne sera pas hautement disponible.
Ne configurez pas les noeuds de grappe comme routeurs (passerelles). Si le système est immobilisé, les clients ne pourront pas trouver de routeur alternatif et, de ce fait, effectuer une reprise.
Ne configurez pas les noeuds de grappe comme serveurs NIS ou NIS+. Les noeuds de grappe peuvent toutefois être des clients NIS ou NIS+.
N'utilisez pas de configuration Sun Cluster pour fournir un service d'initialisation ou d'installation à haut niveau de disponibilité sur des systèmes clients.
N'utilisez pas de configuration Sun Cluster 3.1 pour fournir un service rarpd.
AP (Alternate Pathing) n'est pas pris en charge.
Si vous utilisez un serveur Sun EnterpriseTM 420R équipé d'une carte PCI à l'emplacement J4701, la carte mère doit être au moins de niveau 15 (501-5168-15 ou supérieure). La référence de la carte mère et son niveau de révision figurent sur la tranche de la carte, à proximité de l'emplacement PCI 1.
Des erreurs graves de système ont été observées dans le cas de grappes où des cartes UDWIS I/O sont insérées dans l'emplacement 0 d'une carte mère d'un serveur Sun Enterprise 10000 ; évitez donc d'installer des cartes UDWIS I/O à l'emplacement 0 de la carte de ce serveur.
Si vous effectuez une mise à niveau à partir de VERITAS Volume Manager (VxVM) 3.2 à 3.5, la fonction Cluster Volume Manager (CVM) n'est pas disponible tant que vous n'avez pas installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 n'active pas CVM et doit être mise à niveau avec la clé de licence CVM de la version 3.5.
Dans les configurations Solstice DiskSuite/Solaris Volume Manager qui utilisent des médiateurs, chaque ensemble de disques doit être associé à exactement deux hôtes médiateurs.
DiskSuite Tool (Solstice DiskSuite metatool) et le module de stockage amélioré de la console de gestion Solaris (Solaris Volume Manager) ne sont pas compatibles avec le logiciel Sun Cluster 3.1.
L'utilisation conjointe de VxVM Dynamic Multipathing (DMP) et du logiciel Sun Cluster 3.1 pour gérer plusieurs chemins à partir d'un même noeud n'est pas prise en charge. À partir de VxVM 3.2 et au-delà, il n'est plus possible de désactiver DMP, mais sa présence dans la pile d'E/S des systèmes avec un seul chemin d'accès par noeud ne pose aucun problème. Toutefois, si vous utilisez VxVM dans une configuration à plusieurs chemins d'accès par noeud, vous devez alors adopter une autre solution de multi-acheminement, telle que MPxIO ou EMC PowerPath.
Les groupes simples de disques racine (rootdg créés sur une même tranche du disque racine) ne sont pas pris en charge en tant que types de disques avec VxVM par le logiciel Sun Cluster 3.1.
RAID 5 n'est pas pris en charge.
Les systèmes de fichiers de Sun Cluster ne prennent pas en charge les quotas.
La commande umount -f se comporte exactement de la même façon que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
Seuls les répertoires vides prennent en charge la commande unlink (1M).
La commande lockfs -d n'est pas prise en charge. Utilisez la commande lockfs -n à la place.
Le système de fichiers de grappe ne prend en charge aucune des fonctions des systèmes de fichiers Solaris qui permettent de placer une marque de fin de communication dans l'espace de noms du système de fichiers. Par conséquent, même si vous pouvez créer une socket domaine UNIX portant le nom d'un nom de chemin dans le système de fichiers de la grappe, cette socket ne résisterait pas à une reprise sur panne du noeud. En outre, aucun fifo ou tube nommé créé sur un système de fichiers n'est globalement accessible, et vous devez éviter d'essayer d'employer la commande fattach à partir de n'importe quel noeud autre que le noeud local.
L'exécution de fichiers binaires de systèmes de fichiers, montés par le biais de l'option de montage forcedirectio, n'est pas prise en charge.
La configuration Sun Cluster 3.1 ne prend pas en charge les fonctions VxFS suivantes :
Quick I/O (E/S rapide)
Snapshots (instantanés)
Storage checkpoints (points de contrôle du stockage)
Les avis de cache (s'ils sont utilisés, ils ne s'appliquent qu'au noeud sélectionné)
VERITAS CFS (nécessite la fonction de grappe VERITAS et VCS)
Toutes les autres fonctions et options VxFS prises en charge dans une configuration de grappe sont également prises en charge par le logiciel Sun Cluster 3.1. Consultez la documentation de VxFS et les pages de manuel pour plus de détails sur les options de VxFS prises en charge ou non dans une configuration de grappe.
La configuration Sun Cluster 3.1 ne prend pas en charge les options de montage spécifiques à VxFS.
convosync (Convertir O_SYNC)
mincache
qlog, delaylog, tmplog
Pour de plus amples informations sur l'administration des systèmes de fichiers de grappe VxFS dans le cadre d'une configuration Sun Cluster, consultez la rubrique “Administration des systèmes de fichiers de grappe : présentation” du Guide d'administration système de Sun Cluster 3.1.
Cette rubrique décrit les restrictions liées à l'utilisation du multi-acheminement sur réseau IP s'appliquant à un environnement Sun Cluster 3.1 exclusivement, ou n'étant pas référencées dans les informations fournies dans la documentation Solaris pour le multi-acheminement sur réseau IP.
IPv6 n'est pas pris en charge.
Tous les adaptateurs de réseaux publics doivent figurer dans des groupes IPMP.
Dans le fichier /etc/default/mpathd, ne remplacez pas yes par no pour TRACK_INTERFACES_ONLY_WITH_GROUPS.
Pour les bogues et problèmes connus reportez-vous à la rubrique Écrasement de hostname.int par l'option "Create IPMP group" (4731768) .
La plupart des procédures, instructions et restrictions définies dans la documentation Solaris pour le multi-acheminement sur réseau IP sont les mêmes pour les environnements grappe et non-grappe. Par conséquent, consultez le document Solaris approprié pour de plus amples informations sur les restrictions liées au multi-acheminement sur réseau IP.
Version de l'environnement d'exploitation |
Pour les instructions, voir... |
---|---|
Environnement d'exploitation Solaris 8 |
IP Network Multipathing Administration Guide |
Environnement d'exploitation Solaris 9 |
“ IP Network Multipathing Topics” dans le System Administration Guide : IP Series |
Aucune restriction ne s'applique à l'ensemble de services de données. Pour de plus amples informations sur les restrictions s'appliquant à des services de données spécifiques, reportez-vous aux Sun Cluster 3.1 Data Service 5/03 Release Notes.
Le service de données Sun Cluster HA pour Oracle 3.0 peut fonctionner sur Sun Cluster 3.1 uniquement s'il est utilisé avec les versions suivantes de l'environnement d'exploitation Solaris :
Solaris 8, version 32 bits
Solaris 8, version 64 bits
Solaris 9, version 32 bits
le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas fonctionner sur Sun Cluster 3.1 s'il est utilisé avec la version 64 bits de Solaris 9.