Cette rubrique présente les nouvelles fonctions et fonctionnalités ainsi que les nouveaux produits pris en charge par le logiciel Sun Cluster 3.1.
Sun Cluster est maintenant disponible pour les systèmes d'exploitation SolarisTM (édition pour plate-forme x86). Vous pouvez désormais utiliser le logiciel Sun Cluster 3.1 4/04 sur un serveur Sun FireTM V65x exécutant la mise à jour 6 du système d'exploitation Solaris 9 (édition pour plate-forme x86).
Les types de ressources suivants sont améliorés dans Sun Cluster 3.1 :
SUNW.oracle_listener (reportez-vous au Sun Cluster Data Service for Oracle Guide for Solaris OS) ;
SUNW.sap_xserver (reportez-vous au Sun Cluster Data Service for SAP liveCache Guide for Solaris OS).
Pour des informations d'ordre général concernant la mise à niveau d'un type de ressource, reportez-vous à la rubrique “Upgrading a Resource Type” in Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Sun Cluster 3.1 4/04 (édition pour plate-forme SPARC) prend en charge les services de données suivants :
HA Java System Application Server EE 7.0 ;
HA SAP DB 7.4 ;
HA Oracle 10G.
Sun Cluster 3.1 4/04 (édition pour plate-forme x86) prend en charge les services de données suivants :
HA NFS (Solaris 9 12/03) ;
HA DNS (Solaris 9 12/03) ;
HA Samba 2.2.8a et 3.0 ;
HA Java System Directory Server 5.2.1 Agent ;
HA Java System Web Server 6.1 ;
HA Java System Application Server EE 7.0 U3 ;
HA Java System Message Queue 3.5 ;
HA DHCP ;
HA MySQL ;
serveur Web Java System évolutif.
Cette rubrique décrit les logiciels pris en charge et la configuration minimale requise par le logiciel Sun Cluster 3.1.
Environnement d'exploitation et patchs : les versions Solaris et patchs pris en charge sont disponibles à l'adresse suivante :
Pour de plus amples informations, reportez-vous à la rubrique Patchs et niveaux de microprogrammes requis.
Gestionnaires de volumes
Pour Solaris 8 : Solstice DiskSuiteTM 4.2.1 et VERITAS Volume Manager 3.5 ;
Pour Solaris 9 : Solaris Volume Manager et VERITAS Volume Manager 3.5.
Systèmes de fichiers
Pour Solaris 8 : Solaris UFS et VERITAS File System 3.4 et 3.5 ;
Pour Solaris 9 : Solaris UFS et VERITAS File System 3.5.
Services de données (agents) : contactez votre représentant commercial Sun pour obtenir une liste complète des services de données et des versions d'applications pris en charge. Spécifiez les noms des types de ressources lorsque vous installez les services de données à l'aide de l'utilitaire scinstall(1M). Ces noms doivent aussi être spécifiés lorsque vous enregistrez les types de ressources associés au service de données à l'aide de l'utilitaire scsetup(1M).
les procédures relatives à la version de Sun Cluster HA pour Sun Java System Directory Server utilisant Sun Java System Directory Server 5.0 et 5.1 (plus Netscape HTTP, versions 4.11, 4.12, 4.13 et 4.16) se trouvent dans le Sun Cluster 3.1 Data Service for Sun ONE Directory Server. Pour les versions plus récentes de Sun Java System Directory Server, auparavant appelé SunTM Open Net Environment (Sun ONE) Directory Server, reportez-vous à la documentation produit de Sun Java System Directory Server.
toutes les occurrences de “Sun One” dans les noms et les descriptions des services de données pour les applications JES doivent être comprises comme “Java System”. Exemple : “service de données de Sun Cluster pour Sun One Application Server” doit être compris comme “service de données de Sun Cluster pour Sun Java System Application Server”.
Service de données |
Type de ressource Sun Cluster |
---|---|
Sun Cluster HA for Apache |
SUNW.apache |
Sun Cluster HA pour Apache Tomcat |
SUNW.sctomcat |
Sun Cluster HA for BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA pour DHCP |
SUNW.gds |
Sun Cluster HA for DNS |
SUNW.dns |
Sun Cluster HA pour MySQL |
SUNW.gds |
Sun Cluster HA for NetBackup |
SUNW.netbackup_master |
Sun Cluster HA for NFS |
SUNW.nfs |
Sun Cluster HA pour Oracle E-Business Suite |
SUNW.gds |
Sun Cluster HA for Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Sun Cluster Support for Oracle Parallel Server/Real Application Clusters |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_cvm SUNW.rac_hwraid |
Sun Cluster HA for NetBackup |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA for SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA for SAP DB |
SUNW.sapdb SUNW.sap_xserver |
Sun Cluster HA pour SWIFTAlliance Access |
SUNW.gds |
Sun Cluster HA pour Samba |
SUNW.gds |
Sun Cluster HA pour Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA for Sun Java System Application Server |
SUNW.s1as |
Sun Cluster HA for Sun Java System HADB |
SUNW.hadb |
Sun Cluster HA for Sun Java System Message Queue |
SUNW.s1mq |
Sun Cluster HA for Sun Java System Web Server (ce service de données était auparavant appelé Sun Cluster HA pour Sun ONE Web Server) |
SUNW.iws |
Sun Cluster HA for Sybase ASE |
SUNW.sybase |
Sun Cluster HA pour le serveur WebLogic |
SUNW.wls |
Sun Cluster HA pour WebSphere MQ |
SUNW.gds |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
SUNW.gds |
Configuration minimale requise : le logiciel Sun Cluster 3.1 nécessite davantage de mémoire qu'un noeud opérant dans des conditions normales. Le supplément de mémoire requis est de 128 Mo plus dix pour cent. Par exemple, si un noeud autonome a normalement besoin d'1 Go de mémoire, vous devez y ajouter 256 Mo pour fournir la mémoire nécessaire.
RSMAPI : le logiciel Sun Cluster 3.1 prend en charge la Remote Shared Memory Application Programming Interface (RSMAPI) sur les câbles d'interconnexion compatibles RSM, tels que PCI-SCI.
Sun Cluster Security Hardening utilise les techniques de renforcement de l'environnement d'exploitation Solaris, recommandées par le programme Sun BluePrintsTM, afin de renforcer la sécurité de base des clusters. Solaris Security Toolkit assure la mise en oeuvre automatique de Sun Cluster Security Hardening.
La documentation relative à Sun Cluster Security Hardening est disponible à l'adresse http://www.sun.com/blueprints/0203/817–1079.pdf. Vous pouvez aussi y accéder depuis http://wwws.sun.com/software/security/blueprints. Sur cet URL, descendez à l'en-tête Architecture pour trouver l'article “Securing the Sun Cluster 3.x Software”. La documentation décrit la procédure de sécurisation des déploiements de Sun Cluster 3.1 dans un environnement Solaris 8 et Solaris 9. L'utilisation de Solaris Security Toolkit et d'autres techniques de sécurité de pointe conseillées par les experts de Sun y sont également décrites.
Tableau 1–2 Services de données pris en charge par Sun Cluster Security Hardening
Agent de service de données |
Version de l'application : basculement |
Version de l'application : évolutive |
Version de Solaris |
---|---|---|---|
Sun Cluster HA for Apache |
1.3.9 |
1.3.9 |
Solaris 8, Solaris 9 (version 1.3.9) |
Sun Cluster HA pour Apache Tomcat |
3.3, 4.0, 4.1 |
3.3, 4.0, 4.1 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour DHCP |
S8U7+ |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for DNS |
avec SE |
N/A |
Solaris 8, Solaris 9 |
Serveur de messagerie Sun Cluster HA for Sun Java System |
6.0 |
4.1 |
Solaris 8 |
Sun Cluster HA pour MySQL |
3.23.54a - 4.0.15 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for NetBackup |
3.4 |
N/A |
Solaris 8 |
Sun Cluster HA for NFS |
avec SE |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour Oracle E-Business Suite |
11.5.8 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for Oracle |
8.1.7 et 9i (32 et 64 bits) |
N/A |
Solaris 8, Solaris 9 (HA Oracle 9iR2) |
Sun Cluster Support for Oracle Parallel Server/Real Application Clusters |
8.1.7 et 9i (32 et 64 bits) |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for NetBackup |
4.6D (32 et 64 bits) et 6.20 |
4.6D (32 et 64 bits) et 6.20 |
Solaris 8, Solaris 9 |
Sun Cluster HA pour SWIFTAlliance Access |
4.1, 5.0 |
N/A |
Solaris 8 |
Sun Cluster HA pour Samba |
2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for Siebel |
7.5 |
N/A |
Solaris 8 |
Sun Cluster HA pour Sun Java System Application Server |
7.0, 7.0 mise à jour 1 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for Sun Java System Directory Server |
4.12 |
N/A |
Solaris 8, Solaris 9 (version 5.1) |
Sun Cluster HA pour Sun Java System Message Queue |
3.0.1 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA for Sun Java System Web Server |
6.0 |
4.1 |
Solaris 8, Solaris 9 (version 4.1) |
Sun Cluster HA for Sybase ASE |
12.0 (32 bit) |
N/A |
Solaris 8 |
Sun Cluster HA pour le serveur BEA WebLogic |
7.0 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour WebSphere MQ |
5.2, 5.3 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA pour l'intégrateur WebSphere MQ |
2.0.2, 2.1 |
N/A |
Solaris 8, Solaris 9 |
Les restrictions suivantes s'appliquent à la version Sun Cluster 3.1 :
Pour les autres problèmes ou restrictions connues, reportez-vous à la rubrique Problèmes connus et bogues.
Les bandes, les CD et les DVD multihôtes ne sont pas pris en charge.
L'AP (Alternate Pathing) n'est pas pris en charge.
Les périphériques de stockage ayant plus d'un chemin d'accès au boîtier à partir d'un noeud de cluster donné ne sont pas pris en charge, excepté les suivants :
Sun StorEdgeTM A3500, incluant la prise en charge de deux chemins d'accès à chacun des deux noeuds ;
tout périphérique prenant en charge Sun StorEdge Traffic Manager ;
les périphériques de stockage EMC utilisant le logiciel EMC PowerPath.
Si vous utilisez un serveur Sun EnterpriseTM 420R équipé d'une carte PCI à l'emplacement J4701, la carte mère doit être au moins de niveau 15 (501-5168-15 ou supérieure). La référence de la carte mère et son niveau de révision figurent sur la tranche de la carte, à proximité de l'emplacement PCI 1.
De graves erreurs système ont été observées sur des clusters lors de l'insertion de cartes UDWIS I/O dans l'emplacement 0 d'une carte d'un serveur Sun Enterprise 10000. Évitez donc d'installer des cartes de ce type à l'emplacement 0 de la carte de ce serveur.
Lorsque vous augmentez ou diminuez le nombre de liaisons de noeuds à un périphérique de quorum, le nombre de voix du quorum n'est pas automatiquement recalculé. Vous pouvez recalculer le nombre de voix approprié en supprimant tous les périphériques de quorum, puis en les replaçant dans la configuration.
SunVTSTM n'est pas pris en charge.
IPv6 n'est pas pris en charge.
Les types de transport RMS (Remote Shared Memory) sont mentionnés dans la documentation, mais ne sont pas pris en charge. Si vous utilisez l'interface RSMAPI, indiquez dlpi comme type de transport.
L'interface SCI (Sbus Scalable Coherent Interface) n'est pas prise en charge en tant qu'interconnexion de cluster. Par contre, l'interface PCI-SCI est prise en charge.
Les interfaces réseau logiques sont réservées à l'utilisation du logiciel Sun Cluster.
Les applications client fonctionnant sur les noeuds du cluster ne doivent pas correspondre aux adresses IP logiques d'un service de données HD. Au cours d'un basculement, ces adresses pourraient en effet disparaître, laissant le client sans connexion.
Si vous effectuez une mise à niveau à partir de VERITAS Volume Manager (VxVM) 3.2 à 3.5, la fonction Cluster Volume Manager (CVM) n'est pas disponible tant que vous n'avez pas installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 n'active pas CVM et doit être mise à niveau avec la clé de licence de la version 3.5.
Dans les configurations Solstice DiskSuite/Solaris Volume Manager qui utilisent des médiateurs, chaque ensemble de disques doit être associé à exactement deux hôtes médiateurs.
DiskSuite Tool (Solstice DiskSuite metatool) et le module de stockage amélioré de la console de gestion Solaris (Solaris Volume Manager) ne sont pas compatibles avec le logiciel Sun Cluster 3.1.
Les versions 3.2 ou ultérieures de VxVM ne permettent pas de désactiver le multiacheminement dynamique (DMP) à l'aide de la commande scvxinstall durant l'installation de VxVM. Cette procédure est décrite au chapitre “Installing and Configuring VERITAS Volume Manager” in Sun Cluster Software Installation Guide for Solaris OS. Le multiacheminement dynamique Veritas est pris en charge par les configurations suivantes :
chemin d'E/S unique par noeud vers le stockage partagé du cluster ;
solution de multiacheminement prise en charge (Sun Traffic Manager, EMC PowerPath, Hiatchi HDLM) et gérant plusieurs chemins d'E/S par noeud vers le stockage partagé du cluster.
Les groupes de disques racine simples (rootdg créés sur une même tranche du disque racine) ne sont pas pris en charge en tant que types de disques avec VxVM par le logiciel Sun Cluster 3.1.
Le logiciel RAID 5 n'est pas pris en charge.
Les systèmes de fichiers de cluster ne prennent pas en charge les quotas.
L'utilisation d'un système de fichiers LOFS sur des noeuds de cluster n'est pas prise en charge par le logiciel Sun Cluster 3.1.
La commande umount -f se comporte exactement de la même façon que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
Seuls les répertoires vides prennent en charge la commande unlink(1M).
La commande lockfs -d n'est pas prise en charge. Utilisez lockfs -n à la place.
Le système de fichiers de cluster ne prend en charge aucune des fonctions des systèmes de fichiers Solaris permettant de placer une marque de fin de communication dans l'espace de noms du système de fichiers. Par conséquent, même si vous pouvez créer un socket de domaine UNIX portant le nom d'un chemin dans le système de fichiers de cluster, ce socket ne résistera pas à un basculement du noeud. En outre, aucun fifo ou tube nommé créé sur un système de fichiers n'est globalement accessible, et vous devez éviter d'employer la commande fattach à partir de n'importe quel noeud autre que le noeud local.
L'exécution de fichiers binaires de systèmes de fichiers, montés par le biais de l'option de montage forcedirectio n'est pas prise en charge.
Il est impossible de remonter un système de fichiers en utilisant l'option de montage directio.
Vous ne pouvez pas définir l'option de montage directio sur un seul fichier au moyen de l'ioctl directio.
La configuration Sun Cluster 3.1 ne prend pas en charge les fonctions VxFS suivantes :
E/S rapides ;
instantanés ;
points de contrôle du stockage ;
avis de cache (ne s'appliquant qu'au noeud sélectionné en cas d'utilisation) ;
VERITAS CFS (nécessitant la fonction de cluster VERITAS et VCS).
Toutes les autres fonctions et options VxFS prises en charge dans une configuration de cluster sont également prises en charge par le logiciel Sun Cluster 3.1. Consultez la documentation de VxFS et les pages de manuel pour plus de détails sur les options de VxFS prises en charge ou non dans une configuration de cluster.
La configuration Sun Cluster 3.1 ne prend pas en charge les options de montage spécifiques à VxFS.
convosync (convertir O_SYNC) ;
mincache ;
qlog, delaylog, tmplog.
Pour de plus amples informations sur l'administration des systèmes de fichiers de cluster VxFS dans une configuration Sun Cluster, reportez-vous à la rubrique “Administering Cluster File Systems” in Sun Cluster System Administration Guide for Solaris OS.
Cette rubrique décrit les restrictions s'appliquant exclusivement à l'utilisation du multiacheminement sur réseau IP dans un environnement Sun Cluster 3.1 ou ne figurant pas dans la documentation Solaris relative au multiacheminement sur réseau IP.
IPv6 n'est pas pris en charge.
Tous les adaptateurs de réseaux publics doivent figurer dans des groupes IPMP.
Dans le fichier /etc/default/mpathd, ne remplacez pas yes par no pour TRACK_INTERFACES_ONLY_WITH_GROUPS.
La plupart des procédures, instructions et restrictions définies dans la documentation Solaris pour le multiacheminement sur réseau IP s'applique aussi bien aux environnements cluster que non-cluster. Par conséquent, consultez le document Solaris approprié pour de plus amples informations sur les restrictions liées au multiacheminement sur réseau IP.
Version de l'environnement d'exploitation |
Pour les instructions, voir... |
---|---|
Environnement d'exploitation Solaris 8 |
IP Network Multipathing Administration Guide |
Environnement d'exploitation Solaris 9 |
“IP Network Multipathing Topics” du System Administration Guide: Séries IP |
Ne configurez pas les noeuds de cluster comme routeurs (passerelles). Si le système est immobilisé, les clients ne pourront pas trouver de routeur alternatif et, de ce fait, effectuer une reprise.
Ne configurez pas les noeuds de cluster comme serveurs NIS ou NIS+. Ils peuvent toutefois être des clients NIS ou NIS+.
N'utilisez pas de configuration Sun Cluster pour doter les systèmes client d'un service d'initialisation ou d'installation à haute disponibilité.
N'utilisez pas de configuration Sun Cluster pour fournir un service rarpd.
Si vous installez un service RPC (appel de procédure à distance) sur le cluster, ce service ne doit pas utiliser les numéros de programmes suivants : 100141, 100142 et 100248. Ces numéros sont respectivement réservés aux démons Sun Cluster rgmd_receptionist, fed et pmfd. Si le service RPC installé utilise un de ces numéros, vous devez le modifier de façon à ce qu'il utilise un autre numéro.
À l'heure actuelle, SNDR (Sun StorEdge Network Data Replicator) ne peut être utilisé qu'avec HAStorage. Cette restriction ne s'applique qu'au groupe de ressources “de faible poids” et notamment à l'hôte logique que SNDR utilise pour la réplication. Les groupes de ressources d'application peuvent toujours utiliser HAStoragePlus avec SNDR. Vous pouvez utiliser le système de fichiers de basculement avec HAStoragePlus et SNDR en utilisant HAStorage pour le groupe de ressources SNDR et HAStoragePlus pour le groupe de ressources d'application, les ressources HAStorage et HAStoragePlus pointant sur le même périphérique DCS sous-jacent. Un patch permettant à SNDR de fonctionner avec HAStoragePlus est en cours de mise au point.
L'exécution de processus à haut niveau de priorité programmant des classes sur des noeuds du cluster n'est pas prise en charge. Les processus s'exécutant dans la classe de programmation en temps partagé avec un haut niveau de priorité ou les processus s'exécutant dans la classe de programmation en temps réel ne doivent pas être exécutés sur des noeuds de cluster. Le logiciel Sun Cluster s'appuie sur des threads du noyau ne s'exécutant pas dans la classe en temps réel. D'autres processus en temps partagé s'exécutant avec une priorité supérieure à la normale ou des processus en temps réel peuvent empêcher les threads du noyau de Sun Cluster d'acquérir les cycles CPU requis.
Sun Cluster 3.1 ne peut fournir de services qu'aux services de données livrés avec Sun Cluster ou configurés à l'aide de l'API de services de données de Sun Cluster.
Sun Cluster ne possède actuellement pas de service de données HA pour le sous-système sendmail(1M). Il est possible d'exécuter le sous-système sendmail sur les noeuds de cluster individuels, mais ses fonctions, telles que l'envoi, l'acheminement, l'attente ou la relance, ne seront pas hautement disponibles.
Si vous utilisez Sun Cluster HA pour Oracle avec Oracle 10g, n'installez pas de fichier binaire Oracle sur un système de fichiers local à haute disponibilité. Sun Cluster HA pour Oracle ne prend pas en charge une telle configuration. Cependant, vous pouvez installer des fichiers de données, des fichiers journaux et des fichiers de configuration sur un système de fichiers à haute disponibilité.
Si vous avez installé des fichiers binaires Oracle 10g sur le système de fichiers de cluster, des messages d'erreurs liés au démon cssd Oracle peuvent apparaître sur la console système lors de l'initialisation d'un noeud. Lorsque le système de fichiers de cluster est monté, ces messages n'apparaissent plus.
Les messages d'erreurs sont les suivants :
INIT: Command is respawning too rapidly. Check for possible errors. id: h1 "/etc/init.d/init.cssd run >/dev/null 2>&1 >/dev/null" |
Sun Cluster HA pour Oracle ne requiert pas le démon cssd Oracle. Vous pouvez donc ignorer ces messages.
Le service de données Sun Cluster HA pour Oracle 3.0 ne peut fonctionner sur le logiciel Sun Cluster 3.1 que s'il est utilisé avec les versions suivantes de l'environnement d'exploitation Solaris :
Solaris 8, version 32 bits ;
Solaris 8, version 64 bits ;
Solaris 9, version 32 bits.
le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas fonctionner sur le logiciel Sun Cluster 3.1 s'il est utilisé avec la version 64 bits de Solaris 9.
Conformez-vous à la documentation de l'option Oracle Parallel Fail Safe/Real Application Clusters Guard des clusters Oracle Parallel Server/Real Application car il est impossible de modifier les noms d'hôtes après l'installation du logiciel Sun Cluster.
Pour de plus amples informations sur cette restriction concernant les noms d'hôtes et les noms de noeuds, reportez-vous à la documentation Oracle Parallel Fail Safe/Real Application Clusters Guard.
Si le client NetBackup VERITAS est un cluster, un seul hôte logique peut être configuré comme client car il n'y a qu'un seul fichier bp.conf.
Si le client NetBackup est un cluster et que l'un de ses hôtes logiques est configuré comme client NetBackup, NetBackup ne peut pas sauvegarder les hôtes physiques.
Sur le cluster exécutant le serveur maître, ce dernier est le seul hôte logique pouvant être sauvegardé.
Aucun support de sauvegarde ne peut être relié au serveur maître, il faut donc installer un ou plusieurs serveur(s) de support.
Dans un environnement Sun Cluster, le contrôle robotisé n'est pris en charge que sur les serveurs de supports et non sur le serveur maître NetBackup tournant sur Sun Cluster.
Aucun noeud Sun Cluster ne peut être le client NFS d'un système de fichiers exporté Sun Cluster HA for NFS contrôlé sur un noeud du même cluster. Un tel montage croisé de Sun Cluster HA for NFS est interdit. Utilisez le système de fichiers de cluster pour répartir les fichiers entre les noeuds.
Les applications exécutées localement sur le cluster ne doivent pas verrouiller les fichiers sur un système de fichiers exporté via NFS. Sinon, un blocage local (par exemple, flock(3UCB) ou fcntl (2)) risque d'empêcher le gestionnaire de verrouillage (lockd) de redémarrer. Au redémarrage, il est possible qu'un processus local bloqué soit verrouillé et que seul un client distant puisse le déverrouiller. Le comportement qui s'ensuit est imprévisible.
Sun Cluster HA for NFS requiert que tous les montages de clients NFS soient “rigides”.
Le logiciel Sun Cluster 3.1 ne prend pas en charge l'option Secure NFS ni l'utilisation conjointe de Kerberos et de NFS, et en particulier les options secure et kerberos appliquées au sous-système share_nfs(1M). Cependant, le logiciel Sun Cluster 3.1 prend en charge l'utilisation de ports sécurisés pour NFS en ajoutant l'entrée set nfssrv:nfs_portmon=1 au fichier /etc/system sur les noeuds de cluster.
N'utilisez pas NIS pour les services de noms d'un cluster exécutant Sun Cluster HA pour SAP liveCache car l'entrée NIS n'est utilisée que si les fichiers ne sont pas disponibles.
Pour de plus amples informations sur les exigences du mot de passe nssswitch.conf par rapport à cette restriction, reportez-vous à la rubrique “Preparing the Nodes and Disks” in Sun Cluster Data Service for SAP liveCache Guide for Solaris OS.