Les restrictions suivantes s'appliquent à la version Sun Cluster 3.1 :
Pour les autres problèmes ou restrictions connues, reportez-vous à la rubrique Problèmes connus et bogues.
Les bandes, les CD et les DVD multihôtes ne sont pas pris en charge.
L'AP (Alternate Pathing) n'est pas pris en charge.
Les périphériques de stockage ayant plus d'un chemin d'accès au boîtier à partir d'un noeud de cluster donné ne sont pas pris en charge, excepté les suivants :
Sun StorEdgeTM A3500, incluant la prise en charge de deux chemins d'accès à chacun des deux noeuds ;
tout périphérique prenant en charge Sun StorEdge Traffic Manager ;
les périphériques de stockage EMC utilisant le logiciel EMC PowerPath.
Si vous utilisez un serveur Sun EnterpriseTM 420R équipé d'une carte PCI à l'emplacement J4701, la carte mère doit être au moins de niveau 15 (501-5168-15 ou supérieure). La référence de la carte mère et son niveau de révision figurent sur la tranche de la carte, à proximité de l'emplacement PCI 1.
De graves erreurs système ont été observées sur des clusters lors de l'insertion de cartes UDWIS I/O dans l'emplacement 0 d'une carte d'un serveur Sun Enterprise 10000. Évitez donc d'installer des cartes de ce type à l'emplacement 0 de la carte de ce serveur.
Lorsque vous augmentez ou diminuez le nombre de liaisons de noeuds à un périphérique de quorum, le nombre de voix du quorum n'est pas automatiquement recalculé. Vous pouvez recalculer le nombre de voix approprié en supprimant tous les périphériques de quorum, puis en les replaçant dans la configuration.
SunVTSTM n'est pas pris en charge.
IPv6 n'est pas pris en charge.
Les types de transport RMS (Remote Shared Memory) sont mentionnés dans la documentation, mais ne sont pas pris en charge. Si vous utilisez l'interface RSMAPI, indiquez dlpi comme type de transport.
L'interface SCI (Sbus Scalable Coherent Interface) n'est pas prise en charge en tant qu'interconnexion de cluster. Par contre, l'interface PCI-SCI est prise en charge.
Les interfaces réseau logiques sont réservées à l'utilisation du logiciel Sun Cluster.
Les applications client fonctionnant sur les noeuds du cluster ne doivent pas correspondre aux adresses IP logiques d'un service de données HD. Au cours d'un basculement, ces adresses pourraient en effet disparaître, laissant le client sans connexion.
Si vous effectuez une mise à niveau à partir de VERITAS Volume Manager (VxVM) 3.2 à 3.5, la fonction Cluster Volume Manager (CVM) n'est pas disponible tant que vous n'avez pas installé la clé de licence CVM pour la version 3.5. Dans VxVM 3.5, la clé de licence CVM de la version 3.2 n'active pas CVM et doit être mise à niveau avec la clé de licence de la version 3.5.
Dans les configurations Solstice DiskSuite/Solaris Volume Manager qui utilisent des médiateurs, chaque ensemble de disques doit être associé à exactement deux hôtes médiateurs.
DiskSuite Tool (Solstice DiskSuite metatool) et le module de stockage amélioré de la console de gestion Solaris (Solaris Volume Manager) ne sont pas compatibles avec le logiciel Sun Cluster 3.1.
Les versions 3.2 ou ultérieures de VxVM ne permettent pas de désactiver le multiacheminement dynamique (DMP) à l'aide de la commande scvxinstall durant l'installation de VxVM. Cette procédure est décrite au chapitre “Installing and Configuring VERITAS Volume Manager” in Sun Cluster Software Installation Guide for Solaris OS. Le multiacheminement dynamique Veritas est pris en charge par les configurations suivantes :
chemin d'E/S unique par noeud vers le stockage partagé du cluster ;
solution de multiacheminement prise en charge (Sun Traffic Manager, EMC PowerPath, Hiatchi HDLM) et gérant plusieurs chemins d'E/S par noeud vers le stockage partagé du cluster.
Les groupes de disques racine simples (rootdg créés sur une même tranche du disque racine) ne sont pas pris en charge en tant que types de disques avec VxVM par le logiciel Sun Cluster 3.1.
Le logiciel RAID 5 n'est pas pris en charge.
Les systèmes de fichiers de cluster ne prennent pas en charge les quotas.
L'utilisation d'un système de fichiers LOFS sur des noeuds de cluster n'est pas prise en charge par le logiciel Sun Cluster 3.1.
La commande umount -f se comporte exactement de la même façon que la commande umount sans l'option -f. Elle ne prend pas en charge les démontages forcés.
Seuls les répertoires vides prennent en charge la commande unlink(1M).
La commande lockfs -d n'est pas prise en charge. Utilisez lockfs -n à la place.
Le système de fichiers de cluster ne prend en charge aucune des fonctions des systèmes de fichiers Solaris permettant de placer une marque de fin de communication dans l'espace de noms du système de fichiers. Par conséquent, même si vous pouvez créer un socket de domaine UNIX portant le nom d'un chemin dans le système de fichiers de cluster, ce socket ne résistera pas à un basculement du noeud. En outre, aucun fifo ou tube nommé créé sur un système de fichiers n'est globalement accessible, et vous devez éviter d'employer la commande fattach à partir de n'importe quel noeud autre que le noeud local.
L'exécution de fichiers binaires de systèmes de fichiers, montés par le biais de l'option de montage forcedirectio n'est pas prise en charge.
Il est impossible de remonter un système de fichiers en utilisant l'option de montage directio.
Vous ne pouvez pas définir l'option de montage directio sur un seul fichier au moyen de l'ioctl directio.
La configuration Sun Cluster 3.1 ne prend pas en charge les fonctions VxFS suivantes :
E/S rapides ;
instantanés ;
points de contrôle du stockage ;
avis de cache (ne s'appliquant qu'au noeud sélectionné en cas d'utilisation) ;
VERITAS CFS (nécessitant la fonction de cluster VERITAS et VCS).
Toutes les autres fonctions et options VxFS prises en charge dans une configuration de cluster sont également prises en charge par le logiciel Sun Cluster 3.1. Consultez la documentation de VxFS et les pages de manuel pour plus de détails sur les options de VxFS prises en charge ou non dans une configuration de cluster.
La configuration Sun Cluster 3.1 ne prend pas en charge les options de montage spécifiques à VxFS.
convosync (convertir O_SYNC) ;
mincache ;
qlog, delaylog, tmplog.
Pour de plus amples informations sur l'administration des systèmes de fichiers de cluster VxFS dans une configuration Sun Cluster, reportez-vous à la rubrique “Administering Cluster File Systems” in Sun Cluster System Administration Guide for Solaris OS.
Cette rubrique décrit les restrictions s'appliquant exclusivement à l'utilisation du multiacheminement sur réseau IP dans un environnement Sun Cluster 3.1 ou ne figurant pas dans la documentation Solaris relative au multiacheminement sur réseau IP.
IPv6 n'est pas pris en charge.
Tous les adaptateurs de réseaux publics doivent figurer dans des groupes IPMP.
Dans le fichier /etc/default/mpathd, ne remplacez pas yes par no pour TRACK_INTERFACES_ONLY_WITH_GROUPS.
La plupart des procédures, instructions et restrictions définies dans la documentation Solaris pour le multiacheminement sur réseau IP s'applique aussi bien aux environnements cluster que non-cluster. Par conséquent, consultez le document Solaris approprié pour de plus amples informations sur les restrictions liées au multiacheminement sur réseau IP.
Version de l'environnement d'exploitation |
Pour les instructions, voir... |
---|---|
Environnement d'exploitation Solaris 8 |
IP Network Multipathing Administration Guide |
Environnement d'exploitation Solaris 9 |
“IP Network Multipathing Topics” du System Administration Guide: Séries IP |
Ne configurez pas les noeuds de cluster comme routeurs (passerelles). Si le système est immobilisé, les clients ne pourront pas trouver de routeur alternatif et, de ce fait, effectuer une reprise.
Ne configurez pas les noeuds de cluster comme serveurs NIS ou NIS+. Ils peuvent toutefois être des clients NIS ou NIS+.
N'utilisez pas de configuration Sun Cluster pour doter les systèmes client d'un service d'initialisation ou d'installation à haute disponibilité.
N'utilisez pas de configuration Sun Cluster pour fournir un service rarpd.
Si vous installez un service RPC (appel de procédure à distance) sur le cluster, ce service ne doit pas utiliser les numéros de programmes suivants : 100141, 100142 et 100248. Ces numéros sont respectivement réservés aux démons Sun Cluster rgmd_receptionist, fed et pmfd. Si le service RPC installé utilise un de ces numéros, vous devez le modifier de façon à ce qu'il utilise un autre numéro.
À l'heure actuelle, SNDR (Sun StorEdge Network Data Replicator) ne peut être utilisé qu'avec HAStorage. Cette restriction ne s'applique qu'au groupe de ressources “de faible poids” et notamment à l'hôte logique que SNDR utilise pour la réplication. Les groupes de ressources d'application peuvent toujours utiliser HAStoragePlus avec SNDR. Vous pouvez utiliser le système de fichiers de basculement avec HAStoragePlus et SNDR en utilisant HAStorage pour le groupe de ressources SNDR et HAStoragePlus pour le groupe de ressources d'application, les ressources HAStorage et HAStoragePlus pointant sur le même périphérique DCS sous-jacent. Un patch permettant à SNDR de fonctionner avec HAStoragePlus est en cours de mise au point.
L'exécution de processus à haut niveau de priorité programmant des classes sur des noeuds du cluster n'est pas prise en charge. Les processus s'exécutant dans la classe de programmation en temps partagé avec un haut niveau de priorité ou les processus s'exécutant dans la classe de programmation en temps réel ne doivent pas être exécutés sur des noeuds de cluster. Le logiciel Sun Cluster s'appuie sur des threads du noyau ne s'exécutant pas dans la classe en temps réel. D'autres processus en temps partagé s'exécutant avec une priorité supérieure à la normale ou des processus en temps réel peuvent empêcher les threads du noyau de Sun Cluster d'acquérir les cycles CPU requis.
Sun Cluster 3.1 ne peut fournir de services qu'aux services de données livrés avec Sun Cluster ou configurés à l'aide de l'API de services de données de Sun Cluster.
Sun Cluster ne possède actuellement pas de service de données HA pour le sous-système sendmail(1M). Il est possible d'exécuter le sous-système sendmail sur les noeuds de cluster individuels, mais ses fonctions, telles que l'envoi, l'acheminement, l'attente ou la relance, ne seront pas hautement disponibles.
Si vous utilisez Sun Cluster HA pour Oracle avec Oracle 10g, n'installez pas de fichier binaire Oracle sur un système de fichiers local à haute disponibilité. Sun Cluster HA pour Oracle ne prend pas en charge une telle configuration. Cependant, vous pouvez installer des fichiers de données, des fichiers journaux et des fichiers de configuration sur un système de fichiers à haute disponibilité.
Si vous avez installé des fichiers binaires Oracle 10g sur le système de fichiers de cluster, des messages d'erreurs liés au démon cssd Oracle peuvent apparaître sur la console système lors de l'initialisation d'un noeud. Lorsque le système de fichiers de cluster est monté, ces messages n'apparaissent plus.
Les messages d'erreurs sont les suivants :
INIT: Command is respawning too rapidly. Check for possible errors. id: h1 "/etc/init.d/init.cssd run >/dev/null 2>&1 >/dev/null" |
Sun Cluster HA pour Oracle ne requiert pas le démon cssd Oracle. Vous pouvez donc ignorer ces messages.
Le service de données Sun Cluster HA pour Oracle 3.0 ne peut fonctionner sur le logiciel Sun Cluster 3.1 que s'il est utilisé avec les versions suivantes de l'environnement d'exploitation Solaris :
Solaris 8, version 32 bits ;
Solaris 8, version 64 bits ;
Solaris 9, version 32 bits.
le service de données Sun Cluster HA pour Oracle 3.0 ne peut pas fonctionner sur le logiciel Sun Cluster 3.1 s'il est utilisé avec la version 64 bits de Solaris 9.
Conformez-vous à la documentation de l'option Oracle Parallel Fail Safe/Real Application Clusters Guard des clusters Oracle Parallel Server/Real Application car il est impossible de modifier les noms d'hôtes après l'installation du logiciel Sun Cluster.
Pour de plus amples informations sur cette restriction concernant les noms d'hôtes et les noms de noeuds, reportez-vous à la documentation Oracle Parallel Fail Safe/Real Application Clusters Guard.
Si le client NetBackup VERITAS est un cluster, un seul hôte logique peut être configuré comme client car il n'y a qu'un seul fichier bp.conf.
Si le client NetBackup est un cluster et que l'un de ses hôtes logiques est configuré comme client NetBackup, NetBackup ne peut pas sauvegarder les hôtes physiques.
Sur le cluster exécutant le serveur maître, ce dernier est le seul hôte logique pouvant être sauvegardé.
Aucun support de sauvegarde ne peut être relié au serveur maître, il faut donc installer un ou plusieurs serveur(s) de support.
Dans un environnement Sun Cluster, le contrôle robotisé n'est pris en charge que sur les serveurs de supports et non sur le serveur maître NetBackup tournant sur Sun Cluster.
Aucun noeud Sun Cluster ne peut être le client NFS d'un système de fichiers exporté Sun Cluster HA for NFS contrôlé sur un noeud du même cluster. Un tel montage croisé de Sun Cluster HA for NFS est interdit. Utilisez le système de fichiers de cluster pour répartir les fichiers entre les noeuds.
Les applications exécutées localement sur le cluster ne doivent pas verrouiller les fichiers sur un système de fichiers exporté via NFS. Sinon, un blocage local (par exemple, flock(3UCB) ou fcntl (2)) risque d'empêcher le gestionnaire de verrouillage (lockd) de redémarrer. Au redémarrage, il est possible qu'un processus local bloqué soit verrouillé et que seul un client distant puisse le déverrouiller. Le comportement qui s'ensuit est imprévisible.
Sun Cluster HA for NFS requiert que tous les montages de clients NFS soient “rigides”.
Le logiciel Sun Cluster 3.1 ne prend pas en charge l'option Secure NFS ni l'utilisation conjointe de Kerberos et de NFS, et en particulier les options secure et kerberos appliquées au sous-système share_nfs(1M). Cependant, le logiciel Sun Cluster 3.1 prend en charge l'utilisation de ports sécurisés pour NFS en ajoutant l'entrée set nfssrv:nfs_portmon=1 au fichier /etc/system sur les noeuds de cluster.
N'utilisez pas NIS pour les services de noms d'un cluster exécutant Sun Cluster HA pour SAP liveCache car l'entrée NIS n'est utilisée que si les fichiers ne sont pas disponibles.
Pour de plus amples informations sur les exigences du mot de passe nssswitch.conf par rapport à cette restriction, reportez-vous à la rubrique “Preparing the Nodes and Disks” in Sun Cluster Data Service for SAP liveCache Guide for Solaris OS.