Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster 4.1 (Français) |
1. Planification de la configuration d'Oracle Solaris Cluster
Recherche des tâches d'installation Oracle Solaris Cluster
Planification du SE Oracle Solaris
Directives concernant la sélection d'une méthode d'installation d'Oracle Solaris
Restrictions concernant les fonctions du SE Oracle Solaris
SPARC : Directives pour Oracle VM Server for SPARC dans un cluster
Planification de l'environnement Oracle Solaris Cluster
Périphériques d'accès à la console
Configuration du réseau public
Configuration du serveur de quorum
Protocole NTP (protocole d'heure réseau)
Composants configurables d'Oracle Solaris Cluster
Noms de noeud de cluster global et ID de noeud
Conditions requises et directives concernant le cluster global
Conditions requises et directives concernant le cluster de zones
Planification des périphériques globaux, groupes de périphériques et systèmes de fichiers de cluster
Planification des périphériques globaux
Planification des groupes de périphériques
Planification des systèmes de fichiers de cluster
Choix des options de montage pour les systèmes de fichiers de cluster UFS
Informations sur le montage pour les systèmes de fichiers de cluster
Planification de la gestion des volumes
Directives concernant le logiciel de gestion de volumes
Directives concernant le logiciel Solaris Volume Manager
Journalisation du système de fichiers de cluster UFS
Directives concernant la mise en miroir
Directives concernant la mise en miroir des disques multihôtes
Directives concernant la mise en miroir du pool racine ZFS
2. Installation de logiciels sur des noeuds de cluster global
3. Etablissement d'un cluster global
4. Configuration du logiciel Solaris Volume Manager
5. Création d'un système de fichiers de cluster
6. Création de clusters de zones
Cette section fournit des directives sur la planification et la préparation des composants suivants pour l'installation et la configuration du logiciel Oracle Solaris Cluster :
Pour des informations détaillées sur les composants d'Oracle Solaris Cluster, reportez-vous au manuel Oracle Solaris Cluster Concepts Guide .
Assurez-vous que vous disposez de tous les certificats de licence nécessaires avant de commencer l'installation du logiciel. Le logiciel Oracle Solaris Cluster ne requiert aucun certificat de licence mais chaque noeud installé avec le logiciel Oracle Solaris Cluster doit être couvert par le contrat de licence du logiciel Oracle Solaris Cluster.
Pour connaître les conditions d'octroi de licence du gestionnaire de volumes et des applications, reportez-vous à la documentation sur l'installation de ces produits.
Après l'installation de chaque produit logiciel, vous devez également installer les mises à jour logicielles requises. Pour assurer le fonctionnement correct du cluster, veillez à maintenir le même niveau de mise à jour sur tous les noeuds du cluster.
Pour des instructions et des procédures générales relatives à l'installation des mises à jour logicielles, reportez-vous au Chapitre 11, Mise à jour du logiciel du manuel Guide d’administration système d’Oracle Solaris Cluster.
Pour plus d'informations sur l'utilisation des réseaux publics par le cluster, reportez-vous à la section Public Network Adapters and IP Network Multipathing du manuel Oracle Solaris Cluster Concepts Guide.
Vous devez configurer un certain nombre d'adresses IP de réseau public pour plusieurs composants Oracle Solaris Cluster. Le nombre d'adresses nécessaires dépend des composants que vous avez inclus dans la configuration du cluster. Chaque hôte Oracle Solaris de la configuration en cluster doit disposer d'au moins une connexion de réseau public au même ensemble de sous-réseaux publics.
Le tableau suivant répertorie les composants requérant l'attribution d'adresses IP de réseau public. Ajoutez ces adresses IP aux emplacements suivants :
Tout service de noms utilisé
Le fichier local /etc/inet/hosts sur chaque noeud de cluster global, après l'installation du logiciel Oracle Solaris
Le fichier local /etc/inet/hosts sur une zone non globale à adresse IP exclusive
Tableau 1-2 Les composants Oracle Solaris Cluster utilisant des adresses IP du réseau public
|
Pour plus d'informations sur la planification d'adresses IP, reportez-vous au Chapitre 1, Planification du développement du réseau du manuel Configuration et administration de réseaux Oracle Solaris 11.1.
Vous devez bénéficier d'un accès par console à tous les noeuds de cluster. Un processeur de service est utilisé pour la communication entre la console d'administration et les consoles des noeuds du cluster global.
Pour des informations détaillées sur l'accès à la console, reportez-vous au manuel Oracle Solaris Cluster Concepts Guide .
Vous pouvez exécuter l'utilitaire pconsole d'Oracle Solaris pour vous connecter aux noeuds de cluster. L'utilitaire fournit également une fenêtre de console principale permettant de diffuser votre saisie à toutes les connexions ouvertes. Pour plus d'informations, reportez-vous à la page de manuel pconsole(1) disponible lorsque vous installez le package terminal/pconsole d'Oracle Solaris 11.
Les réseaux publics communiquent en dehors du cluster. Prenez en compte les points suivants lorsque vous planifiez votre configuration de réseau public.
Séparation des réseaux publics et privés – Les réseaux publics et le réseau privé (interconnexion de cluster) doivent utiliser des adaptateurs séparés, ou vous devez configurer des VLAN avec balises sur des adaptateurs et des commutateurs compatibles pour utiliser le même adaptateur pour l'interconnexion privée et le réseau public.
Sinon, créez des cartes réseau virtuelles sur la même interface physique et assignez des cartes réseau virtuelles différentes aux réseaux privé et publics.
Minimum – Tous les noeuds de cluster doivent être connectés à au moins un réseau public. Les connexions de réseau public peuvent utilisent des sous-réseaux différents pour des noeuds différents.
Maximum – Vous pouvez ajouter autant de connexions de réseau public que vous le souhaitez, dans la mesure où votre configuration matérielle vous le permet.
Services évolutifs – Tous les noeuds exécutant un service évolutif doivent utiliser soit le même sous-réseau ou ensemble de sous-réseaux soit des sous-réseaux différents acheminables entre eux.
Adresses logiques – Chaque groupe de ressources de service de données utilisant une adresse logique doit avoir un nom d'hôte spécifié pour chaque réseau public permettant d'accéder à l'adresse logique. Pour plus d'informations sur les services et ressources de données, reportez-vous également au manuel Oracle Solaris Cluster Concepts Guide .
IPv4 – Le logiciel Oracle Solaris Cluster prend en charge des adresses IPv4 sur le réseau public.
IPv6 – Le logiciel Oracle Solaris Cluster prend en charge les adresses IPv6 sur le réseau public à la fois pour les services de données de basculement et évolutifs.
Groupes IPMP – Chaque adaptateur de réseau public utilisé pour le trafic de service de données doit appartenir à un groupe Multipathing sur réseau IP (IPMP). Si un adaptateur de réseau public n'est pas utilisé pour le trafic de service de données, il n'est pas nécessaire de le configurer dans un groupe IPMP.
A moins qu'une ou plusieurs interfaces de réseau public IPv6 qui ne sont pas de type lien local n'existent dans la configuration de réseau public, l'utilitaire scinstall configure automatiquement un groupe IPMP à adaptateurs multiples pour chaque ensemble d'adaptateurs de réseau public du cluster qui utilise le même sous-réseau. Ces groupes sont liés par des sondes transitives.
Lorsque la configuration contient des interfaces de réseau public IPv6 qui ne sont pas de type lien local, vous devez configurer manuellement en groupes IPMP toutes les interfaces qui seront utilisées pour le trafic de service de données. Vous pouvez configurer les groupes IPMP avant ou après l'établissement du cluster.
L'utilitaire scinstall ignore les adaptateurs déjà configurés dans un groupe IPMP. Vous pouvez utiliser des groupes IPMP basés sur une sonde ou un lien dans un cluster. Les groupes IPMP basés sur une sonde qui testent l'adresse IP cible offrent la meilleure protection car ils reconnaissent davantage de conditions susceptibles de compromettre la disponibilité.
Si un adaptateur appartenant à un groupe IPMP configuré par l'utilitaire scinstall n'est pas destiné à être utilisé pour le trafic du service de données, vous pouvez supprimer cet adaptateur du groupe.
Pour obtenir des directives sur les groupes IPMP, reportez-vous au Chapitre 5, Présentation du multipathing sur réseau IP (IPMP) du manuel Gestion des performances du réseau Oracle Solaris 11.1. Pour modifier les groupes IPMP après l'installation du cluster, suivez les directives de la section Administration des groupes de multipathing sur réseau IP dans un cluster du manuel Guide d’administration système d’Oracle Solaris Cluster et les procédures décrites au Chapitre 6, Administration du multipathing sur réseau IP (tâches) du manuel Gestion des performances du réseau Oracle Solaris 11.1.
Prise en charge des adresses MAC locales – Tous les adaptateurs de réseau public doivent utiliser des cartes d'interface réseau prenant en charge l'attribution d'une adresse MAC. L'attribution d'une adresse MAC locale est une condition requise par IPMP.
Paramètre local-mac-address – La variable local-mac-address? doit utiliser la valeur par défaut true pour les adaptateurs Ethernet. Le logiciel Oracle Solaris Cluster ne prend pas en charge une valeur local-mac-address? false pour les adaptateurs Ethernet.
Pour plus d'information sur les interfaces de réseau public, reportez-vous au manuel Oracle Solaris Cluster Concepts Guide .
Vous pouvez utiliser le logiciel Quorum Server d'Oracle Solaris Cluster (Quorum Server) pour configurer une machine en tant que serveur de quorum, puis configurer ce dernier en tant que périphérique de quorum du cluster. Vous pouvez utiliser un serveur de quorum à la place ou en plus des disques partagés et des gestionnaires de fichiers NAS.
Prenez en compte les points suivants si vous prévoyez d'utiliser un serveur de quorum dans une configuration Oracle Solaris Cluster.
Connexion réseau – Le serveur de quorum se connecte à votre cluster par le biais du réseau public.
Matériel pris en charge – Les plates-formes matérielles prises en charge pour un serveur de quorum sont les mêmes que pour le noeud de cluster global.
Système d'exploitation – La configuration requise par le logiciel Oracle Solaris pour le logiciel Oracle Solaris Cluster s'applique également au logiciel Quorum Server.
Restriction pour les zones non globales – Dans la version Oracle Solaris Cluster 4.1, un serveur de quorum ne peut pas être installé ni configuré dans une zone non globale.
Service à des clusters multiples – Vous pouvez configurer un serveur de quorum en tant que périphérique de quorum pour plusieurs clusters.
Combinaison matérielle et logicielle – Il n'est pas nécessaire de configurer un serveur de quorum sur la même plate-forme matérielle et logicielle que le ou les clusters auxquels il fournit le quorum. Par exemple, un système SPARC exécutant le SE Solaris 10 peut être configuré en tant que serveur de quorum pour un cluster x86 exécutant le SE Oracle Solaris 11.
Algorithme du Spanning Tree – Vous devez désactiver l'algorithme du Spanning Tree sur les commutateurs Ethernet pour les ports connectés au réseau public de cluster sur lequel le serveur le quorum s'exécutera.
Utilisation d'un noeud de cluster en tant que serveur de quorum – Vous pouvez configurer un serveur de quorum sur un noeud de cluster pour fournir un quorum aux autres clusters n'appartenant pas au noeud. Cependant, un serveur de quorum configuré sur un noeud de cluster n'est pas hautement disponible.
Prenez en compte les points suivants si vous prévoyez d'utiliser un système de fichiers réseau (NFS) dans une configuration Oracle Solaris Cluster :
Client NFS – Aucun noeud Oracle Solaris Cluster ne peut être un client NFS de système de fichiers exporté par HA pour NFS géré sur un noeud de ce même cluster. Ce montage croisé de HA pour NFS est interdit. Utilisez le système de fichiers de cluster pour partager les fichiers entre les noeuds du cluster global.
Protocole NFSv3 – Si vous montez des systèmes de fichiers sur les noeuds de cluster à partir de serveurs NFS externes, tels que des gestionnaires de fichiers NAS, et si vous utilisez le protocole NFSv3, vous ne pouvez pas exécuter les montages de client NFS et le service de données HA pour NFS sur le même noeud de cluster. Si vous le faites néanmoins, certaines activités du service de données HA pour NFS peuvent entraîner l'arrêt et la réinitialisation des démons NFS, interrompant ainsi les services NFS. Cependant, vous pouvez exécuter en toute sécurité le service de données HA pour NFS si vous utilisez le protocole NFSv4 pour monter des systèmes de fichiers NFS externes sur les noeuds du cluster.
Verrouillage – Les applications qui s'exécutent localement sur le cluster ne doivent pas verrouiller les fichiers sur un système de fichiers exporté par le biais de NFS. Sinon, le blocage local (par exemple, flock ou fcntl) pourrait interférer avec la capacité de réinitialisation du gestionnaire de verrouillage (lockd). Au cours de la réinitialisation, un processus local bloqué peut obtenir un verrouillage destiné à être récupéré par un client distant. Cette situation entraînerait un comportement imprévisible.
Fonctions de sécurité NFS – Le logiciel Oracle Solaris Cluster ne prend pas en charge les options suivantes de la commande share_nfs(1M) :
secure
sec=dh
Cependant, le logiciel Oracle Solaris Cluster prend en charge la fonctions de sécurité suivante pour NFS :
L'utilisation de ports sécurisés pour NFS. Pour activer des ports sécurisés pour NFS, ajoutez l'entrée nfssrv:nfs_portmon=1 au fichier /etc/system sur les noeuds de cluster.
Séparation – Les clusters de zones prennent en charge la séparation de l'ensemble des périphériques NAS, des baies de stockage et des disques partagés pris en charge.
Prenez en compte les restrictions de service suivantes pour les configurations Oracle Solaris Cluster :
Routeurs – Ne configurez pas des noeuds de cluster en tant que routeurs (passerelles) pour les raisons suivantes :
Les protocoles de routage peuvent diffuser par inadvertance l'interconnexion du cluster en tant que réseau public ouvert aux autres routeurs, malgré la présence du paramètre IFF_PRIVATE sur les interfaces d'interconnexion.
Il se peut que les protocoles de routage interfèrent dans le basculement des adresses IP sur des noeuds de cluster ayant un impact sur l'accès client.
Les protocoles de routage peuvent compromettre le bon fonctionnement des services évolutifs s'ils acceptent et suppriment des paquets de réseau client au lieu de transférer les paquets aux autres noeuds du cluster.
Serveurs NIS+ – Ne configurez pas de noeuds de cluster en tant que serveurs NIS ou NIS+. Aucun service de données n'est disponible pour NIS ou NIS+. Cependant, des noeuds de cluster peuvent être des clients NIS ou NIS+.
Serveurs d'installation – N'utilisez pas de configuration Oracle Solaris Cluster pour fournir un service d'installation hautement disponible sur les systèmes client.
RARP – N'utilisez pas une configuration Oracle Solaris Cluster pour fournir un service rarpd.
Numéros de programme RPC – Si vous installez un service RPC sur le cluster, le service ne doit utiliser aucun des numéros de programme suivants :
100141
100142
100248
Ces numéros sont réservés respectivement aux démons Oracle Solaris Cluster rgmd_receptionist, fed et pmfd.
Si le service RPC que vous installez utilise également l'un de ces numéros de programme, vous devez modifier ce service RPC pour utiliser un autre numéro de programme.
Classes de planification – Le logiciel Oracle Solaris Cluster ne prend pas en charge l'exécution de classes de planification de processus haute priorité sur les noeuds de cluster. N'exécutez pas les types de processus suivants sur les noeuds de cluster :
Processus s'exécutant dans la classe de programmation de partage de temps avec une priorité élevée
Processus s'exécutant dans la classe de programmation en temps réel
Le logiciel Oracle Solaris Cluster se repose sur les threads de noyau qui ne s'exécutent pas dans la classe de programmation en temps réel. D'autres processus de partage de temps s'exécutant selon une priorité supérieure à la normale ou les processus en temps réel peuvent empêcher les threads de noyau Oracle Solaris Cluster d'acquérir les cycles de CPU nécessaires.
Prenez en compte les directives suivantes pour le protocole NTP :
Synchronisation – La première condition requise lorsque vous configurez NTP ou tout utilitaire de synchronisation d'heure dans le cluster est que tous les noeuds du cluster doivent être synchronisés sur la même heure.
Précision – L'importance de la précision de l'heure sur les noeuds individuels est secondaire par rapport à la synchronisation de l'heure d'un noeud à l'autre. Vous êtes libre de configurer NTP selon vos besoins si cette condition de synchronisation est respectée.
Reportez-vous au manuel Oracle Solaris Cluster Concepts Guide pour plus d'informations sur l'heure du cluster. Pour plus d'informations sur le protocole d'heure réseau (NTP), reportez-vous à la page de manuel ntpd(1M) fournie dans le package service/network/ntp d'Oracle Solaris 11.
Cette section contient des directives concernant les composants Oracle Solaris Cluster que vous configurez :
Spécifiez un nom pour le cluster global au cours de la configuration d'Oracle Solaris Cluster. Le nom de cluster global doit être unique au sein de la société.
Pour plus d'informations sur l'attribution d'un nom à un cluster de zones, reportez-vous à la section Clusters de zones.
Le nom d'un noeud dans un cluster global est identique au nom que vous assignez à l'hôte physique ou virtuel lorsque vous y installez le SE Oracle Solaris. Reportez-vous à la page de manuel hosts(4) pour plus d'informations sur les conventions de nommage.
Lors de l'installation d'un cluster à hôte unique, le nom du cluster par défaut correspond au nom du noeud.
Au cours de la configuration d'Oracle Solaris Cluster, vous devez spécifier le nom des noeuds que vous installez dans le cluster global. Les noms de noeuds doivent être uniques dans le cluster.
Un numéro d'ID est assigné à chaque noeud de cluster à usage interne du cluster. Cette numérotation démarre à partir du chiffre 1. Les numéros d'ID de noeud sont assignés à chaque noeud de cluster selon leur ordre d'entrée dans le cluster. Si vous configurez tous les noeuds du cluster en une seule opération, le noeud à partir duquel vous exécutez l'utilitaire scinstall correspond au dernier noeud auquel un numéro d'ID a été assigné. Vous ne pouvez pas modifier le numéro d'ID d'un noeud après avoir assigné ce dernier à un cluster.
Lorsqu'un noeud devient membre du cluster, il reçoit le numéro d'ID de noeud le plus petit possible. Si un noeud est supprimé du cluster, son ID peut être assigné à un nouveau noeud. Par exemple, dans un cluster composé de quatre noeuds, si le noeud portant l'ID 3 est supprimé et si un noeud est ajouté, l'ID qui lui est assigné est 3 (et non 5).
Si vous souhaitez que les numéros d'ID de noeud assignés correspondent à certains noeuds de cluster, configurez les noeuds de cluster un par un dans l'ordre dans lequel vous souhaitez assigner les numéros d'ID de noeud. Par exemple, pour assigner le numéro 1 à l'ID de noeud du logiciel du cluster dans la propriété phys-schost-1, configurez ce noeud en tant que noeud de cautionnement du cluster. Si vous ajoutez ensuite la propriété phys-schost-2 au cluster établi par la propriété phys-schost-1, l'ID de noeud 2 est assigné à la propriété phys-schost-2.
Pour plus d'informations sur les noms de noeuds dans un cluster de zones, reportez-vous à la section Clusters de zones.
Remarque - Il n'est pas nécessaire de configurer un réseau privé pour un cluster global à hôte unique. L'utilitaire scinstall assigne automatiquement l'adresse et le masque de réseau du réseau privé par défaut, même si aucun réseau privé n'est utilisé par le cluster.
Le logiciel Oracle Solaris Cluster utilise le réseau privé pour la communication interne entre les noeuds et les zones non globales gérés par le logiciel Oracle Solaris Cluster. Une configuration Oracle Solaris Cluster requiert au moins deux connexions à l'interconnexion de cluster sur le réseau privé. Lorsque vous configurez le logiciel Oracle Solaris Cluster sur le premier noeud du cluster, vous spécifiez l'adresse et le masque de réseau du réseau privé de l'une des façons suivantes :
Acceptez l'adresse du réseau privé par défaut (172.16.0.0) ainsi que le masque de réseau par défaut (255.255.240.0). Cette plage d'adresses IP accepte un maximum de 64 noeuds et zones non globales, 12 clusters de zones et 10 réseaux privés.
Remarque - Le nombre maximal de noeuds qu'une plage d'adresses IP peut accepter ne reflète pas le nombre maximal de noeuds que la configuration matérielle et logicielle peut actuellement prendre en charge.
Spécifiez une autre adresse de réseau privé admissible et acceptez le masque de réseau par défaut.
Acceptez l'adresse de réseau privé par défaut et spécifiez un autre masque de réseau.
Spécifiez une autre adresse de réseau privé et un autre masque de réseau.
Si vous choisissez de spécifier un autre masque de réseau, l'utilitaire scinstall vous demande le nombre de noeuds et de réseaux privés que vous souhaitez voir pris en charge par la plage d'adresses IP. L'utilitaire vous demande également le nombre de clusters de zones à prendre en charge. Le nombre de noeuds de cluster global que vous spécifiez doit également inclure le nombre requis de zones non globales non clusterisées que le réseau privé utilisera.
L'utilitaire calcule le masque de réseau pour la plage d'adresses IP minimale prenant en charge le nombre de noeuds, clusters de zones et réseaux privés que vous spécifiez. Il se peut que le masque de réseau calculé prenne en charge davantage de noeuds, zones non globales, clusters de zones et réseaux privés que le nombre défini. L'utilitaire scinstall calcule également un second masque de réseau, ce qui représente le minimum requis pour prendre en charge deux fois plus de noeuds, clusters de zones et réseaux privés. Ce second masque de réseau permet au cluster de s'adapter à une croissance ultérieure, sans avoir à reconfigurer la plage d'adresses IP.
L'utilitaire vous demande alors quel masque de réseau choisir. Vous pouvez spécifier l'un des masques de réseau calculés ou en choisir un autre. Le masque de réseau que vous spécifiez doit au minimum prendre en charge le nombre de noeuds et de réseaux privés que vous indiquez dans l'utilitaire.
Remarque - Il peut être nécessaire de modifier la plage d'adresses IP privées du cluster pour prendre en charge des noeuds, des zones non globales, des clusters de zones ou des réseaux privés supplémentaires.
Pour modifier l'adresse et le masque de réseau du réseau privé une fois le cluster établi, reportez-vous à la section Modification de l’adresse du réseau privé ou de la plage d’adresses d’un cluster existant du manuel Guide d’administration système d’Oracle Solaris Cluster. Vous devez réduire le cluster pour effectuer ces modifications.
Cependant, le cluster peut rester en mode cluster si vous exécutez la commande cluster set-netprops pour modifier uniquement le masque de réseau. Pour tout cluster de zones déjà configuré dans le cluster, les sous-réseaux IP privés et les adresses IP privées correspondantes allouées à ce cluster de zones seront également mis à jour.
Si vous spécifiez une adresse de réseau privé autre que celle par défaut, cette adresse doit respecter les conditions suivantes :
Taille de l'adresse et du masque de réseau – L'adresse de réseau privé ne peut pas être plus courte que le masque de réseau. Pour exemple, vous pouvez utiliser l'adresse de réseau privé 172.16.10.0 avec le masque de réseau 255.255.255.0. Toutefois, vous ne pouvez pas utiliser une adresse de réseau privé de type 172.16.10.0 avec un masque de réseau de type 255.255.0.0.
Adresses acceptées – L'adresse doit être incluse dans le bloc d'adresses que RFC 1918 réserve à une utilisation dans des réseaux privés. Vous pouvez contacter InterNIC pour obtenir des copies de documents RFC (Request For Comments) ou consulter les documents RFC en ligne à l'adresse suivante : http://www.rfcs.org.
Utilisation dans des clusters multiples – Vous pouvez utiliser la même adresse de réseau privé dans plusieurs clusters à condition que les clusters se trouvent sur des réseaux privés différents. Les adresses de réseau IP privé ne sont pas accessibles depuis l'extérieur du cluster physique.
Oracle VM Server for SPARC – Lorsque des domaines invités sont créés sur la même machine physique et connectés au même commutateur virtuel, le réseau privé est partagé par ces domaines invités et visible pour tous ces domaines. Procédez avec précaution avant de spécifier la plage d'adresses IP de réseau privé dans l'utilitaire scinstall que le cluster d'un domaine invité doit utiliser. Assurez-vous que la plage d'adresses n'est pas déjà utilisée par un autre domaine invité existant sur la même machine physique et partageant son commutateur virtuel.
Adaptateurs VLAN partagés par plusieurs clusters – Les configurations Oracle Solaris Cluster prennent en charge le partage du même adaptateur VLAN d'une interconnexion privée entre plusieurs clusters. Vous ne devez pas configurer un VLAN distinct pour chaque cluster. Toutefois, pour optimiser l'isolation des erreurs et la résilience d'interconnexion, limitez l'utilisation d'un VLAN à un seul cluster.
IPv6 – Le logiciel Oracle Solaris Cluster ne prend pas en charge les adresses IPv6 pour l'interconnexion privée. Le système configure des adresses IPv6 sur les adaptateurs de réseau privé afin de prendre en charge les services évolutifs utilisant des adresses IPv6. Toutefois, la communication internodale sur le réseau privé n'utilise pas ces adresses IPv6.
Pour plus d'informations sur les réseaux privés, reportez-vous au Chapitre 1, Planification du développement du réseau du manuel Configuration et administration de réseaux Oracle Solaris 11.1.
Ce nom d'hôte privé est le nom utilisé pour la communication internodale par le biais de l'interface de réseau privé. Les noms d'hôtes privés sont automatiquement créés au cours de la configuration d'un cluster global ou d'un cluster de zones dans Oracle Solaris Cluster. Ces noms d'hôtes privés respectent la convention de nommage clusternode node-id -priv, où node-id correspond à la partie numérique de l'ID du noeud interne. Au cours de la configuration d'Oracle Solaris Cluster, un numéro d'ID de noeud est automatiquement assigné à un noeud lorsque celui-ci devient membre du cluster. Un noeud du cluster global et un noeud d'un cluster de zones peuvent tous deux porter le même nom d'hôte privé, mais chaque nom d'hôte a une adresse IP de réseau privé différente.
Une fois un cluster global configuré, vous pouvez renommer le nom de ses hôtes privés par le biais de l'utilitaire clsetup(1CL). Il vous est actuellement impossible de renommer le nom d'hôte privé d'un noeud de cluster de zones.
La création d'un nom d'hôte privé pour une zone non globale est facultative. Il n'existe aucune convention de nommage pour le nom d'hôte privé d'une zone non globale.
Les interconnexions de cluster fournissent le chemin matériel nécessaire à la communication entre les noeuds de cluster sur le réseau privé. Chaque interconnexion consiste en un câble connecté de l'une des façons suivantes :
Entre deux adaptateurs de transport
Entre un adaptateur de transport et un commutateur de transport
Pour plus d'informations sur la finalité et le rôle de l'interconnexion de cluster, reportez-vous à la section Cluster Interconnect du manuel Oracle Solaris Cluster Concepts Guide.
Remarque - Il est inutile de configurer une interconnexion de cluster pour un cluster à hôte unique. Cependant, si vous prévoyez d'ajouter des noeuds à une configuration en cluster à hôte unique, il peut être utile de configurer l'interconnexion de cluster en prévision d'une utilisation ultérieure.
Pendant la configuration d'Oracle Solaris Cluster, vous devez spécifier les informations de configuration d'une ou deux interconnexions du cluster.
Si le nombre de ports d'adaptateurs disponibles est limité, vous pouvez utiliser des VLAN avec balises pour partager le même adaptateur avec les réseaux privé et public. Pour plus d'informations, reportez-vous aux directives concernant les adaptateurs VLAN avec balises à la section Adaptateurs de transport.
Vous pouvez configurer une à six interconnexions de cluster dans un cluster. Bien qu'une seule interconnexion de cluster réduise le nombre de ports d'adaptateurs utilisés pour l'interconnexion privée, cela ne permet pas la redondance et diminue la disponibilité. Si une interconnexion unique échoue, le risque que le cluster doive effectuer une récupération automatique est plus élevé. Dans la mesure du possible, installez deux interconnexions de cluster (ou plus) pour bénéficier de la redondance et de l'évolutivité et d'une disponibilité plus importante, en évitant un point de panne unique.
Une fois le cluster établi, vous pouvez configurer des interconnexions de clusters supplémentaires (six maximum) à l'aide de l'utilitaire clsetup.
Pour connaître les directives concernant le matériel d'interconnexion de cluster, reportez-vous à la section Interconnect Requirements and Restrictions du manuel Oracle Solaris Cluster 4.1 Hardware Administration Manual. Pour des informations générales sur l'interconnexion de cluster, reportez-vous à la section Cluster Interconnect du manuel Oracle Solaris Cluster Concepts Guide.
Pour les adaptateurs de transport, tels que les ports des interfaces réseau, spécifiez le nom de l'adaptateur de réseau et le type de transport. Si votre configuration est un cluster à deux hôtes, vous pouvez également spécifier si votre interconnexion est une connexion point à point (adaptateur à adaptateur) ou si elle utilise un commutateur de transport.
Prenez en compte les différentes directives et restrictions suivantes :
IPv6 – Le logiciel Oracle Solaris Cluster ne prend pas en charge les communications IPv6 sur les interconnexions privées.
Attribution d'une adresse MAC locale – Tous les adaptateurs de réseau privé doivent utiliser des cartes d'interface réseau (NIC) prenant en charge l'attribution d'une adresse MAC locale. Les adresses IPv6 de type lien local, lesquelles sont requises sur les adaptateurs de réseau privé pour prendre en charge les adresses de réseau public IPv6 des services de données évolutifs, sont dérivées des adresses MAC locales.
Adaptateurs VLAN avec balises – Le logiciel Oracle Solaris Cluster prend en charge les réseaux VLAN pour partager un adaptateur entre l'interconnexion de cluster privé et le réseau public. Il faut exécuter la commande dladm create-vlan pour configurer l'adaptateur en tant qu'adaptateur VLAN avec balises avant de le configurer avec le cluster.
Pour configurer un adaptateur VLAN avec balises pour l'interconnexion de cluster, spécifiez l'adaptateur en indiquant son nom de périphérique virtuel VLAN. Le nom est composé du nom de l'adaptateur suivi du numéro d'instance VLAN. Le numéro d'instance VLAN est dérivé de la formule (1000*V)+N, où V est le numéro VID et N le point physique de connexion.
Par exemple, avec un VID défini sur 73 sur l'adaptateur net2, le numéro d'instance VLAN doit être calculé de la façon suivante : (1000*73)+2. Vous devez donc nommer l'adaptateur net73002 pour indiquer qu'il fait partie d'un LAN virtuel partagé.
Pour plus d'informations sur la configuration d'un VLAN dans un cluster, reportez-vous à la section Configuring VLANs as Private Interconnect Networks du manuel Oracle Solaris Cluster 4.1 Hardware Administration Manual. Pour plus d'informations sur la création et l'administration des réseaux locaux virtuels (VLAN), reportez-vous à la page de manuel dladm(1M) et au Chapitre 3, Working With VLANs du manuel Managing Oracle Solaris 11.1 Network Performance.
SPARC : Domaines invités Oracle VM Server for SPARC – Spécifiez les noms d'adaptateur en indiquant leurs noms virtuels, vnetN, tels que vnet0 et vnet1. Les noms d'adaptateur virtuels sont enregistrés dans le fichier /etc/path_to_inst.
Interfaces logiques évolutives – L'usage des interfaces logiques évolutives est réservé au logiciel Oracle Solaris Cluster.
Si vous utilisez des commutateurs de transport, tels qu'un commutateur de réseau, spécifiez un nom de commutateur de réseau pour chaque interconnexion. Vous pouvez utiliser le nom par défaut switchN, où N correspond au numéro automatiquement assigné au cours de la configuration, ou définir un autre nom.
Spécifiez également le nom du port de commutateur ou acceptez le nom par défaut. Le nom de port par défaut correspond au numéro d'ID du noeud interne de l'hôte Oracle Solaris hébergeant l'extrémité du câble de l'adaptateur. Cependant, vous ne pouvez pas utiliser le nom de port par défaut pour certains types d'adaptateur.
Les clusters comprenant trois noeuds ou plus doivent utiliser des commutateurs de transport. La connexion directe entre les noeuds de cluster est prise en charge uniquement pour les clusters à deux hôtes. Si votre cluster à deux hôtes est connecté directement, vous pouvez néanmoins spécifier un commutateur de transport pour l'interconnexion.
Astuce - Si vous spécifiez un commutateur de transport, vous pouvez ajouter plus facilement un autre noeud au cluster par la suite.
La séparation est un mécanisme utilisé par le cluster pour protéger l'intégrité des données d'un disque partagé en cas de situation de "split-brain". Par défaut, l'utilitaire scinstall en mode standard maintient activée la séparation globale et chaque disque partagé de la configuration utilise le paramètre de séparation globale par défaut de prefer3. Le protocole SCSI-3 est utilisé avec le paramètre prefer3.
Si un périphérique n'est pas compatible avec le protocole SCSI-3, il convient d'utiliser plutôt le paramètre pathcount, où le protocole de séparation du disque partagé est choisi en fonction du nombre de chemins DID liés au disque. Les périphériques non SCSI-3 sont limités à deux chemins de périphérique DID au sein du cluster. La séparation peut être désactivée pour tous les périphériques qui ne prennent pas en charge la séparation SCSI-3 ou SCSI-2. Toutefois, l'intégrité des données pour ces périphériques ne peut pas être garantie dans les situations de split-brain.
En mode personnalisé, l'utilitaire scinstall vous demande de désactiver la séparation globale. Dans la plupart des cas, répondez No pour maintenir la séparation globale activée. Dans certains cas, vous pouvez néanmoins désactiver la séparation globale.
Attention - Si vous désactivez la séparation dans d'autres situations que celles décrites dans le présent manuel, vos données risquent d'être endommagées lors du basculement de l'application. Prenez en compte cet aspect lorsque vous désactivez la séparation. |
Les situations dans lesquelles vous pouvez désactiver la séparation globale sont les suivantes :
Le stockage partagé ne permet pas la prise en charge des réservations SCSI.
Si vous désactivez la séparation pour un disque partagé que vous configurez ensuite en tant que périphérique de quorum, le périphérique utilise le protocole de quorum du logiciel, que le disque prenne en charge le protocole SCSI-2 ou SCSI-3. Le quorum du logiciel est un protocole du logiciel Oracle Solaris Cluster qui émule une forme de réservations de groupe persistant (PGR) SCSI.
Vous souhaitez permettre aux systèmes en dehors du cluster d'accéder au périphérique de stockage lié au cluster.
Si vous désactivez la séparation globale au cours de la configuration en cluster, la séparation est désactivée pour tous les disques partagés du cluster. Une fois le cluster configuré, vous pouvez modifier le protocole de séparation globale ou remplacer le protocole de séparation des disques partagés individuels. Cependant, pour modifier le protocole de séparation d'un périphérique de quorum, vous devez annuler la configuration du périphérique de quorum. Définissez ensuite le nouveau protocole de séparation du disque et reconfigurez ce dernier en tant que périphérique de quorum.
Pour plus d'informations sur la séparation, reportez-vous à la section Failfast Mechanism du manuel Oracle Solaris Cluster Concepts Guide. Pour plus d'informations sur la définition du protocole de séparation des disques partagés individuels, reportez-vous à la page de manuel cldevice(1CL). Pour plus d'informations sur le paramètre de séparation globale, reportez-vous à la page de manuel cluster(1CL).
Les configurations Oracle Solaris Cluster utilisent des périphériques de quorum pour maintenir l'intégrité des données et des ressources. En cas de déconnexion temporaire entre le cluster et un noeud, le périphérique de quorum permet de prévenir les problèmes d'amnésie ou de "split-brain" lorsque le noeud concerné tente de rejoindre le cluster. Pour plus d'informations sur la finalité et le rôle des périphériques de quorum, reportez-vous à la section Quorum and Quorum Devices du manuel Oracle Solaris Cluster Concepts Guide.
Au cours de l'installation par Oracle Solaris Cluster d'un cluster à deux hôtes, vous pouvez choisir de laisser l'utilitaire scinstall configurer automatiquement un disque partagé disponible dans la configuration en tant que périphérique de quorum. L'utilitaire scinstall suppose que tous les disques partagés disponibles sont pris en charge en tant que périphériques de quorum.
Si vous souhaitez utiliser un serveur de quorum ou un périphérique Sun ZFS Storage Appliance NAS d'Oracle en tant que périphérique de quorum, configurez-le une fois que le processus scinstall est terminé.
Après l'installation, vous pouvez également configurer des périphériques de quorum supplémentaires à l'aide de l'utilitaire clsetup.
Remarque - Il est inutile de configurer des périphériques de quorum pour un cluster à hôte unique.
Si votre configuration en cluster inclut des périphériques tiers de stockage partagés dont l'utilisation en tant que périphériques de quorum n'est pas prise en charge, vous devez exécuter l'utilitaire clsetup pour configurer le quorum manuellement.
Tenez compte des points suivants lorsque vous planifiez les périphériques de quorum :
Minimum – Un cluster à deux hôtes doit comprendre au moins un périphérique de quorum, qui peut être un disque partagé, un serveur de quorum ou un périphérique NAS. Pour d'autres topologies, les périphériques de quorum sont optionnels.
Règle de nombre impair – Si plus d'un périphérique de quorum est configuré dans un cluster à deux hôtes ou dans une paire d'hôtes directement connectée au périphérique de quorum, configurez un nombre impair de périphériques de quorum. Cette configuration permet de s'assurer que les périphériques de quorum ont des chemins de panne complètement indépendants.
Distribution des votes de quorum – Pour assurer la disponibilité optimale du cluster, assurez-vous que le nombre total de votes des périphériques de quorum est inférieur au nombre total de votes des noeuds. Sinon, les noeuds ne peuvent pas former un cluster lorsque tous les périphériques de quorum sont indisponibles, même si tous les noeuds fonctionnent.
Connexion – Vous devez connecter un périphérique de quorum à au moins deux noeuds.
Protocole de séparation SCSI – Lorsqu'un périphérique de quorum de disque partagé SCSI est configuré, son protocole de séparation est automatiquement défini sur SCSI-2 dans un cluster à deux hôtes ou sur SCSI-3 dans un cluster à trois noeuds ou plus.
Modification du protocole de séparation de périphériques de quorum – Pour les disques SCSI configurés en tant que périphérique de quorum, vous devez annuler la configuration du périphérique de quorum avant d'activer ou de désactiver son protocole de séparation SCSI.
Protocole de quorum du logiciel – Vous pouvez configurer des disques partagés ne prenant pas en charge le protocole SCSI, tels que des disques SATA, en tant que périphériques de quorum. Vous devez désactiver la séparation pour de tels disques. Les disques doivent alors utiliser le protocole de quorum du logiciel, qui émule des réservations de groupe persistant (PGR) SCSI.
Le protocole de quorum du logiciel doit également être utilisé par des disques partagés SCSI si la séparation est désactivée pour ces disques.
Périphériques répliqués – Le logiciel Oracle Solaris Cluster ne prend pas en charge les périphériques répliqués en tant que périphériques de quorum.
Pools de stockage ZFS – N'ajoutez pas un périphérique de quorum configuré à un pool de stockage ZFS. Lorsqu'un périphérique de quorum configuré est ajouté au pool de stockage ZFS, le disque est réétiqueté en tant que disque EFI et les informations de quorum sont perdues. Le disque ne peut alors plus fournir un vote de quorum au cluster.
Une fois un disque dans un pool de stockage, vous pouvez configurer ce disque en tant que périphérique de quorum. Ou vous pouvez annuler la configuration du périphérique de quorum, l'ajouter au pool de stockage, puis reconfigurer le disque en tant que périphérique de quorum.
Pour plus d'informations sur les périphériques de quorum, reportez-vous à la section Quorum and Quorum Devices du manuel Oracle Solaris Cluster Concepts Guide.
Un cluster de zones est un cluster composé de zones Oracle Solaris non globales. Vous pouvez exécuter l'utilitaire clsetup pour créer un cluster de zones et ajouter une adresse de réseau, un système de fichiers, un pool de stockage ZFS ou un périphérique de stockage. Vous pouvez également utiliser une interface de ligne de commande (l'utilitaire clzonecluster) pour créer un cluster de zones, apporter des modifications à la configuration et supprimer un cluster de zones. Pour plus d'informations sur l'exécution de l'utilitaire clzonecluster, reportez-vous à la page de manuel clzonecluster(1CL).
Les marques prises en charge pour les clusters de zones sont solaris, solaris10 et labeled. La marque labeled ne peut être utilisée que dans un environnement Trusted Extensions. Pour utiliser la fonctionnalité Trusted Extensions d'Oracle Solaris, vous devez configurer la fonction Trusted Extensions destinée à être utilisée dans un cluster de zones. Aucune autre utilisation de Trusted Extensions n'est prise en charge dans une configuration d'Oracle Solaris Cluster.
Vous pouvez également spécifier un cluster de zones IP partagées ou un cluster de zones IP exclusives lorsque vous exécutez l'utilitaire clsetup.
Les clusters de zones IP partagées fonctionnent avec les zones marquées solaris ou solaris10. Un cluster de zones IP partagées partage une pile IP unique entre toutes les zones du noeud et une adresse IP est allouée à chaque zone.
Les clusters de zones IP exclusives fonctionnent uniquement avec des zones marquées solaris , et non avec des zones marquées solaris10. Un cluster de zones IP exclusives prend en charge une pile d'instance IP distincte.
Tenez compte des points suivants lorsque vous planifiez la création d'un cluster de zones :
Conditions requises et directives concernant le cluster global
Conditions requises et directives concernant le cluster de zones
Cluster global – Le cluster de zones doit être configuré sur une configuration Oracle Solaris Cluster globale. Un cluster de zones ne peut pas être configuré sans un cluster global sous-jacent.
Mode cluster – Le noeud du cluster global à partir duquel vous avez créé ou modifié un cluster de zones doit être en mode cluster. Si les autres noeuds sont en mode non-cluster lorsque vous gérez un cluster de zones, les modifications apportées sont propagées à ces noeuds lorsqu'ils repassent en mode cluster.
Adresses IP privées appropriées – La plage d'adresses IP privées du cluster global doit inclure suffisamment de sous-réseaux d'adresses IP disponibles pouvant être utilisés par le nouveau cluster de zones. Si le nombre de sous-réseaux disponibles est insuffisant, la création du cluster de zones échoue.
Modifications apportées à la plage d'adresses IP privées – Les sous-réseaux IP privés et les adresses IP privées correspondantes disponibles pour les clusters de zones sont automatiquement mis à jour si la plage d'adresses IP privées du cluster global est modifiée. Si un cluster de zones est supprimé, l'infrastructure de cluster libère les adresses IP privées qui étaient utilisées par ce cluster de zones, permettant ainsi d'utiliser les adresses à d'autres fins au sein du cluster global et les rendant utilisables par tout autre cluster de zones dépendant du cluster global.
Périphériques pris en charge – Les périphériques pris en charge avec des zones Oracle Solaris peuvent être exportés vers un cluster de zones. De tels périphériques incluent les éléments suivants :
Périphériques de disque Oracle Solaris (cN tXdY sZ)
Périphériques DID (/dev/did/*dsk/dN)
Ensembles de disques multipropriétaires Solaris Volume Manager et Solaris Volume Manager pour Sun Cluster (/dev/md/setname/*dsk/dN)
Répartition de noeuds – Vous ne pouvez pas héberger plusieurs noeuds du même cluster de zones sur la même machine hôte. Un hôte peut prendre en charge plusieurs noeud de clusters de zones tant que chaque noeud de clusters de zones de cet hôte fait partie d'un cluster de zones différent.
Création de noeud – Vous devez créer au moins un noeud de cluster de zones au moment où vous créez le cluster de zones. Vous pouvez exécuter l'utilitaire clsetup ou la commande clzonecluster pour créer le cluster de zones. Le nom de chaque noeud de cluster de zones doit être unique. L'infrastructure crée automatiquement une zone non globale sous-jacente sur chaque hôte prenant en charge le cluster de zones. Le même nom de zones est attribué à chaque zone non globale. Ce nom est identique au nom attribué au cluster de zones lorsque vous créez le cluster. Par exemple, si vous créez un cluster de zones portant le nom zc1, la zone non globale correspondante sur chaque hôte prenant en charge le cluster de zones porte également le nom zc1.
Nom de cluster – Chaque nom de cluster de zones doit être unique sur l'ensemble du cluster de machines hébergeant le cluster global. Le nom d'un cluster de zones ne peut pas être également utilisé par une zone non globale ailleurs dans le cluster des machines et ne peut pas être identique au nom d'un noeud de cluster global. Vous ne pouvez pas utiliser "all" ou "global" comme nom de cluster de zones. Il s'agit de noms réservés.
Adresses IP de réseau public – Vous pouvez attribuer une adresse IP de réseau public spécifique à chaque noeud de cluster de zones.
Remarque - Si vous ne configurez pas une adresse IP pour chaque noeud de cluster de zones, deux choses se produisent :
Cette zone cluster ne sera pas en mesure de configurer les périphériques NAS pour l'utiliser dans le cluster de zones. Le cluster utilise l'adresse IP du noeud de cluster de zones lors de la communication avec le périphérique NAS, de sorte que le fait de ne pas disposer d'adresse IP permet d'éviter la séparation du support de cluster pour les périphériques NAS.
Le logiciel de gestion du cluster s'activera n'importe quel autre l'adresse IP de l'hôte sur n'importe quelle carte d'interface réseau.
Noms d'hôtes privés – Au cours de la création du cluster de zones, un nom d'hôte privé est automatiquement créé pour chaque noeud du cluster de zones, de la même façon que les noms d'hôtes sont créés dans les clusters globaux. Il vous est actuellement impossible de renommer le nom d'hôte privé d'un noeud de cluster de zones. Pour plus d'informations sur les noms d'hôtes privés, reportez-vous à la section Noms d'hôtes privés.
Marques Oracle Solaris Zones – Tous les noeuds d'un cluster de zones sont configurés en tant que zones non globales marquées solaris, solaris10 ou labeled définies à l'aide de l'attribut cluster. Aucun autre type de marque n'est autorisé dans un cluster de zones.
Pour Trusted Extensions, il faut utiliser uniquement la marque labeled.
Type d'IP - Vous pouvez créer un cluster de zones du type d'IP shared ou exclusive. Si le type d'IP n'est pas spécifié, un cluster de zones IP partagées est créé par défaut.
Propriété de type de ressource Global_zone=TRUE – Pour enregistrer un type de ressource utilisant la propriété de type de ressource Global_zone=TRUE, le fichier de type de ressource doit se trouver dans le répertoire /usr/cluster/global/rgm/rtreg/ du cluster de zones. Si ce fichier de type de ressource se trouve à un autre emplacement, la commande permettant d'enregistrer le type de ressource est rejetée.
Conversion en noeud de cluster de zones – Vous ne pouvez pas ajouter à un cluster de zones une zone non globale se trouvant en dehors de ce dernier. Il faut exécuter uniquement la commande clzonecluster pour ajouter des noeuds à un cluster de zones.
Systèmes de fichiers – Vous pouvez exécuter l'utilitaire clsetup ou la commande clzonecluster pour ajouter les types de systèmes de fichiers suivants pour une utilisation par le cluster de zones. Pour exporter un système de fichiers vers un cluster de zones, vous pouvez utiliser soit un point de montage direct, soit un point de montage loopback. L'ajout d'un système de fichiers à l'aide de l'utilitaire clsetup s'effectue dans l'étendue du cluster, ce qui a une incidence sur l'ensemble du cluster de zones.
Montage direct :
Système de fichiers local UFS
Système de fichiers ZFS Oracle Solaris (exporté en tant qu'ensemble de données)
Système de fichiers NFS à partir de périphériques NAS pris en charge
Montage loopback :
Système de fichiers local UFS
Système de fichiers de cluster UFS
Vous configurez une ressource HAStoragePlus ou ScalMountPoint pour gérer le montage du système de fichiers.
Séparation – Les clusters de zones prennent en charge la séparation de l'ensemble des périphériques NAS, des baies de stockage et des disques partagés pris en charge.
Tenez compte des points suivants lorsque vous utilisez la fonction Trusted Extensions dans un cluster de zones Oracle Solaris :
Prise en charge du cluster de zones uniquement – Dans une configuration d'Oracle Solaris Cluster lorsque Trusted Extensions est activé, les applications doivent uniquement s'exécuter dans un cluster de zones. Aucune autre des zones non globales ne peut être utilisée sur le cluster. Il faut exécuter uniquement la commande clzonecluster pour créer un cluster de zones. N'utilisez pas la commande txzonemgr pour créer une zone non globale sur un cluster dont l'option Trusted Extensions est activée.
Etendue de Trusted Extensions – Vous pouvez activer ou désactiver Trusted Extensions pour la configuration de l'intégralité du cluster. Lorsque Trusted Extensions est activé, toutes les zones non globales dans la configuration du cluster doivent faire partie de l'un des clusters de zones. Vous ne pouvez pas configurer un autre type de zone non globale sans risque pour la sécurité.
Adresses IP – Chaque cluster de zones mettant en oeuvre Trusted Extensions doit utiliser ses propres adresses IP. La fonction de mise en réseau spéciale de Trusted Extensions qui permet de partager une adresse IP entre plusieurs zones non globales n'est pas prise en charge avec le logiciel Oracle Solaris Cluster.
Montages loopback – Vous ne pouvez pas procéder à des montages loopback qui disposent d'autorisations en écriture dans un cluster de zones utilisant Trusted Extensions. Utilisez uniquement des montages directs de systèmes de fichiers permettant l'accès en écriture ou des montages loopback qui ne disposent que d'autorisations en lecture.
Systèmes de fichiers – Ne configurez pas le périphérique global sur lequel repose un système de fichiers dans le cluster de zones. Configurez uniquement le système de fichiers proprement dit dans le cluster de zones.
Nom du périphérique de stockage – N'ajoutez pas de tranche individuelle d'un périphérique de stockage dans un cluster de zones. Vous devez ajouter le périphérique complet à un cluster de zones unique. L'utilisation de tranches du même périphérique de stockage dans des clusters de zones différents compromet la sécurité de ces clusters.
Installation d'application – Installez des applications uniquement dans le cluster de zones ou dans le cluster global, puis effectuez une exportation vers le cluster de zones en utilisant les montages loopback en lecture seule.
Isolement de cluster de zones – Lorsque Trusted Extensions est utilisé, le nom d'un cluster de zones est une étiquette de sécurité. Dans certains cas, l'étiquette de sécurité elle-même peut également se composer d'informations ne pouvant pas être divulguées, et le nom d'une ressource ou d'un groupe de ressources peut être une information sensible ne pouvant pas non plus être divulguée. Lorsqu'une dépendance de ressource inter-cluster ou une affinité de groupe de ressources inter-cluster est configurée, le nom de l'autre cluster devient visible, de même que le nom de toute ressource ou groupe de ressources affecté. Par conséquent, avant d'établir toute relation inter-cluster, évaluez si ces informations peuvent être rendues visibles, en fonction de vos besoins.