Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster 4.0 (Français) |
1. Planification de la configuration d'Oracle Solaris Cluster
Recherche des tâches d'installation Oracle Solaris Cluster
Planification du SE Oracle Solaris
Directives concernant la sélection d'une méthode d'installation d'Oracle Solaris
Restrictions concernant les fonctions du SE Oracle Solaris
SPARC : Directives pour Oracle VM Server for SPARC dans un cluster
Planification de l'environnement Oracle Solaris Cluster
Périphériques d'accès à la console
Configuration du réseau public
Configuration du serveur de quorum
Protocole NTP (protocole d'heure réseau)
Composants configurables d'Oracle Solaris Cluster
Noms de noeud votant de cluster global et ID de noeud
Conditions requises et directives concernant le cluster global
Conditions requises et directives concernant le cluster de zones
Planification des périphériques globaux, groupes de périphériques et systèmes de fichiers de cluster
Planification des périphériques globaux
Planification des groupes de périphériques
Planification des systèmes de fichiers de cluster
Choix des options de montage pour les systèmes de fichiers de cluster UFS
Informations sur le montage pour les systèmes de fichiers de cluster
Planification de la gestion des volumes
Directives concernant le logiciel de gestion de volumes
Directives concernant le logiciel Solaris Volume Manager
Journalisation du système de fichiers de cluster UFS
Directives concernant la mise en miroir
Directives concernant la mise en miroir des disques multihôtes
Directives concernant la mise en miroir du pool racine ZFS
2. Installation de logiciels sur des noeuds de cluster global
3. Etablissement d'un cluster global
4. Configuration du logiciel Solaris Volume Manager
5. Création d'un système de fichiers de cluster
6. Création de clusters de zones
Cette section fournit des directives sur la planification et la préparation des composants suivants pour l'installation et la configuration du logiciel Oracle Solaris Cluster :
Pour des informations détaillées sur les composants d'Oracle Solaris Cluster, reportez-vous au manuel Oracle Solaris Cluster Concepts Guide .
Assurez-vous que vous disposez de tous les certificats de licence nécessaires avant de commencer l'installation du logiciel. Le logiciel Oracle Solaris Cluster ne requiert aucun certificat de licence mais chaque noeud installé avec le logiciel Oracle Solaris Cluster doit être couvert par le contrat de licence du logiciel Oracle Solaris Cluster.
Pour connaître les conditions d'octroi de licence du gestionnaire de volumes et des applications, reportez-vous à la documentation sur l'installation de ces produits.
Après l'installation de chaque produit logiciel, vous devez également installer les mises à jour logicielles requises. Pour assurer le fonctionnement correct du cluster, veillez à maintenir le même niveau de mise à jour sur tous les noeuds du cluster.
Pour des instructions et des procédures générales relatives à l'installation des mises à jour logicielles, reportez-vous au Chapitre 11, Mise à jour du logiciel du manuel Guide d’administration système d’Oracle Solaris Cluster.
Pour plus d'informations sur l'utilisation des réseaux publics par le cluster, reportez-vous à la section Public Network Adapters and IP Network Multipathing du manuel Oracle Solaris Cluster Concepts Guide.
Vous devez configurer un certain nombre d'adresses IP de réseau public pour plusieurs composants Oracle Solaris Cluster. Le nombre d'adresses nécessaires dépend des composants que vous avez inclus dans la configuration du cluster. Chaque hôte Oracle Solaris de la configuration en cluster doit disposer d'au moins une connexion de réseau public au même ensemble de sous-réseaux publics.
Le tableau suivant répertorie les composants requérant l'attribution d'adresses IP de réseau public. Ajoutez ces adresses IP aux emplacements suivants :
Tout service de noms utilisé
Le fichier local /etc/inet/hosts sur chaque noeud de cluster global, après l'installation du logiciel Oracle Solaris
Le fichier local /etc/inet/hosts sur une zone non globale à adresse IP exclusive
Tableau 1-2 Les composants Oracle Solaris Cluster utilisant des adresses IP du réseau public
|
Pour plus d'informations sur la planification d'adresses IP, reportez-vous au Chapitre 1, Planification du développement du réseau du manuel Administration d’Oracle Solaris : Services IP.
Vous devez bénéficier d'un accès par console à tous les noeuds de cluster. Un processeur de service est utilisé pour la communication entre la console d'administration et les consoles des noeuds du cluster global.
Pour des informations détaillées sur l'accès à la console, reportez-vous au manuel Oracle Solaris Cluster Concepts Guide .
Vous pouvez utiliser l'utilitaire pconsole d'Oracle Solaris pour vous connecter aux noeuds de cluster. L'utilitaire fournit également une fenêtre de console principale permettant de diffuser votre saisie à toutes les connexions ouvertes. Pour plus d'informations, reportez-vous à la page de manuel pconsole(1) disponible lorsque vous installez le package terminal/pconsole d'Oracle Solaris 11.
Les réseaux publics communiquent en dehors du cluster. Prenez en compte les points suivants lorsque vous planifiez votre configuration de réseau public.
Séparation des réseaux publics et privés – Les réseaux publics et le réseau privé (interconnexion de cluster) doivent utiliser des adaptateurs séparés, ou vous devez configurer des VLAN avec balises sur des adaptateurs et des commutateurs compatibles pour utiliser le même adaptateur pour l'interconnexion privée et le réseau public.
Sinon, créez des cartes réseau virtuelles sur la même interface physique et assignez des cartes réseau virtuelles différentes aux réseaux privé et publics.
Minimum – Tous les noeuds de cluster doivent être connectés à au moins un réseau public. Les connexions de réseau public peuvent utilisent des sous-réseaux différents pour des noeuds différents.
Maximum – Vous pouvez ajouter autant de connexions de réseau public que vous le souhaitez, dans la mesure où votre configuration matérielle vous le permet.
Services évolutifs – Tous les noeuds exécutant un service évolutif doivent utiliser soit le même sous-réseau ou ensemble de sous-réseaux soit des sous-réseaux différents acheminables entre eux.
Adresses logiques – Chaque groupe de ressources de service de données utilisant une adresse logique doit avoir un nom d'hôte spécifié pour chaque réseau public permettant d'accéder à l'adresse logique. Pour plus d'informations sur les services et ressources de données, reportez-vous également au manuel Oracle Solaris Cluster Concepts Guide .
IPv4 – Le logiciel Oracle Solaris Cluster prend en charge des adresses IPv4 sur le réseau public.
IPv6 – Le logiciel Oracle Solaris Cluster prend en charge les adresses IPv6 sur le réseau public à la fois pour les services de données de basculement et évolutifs.
Groupes IPMP – chaque adaptateur de réseau public utilisé pour le trafic de service de données doit appartenir à un groupe Multipathing sur réseau IP (IPMP). Si un adaptateur de réseau public n'est pas utilisé pour le trafic de service de données, il n'est pas nécessaire de le configurer dans un groupe IPMP.
A moins qu'une ou plusieurs interfaces de réseau public IPv6 qui ne sont pas de type lien local n'existent dans la configuration de réseau public, l'utilitaire scinstall configure automatiquement un groupe IPMP à adaptateurs multiples pour chaque ensemble d'adaptateurs de réseau public du cluster qui utilise le même sous-réseau. Ces groupes sont liés par des sondes transitives.
Lorsque la configuration contient des interfaces de réseau public IPv6 qui ne sont pas de type lien local, vous devez configurer manuellement en groupes IPMP toutes les interfaces qui seront utilisées pour le trafic de service de données. Vous pouvez configurer les groupes IPMP avant ou après l'établissement du cluster.
L'utilitaire scinstall ignore les adaptateurs déjà configurés dans un groupe IPMP. Vous pouvez utiliser des groupes IPMP basés sur une sonde ou un lien dans un cluster. Les groupes IPMP basés sur une sonde qui testent l'adresse IP cible offrent la meilleure protection car ils reconnaissent davantage de conditions susceptibles de compromettre la disponibilité.
Si un adaptateur appartenant à un groupe IPMP configuré par l'utilitaire scinstall n'est pas destiné à être utilisé pour le trafic du service de données, vous pouvez supprimer cet adaptateur du groupe.
Pour connaître les directives relatives aux groupes IPMP, reportez-vous au Chapitre 14, Présentation d’IPMP du manuel Administration d’Oracle Solaris : interfaces réseau et virtualisation réseau. Pour modifier les groupes IPMP après l'installation du cluster, suivez les directives de la section Administration des groupes de multiacheminement sur réseau IP dans un cluster du manuel Guide d’administration système d’Oracle Solaris Cluster et les procédures décrites au Chapitre 15, Administration d’IPMP du manuel Administration d’Oracle Solaris : interfaces réseau et virtualisation réseau.
Prise en charge des adresses MAC locales – Tous les adaptateurs de réseau public doivent utiliser des cartes réseau prenant en charge l'attribution d'une adresse MAC. L'attribution d'une adresse MAC locale est une condition requise par IPMP.
Paramètre local-mac-address – La variable local-mac-address? doit utiliser la valeur par défaut true pour les adaptateurs Ethernet. Le logiciel Oracle Solaris Cluster ne prend pas en charge une valeur local-mac-address? false pour les adaptateurs Ethernet.
Pour plus d'information sur les interfaces de réseau public, reportez-vous au manuel Oracle Solaris Cluster Concepts Guide .
Vous pouvez utiliser le logiciel Quorum Server d'Oracle Solaris Cluster (Quorum Server) pour configurer une machine en tant que serveur de quorum, puis configurer ce dernier en tant que périphérique de quorum du cluster. Vous pouvez utiliser un serveur de quorum à la place ou en plus des disques partagés et des gestionnaires de fichiers NAS.
Prenez en compte les points suivants si vous prévoyez d'utiliser un serveur de quorum dans une configuration Oracle Solaris Cluster.
Connexion réseau – Le serveur de quorum se connecte à votre cluster par le biais du réseau public.
Matériel pris en charge – Les plates-formes matérielles prises en charge pour un serveur de quorum sont les mêmes que pour le noeud de cluster global.
Système d'exploitation – La configuration requise par le logiciel Oracle Solaris pour le logiciel Oracle Solaris Cluster s'applique également au logiciel Quorum Server.
Restriction pour les zones non globales – Dans la version Oracle Solaris Cluster 4.0, un serveur de quorum ne peut pas être installé ni configuré dans une zone non globale.
Service à des clusters multiples – Vous pouvez configurer un serveur de quorum en tant que périphérique de quorum pour plusieurs clusters.
Combinaison matérielle et logicielle – Il n'est pas nécessaire de configurer un serveur de quorum sur la même plate-forme matérielle et logicielle que le ou les clusters auxquels il fournit le quorum. Par exemple, un système SPARC exécutant le SE Solaris 10 peut être configuré en tant que serveur de quorum pour un cluster x86 exécutant le SE Oracle Solaris 11.
Algorithme du Spanning Tree – Vous devez désactiver l'algorithme du Spanning Tree sur les commutateurs Ethernet pour les ports connectés au réseau public de cluster sur lequel de serveur de quorum s'exécutera.
Utilisation d'un noeud de cluster en tant que serveur de quorum – Vous pouvez configurer un serveur de quorum sur un noeud de cluster pour fournir un quorum aux autres clusters n'appartenant pas au noeud. Cependant, un serveur de quorum configuré sur un noeud de cluster n'est pas hautement disponible.
Prenez en compte les points suivants si vous prévoyez d'utiliser un système de fichiers réseau (NFS) dans une configuration Oracle Solaris Cluster :
Client NFS – Aucun noeud Oracle Solaris Cluster ne peut être un client NFS de système de fichiers exporté par HA pour NFS géré sur un noeud de ce même cluster. Ce montage croisé de HA pour NFS est interdit. Utilisez le système de fichiers de cluster pour partager les fichiers entre les noeuds du cluster global.
Protocole NFSv3 – Si vous montez des systèmes de fichiers sur les noeuds de cluster à partir de serveurs NFS externes, tels que des gestionnaires de fichiers NAS, et si vous utilisez le protocole NFSv3, vous ne pouvez pas exécuter les montages de client NFS et le service de données HA pour NFS sur le même noeud de cluster. Si vous le faites néanmoins, certaines activités du service de données HA pour NFS peuvent entraîner l'arrêt et la réinitialisation des démons NFS, interrompant ainsi les services NFS. Cependant, vous pouvez exécuter en toute sécurité le service de données HA pour NFS si vous utilisez le protocole NFSv4 pour monter des systèmes de fichiers NFS externes sur les noeuds du cluster.
Verrouillage – Les applications qui s'exécutent localement sur le cluster ne doivent pas verrouiller les fichiers sur un système de fichiers exporté par le biais de NFS. Sinon, le blocage local (par exemple, flock(3UCB) ou fcntl(2)) pourrait interférer avec la capacité de réinitialisation du gestionnaire de verrouillage (lockd(1M)). Au cours de la réinitialisation, un processus local bloqué peut obtenir un verrouillage destiné à être récupéré par un client distant. Cette situation entraînerait un comportement imprévisible.
Fonctions de sécurité NFS – Le logiciel Oracle Solaris Cluster ne prend pas en charge les options suivantes de la commande share_nfs(1M) :
secure
sec=dh
Cependant, le logiciel Oracle Solaris Cluster prend en charge la fonctions de sécurité suivante pour NFS :
L'utilisation de ports sécurisés pour NFS. Pour activer des ports sécurisés pour NFS, ajoutez l'entrée nfssrv:nfs_portmon=1 au fichier /etc/system sur les noeuds de cluster.
Séparation – Les clusters de zones prennent en charge la séparation de l'ensemble des périphériques NAS, des baies de stockage et des disques partagés pris en charge.
Prenez en compte les restrictions de service suivantes pour les configurations Oracle Solaris Cluster :
Routeurs – Ne configurez pas des noeuds de cluster en tant que routeurs (passerelles) pour les raisons suivantes :
Les protocoles de routage peuvent diffuser par inadvertance l'interconnexion du cluster en tant que réseau public ouvert aux autres routeurs, malgré la présence du paramètre IFF_PRIVATE sur les interfaces d'interconnexion.
Il se peut que les protocoles de routage interfèrent dans le basculement des adresses IP sur des noeuds de cluster ayant un impact sur l'accès client.
Les protocoles de routage peuvent compromettre le bon fonctionnement des services évolutifs s'ils acceptent et suppriment des paquets de réseau client au lieu de transférer les paquets aux autres noeuds du cluster.
Serveurs NIS+ – Ne configurez pas de noeuds de cluster en tant que serveurs NIS ou NIS+. Aucun service de données n'est disponible pour NIS ou NIS+. Cependant, des noeuds de cluster peuvent être des clients NIS ou NIS+.
Serveurs d'installation – N'utilisez pas de configuration Oracle Solaris Cluster pour fournir un service d'installation hautement disponible sur les systèmes client.
RARP – N'utilisez pas une configuration Oracle Solaris Cluster pour fournir un service rarpd.
Numéros de programme RPC – Si vous installez un service RPC sur le cluster, le service ne doit utiliser aucun des numéros de programme suivants :
100141
100142
100248
Ces numéros sont réservés respectivement aux démons Oracle Solaris Cluster rgmd_receptionist, fed et pmfd.
Si le service RPC que vous installez utilise également l'un de ces numéros de programme, vous devez modifier ce service RPC pour utiliser un autre numéro de programme.
Classes de planification – Le logiciel Oracle Solaris Cluster ne prend pas en charge l'exécution de classes de planification de processus haute priorité sur les noeuds de cluster. N'exécutez pas les types de processus suivants sur les noeuds de cluster :
Processus s'exécutant dans la classe de programmation de partage de temps avec une priorité élevée
Processus s'exécutant dans la classe de programmation en temps réel
Le logiciel Oracle Solaris Cluster se repose sur les threads de noyau qui ne s'exécutent pas dans la classe de programmation en temps réel. D'autres processus de partage de temps s'exécutant selon une priorité supérieure à la normale ou les processus en temps réel peuvent empêcher les threads de noyau Oracle Solaris Cluster d'acquérir les cycles de CPU nécessaires.
Prenez en compte les directives suivantes pour le protocole NTP :
Synchronisation – La première condition requise lorsque vous configurez NTP ou tout utilitaire de synchronisation d'heure dans le cluster est que tous les noeuds du cluster doivent être synchronisés sur la même heure.
Précision – L'importance de la précision de l'heure sur les noeuds individuels est secondaire par rapport à la synchronisation de l'heure d'un noeud à l'autre. Vous êtes libre de configurer NTP selon vos besoins si cette condition de synchronisation est respectée.
Reportez-vous au manuel Oracle Solaris Cluster Concepts Guide pour plus d'informations sur l'heure du cluster. Pour plus d'informations sur le protocole d'heure réseau (NTP), reportez-vous à la page de manuel ntpd(1M) fournie dans le package service/network/ntp d'Oracle Solaris 11.
Cette section contient des directives concernant les composants Oracle Solaris Cluster que vous configurez :
Spécifiez un nom pour le cluster global au cours de la configuration d'Oracle Solaris Cluster. Le nom de cluster global doit être unique au sein de la société.
Pour plus d'informations sur l'attribution d'un nom à un cluster de zones, reportez-vous à la section Clusters de zones.
Le nom d'un noeud votant dans un cluster global est identique au nom que vous assignez à l'hôte physique ou virtuel lorsque vous y installez le SE Oracle Solaris. Reportez-vous à la page de manuel hosts(4) pour plus d'informations sur les conventions de nommage.
Pour l'installation d'un cluster à hôte unique, le nom de cluster par défaut est le nom du noeud votant.
Au cours de la configuration d'Oracle Solaris Cluster, vous devez spécifier le nom des noeuds votants que vous installez dans le cluster global. Les noms de noeuds doivent être uniques dans le cluster.
Un numéro d'ID de noeud est assigné à chaque noeud de cluster à usage interne du cluster. Cette numérotation démarre à partir du chiffre 1. Les numéros d'ID de noeud sont assignés à chaque noeud de cluster selon leur ordre d'entrée dans le cluster. Si vous configurez tous les noeuds du cluster en une seule opération, le noeud à partir duquel vous exécutez l'utilitaire scinstall correspond au dernier noeud auquel un numéro d'ID de noeud a été assigné. Vous ne pouvez pas modifier le numéro d'ID d'un noeud après avoir assigné ce dernier à un cluster.
Lorsqu'un noeud devient membre du cluster, il reçoit le numéro d'ID de noeud le plus petit possible. Si un noeud est supprimé du cluster, son ID peut être assigné à un nouveau noeud. Par exemple, dans un cluster composé de quatre noeuds, si le noeud renvoyant l'ID de noeud 3 est supprimé et si un noeud est ajouté, l'ID assigné au nouveau noeud est égal à 3 et non pas à 5.
Si vous souhaitez que les numéros d'ID de noeud assignés correspondent à certains noeuds de cluster, configurez les noeuds de cluster un par un dans l'ordre dans lequel vous souhaitez assigner les numéros d'ID de noeud. Par exemple, pour assigner le numéro 1 à l'ID de noeud du logiciel du cluster dans la propriété phys-schost-1, configurez ce noeud en tant que noeud comme noeud de cautionnement du cluster. Si vous ajoutez ensuite la propriété phys-schost-2 au cluster établit par la propriété phys-schost-1, l'ID de noeud 2 est assigné à la propriété phys-schost-2.
Pour plus d'informations sur les noms de noeuds dans un cluster de zones, reportez-vous à la section Clusters de zones.
Remarque - Il n'est pas nécessaire de configurer un réseau privé pour un cluster global à hôte unique. L'utilitaire scinstall assigne automatiquement l'adresse et le masque de réseau du réseau privé par défaut, même si aucun réseau privé n'est utilisé par le cluster.
Le logiciel Oracle Solaris Cluster utilise le réseau privé pour la communication interne entre les noeuds et les zones non globales gérés par le logiciel Oracle Solaris Cluster. Une configuration Oracle Solaris Cluster requiert au moins deux connexions à l'interconnexion de cluster sur le réseau privé. Lorsque vous configurez le logiciel Oracle Solaris Cluster sur le premier noeud du cluster, vous spécifiez l'adresse et le masque de réseau du réseau privé de l'une des façons suivantes :
Acceptez l'adresse du réseau privé par défaut (172.16.0.0) ainsi que le masque de réseau par défaut (255.255.240.0). Cette plage d'adresses IP accepte un maximum de 64 noeuds votants et zones non globales, 12 zones de clusters et 10 réseaux privés.
Remarque - Le nombre maximal de noeuds votants qu'une plage d'adresses IP peut accepter ne reflète pas le nombre maximal de noeuds votants que la configuration matérielle et logicielle peut actuellement prendre en charge.
Spécifiez une autre adresse de réseau privé admissible et acceptez le masque de réseau par défaut.
Acceptez l'adresse de réseau privé par défaut et spécifiez un autre masque de réseau.
Spécifiez une autre adresse de réseau privé et un autre masque de réseau.
Si vous choisissez de spécifier un autre masque de réseau, l'utilitaire scinstall vous demande le nombre de noeuds et de réseaux privés que vous souhaitez voir pris en charge par la plage d'adresses IP. L'utilitaire vous demande également le nombre de clusters de zones à prendre en charge. Le nombre de noeuds de cluster global que vous spécifiez doit également inclure le nombre requis de zones non globales non clusterisées que le réseau privé utilisera.
L'utilitaire calcule le masque de réseau pour la plage d'adresses IP minimale prenant en charge le nombre de noeuds, clusters de zones et réseaux privés que vous spécifiez. Il se peut que le masque de réseau calculé prenne en charge davantage de noeuds, zones non globales, clusters de zones et réseaux privés que le nombre défini. L'utilitaire scinstall calcule également un second masque de réseau, ce qui représente le minimum requis pour prendre en charge deux fois plus de noeuds, clusters de zones et réseaux privés. Ce second masque de réseau permet au cluster de s'adapter à une croissance ultérieure, sans avoir à reconfigurer la plage d'adresses IP.
L'utilitaire vous demande alors quel sous-réseau choisir. Vous pouvez spécifier l'un des masques de réseau calculés ou en choisir un autre. Le masque de réseau que vous spécifiez doit au minimum prendre en charge le nombre de noeuds et de réseaux privés que vous indiquez dans l'utilitaire.
Remarque - Il peut être nécessaire de modifier la plage d'adresses IP privées du cluster pour prendre en charge des noeuds votants, des zones non globales, des clusters de zones et des réseaux privés supplémentaires.
Pour modifier l'adresse et le masque de réseau du réseau privé une fois le cluster établi, reportez-vous à la section Modification de l’adresse du réseau privé ou de la plage d’adresses d’un cluster existant du manuel Guide d’administration système d’Oracle Solaris Cluster. Vous devez réduire le cluster pour effectuer ces modifications.
Cependant, le cluster peut rester en mode cluster si vous utilisez la commande cluster set-netprops pour modifier uniquement le masque de réseau. Pour tout cluster de zones déjà configuré dans le cluster, les sous-réseaux IP privés et les adresses IP privées correspondantes allouées à ce cluster de zones seront également mis à jour.
Si vous spécifiez une adresse de réseau privé autre que celle par défaut, cette adresse doit respecter les conditions suivantes :
Taille de l'adresse et du masque de réseau – L'adresse de réseau privé ne peut pas être plus courte que le masque de réseau. Pour exemple, vous pouvez utiliser l'adresse de réseau privé 172.16.10.0 avec le masque de réseau 255.255.255.0. En revanche, vous ne pouvez pas utiliser une adresse de réseau privé de type 172.16.10.0 avec un masque de réseau de type 255.255.0.0.
Adresses acceptées – L'adresse doit être incluse dans le bloc d'adresses que RFC 1918 réserve à une utilisation dans des réseaux privés. Vous pouvez contacter InterNIC pour obtenir des copies de documents RFC (Request For Comments) ou consulter les documents RFC en ligne à l'adresse suivante : http://www.rfcs.org.
Utilisation dans des clusters multiples – Vous pouvez utiliser la même adresse de réseau privé dans plusieurs clusters à condition que les clusters se trouvent sur des réseaux privés différents. Les adresses de réseau IP privé ne sont pas accessibles depuis l'extérieur du cluster physique.
Oracle VM Server for SPARC - Lorsque des domaines invités sont créés sur la même machine physique et connectés au même commutateur virtuel, le réseau privé est partagé par ces domaines invités et visible pour tous ces domaines. Procédez avec précaution avant de spécifier la plage d'adresses IP de réseau privé dans l'utilitaire scinstall que le cluster d'un domaine invité doit utiliser. Assurez-vous que la plage d'adresses n'est pas déjà utilisée par un autre domaine invité existant sur la même machine physique et partageant son commutateur virtuel.
Adaptateurs VLAN partagés par plusieurs clusters – Les configurations Oracle Solaris Cluster prennent en charge le partage du même adaptateur VLAN d'une interconnexion privée entre plusieurs clusters. Vous ne devez pas configurer un VLAN distinct pour chaque cluster. Toutefois, pour optimiser l'isolation des erreurs et la résilience d'interconnexion, limitez l'utilisation d'un VLAN à un seul cluster.
IPv6 – Le logiciel Oracle Solaris Cluster ne prend pas en charge les adresses IPv6 pour l'interconnexion privée. Le système configure des adresses IPv6 sur les adaptateurs de réseau privé afin de prendre en charge les services évolutifs utilisant des adresses IPv6. Toutefois, la communication internodale sur le réseau privé n'utilise pas ces adresses IPv6.
Pour plus d'informations sur les réseaux privés, reportez-vous au Chapitre 1, Planification du développement du réseau du manuel Administration d’Oracle Solaris : Services IP.
Ce nom d'hôte privé est le nom utilisé pour la communication internodale par le biais de l'interface de réseau privé. Les noms d'hôtes privés sont automatiquement créés au cours de la configuration d'un cluster global ou d'un cluster de zones dans Oracle Solaris Cluster. Ces noms d'hôtes privés respectent la convention de nommage clusternode node-id -priv, où node-id correspond à la partie numérique de l'ID du noeud interne. Au cours de la configuration d'Oracle Solaris Cluster, le numéro d'ID de noeud est automatiquement assigné à chaque noeud votant lorsque le noeud devient un membre de cluster. Un noeud votant du cluster global et un noeud d'un cluster de zones peuvent tous les deux avoir le même nom d'hôte privé, mais chaque nom d'hôte a une adresse IP de réseau privé différente.
Une fois un cluster global configuré, vous pouvez renommer le nom de ces hôtes privés par le biais de l'utilitaire clsetup(1CL). Il vous est actuellement impossible de renommer le nom d'hôte privé d'un noeud de cluster de zones.
La création d'un nom d'hôte privé pour une zone non globale est facultative. Il n'existe aucune convention de nommage pour le nom d'hôte privé d'une zone non globale.
Les interconnexions de cluster fournissent le chemin matériel nécessaire à la communication entre les noeuds de cluster sur le réseau privé. Chaque interconnexion consiste en un câble connecté de l'une des façons suivantes :
Entre deux adaptateurs de transport
Entre un adaptateur de transport et un commutateur de transport
Pour plus d'informations sur la finalité et le rôle de l'interconnexion de cluster, reportez-vous à la section Cluster Interconnect du manuel Oracle Solaris Cluster Concepts Guide.
Remarque - Il est inutile de configurer une interconnexion de cluster pour un cluster à hôte unique. Cependant, si vous prévoyez d'ajouter éventuellement des noeuds votants supplémentaires à une configuration en cluster à hôte unique, il peut être utile de configurer l'interconnexion de cluster en prévision d'une utilisation ultérieure.
Pendant la configuration d'Oracle Solaris Cluster, vous devez spécifier les informations de configuration d'une ou deux interconnexions du cluster.
Si le nombre de ports d'adaptateurs disponibles est limité, vous pouvez utiliser des VLAN avec balises pour partager le même adaptateur avec les réseaux privé et public. Pour plus d'informations, reportez-vous aux directives concernant les adaptateurs VLAN avec balises à la section Adaptateurs de transport.
Vous pouvez configurer une à six interconnexions de cluster dans un cluster. Bien qu'une seule interconnexion de cluster réduise le nombre de ports d'adaptateurs utilisés pour l'interconnexion privée, cela ne permet pas la redondance et diminue la disponibilité. Si une interconnexion unique échoue, le risque que le cluster doive effectuer une récupération automatique est plus élevé. Dans la mesure du possible, installez deux interconnexions de cluster (ou plus) pour bénéficier de la redondance et de l'évolutivité et d'une disponibilité plus importante, en évitant un point de panne unique.
Une fois le cluster établi, vous pouvez configurer des interconnexions de clusters supplémentaires (six maximum) à l'aide de l'utilitaire clsetup.
Pour connaître les directives concernant le matériel d'interconnexion de cluster, reportez-vous à la section Interconnect Requirements and Restrictions du manuel Oracle Solaris Cluster Hardware Administration Manual. Pour des informations générales sur l'interconnexion de cluster, reportez-vous à la section Cluster Interconnect du manuel Oracle Solaris Cluster Concepts Guide.
Pour les adaptateurs de transport, tels que les ports des interfaces réseau, spécifiez le nom de l'adaptateur de réseau et le type de transport. Si votre configuration est un cluster à deux hôtes, vous pouvez également spécifier si votre interconnexion est une connexion point à point (adaptateur à adaptateur) ou si elle utilise un commutateur de transport.
Prenez en compte les différentes directives et restrictions suivantes :
IPv6 – Le logiciel Oracle Solaris Cluster ne prend pas en charge les communications IPv6 sur les interconnexions privées.
Attribution d'une adresse MAC locale – Tous les adaptateurs de réseau privé doivent utiliser des cartes d'interface réseau (NIC) prenant en charge l'attribution d'une adresse MAC locale. Les adresses IPv6 de type lien local, lesquelles sont requises sur les adaptateurs de réseau privé pour prendre en charge les adresses de réseau public IPv6 des services de données évolutifs, sont dérivées des adresses MAC locales.
Adaptateurs VLAN avec balises – Le logiciel Oracle Solaris Cluster prend en charge les réseaux VLAN pour partager un adaptateur entre l'interconnexion de cluster privé et le réseau public. Vous devez utiliser la commande dladm create-vlan pour configurer l'adaptateur en tant qu'adaptateur VLAN avec balises avant de le configurer avec le cluster.
Pour configurer un adaptateur VLAN avec balises pour l'interconnexion de cluster, spécifiez l'adaptateur en indiquant son nom de périphérique virtuel VLAN. Le nom est composé du nom de l'adaptateur suivi du numéro d'instance VLAN. Le numéro d'instance VLAN est dérivé de la formule (1000*V)+N, où V est le numéro VID et N le point physique de connexion.
Par exemple, avec un VID défini sur 73 sur l'adaptateur net2, le numéro d'instance VLAN doit être calculé de la façon suivante : (1000*73)+2. Vous devez donc nommer l'adaptateur net73002 pour indiquer qu'il fait partie d'un LAN virtuel partagé.
Pour plus d'informations sur la configuration d'un VLAN dans un cluster, reportez-vous à la section Configuring VLANs as Private Interconnect Networks du manuel Oracle Solaris Cluster Hardware Administration Manual. Pour plus d'informations sur la création et l'administration des VLAN, reportez-vous à la page de manuel dladm(1M) et au Chapitre 13, Administration des réseaux locaux virtuels du manuel Administration d’Oracle Solaris : interfaces réseau et virtualisation réseau.
Domaines invités SPARC : Oracle VM Server for SPARC – Spécifiez les noms d'adaptateur en indiquant leurs noms virtuels, vnet N, tels que vnet0 et vnet1. Les noms d'adaptateur virtuels sont enregistrés dans le fichier /etc/path_to_inst.
Interfaces logiques évolutives – L'usage des interfaces logiques évolutives est réservé au logiciel Oracle Solaris Cluster.
Si vous utilisez des commutateurs de transport, tel qu'un commutateur de réseau, spécifiez un nom de commutateur de réseau pour chaque interconnexion. Vous pouvez utiliser le nom par défaut switchN, où N correspond au numéro automatiquement assigné au cours de la configuration, ou définir un autre nom.
Spécifiez également le nom du port de commutateur ou acceptez le nom par défaut. Le nom de port par défaut correspond au numéro d'ID du noeud interne de l'hôte Oracle Solaris hébergeant l'extrémité du câble de l'adaptateur. Cependant, vous ne pouvez pas utiliser le nom de port par défaut pour certains types d'adaptateur.
Les clusters comprenant trois noeuds votants ou plus doivent utiliser des commutateurs de transport. La connexion directe entre les noeuds de cluster de vote est prise en charge uniquement pour les clusters à deux hôtes. Si votre cluster à deux hôtes est connecté directement, vous pouvez néanmoins spécifier un commutateur de transport pour l'interconnexion.
Astuce - Si vous spécifiez un commutateur de transport, vous pouvez ajouter plus facilement un autre noeud votant au cluster par la suite.
La séparation est un mécanisme utilisé par le cluster pour protéger l'intégrité des données d'un disque partagé en cas de situation de "split-brain". Par défaut, l'utilitaire scinstall en mode standard maintient activée la séparation globale et chaque disque partagé de la configuration utilise le paramètre de séparation globale par défaut de prefer3. Le protocole SCSI-3 est utilisé avec le paramètre prefer3.
Si un périphérique ne parvient pas à utiliser le protocole SCSI-3, il convient d'utiliser plutôt le paramètre pathcount, où le protocole de séparation du disque partagé est choisi en fonction du nombre de chemins DID liés au disque. Les périphériques non SCSI-3 sont limités à deux chemins de périphérique DID au sein du cluster. La séparation peut être désactivée pour tous les périphériques qui ne prennent pas en charge la séparation SCSI-3 ou SCSI-2. Toutefois, l'intégrité des données pour ces périphériques ne peut pas être garantie dans les situations de split-brain.
En mode personnalisé, l'utilitaire scinstall vous demande de désactiver la séparation globale. Dans la plupart des cas, répondez No pour maintenir la séparation globale activée. Dans certains cas, vous pouvez néanmoins désactiver la séparation globale.
Attention - Si vous désactivez la séparation dans d'autres situations que celles décrites dans le présent manuel, vos données risquent d'être endommagées lors du basculement de l'application. Prenez en compte cet aspect lorsque vous désactivez la séparation. |
Les situations dans lesquelles vous pouvez désactiver la séparation globale sont les suivantes :
Le stockage partagé ne permet pas la prise en charge des réservations SCSI.
Si vous désactivez la séparation pour un disque partagé que vous configurez ensuite en tant que périphérique de quorum, le périphérique utilise le protocole de quorum du logiciel, que le disque prenne en charge le protocole SCSI-2 ou SCSI-3. Le quorum du logiciel est un protocole du logiciel Oracle Solaris Cluster qui émule une forme de réservations de groupe persistant (PGR) SCSI.
Vous souhaitez permettre aux systèmes en dehors du cluster d'accéder au périphérique de stockage lié au cluster.
Si vous désactivez la séparation globale au cours de la configuration en cluster, la séparation est désactivée pour tous les disques partagés du cluster. Une fois le cluster configuré, vous pouvez modifier le protocole de séparation globale ou remplacer le protocole de séparation des disques partagés individuels. Cependant, pour modifier le protocole de séparation d'un périphérique de quorum, vous devez annuler la configuration du périphérique de quorum. Définissez ensuite le nouveau protocole de séparation du disque et reconfigurez ce dernier en tant que périphérique de quorum.
Pour plus d'informations sur la séparation, reportez-vous à la section Failfast Mechanism du manuel Oracle Solaris Cluster Concepts Guide. Pour plus d'informations sur la définition du protocole de séparation des disques partagés individuels, reportez-vous à la page de manuel cldevice(1CL). Pour plus d'informations sur le paramètre de séparation globale, reportez-vous à la page de manuel cluster(1CL).
Les configurations Oracle Solaris Cluster utilisent des périphériques de quorum pour maintenir l'intégrité des données et des ressources. Si le cluster perd temporairement la connexion avec un noeud votant, le périphérique de quorum permet de prévenir des problèmes d'amnésie ou de "split-brain" lorsque le noeud de cluster de vote tente de rejoindre le cluster. Pour plus d'informations sur la finalité et le rôle des périphériques de quorum, reportez-vous à la section Quorum and Quorum Devices du manuel Oracle Solaris Cluster Concepts Guide.
Au cours de l'installation par Oracle Solaris Cluster d'un cluster à deux hôtes, vous pouvez choisir de laisser l'utilitaire scinstall configurer automatiquement un disque partagé disponible dans la configuration en tant que périphérique de quorum. L'utilitaire scinstall suppose que tous les disques partagés disponibles sont pris en charge en tant que périphériques de quorum.
Si vous souhaitez utiliser un serveur de quorum ou un périphérique Sun ZFS Storage Appliance NAS d'Oracle en tant que périphérique de quorum, configurez-le une fois que le processus scinstall est terminé.
Après l'installation, vous pouvez également configurer des périphériques de quorum supplémentaires à l'aide de l'utilitaire clsetup.
Remarque - Il est inutile de configurer des périphériques de quorum pour un cluster à hôte unique.
Si votre configuration en cluster inclut des périphériques tiers de stockage partagés dont l'utilisation en tant que périphériques de quorum n'est pas prise en charge, vous devez utiliser l'utilitaire clsetup pour configurer le quorum manuellement.
Tenez compte des points suivants lorsque vous planifiez les périphériques de quorum :
Minimum – Un cluster à deux hôtes doit comprendre au moins un périphérique de quorum, qui peut être un disque partagé, un serveur de quorum ou un périphérique NAS. Pour d'autres topologies, les périphériques de quorum sont optionnels.
Règle de nombre impair – Si plus d'un périphérique de quorum est configuré dans un cluster à deux hôtes ou dans une paire d'hôtes directement connectée au périphérique de quorum, configurez un nombre impair de périphériques de quorum. Cette configuration permet de s'assurer que les périphériques de quorum ont des chemins de panne complètement indépendants.
Distribution des votes de quorum – Pour assurer la disponibilité optimale du cluster, assurez-vous que le nombre total de votes des périphériques de quorum est inférieur au nombre total de votes des noeuds votants. Sinon, les noeuds ne peuvent pas former un cluster lorsque tous les périphériques de quorum sont indisponibles, même si tous les noeuds fonctionnent.
Connexion – Vous devez connecter un périphérique de quorum à au moins deux noeuds votants.
Protocole de séparation SCSI – Lorsqu'un périphérique de quorum de disque partagé SCSI est configuré, son protocole de séparation est automatiquement défini sur SCSI-2 dans un cluster à deux hôtes ou sur SCSI-3 dans un cluster à trois noeuds votants ou plus.
Modification du protocole de séparation de périphériques de quorum – Pour les disques SCSI configurés en tant que périphérique de quorum, vous devez annuler la configuration du périphérique de quorum avant d'activer ou de désactiver son protocole de séparation SCSI.
Protocole de quorum du logiciel – Vous pouvez configurer des disques partagés ne prenant pas en charge le protocole SCSI, tels que des disques SATA, en tant que périphériques de quorum. Vous devez désactiver la séparation pour de tels disques. Les disques doivent alors utiliser le protocole de quorum du logiciel, qui émule des réservations de groupe persistant (PGR) SCSI.
Le protocole de quorum du logiciel doit également être utilisé par des disques partagés SCSI si la séparation est désactivée pour ces disques.
Périphériques répliqués – Le logiciel Oracle Solaris Cluster ne prend pas en charge les périphériques répliqués en tant que périphériques de quorum.
Pools de stockage ZFS – N'ajoutez pas un périphérique de quorum configuré à un pool de stockage ZFS. Lorsqu'un périphérique de quorum configuré est ajouté au pool de stockage ZFS, le disque est réétiqueté en tant que disque EFI et les informations de quorum sont perdues. Le disque ne peut alors plus fournir un vote de quorum au cluster.
Une fois un disque dans un pool de stockage, vous pouvez configurer ce disque en tant que périphérique de quorum. Ou vous pouvez annuler la configuration du périphérique de quorum, l'ajouter au pool de stockage, puis reconfigurer le disque en tant que périphérique de quorum.
Pour plus d'informations sur les périphériques de quorum, reportez-vous à la section Quorum and Quorum Devices du manuel Oracle Solaris Cluster Concepts Guide.
Un cluster de zones est un cluster composé de zones Oracle Solaris non globales. Tous les noeuds d'un cluster de zones sont configurés en tant que zones non globales de la marque solaris définies avec l'attribut cluster. Aucun autre type de marque n'est autorisé dans un cluster de zones. L'isolement offert par la fonction Oracle Solaris Zones vous permet d'exécuter des services pris en charge sur le cluster de zones de la même manière que des services de cluster global.
Tenez compte des points suivants lorsque vous planifiez la création d'un cluster de zones :
Conditions requises et directives concernant le cluster global
Conditions requises et directives concernant le cluster de zones
Cluster global – Le cluster de zones doit être configuré sur une configuration Oracle Solaris Cluster globale. Un cluster de zones ne peut pas être configuré sans un cluster global sous-jacent.
Mode cluster – Le noeud votant du cluster global à partir duquel vous avez créé ou modifié un cluster de zones doit être en mode cluster. Si les autres noeuds votants sont en mode non cluster lorsque vous gérez un cluster de zones, les modifications apportées sont propagées à ces noeuds lorsqu'ils repassent en mode cluster.
Adresses IP privées appropriées – La plage d'adresses IP privées du cluster global doit inclure suffisamment de sous-réseaux d'adresses IP disponibles pouvant être utilisés par le nouveau cluster de zones. Si le nombre de sous-réseaux disponibles est insuffisant, la création du cluster de zones échoue.
Modifications apportées à la plage d'adresses IP privées – Les sous-réseaux IP privés et les adresses IP privées correspondantes disponibles pour les clusters de zones sont automatiquement mis à jour si la plage d'adresses IP privées du cluster global est modifiée. Si un cluster de zones est supprimé, l'infrastructure de cluster libère les adresses IP privées qui étaient utilisées par ce cluster de zones, permettant ainsi d'utiliser les adresses à d'autres fins au sein du cluster global et les rendant utilisables par tout autre cluster de zones dépendant du cluster global.
Périphériques pris en charge – Les périphériques pris en charge avec des zones Oracle Solaris peuvent être exportés vers un cluster de zones. De tels périphériques incluent les éléments suivants :
Périphériques de disque Oracle Solaris (cN tXdY sZ)
Périphériques DID (/dev/did/*dsk/dN)
Ensembles de disques multipropriétaires Solaris Volume Manager et Solaris Volume Manager pour Sun Cluster (/dev/md/setname/*dsk/dN)
Répartition de noeuds – Vous ne pouvez pas héberger plusieurs noeuds du même cluster de zones sur la même machine hôte. Un hôte peut prendre en charge plusieurs noeud de clusters de zones tant que chaque noeud de clusters de zones de cet hôte fait partie d'un cluster de zones différent.
Création de noeuds – Vous devez créer au moins un noeud de cluster de zones au moment de créer le cluster de zones. Le nom de chaque noeud de cluster de zones doit être unique. L'infrastructure crée automatiquement une zone non globale sous-jacente sur chaque hôte prenant en charge le cluster de zones. Le même nom de zones est attribué à chaque zone non globale. Ce nom est identique au nom attribué au cluster de zones lorsque vous créez le cluster. Par exemple, si vous créez un cluster de zones portant le nom zc1, la zone non globale correspondante sur chaque hôte prenant en charge le cluster de zones porte également le nom zc1.
Nom de cluster – Chaque nom de cluster de zones doit être unique sur l'ensemble du cluster de machines hébergeant le cluster global. Le nom d'un cluster de zones ne peut pas être également utilisé par une zone non globale ailleurs dans le cluster des machines et ne peut pas être identique au nom d'un noeud de cluster global. Vous ne pouvez pas utiliser "all" ou "global" comme nom de cluster de zones. Il s'agit de noms réservés.
Adresses IP de réseau public – Vous pouvez attribuer une adresse IP de réseau public spécifique à chaque noeud de cluster de zones.
Remarque - Si vous ne configurez pas une adresse IP pour chaque noeud de cluster de zone, deux choses se produisent :
Cette zone cluster ne sera pas en mesure de configurer les périphériques NAS pour l'utiliser dans le cluster de zone. Le cluster utilise l'adresse IP du noeud de cluster de zone lors de la communication avec le périphérique NAS, de sorte que le fait de ne pas disposer d'adresse IP permet d'éviter la séparation du support de cluster pour les périphériques NAS.
Le logiciel de gestion du cluster s'activera n'importe quel autre l'adresse IP de l'hôte sur n'importe quelle carte d'interface réseau.
Noms d'hôtes privés – Au cours de la création du cluster de zones, un nom d'hôte privé est automatiquement créé pour chaque noeud du cluster de zones, de la même façon que les noms d'hôtes sont créés dans les clusters globaux. Il vous est actuellement impossible de renommer le nom d'hôte privé d'un noeud de cluster de zones. Pour plus d'informations sur les noms d'hôtes privés, reportez-vous à la section Noms d'hôtes privés.
Marque Solaris – Tous les noeuds d'un cluster de zones sont configurés en tant que zones non globales de la marque solaris définie à l'aide de l'attribut cluster. Aucun autre type de marque n'est autorisé dans un cluster de zones.
Type d'IP - Un cluster de zones est créé avec le type d'IP shared. Le type d'IP exclusive n'est pas pris en charge pour les clusters de zones.
Propriété de type de ressource Global_zone=TRUE – Pour enregistrer un type de ressource utilisant la propriété de type de ressource Global_zone=TRUE, le fichier de type de ressource doit se trouver sous le répertoire répertoire /usr/cluster/global/rgm/rtreg/ du cluster de zones. Si ce fichier de type de ressource se trouve à un autre emplacement, la commande permettant d'enregistrer le type de ressource est rejetée.
Conversion en noeud de cluster de zones – Vous ne pouvez pas ajouter à un cluster de zones une zone non globale se trouvant en dehors de ce dernier. Vous devez utiliser uniquement la commande clzonecluster pour ajouter des noeuds à un cluster de zones.
Systèmes de fichiers – Vous pouvez utiliser la commande clzonecluster pour ajouter les types de systèmes de fichiers suivants à utiliser par un cluster de zones. Pour exporter un système de fichiers vers un cluster de zones, vous pouvez utiliser soit un point de montage direct, soit un point de montage loopback.
Montage direct :
Système de fichiers local UFS
Système de fichiers ZFS Oracle Solaris (exporté en tant qu'ensemble de données)
Système de fichiers NFS à partir de périphériques NAS pris en charge
Montage loopback :
Système de fichiers local UFS
Système de fichiers de cluster UFS
Vous configurez une ressource HAStoragePlus ou ScalMountPoint pour gérer le montage du système de fichiers.
Séparation – Les clusters de zones prennent en charge la séparation de l'ensemble des périphériques NAS, des baies de stockage et des disques partagés pris en charge.