Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster (Français) |
1. Planification de la configuration de Oracle Solaris Cluster
Recherche des tâches d'installation Oracle Solaris Cluster
Planification du SE Oracle Solaris
Directives concernant la sélection d'une méthode d'installation d'Oracle Solaris
Restrictions concernant les fonctions du SE Oracle Solaris
Éléments à prendre en compte concernant le groupe de logiciels Oracle Solaris
Directives concernant le système de fichiers racine (/)
Directives concernant le système de fichiers /globaldevices
Configuration requise du gestionnaire de volumes
Exemple - Allocation d'un système de fichiers
Directives concernant les zones non globales dans un cluster global
Planification de l'environnement Oracle Solaris Cluster
Périphériques d'accès par console
Protocole NTP (Network Time Protocol)
Composants Oracle Solaris Cluster configurables
Noms de nud votant de cluster global et ID de n
ud
Conditions requises et directives concernant le cluster global
Conditions requises et directives concernant le cluster de zones
Directives pour Trusted Extensions dans un cluster de zones
Systèmes de fichiers de cluster
Choix des options de montage pour les systèmes de fichiers de cluster
Systèmes de fichiers de cluster UFS
Systèmes de fichiers de cluster VxFS
Informations sur le montage pour les systèmes de fichiers de cluster
Planification de la gestion des volumes
Directives concernant le gestionnaire de volumes
Directives concernant le logiciel Solaris Volume Manager
Directives concernant le logiciel Veritas Volume Manager
Journalisation de système de fichiers
Directives concernant la mise en miroir
Directives concernant la mise en miroir des disques multihôtes
Directives concernant la mise en miroir du disque racine
2. Installation de logiciels sur des nuds de cluster global
3. Établissement d'un cluster global
4. Configuration du logiciel Solaris Volume Manager
5. Installation et configuration de Veritas Volume Manager
6. Création d'un système de fichiers de cluster
7. Création de zones non globales et de clusters de zones
8. Installation du module Oracle Solaris Cluster sur Sun Management Center
9. Désinstallation du logiciel à partir du cluster
A. Fiches d'information sur l'installation et la configuration de Oracle Solaris Cluster
Cette section contient les directives suivantes concernant la planification de l’installation du logiciel Solaris dans une configuration en cluster.
Directives concernant la sélection d'une méthode d'installation d'Oracle Solaris
Éléments à prendre en compte concernant le groupe de logiciels Oracle Solaris
Directives concernant les zones non globales dans un cluster global
Pour plus d’informations sur le logiciel Solaris, reportez-vous à la documentation sur l’installation de Solaris.
Vous pouvez installer le logiciel Solaris à partir d’un DVD-ROM local ou d’un serveur d’installation de réseau par le biais de la méthode d’installation JumpStart. De plus, le logiciel Oracle Solaris Cluster fournit une méthode personnalisée pour installer à la fois SE Solaris et le logiciel Oracle Solaris Cluster par le biais de la méthode d’installation JumpStart. Si vous installez plusieurs nœuds de cluster, envisagez une installation en réseau.
Pour plus d'informations concernant la méthode d’installation JumpStart scinstall, reportez-vous à la section Installation de Solaris et Oracle Solaris Cluster (JumpStart). Reportez-vous à la documentation sur l’installation de Solaris pour plus d’informations sur les méthodes d’installation standard de Solaris.
Prenez en compte les points suivants si vous prévoyez d’utiliser le SE Solaris dans une configuration Oracle Solaris Cluster :
Zone Solaris – Installez le logiciel de la structure Oracle Solaris Cluster uniquement dans la zone globale.
Pour déterminer si vous pouvez installer un service de données Oracle Solaris Cluster directement dans une zone non globale, reportez-vous à la documentation de ce service de données.
Si vous configurez des zones non globales sur un nœud de cluster global, le système de fichiers loopback (LOFS) doit être activé. Reportez-vous aux informations sur le LOFS pour connaître les éléments supplémentaires à prendre en compte.
Système de fichiers loopback (LOFS) – Au cours de la création d’un cluster, la fonction LOFS est désactivée par défaut. Si le cluster respecte les conditions suivantes, vous devez désactiver la fonction LOFS afin d’éviter entre autres les problèmes de commutation :
Oracle Solaris Cluster HA pour NFS (HA pour NFS) est configuré sur un système de fichiers local hautement disponible.
Le démon automountd est en cours d’exécution.
Si le cluster respecte au moins l’une de ces conditions, vous pouvez activer LOFS en toute sécurité.
Si vous avez besoin que le système LOFS et le démon automountd soient tous les deux activés, excluez de la carte de l’agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par HA pour NFS.
Arrêt pour économie d'énergie – L'arrêt automatique pour économie d'énergie n'est pas pris en charge dans les configurations Oracle Solaris Cluster et ne doit pas être activé. Pour plus d’informations, reportez-vous aux pages de manuel pmconfig(1M) et power.conf(4).
Filtre IP – Le logiciel Oracle Solaris Cluster ne prend pas en charge le filtre IP Solaris pour les services évolutifs. Toutefois, ce dernier est compatible avec la fonction de filtre IP Solaris pour les services de basculement. Prenez en compte les directives et restrictions suivantes lorsque vous configurez le filtre IP Solaris dans un cluster :
Le routage NAT n’est pas pris en charge.
La translation des adresses locales NAT est prise en charge. La translation NAT réécrit les paquets en ligne, ce qui la rend transparente au logiciel de cluster.
Les règles de filtrage par état ne sont pas prises en charge. Vous pouvez uniquement filtrer les données sans leur état. Oracle Solaris Cluster dépend du Multiacheminement sur réseau IP (IPMP) pour le contrôle du réseau public. Ce processus ne fonctionne pas avec des règles de filtrage par état.
fssnap – Le logiciel Oracle Solaris Cluster ne prend pas en charge la commande fssnap, qui est une fonction d’UFS. Cependant, vous pouvez utiliser la commande fssnap sur les systèmes locaux qui ne sont pas contrôlés par le logiciel Oracle Solaris Cluster. Les restrictions suivantes s’appliquent à la prise en charge de fssnap :
La commande fssnap est prise en charge sur les systèmes de fichiers locaux non gérés par le logiciel Oracle Solaris Cluster.
La commande fssnap n’est pas prise en charge sur les systèmes de fichiers du cluster.
La commande fssnap n’est pas prise en charge sur les systèmes de fichiers locaux sous le contrôle de HAStoragePlus.
Le logiciel Oracle Solaris Cluster 3.3 5/11 requiert au moins le groupe de logiciels Solaris pour utilisateur final (SUNWCuser). Cependant, la configuration logicielle requise peut varier pour les autres composants de votre configuration en cluster. Prenez en compte les points suivants lorsque vous décidez du groupe de logiciels Solaris à installer.
Serveurs – Consultez la documentation de votre serveur pour connaître la configuration logicielle Solaris requise. Par exemple, les serveurs Sun Enterprise 10000 requièrent l’intégralité du groupe de logiciels Solaris et une prise en charge OEM.
Packages Solaris supplémentaires – Il se peut que vous deviez installer d’autres packages logiciels Solaris ne faisant pas partie du groupe de logiciels Solaris pour utilisateur final. Les packages du serveur HTTP Apache et du logiciel Trusted Extensions constituent deux exemples nécessitant des packages se trouvant dans un groupe de logiciels de niveau supérieur par rapport au groupe de logiciels Solaris pour utilisateur final. Les logiciels tiers peuvent également nécessiter d’autres packages logiciels Solaris. Référez-vous à la documentation du produit tiers pour connaître la configuration logicielle requise Solaris.
Astuce - Pour éviter de devoir installer manuellement les packages logiciels Solaris, installez la prise en charge OEM Entire Plus du groupe de logiciels Solaris.
Ajoutez ces informations à la Fiche d'information sur la disposition du système de fichiers local appropriée.
Lorsque vous installez le SE Solaris, assurez-vous que vous créez les partitions Oracle Solaris Cluster requises et qu’elles disposent toutes de l’espace minimal requis.
swap – Le montant total de l’espace swap alloué pour Solaris et le logiciel Oracle Solaris Cluster ne doit pas être inférieur à 750 Mo. Pour obtenir de meilleurs résultats, ajoutez au moins 512 Mo pour le logiciel Oracle Solaris Cluster au montant requis par le SE Solaris. De plus, allouez tout montant swap requis par les applications qui seront exécutées sur l’hôte Solaris.
(Facultatif) /globaldevices – Créez un système de fichiers d’au moins 512 Mo à utiliser avec l’utilitaire scinstall(1M) pour les périphériques globaux. Si vous utilisez un périphérique lofi à la place, il est inutile de créer ce système de fichiers. Ces deux solutions offrent les mêmes fonctions.
Gestionnaire de volumes – Créez une partition de 20 Mo sur la tranche 7. Cet espace sera destiné au gestionnaire de volumes. Si votre cluster utilise Veritas Volume Manager (VxVM) et si vous voulez encapsuler le disque racine, vous devez disposer de deux tranches inutilisées disponibles pour VxVM.
Pour cela, vous devez personnaliser le partitionnement si vous effectuez une installation interactive pour le SE Solaris.
Reportez-vous aux directives suivantes pour en savoir plus sur la planification de la partition :
Comme pour tout autre système exécutant le SE Solaris, vous pouvez configurer les répertoires racine (/), /var, /usr et /opt comme des systèmes de fichiers séparés. Ou vous pouvez inclure tous les répertoires dans le système de fichiers racine (/).
Vous trouvez ci-dessous la description du contenu des répertoires racine (/), /var, /usr et /opt dans une configuration Oracle Solaris Cluster. Prenez ces informations en compte lorsque vous planifiez votre plan de partitionnement.
racine (/) – Le logiciel Oracle Solaris Cluster occupe moins de 40 Mo d’espace dans le système de fichiers racine (/). Le logiciel Solaris Volume Manager requiert moins de 5 Mo et le logiciel VxVM moins de 15 Mo. Pour configurer un espace supplémentaire et une capacité inode importants, ajoutez au moins 100 Mo à l’espace que vous alloueriez normalement à votre système de fichiers racine (/). Cet espace est utilisé pour la création de périphériques spéciaux en mode bloc et en mode caractère, utilisés par le logiciel de gestion des volumes. Vous devez allouer cet espace supplémentaire en particulier si le cluster contient un grand nombre de disques partagés.
Sur le SE Solaris 10, pour utiliser un périphérique lofi pour l’espace de noms des périphériques globaux, vous devez disposer d’au moins 100 Mo d’espace libre.
/var – Le logiciel Oracle Solaris Cluster occupe une quantité non négligeable d’espace dans le système de fichiers /var au moment de l’installation. Cependant, vous devez conserver un espace de disque important pour les fichiers journaux. De plus, davantage de messages peuvent être journalisés sur un nœud en cluster que sur un serveur autonome standard. Allouez au moins 100 Mo au système de fichiers /var.
/usr – Le logiciel Oracle Solaris Cluster occupe moins de 25 Mo d’espace dans le système de fichiers /usr. Les logiciels Solaris Volume Manager et VxVM requièrent chacun moins de 15 Mo.
/opt – Le logiciel de structure Oracle Solaris Cluster utilise moins de 2 Mo dans le système de fichiers /opt. Cependant, chaque service de données Oracle Solaris Cluster peut utiliser entre 1 et 5 Mo. Le logiciel Solaris Volume Manager n’utilise pas d’espace dans le système de fichiers /opt. Le logiciel VxVM peut utiliser jusqu’à 40 Mo si tous les packages et outils sont installés.
De plus, la plupart des logiciels de bases de données et d’applications sont installés dans le système de fichiers /opt.
SPARC : si vous utilisez le logiciel Sun Management Center pour contrôler le cluster, vous avez besoin de 25 Mo d’espace sur chaque hôte Solaris pour prendre en charge l’agent Sun Management Center et les packages de module Oracle Solaris Cluster.
Le logiciel Oracle Solaris Cluster propose deux choix d’emplacement pour héberger l’espace de noms des périphériques globaux :
Un périphérique lofi
Un système de fichiers dédié sur l’un des disques locaux
Cette section comprend les instructions d’utilisation d’une partition dédiée. Ces informations ne s’appliquent pas si vous hébergez l’espace de noms des périphériques globaux sur un périphérique lofi.
Le système de fichiers /globaldevices se trouve généralement sur le disque racine. Cependant, si vous utilisez un autre espace de stockage pour le système de fichiers des périphériques globaux, par exemple un volume de gestionnaire de volumes logiques, il ne doit pas faire partie de l’ensemble de disques partagés Solaris Volume Manager ni d’un groupe de disques VxVM autre que le groupe de disques racine. Ce système de fichiers est monté ultérieurement en tant que système de fichiers de cluster UFS. Nommez ce système de fichiers /globaldevices, qui est le nom par défaut reconnu par la commande scinstall(1M).
Remarque - Aucun type de système de fichiers autre qu'UFS n'est valide pour le système de fichiers de périphériques globaux. Ne tentez pas de modifier le type de système de fichiers une fois le système de fichiers des périphériques globaux créé.
Cependant, un système de fichiers des périphériques globaux UFS peut coexister sur un nœud avec d’autres systèmes de fichiers racine utilisant ZFS.
La commande scinstall renomme par la suite le système de fichiers /global/.devices/node@nodeid, où nodeid correspond au numéro assigné à un hôte Solaris lorsqu’il devient un membre de cluster global. Le point de montage d’origine /globaldevices est supprimé.
Le système de fichiers /globaldevices doit disposer d'un espace et d'une capacité inode importants pour la création de périphériques spéciaux en mode bloc et caractère. Cette directive est particulièrement importante si un grand nombre de disques est inclus dans le cluster. Créez un système de fichiers d'une taille de 512 Mo minimum et d'une densité de 512, comme suit :
# newfs -i 512 globaldevices-partition
Ce nombre d'inodes devrait suffire pour la plupart des configurations de cluster.
Si vous utilisez le logiciel Solaris Volume Manager, vous devez garder une tranche du disque racine pour la création de la réplique de base de données d’état. Réservez une tranche à cet usage sur chaque disque local. Cependant, si vous disposez uniquement d’un disque local sur un hôte Solaris, il pourra être nécessaire de créer trois répliques de base de données d’état dans la même tranche, afin de permettre le bon fonctionnement de Solaris Volume Manager. Pour plus d’informations, consultez la documentation de Solaris Volume Manager.
Si vous utilisez Veritas Volume Manager (VxVM) et que vous voulez encapsuler le disque racine, vous avez besoin de deux tranches non utilisées disponibles pour VxVM. De plus, vous avez besoin d’espace libre non assigné supplémentaire au début ou à la fin du disque. Reportez-vous à la documentation de VxVM pour plus d’informations sur l’encapsulation du disque racine.
Le Tableau 1-2 illustre un plan de partitionnement pour un hôte Solaris disposant de moins de 750 Mo de mémoire physique. Ce plan doit être installé avec le groupe de logiciels Solaris pour utilisateur final, le logiciel Oracle Solaris Cluster et le service de données Oracle Solaris Cluster HA pour NFS. Une petite quantité d’espace est allouée à la dernière tranche du disque (tranche 7) et est destinée au gestionnaire de volumes.
Cette organisation permet l’utilisation du logiciel Solaris Volume Manager ou VxVM. Si vous utilisez le Solaris Volume Manager, vous utilisez la tranche 7 pour la réplique de base de données d’état. Si vous utilisez VxVM, vous libérez par la suite la tranche 7 en assignant à la tranche une longueur nulle. Cette organisation fournit les deux tranches libres nécessaires (4 et 7) et de l’espace inutilisé à la fin du disque.
Tableau 1-2 Exemple d’allocation d’un système de fichiers
|
Pour plus d’informations sur l’objectif et la fonction des zones Solaris dans un cluster, reportez-vous à la section·??Support for Oracle Solaris Zones du Oracle Solaris Cluster Concepts Guide.
Pour des directives sur la configuration d’un cluster de zones non globales, reportez-vous à la section Clusters de zones.
Prenez en compte les points suivants lorsque vous créez une zone non globale Solaris 10 (appelée simplement zone) sur un nœud de cluster global.
Nom de zone unique – Le nom de zone doit être unique sur l'hôte Solaris.
Réutilisation d'un nom de zone sur des nœuds multiples – Pour simplifier la gestion du cluster, vous pouvez utiliser un même nom pour une zone sur chaque nœud où les groupes de ressources sont destinés à être mis en ligne dans cette zone.
Adresses IP privées – Ne tentez pas d'utiliser plus d'adresses IP que celles disponibles dans le cluster.
Montages – N'incluez pas de montages globaux dans les définitions de zone. Incluez uniquement les montages loopback.
Services de basculement – Dans le cas des clusters à hôtes multiples, alors que le logiciel Oracle Solaris Cluster vous permet de définir différentes zones sur un même hôte Solaris dans la liste de nœuds du groupe de ressources de basculement, cette opération est utile uniquement en cours de test. Si un hôte unique contient toutes les zones de la liste des nœuds, le nœud devient un point unique d'échec pour le groupe de ressources. Pour une disponibilité supérieure, les zones faisant partie de la liste de nœuds du groupe de ressources de basculement doivent se trouver sur des hôtes différents.
Dans le cas des clusters à hôte unique, aucun risque fonctionnel n'existe si vous définissez des zones multiples dans la liste de nœuds du groupe de ressources de basculement.
Services évolutifs – Ne créez pas de zones non globales pour le même service évolutif sur le même hôte Solaris. Chaque instance du service évolutif doit être exécutée sur un hôte différent.
Système de fichiers du cluster - Pour les systèmes de fichiers du cluster utilisant UFS ou VxFS, n'ajoutez pas directement un système de fichiers du cluster à une zone non globale en utilisant la commande zonecfs. À la place, configurez une ressource HAStoragePlus, qui gère le montage du système de fichiers du cluster dans la zone globale et effectue un montage loopback du système de fichiers du cluster dans la zone non globale.
Système de fichiers loopback – Les zones Oracle Solaris requièrent l'activation du système de fichiers loopback. Cependant, le service de données Oracle Solaris Cluster HA pour NFS requiert la désactivation du système de fichiers loopback, afin d'éviter d'éventuels problèmes de commutations ou pannes. Si vous configurez à la fois des zones non globales et Oracle Solaris Cluster HA pour NFS dans votre cluster, effectuez l'une des actions suivantes afin d'éviter d'éventuels problèmes dans le service de données :
Désactivez le démon automountd.
Excluez du mappage de l'agent de montage automatique tous les fichiers faisant partie du système de fichiers local hautement disponible exporté par Oracle Solaris Cluster HA pour NFS.
Zone IP exclusive – Les directives suivantes s'appliquent aux zones non globales à adresse IP exclusive :
Groupes de ressources de noms d'hôte logiques – Dans un groupe de ressources contenant une ressource de nom d'hôte logique, si la liste de nœuds contient une zone non globale dont la propriété ip-type est définie sur exclusive, toutes les zones incluses dans cette liste de nœuds doivent avoir cette propriété définie sur exclusive. Notez qu'une zone globale a toujours la propriété ip-type définie sur shared et ne peut donc pas coexister dans une liste de nœuds contenant des zones avec ip-type=exclusive. Cette restriction s'applique uniquement aux versions du SE Oracle Solaris utilisant la propriété ip-type des zones Oracle Solaris.
Groupes IPMP – Dans le cas des adaptateurs de réseau public utilisés pour le trafic de service de données dans la zone non globale, vous devez configurer manuellement les groupes IPMP dans tous les fichiers /etc/hostname.adapter de la zone. Ces informations ne sont pas héritées de la zone globale. Pour configurer les groupes IPMP, suivez la procédure de la section Partie VI, IPMP du Guide d’administration système : services IP.
Dépendance des noms d'hôte privés - Les zones IP exclusives ne peuvent pas dépendre des noms d'hôte privés ni des adresses privées du cluster.
Ressources d'adresses partagées – Les ressources d'adresses partagées ne peuvent pas utiliser des zones IP exclusives.
Prenez en compte les points suivants lorsque vous créez un domaine d’E/S ou un domaine invité Sun Logical Domains (LDoms) sur une machine en cluster physique équipée de l’hyperviseur SPARC :
Configuration requise de l’unité logique SCSI – Le périphérique de stockage partagé virtuel, ou l’arrière-plan du disque virtuel, d’un domaine invité LDoms doit être une unité logique SCSI entière dans le domaine d’E/S. Vous ne pouvez pas choisir un périphérique virtuel de façon arbitraire.
Séparation – N’exportez pas une unité logique de stockage vers plus d’un domaine invité sur la même machine physique, à moins que vous ne désactiviez également la séparation pour ce périphérique. Sinon, si deux domaines invités différents sur la même machine sont visibles pour un périphérique, ce périphérique sera séparé dès que l’un des domaines invités tombe en panne. La séparation du périphérique engendrera une erreur grave au niveau des autres domaines invités tentant d’accéder à ce périphérique.
Isolation du réseau – Les domaines invités situés sur la même machine physique mais configurés dans différents clusters doivent être isolés les uns des autres sur le réseau. Utilisez l’une des méthodes suivantes :
Configurez les clusters pour utiliser des interfaces réseau différentes dans le domaine d’E/S du réseau privé.
Utilisez des adresses réseau différentes pour chaque cluster.
Mise en réseau dans des domaines invités – Les paquets de réseau ayant pour destination ou origine des domaines invités doivent parcourir des domaines de service pour atteindre les pilotes de réseau par le biais de commutateurs virtuels. Les commutateurs virtuels utilisent des threads de nœud s’exécutant en fonction de la priorité système. Les threads du commutateur virtuel doivent pouvoir acquérir les ressources CPU nécessaires pour effectuer des opérations de cluster critiques, y compris les pulsations, l’appartenance, les points de contrôle, etc. La configuration de commutateurs virtuels avec le paramètre mode=sc permet la gestion efficace des paquets de pulsations du cluster. Cependant, la fiabilité des autres opérations critiques de cluster peuvent être améliorées par l’ajout de ressources CPU supplémentaires au domaine de service, par le biais des charges de travail suivantes :
Charge d’interruption élevée, due par exemple à des E/S réseau ou disque. En cas de charge extrême, les commutateurs virtuels peuvent empêcher les threads système (y compris les threads de commutateurs virtuels) de s’exécuter pendant une longue période.
Les threads en temps réel sont généralement très gourmands en ressources CPU. Les threads en temps réel ont une priorité supérieure aux threads du commutateur virtuel, ce qui peut restreindre les ressources CPU pour les threads de commutateur virtuel durant une longue période.
Stockage non partagé – Pour le stockage non partagé, tel que les images de SE du domaine invité LDoms, vous pouvez utiliser n’importe quel type de périphérique virtuel. Vous pouvez renforcer un tel périphérique virtuel en implémentant par exemple des fichiers et des volumes dans le domaine d’E/S. Néanmoins, ne copiez pas de fichiers et ne clonez pas de volumes dans le domaine d’E/S dans le but de les mapper dans différents domaines invités du même cluster. Une copie ou un clonage de cette nature engendrerait des problèmes car les périphériques virtuels résultants auraient la même identité de périphérique dans différents domaines invités. Créez toujours un nouveau fichier ou périphérique dans le domaine d’E/S, auquel est assigné un ID de périphérique unique, puis mappez le nouveau fichier ou périphérique dans un autre domaine invité.
Exportation de périphériques de stockage à partir de domaines d’E/S – Si vous configurez un cluster composé de domaines d’E/S LDoms, n’exportez pas ses périphériques de stockage vers d’autres domaines invités exécutant également le logiciel Oracle Solaris Cluster.
Multiacheminement d'E/S Solaris – N'exécutez pas le logiciel de multiacheminement d'E/S Solaris (MPxIO) à partir de domaines invités. À la place, exécutez le logiciel de multiacheminement d’E/S Solaris dans le domaine d’E/S et exportez-le vers les domaines invités.
Plage d’adresses IP d’interconnexion privée – Le réseau privé est partagé par tous les domaines invités créés sur la même machine physique et est visible par tous ces domaines. Avant de spécifier une plage d’adresses IP de réseau privé dans l’utilitaire scinstall pour l’utiliser dans un cluster de domaines invités, assurez-vous que la plage d’adresses n’est pas déjà utilisée par un autre domaine invité sur la même machine physique.
Pour plus d’informations sur Sun Logical Domains, reportez-vous au Logical Domains (LDoms) 1.0.3 Administration Guide.