Guide des notions fondamentales de Sun Cluster 3.1 10/03

Les composants matériels du système SunPlex

Ces informations s'adressent en priorité aux fournisseurs de services matériel. Ces notions peuvent aider les fournisseurs de services à mieux comprendre les relations entre les divers composants matériels avant d'installer, de configurer ou d'entretenir le matériel de cluster. Elles peuvent aussi s'avérer utiles pour les administrateurs système qui y trouveront des informations de référence pour l'installation, la configuration et l'administration du logiciel de cluster.

Un cluster comprend plusieurs composants matériels, notamment :

Le système SunPlex vous permet de combiner ces composants dans plusieurs types de configurations, décrits dans la rubrique Exemples de topologies Sun Cluster.

La figure suivante illustre un exemple de configuration de cluster.

Figure 2–1 Exemple de configuration de cluster à deux noeuds

Cette illustration présente un cluster à deux noeuds avec des réseaux publics et privés, du matériel d'interconnexion, des disques locaux et multihôtes, une console et des clients.

Noeuds de cluster

Un noeud de cluster est une machine exécutant à la fois l'environnement d'exploitation Solaris et le logiciel Sun Cluster, cette machine est soit un membre courant du cluster (membre du cluster), soit un membre potentiel. Le logiciel Sun Cluster permet d'avoir des clusters de deux à huit noeuds. Reportez-vous à la rubrique Exemples de topologies Sun Cluster pour obtenir de plus amples informations sur les configurations de noeuds prises en charge.

Les noeuds de cluster sont généralement rattachés à un ou plusieurs disques multihôtes. Ceux qui ne le sont pas utilisent le système de fichiers de cluster pour accéder aux disques multihôtes. Par exemple, dans une configuration de services évolutifs les noeuds peuvent servir les requêtes sans être directement rattachés aux disques multihôtes.

En outre, les noeuds des configurations de bases de données parallèles partagent un accès simultané à tous les disques. Reportez-vous à la rubrique Disques multihôtes et au Chapitre 3 pour de plus amples informations sur les configurations des bases de données parallèles.

Tous les noeuds du cluster sont regroupés sous un nom commun, « le nom du cluster », utilisé pour accéder au cluster et le gérer.

Les adaptateurs de réseau public relient les noeuds aux réseaux publics, permettant ainsi au client d'accéder au cluster.

Les membres du cluster communiquent avec les autres noeuds à travers un ou plusieurs réseaux physiquement indépendants. L'ensemble de ces réseaux est appelé interconnexion de cluster.

Chaque noeud du cluster sait lorsqu'un autre noeud rejoint ou quitte le cluster. De même, il sait quelles ressources fonctionnent localement et quelles ressources fonctionnent sur les autres noeuds du cluster.

Les noeuds d'un même cluster doivent avoir des capacités de traitement, de mémoire et d'E/S similaires afin que les basculements éventuels s'effectuent sans dégradation significative des performances. En raison de cette possibilité de basculement, chaque noeud doit posséder suffisamment de capacité excédentaire pour prendre la charge des noeuds dont il constitue la sauvegarde ou le noeud secondaire.

Chaque noeud initialise son propre système de fichiers racine (/).

Composants logiciels pour les membres matériels du Cluster

Pour qu'ils puissent fonctionner comme des membres de cluster, les logiciels suivants doivent être installés :

Reportez-vous au Guide d'installation du logiciel Sun Cluster 3.1 pour obtenir des informations sur la procédure d'installation de l'environnement d'exploitation Solaris, de Sun Cluster et des logiciels de gestion de volumes.

Reportez-vous au document Sun Cluster 3.1 Data Services Installation and Configuration Guide pour obtenir des informations sur la procédure d'installation et de configuration des services de données.

Reportez-vous au Chapitre 3 pour obtenir des informations théoriques sur les composants logiciels précédemment décrits.

La figure suivante fournit une vue d'ensemble des composants logiciels fonctionnant de concert pour créer l'environnement du logiciel Sun Cluster.

Figure 2–2 Relation synthétique entre les composants du logiciel Sun Cluster

Illustration : le contexte précédent décrit le graphique.

Reportez-vous au Chapitre 4 pour prendre connaissance des questions et réponses relatives aux membres du cluster.

Disques multihôtes

Les disques pouvant être connectés à plus d'un noeud à la fois sont appelés disques multihôtes. Dans l'environnement Sun Cluster, le stockage multihôte rend les disques hautement disponibles. Sun Cluster requiert un système de stockage multihôte pour que les clusters à deux noeuds puissent établir un quorum. Les clusters de plus de trois noeuds n'ont pas besoin de stockage multihôte.

Les disques multihôtes possèdent les caractéristiques suivantes :

Un gestionnaire de volumes fournit aux configurations miroirs ou RAID-5 une redondance de données des disques multihôtes. À l'heure actuelle, Sun Cluster prend en charge les gestionnaires de volumes Solaris Volume ManagerTM et VERITAS Volume Manager, ainsi que le contrôleur matériel RDAC RAID-5 sur plusieurs plates-formes RAID matérielles.

La combinaison de disques multihôtes avec l'écriture miroir et l'entrelacement (striping) protège à la fois contre les pannes de noeuds et les pannes de disques individuels.

Reportez-vous au Chapitre 4 pour prendre connaissance des questions et réponses relatives au stockage multihôte.

SCSI multi-initiateur

Cette rubrique s'applique uniquement aux périphériques de stockage SCSI et non au stockage fibre Channel utilisé pour les disques multihôtes.

Sur un serveur autonome, le noeud contrôle les activités du bus SCSI par le biais du circuit de l'adaptateur d'hôte SCSI connectant ce serveur à un bus SCSI particulier. Ce circuit est appelé initiateur SCSI, il initie toutes les activités de ce bus SCSI. L'adresse SCSI par défaut des adaptateurs d'hôtes SCSI dans les systèmes Sun est 7.

Dans les configurations en cluster, le stockage est partagé entre plusieurs noeuds du serveur à l'aide de disques multihôtes. Lorsque le stockage de cluster se compose de périphériques SCSI en mode asymétrique ou différentiel, la configuration est appelée SCSI multi-initiateur. Comme son nom l'indique, plusieurs initiateurs SCSI figurent sur le bus SCSI.

Les spécifications SCSI requièrent une adresse SCSI unique pour chaque périphérique du bus SCSI . (L'adaptateur d'hôte est également un dispositif du bus SCSI.) La configuration matérielle par défaut dans un environnement multi-initiateur entraîne un conflit, car tous les adaptateurs d'hôtes sont définis par défaut sur 7.

Pour résoudre ce conflit, sur chaque bus SCSI, laissez l'adresse d'un des adaptateurs d'hôtes sur 7, et définissez tous les autres sur des adresses SCSI non utilisées. Afin de bien répartir ces adresses SCSI « non utilisées », choisissez des adresses non utilisées à l'heure actuelle et non utilisables dans le futur. Par exemple, l'ajout de capacité de stockage par l'installation de nouveaux lecteurs à des emplacements vides crée des adresses non utilisables dans le futur. Dans la plupart des configurations, l'adresse SCSI disponible pour un second adaptateur d'hôte est 6.

Vous pouvez modifier les adresses SCSI sélectionnées pour ces adaptateurs d'hôtes en définissant la propriété scsi-initiator-id de la PROM Open Boot (OBP). Elle peut être définie globalement pour un noeud ou individuellement pour chaque adaptateur d'hôte. La procédure de définition d'une propriété scsi-initiator-id unique pour chaque adaptateur d'hôte SCSI est décrite dans le chapitre concernant chaque boîtier de disque de la Sun Cluster 3.1 Hardware Collection.

Disques locaux

Les disques locaux ne sont connectés qu'à un seul noeud. Ils ne sont donc pas protégés contre les pannes de noeuds (ils ne sont pas hautement disponibles). Toutefois, tous les disques, y compris les disques locaux, sont inclus dans l'espace de noms global et configurés comme des périphériques globaux. Ainsi, les disques eux-mêmes sont visibles depuis tous les noeuds de cluster.

Vous pouvez rendre les systèmes de fichiers des disques locaux accessibles aux autres noeuds en les mettant sous un point de montage global. Si un des noeuds sur lequel est monté l'un de ces systèmes de fichiers globaux échoue, tous les noeuds perdent l'accès à ce système de fichiers. L'utilisation d'un gestionnaire de volumes vous permet de mettre ces disques en miroir, évitant ainsi qu'une panne ne rende ces systèmes de fichiers inaccessibles ; les gestionnaires de volumes ne protègent cependant pas des pannes de noeuds.

Reportez-vous à la rubrique Périphériques globaux pour de plus amples informations sur les périphériques globaux.

Supports amovibles

Les supports amovibles tels que les lecteurs de bandes et lecteurs de CD sont pris en charge par le cluster. En général, vous installez, configurez et entretenez ces périphériques de la même manière que dans un environnement non clusterisé. Ils sont configurés comme des périphériques globaux dans Sun Cluster, chacun est donc accessible à tous les noeuds du cluster. Reportez-vous à la Sun Cluster 3.1 Hardware Collection pour de plus amples informations sur l'installation et la configuration des supports amovibles.

Reportez-vous à la rubrique Périphériques globaux pour de plus amples informations sur les périphériques globaux.

Interconnexion de cluster

L'interconnexion de cluster est la configuration physique des périphériques utilisés pour le transfert de communications privées du cluster et de celles des services de données entre les noeuds du cluster. L'interconnexion étant fortement sollicitée pour les communications privées du cluster, les performances peuvent être amoindries.

Seuls les noeuds du cluster peuvent être y connectés. Le modèle de sécurité Sun Cluster suppose que seuls les noeuds du cluster ont un accès physique à l'interconnexion.

Tous les noeuds doivent être connectés par l'interconnexion de cluster via au moins deux réseaux ou chemins d'accès redondants physiquement indépendants, afin d'éviter un point de panne unique. Il peut y avoir plusieurs réseaux physiquement indépendants (de deux à six) entre deux noeuds, quels qu'ils soient. L'interconnexion de cluster se compose de trois éléments matériels : les adaptateurs, les jonctions et les câbles.

La liste présentée ci-dessous décrit chacun de ces éléments matériels.

Reportez-vous au Chapitre 4 pour prendre connaissance des questions et réponses relatives à l'interconnexion de cluster.

Interfaces de réseau public

Les clients se connectent au cluster via des interfaces de réseau public. Chaque carte d'adaptateur réseau peut être connectée à un ou plusieurs réseaux publics, selon si elle possède plusieurs interfaces matérielles ou non. Vous pouvez définir des noeuds pour qu'ils prennent en charge plusieurs cartes d'interfaces de réseau public configurées de façon à ce qu'elles soient toutes actives, et puissent ainsi se servir mutuellement de sauvegarde en cas de basculement. En cas d'échec d'un des adaptateurs, le logiciel de multi-acheminement sur réseau IP intervient pour basculer de l'interface défectueuse vers un autre adaptateur du groupe.

Aucune remarque d'ordre matériel particulière ne s'applique au clustering pour les interfaces de réseau public.

Reportez-vous au Chapitre 4 pour prendre connaissance des questions et réponses relatives aux réseaux publics.

Systèmes client

Les systèmes client comprennent des stations de travail et autres serveurs accédant au cluster via le réseau public. Les programmes client utilisent des données ou autres services fournis par les applications serveur exécutées sur le cluster.

Les systèmes client ne sont pas hautement disponibles. Par contre, les données et applications du cluster le sont.

Reportez-vous au Chapitre 4 pour prendre connaissance des questions et réponses relatives aux systèmes client.

Périphériques d'accès par console

Vous devez disposer d'un accès par console à l'ensemble des noeuds du cluster. Pour obtenir cet accès, utilisez le concentrateur de terminaux fourni avec le matériel de cluster, le SSP (System Service Processor) sur les serveurs Sun Enterprise E10000TM, le contrôleur système sur les serveurs Sun FireTM, ou un autre dispositif ayant accès à ttya sur chaque noeud.

Un seul concentrateur de terminaux pris en charge est disponible auprès de Sun et son utilisation n'est pas obligatoire. Il permet d'accéder à /dev/console sur chaque noeud, via un réseau TCP/IP. Vous disposez ainsi d'un accès par console pour chaque noeud à partir d'une station de travail distante située n'importe où sur le réseau.

Le SSP (System Service Processor) fournit un accès par console au Serveur Sun Enterprise E10000. Le SSP est une machine sur un réseau Ethernet configurée pour pendre en charge le Serveur Sun Enterprise E10000. C'est la console administrative du Serveur Sun Enterprise E10000. En utilisant les fonctions de la console de réseau Sun Enterprise E10000, toutes les stations de travail du réseau peuvent ouvrir une session de console hôte.

Il existe d'autres méthodes d'accès par console, notamment par d'autres concentrateurs de terminaux, l'accès port série tip(1) à partir d'un autre noeud, et des terminaux non intelligents. Vous pouvez utiliser les claviers et moniteurs SunTM ou d'autres périphériques port série si votre fournisseur de services matériels les prend en charge.

Console administrative

 Vous pouvez utiliser une station de travail UltraSPARC TM dédiée, appelée console administrative pour administrer le cluster actif. Habituellement vous utilisez et exécutez des outils d'administration, tels que le Cluster Control Panel (CCP) et le module Sun Cluster pour le produit Sun Management CenterTM, sur la console administrative. L'option cconsole du CCP vous permet de vous connecter à plus d'un noeud en même temps. Pour de plus amples informations sur l'utilisation du CCP, reportez-vous au Guide d'administration système de Sun Cluster 3.1.

 

La console administrative n'est pas un noeud du cluster. Elle permet d'accéder à distance aux noeuds du cluster, soit via le réseau public, soit éventuellement à travers un concentrateur de terminaux basé sur le réseau. Si votre cluster est une plate-forme Sun Enterprise E10000, vous devez avoir la capacité de vous connecter au SSP à partir de la console administrative puis de vous connecter à l'aide de la commande netcon(1M).

Les noeuds sont généralement configurés sans moniteur. Vous accédez ensuite à la console des noeuds à travers une session telnet ouverte à partir de la console administrative. Celle-ci est connectée à un concentrateur de terminaux à partir duquel vous accédez au port série du noeud (avec un Serveur Sun Enterprise E10000, vous vous connectez à partir du SSP). Reportez-vous à la rubrique Périphériques d'accès par console pour de plus amples informations.

Avec Sun Cluster, il n'est pas nécessaire d'utiliser une console administrative dédiée, bien qu'elle présente les avantages suivants :

Reportez-vous au Chapitre 4 pour prendre connaissance des questions et réponses relatives à la console administrative.