Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster 3.3 3/13 (Français) |
1. Planification de la configuration d'Oracle Solaris Cluster
2. Installation de logiciels sur des noeuds de cluster global
3. Etablissement d'un cluster global
4. Configuration du logiciel Solaris Volume Manager
5. Création d'un système de fichiers de cluster
6. Création de zones et de clusters de zones non globaux
Configuration d'une zone non globale sur un noeud de cluster global
Création d'une zone non globale sur un noeud de cluster global
Configuration d'un cluster de zones
Présentation de l'utilitaire clzonecluster
Etablissement du cluster de zones
Préparation de l'utilisation de Trusted Extensions avec les clusters de zones
Création d'un cluster de zones
Ajout de systèmes de fichiers à un cluster de zones
Ajout d'un système de fichiers local hautement disponible à un cluster de zones
Ajout d'un pool de stockage ZFS à un cluster de zones
Ajout d'un système de fichiers de cluster à un cluster de zones
Ajout de systèmes de fichiers locaux à un noeud spécifique de cluster de zones
Ajout d'un système de fichiers local à un noeud spécifique de cluster de zones
Ajout d'un pool de stockage ZFS local à un noeud spécifique de cluster de zones
Ajout de périphériques de stockage à un cluster de zones
Ajout d'un périphérique de stockage global à un cluster de zones
Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones
Cette section contient les procédures permettant de configurer un cluster de zones non globales de conteneurs Oracle Solaris, également appelé cluster de zones.
L'utilitaire clzonecluster crée, modifie et supprime un cluster de zones. En d'autres termes, il gère activement un cluster de zones. C'est lui qui, par exemple, initialise ou arrête un cluster de zones. Les messages de progression de l'utilitaire clzonecluster s'affichent sur la console, mais ils ne sont pas enregistrés dans un fichier journal.
Le champ d'action de cet utilitaire est similaire à celui de l'utilitaire zonecfg et concerne les niveaux suivants :
Cluster : affecte le cluster de zones entier.
L'étendue du noeud affecte uniquement le noeud de cluster de zones spécifié.
Ressource : peut affecter un noeud spécifique ou le cluster de zones entier, selon le niveau à partir duquel la ressource a été entrée. La plupart des ressources peuvent uniquement être entrées à partir du noeud. Les invites suivantes permettent de connaître le niveau d'entrée de la ressource :
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting
Vous pouvez indiquer n'importe quel paramètre de ressource de zones Oracle Solaris, ainsi que les paramètres propres aux clusters de zones dans l'utilitaire clzonecluster. Pour plus d'informations sur les paramètres que vous pouvez définir dans un cluster de zones, reportez-vous à la page de manuel clzonecluster(1CL). Des informations supplémentaires relatives aux paramètres de ressources de zones Oracle Solaris sont disponibles dans la page de manuel zonecfg(1M).
Cette section décrit la procédure de configuration d'un cluster de zones non globales.
Cette procédure prépare le cluster global à l'utilisation de la fonction Trusted Extensions du logiciel Oracle Solaris avec les clusters de zones et active cette fonction.
Si vous n'avez pas l'intention d'activer Trusted Extensions, passez à la section Création d'un cluster de zones.
Suivez cette procédure sur chaque noeud du cluster global.
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que le SE Oracle Solaris est installé de façon à prendre en charge les logiciels Oracle Solaris Cluster et Trusted Extensions.
Si le logiciel Oracle Solaris est déjà installé sur le noeud, il faut vérifier que cette installation respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tous les autres logiciels que vous envisagez d'installer sur le cluster. Le logiciel Trusted Extensions n'est pas inclus dans le groupe de logiciels Oracle Solaris Utilisateur final.
Reportez-vous à la section Installation du logiciel Oracle Solaris pour plus d'informations sur une installation du logiciel Oracle Solaris conforme à la configuration requise par le logiciel Oracle Solaris Cluster.
Assurez-vous qu'un service de noms LDAP est configuré pour être utilisé par Trusted Extensions. Reportez-vous au Chapitre 5, Configuration de LDAP pour Trusted Extensions (tâches) du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.
Consultez les directives pour Trusted Extensions dans un cluster de zones. Reportez-vous à la section Directives pour Trusted Extensions dans un cluster de zones.
Les scripts zoneshare et zoneunshare de Trusted Extensions permettent d'exporter des répertoires personnels sur le système. Une configuration Oracle Solaris Cluster ne prend pas en charge cette fonction.
Désactivez cette fonction en remplaçant chaque script par un lien symbolique pointant vers l'utilitaire /bin/true. Effectuez cette opération sur chaque noeud de cluster global.
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
Reportez-vous à la section Exécution du script txzonemgr du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.
ipaddress:admin_low
Supprimez l'option -failover de toutes les entrées concernées.
Effectuez les tâches suivantes par le biais de l'assistant des modèles de sécurité dans Solaris Management Console, comme indiqué à la section Construction d’un modèle d’hôte distant du manuel Procédures de l’administrateur Trusted Extensions.
Créez une nouvelle entrée pour les adresses IP utilisées par les composants de cluster et assignez un modèle CIPSO à chaque entrée.
Ajoutez des entrées pour chacune des adresses IP suivantes, figurant dans le fichier /etc/inet/hosts du noeud de cluster global :
Chaque adresse IP privée du noeud de cluster global
Toutes les adresses IP cl_privnet du cluster global
Chaque adresse IP publique de nom d'hôte logique du cluster global
Chaque adresse IP publique partagée du cluster global
Les entrées doivent ressembler à ce qui suit.
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
Ajoutez une entrée pour rendre interne le modèle par défaut.
0.0.0.0:internal
Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration du domaine d’interprétation du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.
phys-schost# svcadm enable -s svc:/system/labeld:default phys-schost# shutdown -g0 -y -i6
Pour plus d'informations, reportez-vous à la section Activation de Trusted Extensions du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.
phys-schost# svcs labeld STATE STIME FMRI online 17:52:55 svc:/system/labeld:default
Lorsque toutes les étapes sont terminées sur tous les noeuds de cluster global, effectuez le reste des étapes de cette procédure sur chaque noeud du cluster global.
Le serveur LDAP est utilisé par la zone globale et par les noeuds du cluster de zones.
phys-schost# svcadm enable rlogin
Modifiez les entrées de gestion des comptes en ajoutant un onglet et en saisissant allow_remote ou allow_unlabeled respectivement, comme illustré ci-dessous.
other account requisite pam_roles.so.1 Tab allow_remote other account required pam_unix_account.so.1 Tab allow_unlabeled
Assurez-vous que l'ordre de recherche des entrées passwd et group commence par files.
… passwd: files ldap group: files ldap …
Assurez-vous que l'ordre de recherche des entrées hosts et netmasks répertorie en premier cluster.
… hosts: cluster files ldap … netmasks: cluster files ldap …
Reportez-vous à la section Établissement de la zone globale en tant que client LDAP dans Trusted Extensions du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.
Utilisez l'assistant d'ajout d'utilisateurs dans Solaris Management Console, comme indiqué à la section Création de rôles et d’utilisateurs dans Trusted Extensions du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.
Étapes suivantes
Création du cluster de zones. Reportez-vous à la section Création d'un cluster de zones.
Effectuez cette procédure pour créer un cluster de zones non globales.
Pour modifier le cluster de zones après son installation, reportez-vous à la section Tâches d’administration d’un cluster de zones du manuel Guide d’administration système d’Oracle Solaris Cluster et à la page de manuel clzonecluster(1CL).
Avant de commencer
Créez un cluster global. Voir le Chapitre 3, Etablissement d'un cluster global.
Tenez compte des exigences et recommandations relatives à la création d'un cluster de zones. Reportez-vous à la section Clusters de zones.
Si le cluster de zones utilise Trusted Extensions, vérifiez que vous avez configuré et activé Trusted Extensions, comme décrit à la section Préparation de l'utilisation de Trusted Extensions avec les clusters de zones.
Ayez à disposition les informations suivantes :
Le nom unique qui sera assigné au cluster de zones.
Remarque - Pour configurer un cluster de zones lorsque Trusted Extensions est activé, il faut reprendre le nom de l'étiquette de sécurité de Trusted Extensions que le cluster de zones utilisera comme son propre nom. Créez un cluster de zones distinct pour chaque étiquette de sécurité Trusted Extensions que vous souhaitez utiliser.
Le chemin de zone que les noeuds de cluster de zones devront utiliser. Pour plus d'informations, reportez-vous à la description de la propriété zonepath à la section Types de ressources et de propriétés du manuel Guide d’administration système : Conteneurs Oracle Solaris-Gestion des ressources et Oracle Solaris Zones.
Le nom de chaque noeud du cluster global sur lequel un noeud de cluster de zones sera créé.
Le nom d'hôte public de la zone, ou alias d'hôte, qui sera assigné à chaque noeud de cluster de zones.
Le cas échéant, le groupe IPMP de réseau public que chaque noeud de cluster de zones utilise.
Le cas échéant, le nom de l'adaptateur de réseau public utilisé par chaque noeud de cluster de zones pour se connecter au réseau public.
Remarque - Si vous ne configurez pas une adresse IP pour chaque noeud de cluster de zones, deux conséquences s'ensuivent :
Le cluster de zones concerné n'est pas en mesure de configurer des périphériques NAS en vue de les utiliser dans le cluster de zones. Le cluster utilise l'adresse IP du noeud de cluster de zones lors de la communication avec le périphérique NAS, si bien que l'absence d'adresse IP empêche la prise en charge de la séparation des périphériques NAS par le cluster.
Le logiciel de gestion du cluster active n'importe quelle autre l'adresse IP de l'hôte sur n'importe quelle carte d'interface réseau.
Remarque - Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
Si un noeud n'est pas un noeud de cluster, les modifications apportées ne seront pas propagées avant que ce noeud ne retourne en mode cluster. Par conséquent, vous pouvez créer un cluster de zones même si des noeuds du cluster global ne sont pas en mode cluster. Lorsque ces noeuds retournent en mode cluster, le système procède aux tâches de création sur ces noeuds.
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online
phys-schost# clsetup
Le menu principal s'affiche.
Un nom de cluster de zones peut contenir des lettres ASCII (a-z et A-Z), des chiffres, un trait d'union ou un trait de soulignement. La longueur maximale du nom est de 20 caractères.
Remarque - Les propriétés brand et ip-type sont définies par défaut et ne peuvent pas être modifiées.
Vous pouvez définir les propriétés suivantes :
|
Vous pouvez définir les propriétés suivantes :
|
Vous pouvez définir les propriétés suivantes :
|
Vous pouvez définir les propriétés suivantes :
|
Vous pouvez sélectionner un noeud/hôte ou tous les noeuds/hôtes physiques disponibles puis configurer un noeud de cluster de zones à la fois.
Vous pouvez définir les propriétés suivantes :
|
Les adresses réseau permettent de configurer un nom d'hôte logique ou des ressources de cluster IP partagées dans le cluster de zones. L'adresse de réseau se trouve dans l'étendue globale du cluster de zones.
Les résultats de la modification de votre configuration s'affichent, comme ci-dessous :
>>> Result of the Creation for the Zone Cluster(sczone) <<< The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone create set brand=cluster set zonepath=/zones/sczone set ip-type=shared set enable_priv_net=true add capped-memory set physical=2G end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.1.1.1 set physical=net0 end end add net set address=172.1.1.2 end Zone cluster, zc2 has been created and configured successfully. Continue to install the zone cluster(yes/no) ?
L'utilitaire clsetup effectue une installation standard d'un cluster de zones et vous ne pouvez pas indiquer d'options.
La sous-commande verify vérifie la disponibilité des ressources spécifiées. Si la commande clzonecluster verify s'exécute correctement, il n'y a pas de sortie.
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured
A partir de la zone globale, lancez l'interface graphique txzonemgr.
phys-schost# txzonemgr
Sélectionnez la zone globale, sélectionnez l'option Configurer un service de noms par zone.
phys-schost-1# clzonecluster install [-c config-profile.xml] zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"...
L'option -c config-profile.xml fournit un profil de configuration pour toutes les zones non globales du cluster de zones. L'utilisation de cette option modifie uniquement le nom d'hôte de la zone qui est unique pour chaque zone du cluster de zones. Tous les profils doivent contenir l'extension .xml.
Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"...
Suivez les étapes ci-après pour chaque noeud de cluster de zones.
Remarque - Dans les étapes suivantes, la zone non globale zcnode et zone-cluster-name partagent le même nom.
phys-schost# zlogin zcnode zcnode# sysconfig unconfigure zcnode# reboot
La session zlogin se termine au cours de la réinitialisation.
phys-schost# zlogin -C zcnode
Pour plus d'informations sur les méthodes permettant de quitter une zone non globale, reportez-vous à la section Sortie d’une zone non globale du manuel Guide d’administration système : Conteneurs Oracle Solaris-Gestion des ressources et Oracle Solaris Zones.
Effectuez cette étape sur chaque noeud du cluster de zones.
phys-schost# cat /etc/cluster/nodeid N
Assurez-vous que le service SMF a été importé et que tous les services sont en fonctionnement avant de vous connecter.
Le logiciel du cluster affecte automatiquement ces adresses IP lorsqu'il configure un cluster de zones.
Dans la sortie ifconfig -a, localisez l'interface logique clprivnet0 qui appartient au cluster de zones. La valeur d'inet est l'adresse IP qui a été affectée pour prendre en charge l'utilisation de l'interconnexion privée de cluster par le cluster de zones.
zc1# ifconfig -a lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 zone zc1 inet 127.0.0.1 netmask ff000000 bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
Le nom d'hôte pour l'interconnexion privée, clusternodeN-priv, où N représente l'ID de noeud du cluster global.
172.16.0.22 clusternodeN-priv
Chaque ressource net spécifiée à la commande clzonecluster lors de la création du cluster de zones
Effectuez les tâches suivantes par le biais de l'assistant des modèles de sécurité dans Solaris Management Console, comme indiqué à la section Construction d’un modèle d’hôte distant du manuel Procédures de l’administrateur Trusted Extensions.
Créez une nouvelle entrée pour les adresses IP utilisées par les composants de cluster de zones et assignez un modèle CIPSO à chaque entrée.
Ajoutez des entrées pour chacune des adresses IP suivantes, figurant dans le fichier /etc/inet/hosts du noeud de cluster de zones :
Chaque adresse IP privée du noeud de cluster de zones
Toutes les adresses IP cl_privnet du cluster de zones
Chaque adresse IP publique de nom d'hôte logique du cluster de zones
Chaque adresse IP publique à adresse partagée du cluster de zones
Les entrées doivent ressembler à ce qui suit.
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
Ajoutez une entrée pour rendre interne le modèle par défaut.
0.0.0.0:internal
Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration du domaine d’interprétation du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.
Exécutez les commandes suivantes sur chaque noeud du cluster de zones :
phys-schost# zlogin zcnode zcnode# svcadm enable svc:/network/dns/client:default zcnode# svcadm enable svc:/network/login:rlogin zcnode# reboot
Exemple 6-2 Fichier de configuration pour créer un cluster de zones
L'exemple suivant illustre le contenu d'un fichier de commandes qui peut être associé à l'utilitaire clzonecluster pour créer un cluster de zones. Le fichier contient la série des commandes clzonecluster qu'il vous faudrait saisir manuellement.
Dans la configuration suivante, le cluster de zones sczone est créé sur le noeud de cluster global phys-schost-1. Le cluster de zones utilise /zones/sczone comme chemin d'accès à la zone et l'adresse IP publique 172.16.2.2. Le nom d'hôte zc-host-1 est attribué au premier noeud du cluster de zones et celui-ci utilise l'adresse réseau 172.16.0.1 et l'adaptateur bge0. Le second noeud du cluster de zones est créé sur le noeud de cluster global phys-schost-2. Le nom d'hôte zc-host-2 est attribué au second noeud du cluster de zones et utilise l'adresse réseau 172.16.0.2 et l'adaptateur bge1.
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
Étapes suivantes
Pour ajouter un système de fichiers au cluster de zones, passez à la section Ajout de systèmes de fichiers à un cluster de zones.
Pour ajouter des périphériques de stockage globaux au cluster de zones, passez à la section Ajout de périphériques de stockage à un cluster de zones.
Voir aussi
Pour appliquer des patchs à un cluster de zones, suivez les procédures décrites au Chapitre 11, Application de patchs au logiciel et au microprogramme d’Oracle Solaris Cluster du manuel Guide d’administration système d’Oracle Solaris Cluster. Ces procédures comportent des instructions spéciales pour les clusters de zones, le cas échéant.
Cette section décrit les procédures d'ajout de systèmes de fichiers en vue de leur utilisation par le cluster de zones :
Un système de fichiers ajouté à un cluster de zones et mis en ligne devient utilisable au sein de ce cluster de zones. Pour monter le système de fichiers, configurez-le à l'aide de ressources de cluster telles que SUNW.HAStoragePlus ou SUNW.ScalMountPoint.
Les procédures suivantes sont présentées dans cette section :
Ajout d'un système de fichiers local hautement disponible à un cluster de zones
Ajout d'un système de fichiers de cluster à un cluster de zones
Pour configurer un pool de stockage ZFS hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Procédez comme suit pour configurer un système de fichiers local hautement disponible sur le cluster global en vue d'une utilisation par le cluster de zones. Le système de fichiers est ajouté au cluster de zones et est configuré avec une ressource HAStoragePlus pour rendre le système de fichiers local hautement disponible.
Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
phys-schost# clsetup
Le menu principal s'affiche.
Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.
Le menu des tâches du cluster de zones s'affiche.
Le menu Select Zone Cluster s'affiche.
Le menu Storage Type Selection s'affiche.
Le menu File System Selection for the Zone Cluster s'affiche.
Les systèmes de fichiers figurant dans cette liste sont ceux qui sont configurés sur des disques partagés et dont l'accès est octroyé aux noeuds où le cluster de zones est configuré. Vous pouvez également appuyer sur la touche e pour spécifier manuellement toutes les propriétés d'un système de fichiers.
Le menu Mount Type Selection s'affiche.
Le menu File System Properties for the Zone Cluster s'affiche.
Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée.
Les résultats de la modification apportée à votre configuration s'affichent.
phys-schost# clzonecluster show -v zoneclustername
Exemple 6-3 Ajout d'un système de fichiers local hautement disponible à un cluster de zones
Cet exemple permet d'ajouter le système de fichiers local /global/oracle/d1 qui servira au cluster de zones sczone.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [logging] cluster-control: [true] …
Étapes suivantes
Configurez le système de fichiers de manière à ce qu'il soit hautement disponible, à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Suivez cette procédure pour ajouter un pool de stockage ZFS en vue de son utilisation par un cluster de zones. Le pool peut être local pour un noeud de cluster de zones unique ou configuré avec HAStoragePlus pour être hautement disponible.
L'utilitaire clsetup détecte et affiche l'ensemble des pools ZFS configurés sur des disques partagés dont l'accès est possible pour les noeuds où le cluster de zones sélectionné est configuré. Après avoir exécuté l'utilitaire clsetup pour ajouter le pool de stockage ZFS d'une étendue de cluster à un cluster de zones existant, vous pouvez utiliser la commande clzonecluster pour modifier la configuration ou pour ajouter un pool de stockage ZFS dans le noeud dans une étendue de noeud.
Avant de commencer
Assurez-vous que le pool ZFS est connecté à des disques partagés liés à tous les noeuds du cluster de zones. Reportez-vous à la section Guide d’administration Oracle Solaris ZFS pour consulter les procédures de création d'un pool ZFS.
Remarque - Suivez toutes les étapes de cette procédure à partir d'un noeud de la zone globale.
phys-schost# clsetup
Le menu principal s'affiche.
Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.
Le menu des tâches du cluster de zones s'affiche.
Le menu Select Zone Cluster s'affiche.
Le menu Storage Type Selection s'affiche.
Le menu ZFS Pool Selection pour le cluster de zones s'affiche.
Les pools ZFS figurant dans cette liste sont ceux qui sont configurés sur des disques partagés et dont l'accès est octroyé aux noeuds où le cluster de zones est configuré. Vous pouvez également appuyer sur la touche e pour spécifier manuellement les propriétés d'un pool ZFS.
Le menu ZFS Pool Dataset Property for the Zone Cluster s'affiche. Le pool ZFS sélectionné est affecté à la propriété name.
Le menu Review File Systems/Storage Devices for the Zone Cluster s'affiche.
Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add dataset set name=myzpool5 end Configuration change to sczone zone cluster succeeded.
phys-schost# clzonecluster show -v zoneclustername
Exemple 6-4 Ajout d'un pool de stockage ZFS à un cluster de zones
L'exemple suivant illustre l'ajout du pool de stockage ZFS zpool1 au cluster de zones sczone.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 …
Étapes suivantes
Configurez le pool de stockage ZFS de sorte qu'il soit hautement disponible à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers du pool sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
L'utilitaire clsetup détecte et affiche les systèmes de fichiers disponibles configurés sur les noeuds de cluster dans lesquels le cluster de zones sélectionné est configuré. Lorsque vous exécutez l'utilitaire clsetup pour ajouter un système de fichiers, le système de fichiers est ajouté dans l'étendue du cluster.
Vous pouvez ajouter les types suivants de systèmes de fichiers de cluster à un cluster de zones :
Système de fichiers de cluster UFS - Il faut spécifier le type de système de fichiers dans le fichier /etc/vfstab à l'aide de l'option de montage global. Ce système de fichiers peut se trouver sur le disque partagé ou sur un périphérique Solaris Volume Manager.
Système de fichiers partagé Sun QFS - Il faut spécifier le type de système de fichiers dans le fichier /etc/vfstab à l'aide de l'option de montage shared.
Remarque - Pour l'instant, les systèmes de fichiers partagés QFS sont pris en charge uniquement pour une utilisation dans les clusters configurés avec Oracle Real Application Clusters (RAC). Sur les clusters non configurés avec Oracle RAC, vous pouvez utiliser un système de fichiers QFS monoposte, configuré en tant que système de fichiers local hautement disponible.
ACFS - Détecté automatiquement en fonction du chemin ORACLE_HOME que vous indiquez.
Avant de commencer
Assurez-vous que le système de fichiers de cluster à ajouter au cluster de zones est configuré. Reportez-vous à la section Planification des systèmes de fichiers de cluster et au Chapitre 5, Création d'un système de fichiers de cluster.
Remarque - Suivez toutes les étapes de cette procédure à partir d'un noeud votant du cluster global.
phys-schost# vi /etc/vfstab
/dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs ufs 2 no global, logging
Data-cz1 - /db_qfs/Data1 samfs - no shared,notrace
phys-schost# clsetup
Le menu principal s'affiche.
Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.
Le menu des tâches du cluster de zones s'affiche.
Le menu Select Zone Cluster s'affiche.
Le menu Storage Type Selection s'affiche.
Le menu File System Selection for the Zone Cluster s'affiche.
Le menu Mount Type Selection s'affiche.
Vous pouvez également appuyer sur la touche e pour spécifier manuellement toutes les propriétés d'un système de fichiers.
Remarque - Si vous utilisez un système de fichiers ACFS, appuyez sur la touche a pour sélectionner Discover ACFS puis spécifiez le répertoire ORACLE_HOME.
Remarque - Si vous avez choisi un système de fichiers ACFS à l'Étape 8, l'utilitaire clsetup ignore cette étape car ACFS prend uniquement en charge le type de montage direct.
Pour plus d'informations sur la création de systèmes de fichiers loopback, reportez-vous à la section How to Create and Mount an LOFS File System du manuel System Administration Guide: Devices and File Systems.
Le menu File System Properties for the Zone Cluster s'affiche.
Saisissez le numéro correspondant à la propriété dir et appuyez sur Entrée. Saisissez ensuite le nom du répertoire de point de montage LOFS dans le champ New Value et appuyez sur Entrée.
Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée. Le menu Review File Systems/Storage Devices for the Zone Cluster s'affiche.
Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add fs set dir=/dev/md/ddg/dsk/d9 set special=/dev/md/ddg/dsk/d10 set raw=/dev/md/ddg/rdsk/d10 set type=lofs end Configuration change to sczone zone cluster succeeded.
phys-schost# clzonecluster show -v zoneclustername
Étapes suivantes
(Facultatif) Configurez le système de fichiers de cluster que doit gérer une ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers dans le cluster global avant d'exécuter un montage loopback sur les noeuds de cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Configuring an HAStoragePlus Resource for Cluster File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Cette section décrit la procédure d'ajout de systèmes de fichiers qui sont dédiés à un seul noeud de cluster de zones. Pour configurer des systèmes de fichiers en vue d'une utilisation par le cluster de zones entier, reportez-vous à la section Ajout de systèmes de fichiers à un cluster de zones.
Cette section contient les procédures suivantes :
Ajout d'un système de fichiers local à un noeud spécifique de cluster de zones
Ajout d'un pool de stockage ZFS local à un noeud spécifique de cluster de zones
Suivez cette procédure pour ajouter un système de fichiers local à un noeud unique et spécifique d'un cluster de zones spécifique. Le système de fichiers n'est pas géré par le logiciel Oracle Solaris Cluster mais est transmis à la zone Oracle Solaris sous-jacente.
Remarque - Pour ajouter un système de fichiers local hautement disponible à un cluster de zones, effectuez les procédures décrites dans la section Ajout d'un système de fichiers local hautement disponible à un cluster de zones.
Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
Utilisez les disques locaux du noeud de cluster global qui héberge le noeud du cluster de zones prévu.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> select node physical-host=baseclusternode clzc:zoneclustername:node> add fs clzc:zoneclustername:node:fs> set dir=mountpoint clzc:zoneclustername:node:fs> set special=disk-device-name clzc:zoneclustername:node:fs> set raw=raw-disk-device-name clzc:zoneclustername:node:fs> set type=FS-type clzc:zoneclustername:node:fs> end clzc:zoneclustername:node> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Spécifie le point de montage du système de fichiers
Indique le nom du périphérique de disque.
Spécifie le nom du périphérique de disque brut
Indique le type de système de fichiers.
Remarque - Activez la journalisation pour les systèmes de fichiers UFS.
phys-schost# clzonecluster show -v zoneclustername
Exemple 6-5 Ajout d'un système de fichiers local à un noeud de cluster de zones
Cet exemple ajoute un système de fichiers UFS local /local/data en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add fs clzc:sczone:node:fs> set dir=/local/data clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1 clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1 clzc:sczone:node:fs> set type=ufs clzc:sczone:node:fs> add options [logging] clzc:sczone:node:fs> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: fs dir: /local/data special: /dev/md/localdg/dsk/d1 raw: /dev/md/localdg/rdsk/d1 type: ufs options: [logging] cluster-control: false ...
Suivez cette procédure pour ajouter un pool de stockage ZFS local à un noeud spécifique de cluster de zones. Le pool ZFS local n'est pas géré par le logiciel Oracle Solaris Cluster mais est transmis à la zone Oracle Solaris sous-jacente.
Remarque - Pour ajouter un pool ZFS local hautement disponible à un cluster de zones, reportez-vous à la section Ajout d'un système de fichiers local hautement disponible à un cluster de zones.
Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
Utilisez les disques locaux du noeud de cluster global qui héberge le noeud du cluster de zones prévu.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> select node physical-host=baseclusternode clzc:zoneclustername:node> add dataset clzc:zoneclustername:node:dataset> set name=localZFSpoolname clzc:zoneclustername:node:dataset> end clzc:zoneclustername:node> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Spécifie le nom du pool ZFS local
phys-schost# clzonecluster show -v zoneclustername
Exemple 6-6 Ajout d'un pool ZFS local à un noeud de cluster de zones
Cet exemple ajoute le pool ZFS local local_pool en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add dataset clzc:sczone:node:dataset> set name=local_pool clzc:sczone:node:dataset> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: dataset name: local_pool
Cette section décrit comment ajouter l'utilisation directe de périphériques de stockage globaux par un cluster de zones ou comment ajouter des périphériques de stockage dédiés à un seul noeud de cluster de zones. Les périphériques globaux sont des périphériques accessibles par plus d'un noeud de cluster en même temps.
Après l'ajout d'un périphérique à un cluster de zones, ce périphérique est visible uniquement au sein de ce cluster de zones.
Cette section contient les procédures suivantes :
Ajout d'un périphérique de stockage global à un cluster de zones
Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones
Suivez cette procédure pour ajouter l'un des types de périphériques de stockage suivants dans une étendue de cluster :
Périphériques de disque brut
Ensembles de disques Solaris Volume Manager (sauf les disques multipropriétaires)
Remarque - Pour ajouter un périphérique de disque brut à un noeud spécifique de cluster de zones, reportez-vous à la section Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones.
L'utilitaire clsetup détecte et affiche les périphériques de stockage disponibles configurés sur les noeuds de cluster dans lesquels le cluster de zones sélectionné est configuré. Après avoir exécuté l'utilitaire clsetup pour ajouter un périphérique de stockage à un cluster de zones existant, utilisez la commande clzonecluster afin de modifier la configuration. Pour obtenir des instructions sur l'utilisation de la commande clzonecluster pour supprimer un périphérique de stockage d'un cluster de zones, reportez-vous à la section Suppression d’un périphérique de stockage d’un cluster de zones du manuel Guide d’administration système d’Oracle Solaris Cluster.
Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online device
phys-schost# clsetup
Le menu principal s'affiche.
Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.
Le menu des tâches du cluster de zones s'affiche.
Le menu Select Zone Cluster s'affiche.
Le menu Storage Type Selection s'affiche.
Une liste des périphériques disponibles s'affiche.
Vous pouvez également appuyer sur la touche e pour spécifier manuellement les propriétés d'un périphérique de stockage.
Le menu Device Property for the Zone Cluster s'affiche.
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée. Le menu Review File Systems/Storage Devices for the Zone Cluster s'affiche.
Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add device set match=/dev/md/ddg/*dsk/* end add device set match=/dev/md/shared/1/*dsk/* end Configuration change to sczone zone cluster succeeded. The change will become effective after the zone cluster reboots.
phys-schost# clzonecluster show -v zoneclustername
Suivez cette procédure pour ajouter un périphérique de disque brut à un noeud spécifique de cluster de zones. Ce périphérique n'est alors plus sous le contrôle; d'Oracle Solaris Cluster. Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
Remarque - Pour ajouter un périphérique de disque brut en vue d'une utilisation par le cluster de zones complet, reportez-vous à la section Ajout d'un périphérique de stockage global à un cluster de zones.
Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> select node physical-host=baseclusternode clzc:zone-cluster-name:node> add device clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs* clzc:zone-cluster-name:node:device> end clzc:zone-cluster-name:node> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
Spécifie le chemin de périphérique complet pour accéder au périphérique de disque brut
phys-schost# clzonecluster show -v zoneclustername
Exemple 6-7 Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones
L'exemple suivant illustre l'ajout du périphérique de disque brut c1t1d0s0 en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add device clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0 clzc:sczone:node:device> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: device name: /dev/*dsk/c1t1d0s0