Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster 4.1 (Français) |
1. Planification de la configuration d'Oracle Solaris Cluster
2. Installation de logiciels sur des noeuds de cluster global
3. Etablissement d'un cluster global
4. Configuration du logiciel Solaris Volume Manager
5. Création d'un système de fichiers de cluster
6. Création de clusters de zones
Présentation de la création et de la configuration d'un cluster de zones
Création et configuration d'un cluster de zones
Création d'un cluster de zones
Installation et configuration de Trusted Extensions
Création d'un cluster de zones
Configuration d'un cluster de zones pour utiliser Trusted Extensions
Ajout de systèmes de fichiers à un cluster de zones
Ajout d'un système de fichiers local hautement disponible à un cluster de zones
Ajout d'un pool de stockage ZFS à un cluster de zones
Ajout d'un système de fichiers de cluster à un cluster de zones
Ajout de systèmes de fichiers locaux à un noeud spécifique de cluster de zones
Ajout d'un système de fichiers local à un noeud spécifique de cluster de zones
Ajout d'un pool de stockage ZFS local à un noeud spécifique de cluster de zones
Ajout de périphériques de stockage à un cluster de zones
Ajout d'un périphérique de stockage global à un cluster de zones
Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones
Cette section présente les informations et les procédures permettant de créer et de configurer un cluster de zones.
Cette section présente des procédures d'exécution de l'utilitaire clsetup pour créer un cluster de zones, puis ajouter une adresse de réseau, un système de fichiers, un pool de stockage ZFS et un périphérique de stockage dans le nouveau cluster de zones.
Si un noeud n'est pas un noeud de cluster, les modifications apportées ne seront pas propagées avant que ce noeud ne retourne en mode cluster. Par conséquent, vous pouvez créer un cluster de zones même si des noeuds du cluster global ne sont pas en mode cluster. Lorsque ces noeuds retournent en mode cluster, le système procède aux tâches de création sur ces noeuds.
Vous pouvez également exécuter l'utilitaire clzonecluster pour créer et configurer un cluster. Pour plus d'informations, reportez-vous à la page de manuel clzonecluster(1CL).
Cette section contient les procédures suivantes :
Cette procédure prépare le cluster global en vue d'utiliser la fonction Trusted Extensions d'Oracle Solaris dans les clusters de zones. Si vous n'avez pas l'intention d'activer Trusted Extensions, passez à la section Création d'un cluster de zones.
Suivez cette procédure sur chaque noeud du cluster global.
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que le SE Oracle Solaris est installé de façon à prendre en charge les logiciels Oracle Solaris Cluster et Trusted Extensions. Reportez-vous à la section Installation du logiciel Oracle Solaris pour plus d'informations sur une installation du logiciel Oracle Solaris conforme à la configuration requise par le logiciel Oracle Solaris Cluster.
Si un service de noms externe est utilisé, assurez-vous qu'un service de noms LDAP est configuré pour être utilisé par Trusted Extensions. Reportez-vous au Chapitre 5, Configuration de LDAP pour Trusted Extensions (tâches) du manuel Configuration et administration de Trusted Extensions
Vérifiez les conditions requises et directives pour Trusted Extensions dans un cluster de zones. Reportez-vous à la section Directives pour Trusted Extensions dans un cluster de zones.
Suivez les procédures décrites au Chapitre 3, Ajout de la fonction Trusted Extensions à Oracle Solaris (tâches) du manuel Configuration et administration de Trusted Extensions.
Les scripts zoneshare et zoneunshare de Trusted Extensions prennent en charge la possibilité d'exporter des répertoires personnels sur le système. Une configuration Oracle Solaris Cluster ne prend pas en charge cette fonction.
Désactivez cette fonction en remplaçant chaque script par un lien symbolique pointant vers l'utilitaire /bin/true.
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
Reportez-vous à la section Création d’un système Trusted Extensions par défaut du manuel Configuration et administration de Trusted Extensions.
phys-schost# svcadm enable rlogin
Modifiez les entrées de gestion des comptes en ajoutant un onglet et en saisissant allow_remote ou allow_unlabeled respectivement, comme illustré ci-dessous.
other account requisite pam_roles.so.1 Tab allow_remote other account required pam_unix_account.so.1 Tab allow_unlabeled
# tncfg -t admin_low tncfg:admin_low> add host=ip-address1 tncfg:admin_low> add host=ip-address2 … tncfg:admin_low> exit
# tncfg -t admin_low remove host=0.0.0.0
# tncfg -t cipso tncfg:cipso> add host=ip-address1 tncfg:cipso> add host=ip-address2 … tncfg:cipso> exit
Lorsque toutes les étapes sont terminées sur tous les noeuds de cluster global, effectuez le reste des étapes de cette procédure sur chaque noeud du cluster global.
Le serveur LDAP est utilisé par la zone globale et par les noeuds du cluster de zones.
Reportez-vous à la section Etablissement de la zone globale en tant que client LDAP dans Trusted Extensions du manuel Configuration et administration de Trusted Extensions.
Reportez-vous à la section Création de rôles et d’utilisateurs dans Trusted Extensions du manuel Configuration et administration de Trusted Extensions.
Étapes suivantes
Création du cluster de zones. Passez à la section Création d'un cluster de zones.
Suivez cette procédure pour créer un cluster de zones.
Pour modifier le cluster de zones après son installation, reportez-vous à la section Tâches d’administration d’un cluster de zones du manuel Guide d’administration système d’Oracle Solaris Cluster et à la page de manuel clzonecluster(1CL).
Avant de commencer
Créez un cluster global. Voir le Chapitre 3, Etablissement d'un cluster global.
Tenez compte des exigences et recommandations relatives à la création d'un cluster de zones. Reportez-vous à la section Clusters de zones.
Si le cluster de zones utilise Trusted Extensions, assurez-vous que vous avez installé, configuré et activé Trusted Extensions comme décrit dans la section Installation et configuration de Trusted Extensions.
Ayez à disposition les informations suivantes :
Le nom unique qui sera assigné au cluster de zones.
Remarque - Si Trusted Extensions est activé, le nom du cluster de zones doit être identique à une étiquette de sécurité Trusted Extensions disposant des niveaux de sécurité que vous souhaitez assigner au cluster de zones. Créez un cluster de zones distinct pour chaque étiquette de sécurité Trusted Extensions que vous souhaitez utiliser.
Le chemin de zone que les noeuds de cluster de zones devront utiliser. Pour plus d'informations, reportez-vous à la description de la propriété zonepath dans la section Types de ressources et propriétés du manuel Administration d’Oracle Solaris 11.1 : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources. Par défaut, les zones à racine entière sont créées.
Le nom de chaque noeud du cluster global sur lequel un noeud de cluster de zones sera créé.
Le nom d'hôte public de la zone, ou alias d'hôte, qui sera assigné à chaque noeud de cluster de zones.
Le cas échéant, l'adresse IP de réseau public utilisée par chaque noeud de cluster de zones. La spécification d'une adresse IP et la carte d'interface réseau pour chaque noeud de cluster de zones est facultatif.
Le cas échéant, le nom du groupe IPMP de réseau public utilisé par chaque noeud de cluster de zones pour se connecter au réseau public.
Remarque - Si vous ne configurez pas une adresse IP pour chaque noeud de cluster de zones, deux choses se produisent :
Ce cluster de zones spécifique ne peut pas configurer de périphériques NAS pour une utilisation dans un cluster de zones. Le cluster utilise l'adresse IP du noeud de cluster de zones lors de la communication avec le périphérique NAS, de sorte que le fait de ne pas disposer d'adresse IP permet d'éviter la séparation du support de cluster pour les périphériques NAS.
Le logiciel de gestion du cluster s'activera n'importe quel autre l'adresse IP de l'hôte sur n'importe quelle carte d'interface réseau.
Astuce - Lorsque vous êtes dans l'utilitaire clsetup, vous pouvez appuyer sur la touche < pour revenir à un écran précédent.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online
phys-schost# clsetup
Le menu principal s'affiche.
Un nom de cluster de zones peut contenir des lettres ASCII (a-z et A-Z), des chiffres, un trait d'union ou un trait de soulignement. La longueur maximale du nom est de 20 caractères.
Vous pouvez définir les propriétés suivantes :
|
Un mot de passe de compte root est requis pour une zone marquée solaris10.
Vous pouvez définir les propriétés suivantes :
|
Vous pouvez définir les propriétés suivantes :
|
Vous pouvez définir les propriétés suivantes :
|
Vous pouvez sélectionner un noeud/hôte ou tous les noeuds/hôtes physiques disponibles puis configurer un noeud de cluster de zones à la fois.
Vous pouvez définir les propriétés suivantes :
|
Les adresses de réseau permettent de configurer un nom d'hôte logique ou des ressources de cluster IP partagées dans le cluster de zones. L'adresse de réseau se trouve dans l'étendue globale du cluster de zones.
Les résultats de la modification de votre configuration s'affichent, comme ci-dessous :
>>> Result of the Creation for the Zone Cluster(sczone) <<< The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone create set brand=solaris set zonepath=/zones/sczone set ip-type=shared set enable_priv_net=true add capped-memory set physical=2G end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.1.1.1 set physical=net0 end end add net set address=172.1.1.2 end Zone cluster, zc2 has been created and configured successfully. Continue to install the zone cluster(yes/no) ?
L'utilitaire clsetup effectue une installation standard d'un cluster de zones et vous ne pouvez pas indiquer d'options.
La sous-commande verify vérifie la disponibilité des ressources spécifiées. Si la commande clzonecluster verify réussit, aucune sortie ne s'affiche.
phys-schost-1# clzonecluster verify zone-cluster-name phys-schost-1# clzonecluster status zone-cluster-name === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured
A partir de la zone globale, lancez l'interface graphique txzonemgr.
phys-schost# txzonemgr
Sélectionnez la zone globale, sélectionnez l'option Configurer un service de noms par zone.
phys-schost-1# clzonecluster install options zone-cluster-name Waiting for zone install commands to complete on all the nodes of the zone cluster "zone-cluster-name"...
|
Utilisez l'option -a ou -d pour installer le logiciel Geographic Edition, les packages de base et les agents qui sont pris en charge dans le cluster de zones :
Remarque - Pour obtenir une liste des agents qui sont actuellement pris en charge dans un cluster de zones marquées solaris10, reportez-vous au Oracle Solaris Cluster 4 Compatibility Guide.
|
Pour plus d'informations, reportez-vous à la page de manuel clzonecluster(1CL).
Dans le cas contraire, passez à l'Étape 21.
Remarque - Dans les étapes suivantes, la zone non globale zcnode et zone-cluster-name partagent le même nom.
Configurez uniquement un noeud de cluster de zones à la fois.
phys-schost# zoneadm -z zcnode boot
phys-schost# zlogin zcnode zcnode# sysconfig unconfigure zcnode# reboot
La session zlogin se termine au cours de la réinitialisation.
phys-schost# zlogin -C zcnode
Pour plus d'informations sur les méthodes pour sortir d'une zone non globale, reportez-vous à la section Sortie d’une zone non globale du manuel Administration d’Oracle Solaris 11.1 : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources.
phys-schost# zoneadm -z zcnode halt
phys-schost# clzonecluster boot zone-cluster-name
phys-schost# zlogin zcnode zcnode# sysconfig unconfigure zcnode# reboot
La session zlogin se termine au cours de la réinitialisation.
phys-schost# zlogin -C zcnode
Pour plus d'informations sur les méthodes pour sortir d'une zone non globale, reportez-vous à la section Sortie d’une zone non globale du manuel Administration d’Oracle Solaris 11.1 : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources.
phys-schost# clzonecluster boot zone-cluster-name
phys-schost# zlogin -C zcnode
Pour plus d'informations sur les méthodes pour sortir d'une zone non globale, reportez-vous à la section Sortie d’une zone non globale du manuel Administration d’Oracle Solaris 11.1 : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources.
L'installation du cluster de zones peut prendre plusieurs minutes.
phys-schost# clzonecluster boot zone-cluster-name
L'utilitaire clsetup ne configure pas automatiquement les groupes IPMP pour les clusters de zones IP exclusives. Vous devez créer un groupe IPMP manuellement avant de créer une ressource de nom d'hôte logique ou d'adresse partagée.
phys-schost# ipadm create-ipmp -i interface sc_ipmp0 phys-schost# ipadm delete-addr interface/name phys-schost# ipadm create-addr -T static -a IPaddress/prefix sc_ipmp0/name
Étapes suivantes
Pour configurer des services de données Oracle Solaris Cluster 3.3 que vous avez installés dans un cluster de zones marquée solaris10, suivez les procédures pour les clusters de zones du manuel applicable de services de données. Reportez-vous à la Oracle Solaris Cluster 3.3 Documentation.
Pour terminer la configuration de Trusted Extensions, passez à la section Configuration d'un cluster de zones pour utiliser Trusted Extensions.
Sinon, ajoutez des systèmes de fichiers ou de périphériques de stockage au cluster de zones. Reportez-vous aux sections suivantes :
Une fois un cluster de zones marquées labeled créé, procédez aux étapes suivantes pour terminer la configuration afin d'utiliser Trusted Extensions.
Effectuez cette étape sur chaque noeud du cluster de zones.
phys-schost# cat /etc/cluster/nodeid N
Assurez-vous que le service SMF a été importé et que tous les services sont en fonctionnement avant de vous connecter.
Le logiciel du cluster affecte automatiquement ces adresses IP lorsqu'il configure un cluster de zones.
Dans la sortie ifconfig -a, localisez l'interface logique clprivnet0 qui appartient au cluster de zones. La valeur d'inet est l'adresse IP qui a été affectée pour prendre en charge l'utilisation de l'interconnexion privée de cluster par le cluster de zones.
zc1# ifconfig -a lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 zone zc1 inet 127.0.0.1 netmask ff000000 net0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
Le nom d'hôte pour l'interconnexion privée, clusternodeN-priv, où N représente l'ID de noeud du cluster global.
172.16.0.22 clusternodeN-priv
Chaque ressource net spécifiée à la commande clzonecluster lors de la création du cluster de zones
Créez de nouvelles entrées pour les adresses IP utilisées par les composants de cluster de zones et assignez un modèle CIPSO à chaque entrée. Ces adresses IP existant dans le fichier /etc/inet/hosts du noeud de cluster de zones sont les suivantes :
Chaque adresse IP privée du noeud de cluster de zones
Toutes les adresses IP cl_privnet du cluster de zones
Chaque adresse IP publique de nom d'hôte logique du cluster de zones
Chaque adresse IP publique à adresse partagée du cluster de zones
phys-schost# tncfg -t cipso tncfg:cipso> add host=ipaddress1 tncfg:cipso> add host=ipaddress2 … tncfg:cipso> exit
Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration d’un autre domaine d’interprétation du manuel Configuration et administration de Trusted Extensions.
Exécutez les commandes suivantes sur chaque noeud du cluster de zones :
phys-schost# ipadm set-prop -p hostmodel=weak ipv4 phys-schost# ipadm set-prop -p hostmodel=weak ipv6
Pour plus d'informations sur la propriété hostmodel, reportez-vous à la section hostmodel (ipv4 ou ipv6) du manuel Manuel de référence des paramètres réglables Oracle Solaris 11.1.
Étapes suivantes
Ajouter des systèmes de fichiers ou de périphériques de stockage au cluster de zones. Reportez-vous aux sections suivantes :
Voir aussi
Si vous souhaitez mettre à jour le logiciel sur un cluster de zones, suivez les procédures du Chapitre 11, Mise à jour du logiciel du manuel Guide d’administration système d’Oracle Solaris Cluster. Ces procédures comportent des instructions spéciales pour les clusters de zones, le cas échéant.
Un système de fichiers ajouté à un cluster de zones et mis en ligne devient utilisable au sein de ce cluster de zones. Pour monter le système de fichiers, configurez-le à l'aide de ressources de cluster telles que SUNW.HAStoragePlus ou SUNW.ScalMountPoint.
Remarque - Pour ajouter un système de fichiers dont l'utilisation est limitée à un seul noeud de cluster de zones, reportez-vous à la section Ajout de systèmes de fichiers locaux à un noeud spécifique de cluster de zones.
Cette section décrit les procédures d'ajout de systèmes de fichiers en vue d'une utilisation par le cluster de zones suivantes :
Ajout d'un système de fichiers local hautement disponible à un cluster de zones
Ajout d'un système de fichiers de cluster à un cluster de zones
Procédez comme suit pour configurer un système de fichiers local hautement disponible sur le cluster global en vue d'une utilisation par un cluster de zones. Le système de fichiers est ajouté au cluster de zones et est configuré avec une ressource HAStoragePlus pour rendre le système de fichiers local hautement disponible.
Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
Assurez-vous que le système de fichiers est créé sur des disques partagés.
phys-schost# clsetup
Le menu principal s'affiche.
Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.
Le menu des tâches du cluster de zones s'affiche.
Le menu Sélectionner un cluster de zones s'affiche.
Le menu Sélection du type de stockage s'affiche.
Le menu Sélection du système de fichiers pour le cluster de zones s'affiche.
Les systèmes de fichiers figurant dans cette liste sont ceux qui sont configurés sur des disques partagés et dont l'accès est octroyé aux noeuds où le cluster de zones est configuré. Vous pouvez également appuyer sur la touche e pour spécifier manuellement toutes les propriétés d'un système de fichiers.
Le menu Sélection du type de montage s'affiche.
Le menu Propriétés du système de fichiers du cluster de zones s'affiche.
Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée.
Les résultats de la modification apportée à votre configuration s'affichent.
phys-schost# clzonecluster show -v zone-cluster-name
Exemple 6-1 Ajout d'un système de fichiers local hautement disponible à un cluster de zones
Cet exemple permet d'ajouter le système de fichiers local /global/oracle/d1 qui servira au cluster de zones sczone.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [logging] cluster-control: [true] …
Étapes suivantes
Configurez le système de fichiers de manière à ce qu'il soit hautement disponible, à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Suivez cette procédure pour ajouter un pool de stockage ZFS à un cluster de zones. Le pool peut être local pour un noeud de cluster de zones unique ou configuré avec HAStoragePlus pour être hautement disponible.
L'utilitaire clsetup détecte et affiche l'ensemble des pools ZFS configurés sur des disques partagés dont l'accès est possible pour les noeuds où le cluster de zones sélectionné est configuré. Après avoir exécuté l'utilitaire clsetup pour ajouter le pool de stockage ZFS d'une étendue de cluster à un cluster de zones existant, vous pouvez utiliser la commande clzonecluster pour modifier la configuration ou pour ajouter un pool de stockage ZFS dans le noeud dans une étendue de noeud.
Avant de commencer
Assurez-vous que le pool ZFS est connecté à des disques partagés liés à tous les noeuds du cluster de zones. Reportez-vous à la section Administration d’Oracle Solaris 11.1 : Systèmes de fichiers ZFS pour consulter les procédures de création d'un pool ZFS.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
phys-schost# clsetup
Le menu principal s'affiche.
Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.
Le menu des tâches du cluster de zones s'affiche.
Le menu Sélectionner un cluster de zones s'affiche.
Le menu Sélection du type de stockage s'affiche.
Le menu Sélection du pool ZFS pour le cluster de zones s'affiche.
Les pools ZFS figurant dans cette liste sont ceux qui sont configurés sur des disques partagés et dont l'accès est octroyé aux noeuds où le cluster de zones est configuré. Vous pouvez également appuyer sur la touche e pour spécifier manuellement les propriétés d'un pool ZFS.
Le menu Propriété de jeu de données du pool ZFS pour le cluster de zones s'affiche. Le pool ZFS sélectionné est affecté à la propriété name.
Le menu Vérifier les systèmes de fichiers/périphériques de stockage pour le cluster de zones s'affiche.
Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add dataset set name=myzpool5 end Configuration change to sczone zone cluster succeeded.
phys-schost# clzonecluster show -v zoneclustername
La ressource HAStoragePlus gère le montage des systèmes de fichiers du pool sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
L'utilitaire clsetup détecte et affiche les systèmes de fichiers disponibles configurés sur les noeuds de cluster dans lesquels le cluster de zones sélectionné est configuré. Lorsque vous exécutez l'utilitaire clsetup pour ajouter un système de fichiers, le système de fichiers est ajouté dans l'étendue de cluster.
Vous pouvez ajouter les types suivants de systèmes de fichiers de cluster à un cluster de zones :
Système de fichiers de cluster UFS - Vous spécifiez le type de système de fichiers dans le fichier /etc/vfstab, à l'aide de l'option de montage global. Ce système de fichiers peut se trouver sur le disque partagé ou sur un périphérique Solaris Volume Manager.
Avant de commencer
Assurez-vous que le système de fichiers de cluster à ajouter au cluster de zones est configuré. Reportez-vous à la section Planification des systèmes de fichiers de cluster et au Chapitre 5, Création d'un système de fichiers de cluster.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
phys-schost# vi /etc/vfstab
phys-schost# clsetup
Le menu principal s'affiche.
Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.
Le menu des tâches du cluster de zones s'affiche.
Le menu Sélectionner un cluster de zones s'affiche.
Le menu Sélection du type de stockage s'affiche.
Le menu Sélection du système de fichiers pour le cluster de zones s'affiche.
Vous pouvez également appuyer sur la touche e pour spécifier manuellement toutes les propriétés d'un système de fichiers.
Le menu Sélection du type de montage s'affiche.
Pour plus d'informations sur la création de systèmes de fichiers loopback, reportez-vous à la section How to Create and Mount an LOFS File System du manuel Oracle Solaris 11.1 Administration: Devices and File Systems.
Le menu Propriétés du système de fichiers du cluster de zones s'affiche.
Saisissez le numéro correspondant à la propriété dir et appuyez sur Entrée. Saisissez ensuite le nom du répertoire de point de montage LOFS dans le champ Nouvelle valeur et appuyez sur Entrée.
Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée. Le menu Vérifier les systèmes de fichiers/périphériques de stockage pour le cluster de zones s'affiche.
Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add fs set dir=/dev/md/ddg/dsk/d9 set special=/dev/md/ddg/dsk/d10 set raw=/dev/md/ddg/rdsk/d10 set type=lofs end Configuration change to sczone zone cluster succeeded.
phys-schost# clzonecluster show -v zone-cluster-name
Étapes suivantes
(Facultatif) Configurez le système de fichiers de cluster que doit gérer une ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers dans le cluster global avant d'exécuter un montage loopback sur les noeuds de cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Configuring an HAStoragePlus Resource for Cluster File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Cette section décrit la procédure d'ajout de systèmes de fichiers qui sont dédiés à un seul noeud de cluster de zones. Pour configurer des systèmes de fichiers en vue d'une utilisation par le cluster de zones entier, reportez-vous à la section Ajout de systèmes de fichiers à un cluster de zones.
Cette section contient les procédures suivantes :
Ajout d'un système de fichiers local à un noeud spécifique de cluster de zones
Ajout d'un pool de stockage ZFS local à un noeud spécifique de cluster de zones
Suivez cette procédure pour ajouter un système de fichiers local à un noeud unique et spécifique d'un cluster de zones spécifique. Le système de fichiers n'est pas géré par le logiciel Oracle Solaris Cluster mais est transmis à la zone Oracle Solaris sous-jacente.
Remarque - Pour ajouter un système de fichiers local hautement disponible à un cluster de zones, effectuez les procédures décrites dans la section Ajout d'un système de fichiers local hautement disponible à un cluster de zones.
Remarque - Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
Utilisez les disques locaux du noeud de cluster global qui héberge le noeud du cluster de zones prévu.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> select node physical-host=baseclusternode clzc:zoneclustername:node> add fs clzc:zoneclustername:node:fs> set dir=mountpoint clzc:zoneclustername:node:fs> set special=disk-device-name clzc:zoneclustername:node:fs> set raw=raw-disk-device-name clzc:zoneclustername:node:fs> set type=FS-type clzc:zoneclustername:node:fs> end clzc:zoneclustername:node> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Spécifie le point de montage du système de fichiers
Indique le nom du périphérique de disque.
Spécifie le nom du périphérique de disque brut
Indique le type de système de fichiers.
Remarque - Activez la journalisation pour les systèmes de fichiers UFS.
phys-schost# clzonecluster show -v zoneclustername
Exemple 6-2 Ajout d'un système de fichiers local à un noeud de cluster de zones
Cet exemple ajoute un système de fichiers UFS local /local/data en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add fs clzc:sczone:node:fs> set dir=/local/data clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1 clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1 clzc:sczone:node:fs> set type=ufs clzc:sczone:node:fs> add options [logging] clzc:sczone:node:fs> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: fs dir: /local/data special: /dev/md/localdg/dsk/d1 raw: /dev/md/localdg/rdsk/d1 type: ufs options: [logging] cluster-control: false ...
Suivez cette procédure pour ajouter un pool de stockage ZFS local à un noeud spécifique de cluster de zones. Le pool ZFS local n'est pas géré par le logiciel Oracle Solaris Cluster mais est transmis à la zone Oracle Solaris sous-jacente.
Remarque - Pour ajouter un pool ZFS local hautement disponible à un cluster de zones, reportez-vous à la section Ajout d'un système de fichiers local hautement disponible à un cluster de zones.
Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
Utilisez les disques locaux du noeud de cluster global qui héberge le noeud du cluster de zones prévu.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> select node physical-host=baseclusternode clzc:zoneclustername:node> add dataset clzc:zoneclustername:node:dataset> set name=localZFSpoolname clzc:zoneclustername:node:dataset> end clzc:zoneclustername:node> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Spécifie le nom du pool ZFS local
phys-schost# clzonecluster show -v zoneclustername
Exemple 6-3 Ajout d'un pool ZFS local à un noeud de cluster de zones
Cet exemple ajoute le pool ZFS local local_pool en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add dataset clzc:sczone:node:dataset> set name=local_pool clzc:sczone:node:dataset> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: dataset name: local_pool
Cette section décrit comment ajouter l'utilisation directe de périphériques de stockage globaux par un cluster de zones ou comment ajouter des périphériques de stockage dédiés à un seul noeud de cluster de zones. Les périphériques globaux sont des périphériques accessibles par plus d'un noeud de cluster en même temps.
Après l'ajout d'un périphérique à un cluster de zones, ce périphérique est visible uniquement au sein de ce cluster de zones.
Cette section contient les procédures suivantes :
Ajout d'un périphérique de stockage global à un cluster de zones
Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones
Suivez cette procédure pour ajouter l'un des types de périphériques de stockage suivants dans une étendue de cluster :
Périphériques de disque brut
Ensembles de disques Solaris Volume Manager (sauf les disques multipropriétaires)
Remarque - Pour ajouter un périphérique de disque brut à un noeud spécifique de cluster de zones, reportez-vous à la section Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones.
L'utilitaire clsetup détecte et affiche les périphériques de stockage disponibles configurés sur les noeuds de cluster dans lesquels le cluster de zones sélectionné est configuré. Après avoir exécuté l'utilitaire clsetup pour ajouter un périphérique de stockage à un cluster de zones existant, utilisez la commande clzonecluster afin de modifier la configuration. Pour obtenir des instructions sur l'utilisation de la commande clzonecluster pour supprimer un périphérique de stockage d'un cluster de zones, reportez-vous à la section Suppression d’un périphérique de stockage d’un cluster de zones du manuel Guide d’administration système d’Oracle Solaris Cluster.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online device
phys-schost# clsetup
Le menu principal s'affiche.
Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.
Le menu des tâches du cluster de zones s'affiche.
Le menu Sélectionner un cluster de zones s'affiche.
Le menu Sélection du type de stockage s'affiche.
Une liste des périphériques disponibles s'affiche.
Vous pouvez également appuyer sur la touche e pour spécifier manuellement les propriétés d'un périphérique de stockage.
Le menu Propriété de périphérique de stockage pour le cluster de zones s'affiche.
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée. Le menu Vérifier les systèmes de fichiers/périphériques de stockage pour le cluster de zones s'affiche.
Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :
>>> Result of Configuration Change to the Zone Cluster(sczone) <<< Adding file systems or storage devices to sczone zone cluster... The zone cluster is being created with the following configuration /usr/cluster/bin/clzonecluster configure sczone add device set match=/dev/md/ddg/*dsk/* end add device set match=/dev/md/shared/1/*dsk/* end Configuration change to sczone zone cluster succeeded. The change will become effective after the zone cluster reboots.
phys-schost# clzonecluster show -v zoneclustername
Suivez cette procédure pour ajouter un périphérique de disque brut à un noeud spécifique de cluster de zones. Ce périphérique n'est alors plus sous le contrôle; d'Oracle Solaris Cluster. Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.
Remarque - Pour ajouter un périphérique de disque brut en vue d'une utilisation par le cluster de zones complet, reportez-vous à la section Ajout d'un périphérique de stockage global à un cluster de zones.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> select node physical-host=baseclusternode clzc:zone-cluster-name:node> add device clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs* clzc:zone-cluster-name:node:device> end clzc:zone-cluster-name:node> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
Spécifie le chemin de périphérique complet pour accéder au périphérique de disque brut
phys-schost# clzonecluster show -v zoneclustername
Exemple 6-4 Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones
L'exemple suivant illustre l'ajout du périphérique de disque brut c1t1d0s0 en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .
phys-schost-1# clzonecluster configure sczone clzc:sczone> select node physical-host=phys-schost-1 clzc:sczone:node> add device clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0 clzc:sczone:node:device> end clzc:sczone:node> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … --- Solaris Resources for phys-schost-1 --- … Resource Name: device name: /dev/*dsk/c1t1d0s0