Ignorer les liens de navigation | |
Quitter l'aperu | |
![]() |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster (Français) |
1. Planification de la configuration de Oracle Solaris Cluster
2. Installation de logiciels sur des nuds de cluster global
3. Établissement d'un cluster global
4. Configuration du logiciel Solaris Volume Manager
5. Installation et configuration de Veritas Volume Manager
6. Création d'un système de fichiers de cluster
7. Création de zones non globales et de clusters de zones
Configuration d'une zone non globale sur un nud de cluster global
Création d'une zone non globale sur un nud de cluster global
Configuration d'un cluster de zones
Présentation de l'utilitaire clzonecluster
Configuration d'un cluster de zones
Préparation de l'utilisation de Trusted Extensions avec des clusters de zones
Création d'un cluster de zones
Ajout de systèmes de fichiers à un cluster de zones
Ajout d'un système de fichiers local à un cluster de zones
Ajout d'un pool de stockage ZFS à un cluster de zones
Ajout d'un système de fichiers partagés QFS à un cluster de zones
Ajout d'un système de fichiers du cluster à un cluster de zones
Ajout d'un système de fichiers Oracle ACFS à un cluster de zones
Ajout de périphériques de stockage à un cluster de zones
Ajout d'un métapériphérique à un cluster de zones (Solaris Volume Manager)
Ajout d'un ensemble de disques à un cluster de zones (Solaris Volume Manager)
Ajout d'un périphérique DID à un cluster de zones
Ajout d'un périphérique de disque brut à un cluster de zones
8. Installation du module Oracle Solaris Cluster sur Sun Management Center
9. Désinstallation du logiciel à partir du cluster
A. Fiches d'information sur l'installation et la configuration de Oracle Solaris Cluster
Cette section contient les procédures permettant de configurer un cluster de zones non globales de conteneurs Solaris, également appelé cluster de zones.
L'utilitaire clzonecluster crée, modifie et supprime un cluster de zones. En d'autres termes, il gère activement un cluster de zones. C'est lui qui, par exemple, initialise ou arrête un cluster de zones. Les messages de progression de l'utilitaire clzonecluster s'affichent sur la console, mais ils ne sont pas enregistrés dans un fichier journal.
Le champ d'action de cet utilitaire est similaire à celui de l'utilitaire zonecfg et concerne les niveaux suivants d'un cluster :
Cluster : affecte le cluster de zones entier.
Nœud : affecte uniquement le nœud de cluster de zones spécifié.
Ressource : peut affecter un nœud spécifique ou le cluster de zones entier, selon le niveau à partir duquel la ressource a été entrée. La plupart des ressources peuvent uniquement être entrées à partir du nœud. Les invites suivantes permettent de connaître le niveau d'entrée de la ressource :
clzc:zoneclustername:resource> cluster-wide setting clzc:zoneclustername:node:resource> node-specific setting
L'utilitaire clzonecluster vous permet de spécifier n'importe quel paramètre Solaris de ressource de zones, ainsi que les paramètres spécifiques aux clusters de zones. Pour plus d'informations sur les paramètres qui peuvent être définis dans un cluster de zones, reportez-vous à la page de manuel clzonecluster(1CL). Vous trouverez des informations supplémentaires au sujet des paramètres Solaris de ressource de zones à la page de manuel zonecfg(1M).
Cette section décrit la procédure de configuration d’un cluster de zones non globales.
Cette procédure permet de préparer le cluster global pour utiliser la fonction Trusted Extensions d'Oracle Solaris avec des clusters de zones et d'activer la fonction Trusted Extensions.
Si vous ne prévoyez pas d'activer la fonction Trusted Extensions, passez à la section Création d'un cluster de zones.
Effectuez cette procédure sur chaque nœud du cluster global.
Avant de commencer
Effectuez les tâches suivantes :
Assurez-vous que le SE Solaris est installé de façon à prendre en charge les logiciels Oracle Solaris Cluster et Trusted Extensions.
Si le logiciel Solaris est déjà installé sur le nœud, vous devez vous assurer que l’installation Solaris respecte les conditions requises pour le logiciel Oracle Solaris Cluster et tout autre logiciel que vous voulez installer sur le cluster. Le logiciel Trusted Extensions n'est pas inclus dans le groupe de logiciels Solaris pour utilisateur final de Solaris.
Reportez-vous à la section Installation du logiciel Solaris pour plus d’informations sur l’installation du logiciel Solaris dans le respect de la configuration requise par le logiciel Oracle Solaris Cluster.
Assurez-vous qu'un service de nommage LDAP est configurée pour être utilisé par Trusted Extensions. Reportez-vous au Chapitre 5, Configuration de LDAP pour Trusted Extensions (tâches) du Guide de configuration d’Oracle Solaris Trusted Extensions.
Vérifiez les directives de la fonction Trusted Extensions dans un cluster de zones. Reportez-vous à la section Directives pour Trusted Extensions dans un cluster de zones.
Les scripts Trusted Extensions zoneshare et zoneunshare prennent en charge la possibilité d'exporter des répertoires de base sur le système. Une configuration Oracle Solaris Cluster ne prend pas en charge cette fonction.
Désactivez cette fonction en remplaçant chaque script par un lien symbolique renvoyant vers l'utilitaire /bin/true. Effectuez cette opération sur chaque nœud du cluster global.
phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true
Reportez-vous à la section Exécution du script txzonemgr du Guide de configuration d’Oracle Solaris Trusted Extensions.
ipaddress:admin_low
Supprimez l'option -failover de toutes les entrées contenant cette option.
Utilisez l'assistant de modèles de sécurité dans la console de gestion Solaris comme décrit dans la section Procédure de construction d’un modèle d’hôte distant du Procédures de l’administrateur Oracle Solaris Trusted Extensions pour effectuer les tâches suivantes :
Créez une entrée pour les adresses IP utilisées par les composants du cluster et assignez un modèle CIPSO à chaque entrée.
Ajoutez des entrées pour chacune des adresses IP suivantes se trouvant dans le fichier /etc/inet/hosts du nœud du cluster global :
Chaque adresse IP privée du nœud du cluster global
Toutes les adresses IP cl_privnet du cluster global
Chaque adresse IP publique de nom d'hôte logique du cluster global
Chaque adresse IP publique partagée du cluster global
Les entrées doivent être similaires à l'entrée ci-dessous :
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
Ajoutez une entrée pour que le modèle par défaut soit considéré comme interne.
0.0.0.0:internal
Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration du domaine d’interprétation du Guide de configuration d’Oracle Solaris Trusted Extensions.
phys-schost# svcadm enable -s svc:/system/labeld:default phys-schost# shutdown -g0 -y -i6
Pour plus d'informations, reportez-vous à la section Activation de Trusted Extensions du Guide de configuration d’Oracle Solaris Trusted Extensions.
phys-schost# svcs labeld STATE STIME FMRI online 17:52:55 svc:/system/labeld:default
Lorsque le service SMF est activé sur tous les nœuds du cluster global, suivez les étapes restantes de cette procédure sur chaque nœud du cluster global.
Le serveur LDAP est utilisé par la zone globale et par les nœuds du cluster de zones.
phys-schost# svcadm enable rlogin
Modifiez les entrées de gestion des comptes en ajoutant une tabulation et en saisissant respectivement les arguments allow_remote ou allow_unlabeled comme indiqué ci-dessous :
other account requisite pam_roles.so.1 Tab allow_remote other account required pam_unix_account.so.1 Tab allow_unlabeled
Assurez-vous que les entrées passwd et group recherchent en premier le critère files.
… passwd: files ldap group: files ldap …
Assurez-vous que les entrées hosts et netmasks recherchent en premier le critère cluster.
… hosts: cluster files ldap … netmasks: cluster files ldap …
Reportez-vous à la section Établissement de la zone globale en tant que client LDAP dans Trusted Extensions du Guide de configuration d’Oracle Solaris Trusted Extensions.
Utilisez l'assistant d'ajout d'utilisateur de la console de gestion Solaris comme décrit dans la section Creating Roles and Users in Trusted Extensions du Solaris Trusted Extensions Installation and Configuration for Solaris 10 11/06 and Solaris 10 8/07 Releases.
Étapes suivantes
Créez le cluster de zones. Reportez-vous à la section Création d'un cluster de zones.
Effectuez cette procédure pour créer un cluster de zones non globales.
Avant de commencer
Créez un cluster global. Voir le Chapitre 3, Établissement d'un cluster global.
Tenez compte des exigences et recommandations relatives à la création d'un cluster de zones. Voir Clusters de zones.
Si le cluster de zones doit utiliser Trusted Extensions, assurez-vous d'avoir configuré et activé Trusted Extensions comme décrit dans la section Préparation de l'utilisation de Trusted Extensions avec des clusters de zones.
Ayez à disposition les informations suivantes :
Le nom unique qui sera assigné au cluster de zones.
Remarque - Pour configurer un cluster de zones lorsque la fonction Trusted Extensions est activée, vous devez utiliser le nom de l'étiquette de sécurité Trusted Extensions que le cluster de zones utilisera comme son propre nom. Créez un cluster de zones séparé pour chaque étiquette de sécurité Trusted Extensions à utiliser.
Le chemin de zone que les nœuds de cluster de zones devront utiliser. Pour plus d'informations, reportez-vous à la description de la propriété zonepath de la section Types de ressources et de propriétés du Guide d’administration système : Gestion des ressources des conteneurs et des zones Oracle Solaris.
Le nom de chaque nœud du cluster global sur lequel un nœud de cluster de zones sera créé.
Le nom d'hôte public de la zone, ou alias d'hôte, qui sera assigné à chaque nœud de cluster de zones.
Le cas échéant, l'adresse IP de réseau public utilisée par chaque nœud de cluster de zones.
Le cas échéant, le nom de l'adaptateur de réseau public utilisé par chaque nœud de cluster de zones pour se connecter au réseau public.
Remarque - Si vous ne configurez pas d'adresse IP pour chaque nœud de cluster de zones, deux événements se produisent :
Cette zone de cluster spécifique ne sera pas en mesure de configurer les périphériques NAS en vue de leur utilisation dans le cluster de zones. Le cluster utilise l'adresse IP du nœud de cluster de zones lors de la communication avec le périphérique NAS, de sorte que l'absence d'adresse IP empêche le cluster de pouvoir séparer les périphériques NAS.
Le logiciel de gestion du cluster activera l'adresse IP de n'importe quel hôte logique sur n'importe quelle carte d'interface réseau.
Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.
Si un nœud n'est pas un nœud de cluster, les modifications apportées ne seront pas propagées avant que ce nœud ne retourne en mode cluster. Par conséquent, vous pouvez créer un cluster de zones même si des nœuds du cluster global ne sont pas en mode cluster. Lorsque ces nœuds retournent en mode cluster, le système procède aux tâches de création sur ces nœuds.
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online
Tenez compte des instructions spéciales suivantes :
Si la fonction Trusted Extensions est activée, l'élément zoneclustername doit porter le même nom qu'une étiquette de sécurité Trusted Extensions du niveau de sécurité à assigner au cluster de zones. Ces étiquettes de sécurité sont configurées dans les fichiers /etc/security/tsol/tnrhtp sur le cluster global.
Par défaut, des zones racine éparses sont créées. Pour créer des zones racine entières, ajoutez l'option -b à la commande create.
La spécification d'une adresse IP et d'une carte d'interface réseau pour chaque nœud de cluster de zones est facultative.
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> create Set the zone path for the entire zone cluster clzc:zoneclustername> set zonepath=/zones/zoneclustername Add the first node and specify node-specific settings clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode1 clzc:zoneclustername:node> set hostname=hostname1 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end Add authorization for the public-network addresses that the zone cluster is allowed to use clzc: zoneclustername> add net clzc: zoneclustername:net> set address=ipaddress1 clzc: zoneclustername:net> end Set the root password globally for all nodes in the zone cluster clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set root_password=encrypted_password clzc:zoneclustername:sysid> end Save the configuration and exit the utility clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/var/tsol/doors clzc:zoneclustername:fs> set special=/var/tsol/doors clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> add options ro clzc:zoneclustername:fs> end clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add node clzc:zoneclustername:node> set physical-host=baseclusternode2 clzc:zoneclustername:node> set hostname=hostname2 clzc:zoneclustername:node> add net clzc:zoneclustername:node:net> set address=public_netaddr clzc:zoneclustername:node:net> set physical=adapter clzc:zoneclustername:node:net> end clzc:zoneclustername:node> end clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add sysid clzc:zoneclustername:sysid> set name_service=LDAP clzc:zoneclustername:sysid> set domain_name=domainorg.domainsuffix clzc:zoneclustername:sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix" clzc:zoneclustername:sysid> set proxy_password="proxypassword" clzc:zoneclustername:sysid> set profile=ldap-server clzc:zoneclustername:sysid> set profile_server=txldapserver_ipaddress clzc:zoneclustername:sysid> end clzc:zoneclustername> commit clzc:zoneclustername> exit
La sous-commande verify vérifie la disponibilité des ressources spécifiées. Si la commande clzonecluster verify s'exécute convenablement, aucune sortie ne doit s'afficher.
phys-schost-1# clzonecluster verify zoneclustername phys-schost-1# clzonecluster status zoneclustername === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured
phys-schost-1# clzonecluster install zoneclustername Waiting for zone install commands to complete on all the nodes of the zone cluster "zoneclustername"...
Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zoneclustername Waiting for zone boot commands to complete on all the nodes of the zone cluster "zoneclustername"...
Effectuez cette étape sur chaque nœud du cluster de zones.
phys-schost# cat /etc/cluster/nodeid N
Assurez-vous que le service SMF a été importé et que tous les services fonctionnent avant de vous connecter.
Le logiciel du cluster assigne automatiquement ces adresses IP lorsqu'il configure un cluster de zones.
Dans la sortie ifconfig -a, localisez l'interface logique clprivnet0 appartenant au cluster de zones. La valeur de la propriété inet correspond à l'adresse IP assignée pour prendre en charge l'utilisation de l'interconnexion privée du cluster par ce cluster de zones.
zc1# ifconfig -a lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1 zone zc1 inet 127.0.0.1 netmask ff000000 bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2 inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:3:ba:19:fa:b7 ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4 inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255 groupname sc_ipmp0 ether 0:14:4f:24:74:d8 ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4 zone zc1 inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255 clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23 ether 0:0:0:0:0:2 clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7 zone zc1 inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
Le nom d'hôte de l'interconnexion privée, à savoir clusternode N-priv, pour lequel la lettre N représente l'ID du nœud du cluster global.
172.16.0.22 clusternodeN-priv
Chaque ressource net spécifiée dans la commande clzonecluster lorsque vous avez créé le cluster de zones.
Utilisez l'assistant de modèles de sécurité dans la console de gestion Solaris comme décrit dans la section Procédure de construction d’un modèle d’hôte distant du Procédures de l’administrateur Oracle Solaris Trusted Extensions pour effectuer les tâches suivantes :
Créer une entrée pour les adresses IP utilisées par les composants du cluster de zones et assignez un modèle CIPSO à chaque entrée.
Ajoutez des entrées pour chacune des adresses IP suivantes se trouvant dans le fichier /etc/inet/hosts du nœud du cluster de zones :
Chaque adresse IP privée du nœud du cluster de zones.
Toutes les adresses IP cl_privnet dans le cluster de zones.
Chaque adresse IP publique de nom d'hôte logique du cluster de zones.
Chaque adresse IP publique partagée du cluster de zones.
Les entrées doivent être similaires à l'entrée ci-dessous :
127.0.0.1:cipso 172.16.4.1:cipso 172.16.4.2:cipso …
Ajoutez une entrée pour que le modèle par défaut soit considéré comme interne.
0.0.0.0:internal
Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration du domaine d’interprétation du Guide de configuration d’Oracle Solaris Trusted Extensions.
phys-schost# init -g0 -y -i6
Exécutez les commandes suivantes sur chaque nœud du cluster de zones :
phys-schost# zlogin zcnode zcnode# svcadm enable svc:/network/dns/client:default zcnode# svcadm enable svc:/network/login:rlogin zcnode# reboot
Exemple 7-2 Fichier de configuration pour créer un cluster de zones
L'exemple suivant illustre le contenu d'un fichier de commandes qui peut être associé à l'utilitaire clzonecluster pour créer un cluster de zones. Le fichier contient la série des commandes clzonecluster qu'il vous faudrait saisir manuellement.
Dans la configuration suivante, le cluster de zones sczone est créé sur le nœud de cluster global phys-schost-1. Le cluster de zones utilise le chemin de zone /zones/sczone et l'adresse IP publique 172.16.2.2. Le premier nœud du cluster de zones est affecté au nom d'hôte zc-host-1 et utilise l'adresse réseau 172.16.0.1 et l'adaptateur bge0. Le second nœud du cluster de zones est créé sur le nœud de cluster global phys-schost-2. Il est affecté au nom d'hôte zc-host-2 et utilise l'adresse réseau 172.16.0.2 et l'adaptateur bge1.
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=bge0 end end add sysid set root_password=encrypted_password end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=bge1 end end commit exit
Exemple 7-3 Création d'un cluster de zones avec un fichier de configuration
L'exemple suivant récapitule les commandes de création du cluster de zones sczone sur le nœud de cluster global phys-schost-1 à l'aide du fichier de configuration sczone-config. Les noms d'hôte des nœuds du cluster de zones sont zc-host-1 et zc-host-2.
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running
Étapes suivantes
Pour ajouter un système de fichiers au cluster de zones, reportez-vous à la section Ajout de systèmes de fichiers à un cluster de zones.
Pour ajouter des périphériques de stockage au cluster de zones, reportez-vous à la section Ajout de périphériques de stockage à un cluster de zones.
Voir aussi
Pour appliquer un patch sur un cluster de zones, suivez les procédures du Chapitre 11, Mise à jour du logiciel ou installation d’un microprogramme Oracle Solaris Cluster du Guide d’administration système d’Oracle Solaris Cluster. Ces procédures comportent des instructions spéciales pour les clusters de zones, le cas échéant.
Cette section décrit les procédures d'ajout de systèmes de fichiers au cluster de zones en vue de leur utilisation par ce dernier.
Un système de fichiers ajouté à un cluster de zones et mis en ligne devient utilisable au sein de ce cluster de zones. Pour monter le système de fichiers, configurez-le à l’aide de ressources de cluster telles que SUNW.HAStoragePlus ou SUNW.ScalMountPoint.
Cette section inclut les procédures suivantes :
Ajout d'un système de fichiers partagés QFS à un cluster de zones
Ajout d'un système de fichiers du cluster à un cluster de zones
Ajout d'un système de fichiers Oracle ACFS à un cluster de zones
En outre, pour savoir comment configurer un pool de stockage ZFS pour qu'il soit hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available du Oracle Solaris Cluster Data Services Planning and Administration Guide.
Effectuez cette procédure pour ajouter un système de fichiers local au cluster global qui sera réservé à l'usage du cluster de zones.
Remarque - Pour ajouter un pool ZFS à un cluster de zones, effectuez les étapes décrites à la section Ajout d'un pool de stockage ZFS à un cluster de zones.
Pour configurer un pool de stockage ZFS pour qu'il soit hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available du Oracle Solaris Cluster Data Services Planning and Administration Guide.
Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.
Assurez-vous que le système de fichiers est créé sur des disques partagés.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=disk-device-name clzc:zoneclustername:fs> set raw=raw-disk-device-name clzc:zoneclustername:fs> set type=FS-type clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Indique le point de montage du système de fichiers.
Indique le nom du périphérique de disque.
Indique le nom du périphérique de disque brut.
Indique le type de système de fichiers.
Remarque - Activez la journalisation pour les systèmes de fichiers UFS et VxFS.
phys-schost# clzonecluster show -v zoneclustername
Exemple 7-4 Ajout d'un système de fichiers local à un cluster de zones
Cet exemple permet d'ajouter le système de fichiers local /global/oracle/d1 qui servira au cluster de zones sczone.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [logging] cluster-control: [true] …
Étapes suivantes
Configurez le système de fichiers de manière à ce qu'il soit hautement disponible, à l’aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers sur le nœud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du Oracle Solaris Cluster Data Services Planning and Administration Guide.
Effectuez cette procédure pour ajouter un pool de stockage ZFS qui sera réservé à l'usage du cluster de zones.
Remarque - Pour savoir comment configurer un pool de stockage ZFS pour qu'il soit hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available du Oracle Solaris Cluster Data Services Planning and Administration Guide.
Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud de la zone globale.
Remarque - Assurez-vous que le pool est connecté à des disques partagés liés à tous les nœuds du cluster de zones.
Pour connaître les étapes de la création d'un pool ZFS, reportez-vous au Guide d’administration Oracle Solaris ZFS.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add dataset clzc:zoneclustername:dataset> set name=ZFSpoolname clzc:zoneclustername:dataset> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost# clzonecluster show -v zoneclustername
Exemple 7-5 Ajout d'un pool de stockage ZFS à un cluster de zones
L'exemple suivant illustre l'ajout du pool de stockage ZFS zpool1 au cluster de zones sczone.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 …
Étapes suivantes
Configurez le pool de stockage ZFS de manière à ce qu'il soit hautement disponible, à l’aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers inclus dans le pool sur le nœud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du Oracle Solaris Cluster Data Services Planning and Administration Guide.
Effectuez cette procédure pour ajouter un système de fichiers partagés Sun QFS qui sera réservé à l'usage du cluster de zones.
Remarque - Pour l'instant, les systèmes de fichiers partagés QFS sont uniquement pris en charge par les clusters configurés avec Oracle RAC (Real Application Clusters) (RAC). Sur les clusters non configurés avec Oracle RAC, vous pouvez utiliser un système de fichiers QFS monoposte, configuré en tant que système de fichiers local à haut niveau de disponibilité.
Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud votant du cluster global.
Suivez les procédures relatives aux systèmes de fichiers partagés, disponibles à la page Configuring Sun QFS File Systems With Sun Cluster.
phys-schost# vi /etc/vfstab
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=mountpoint clzc:zoneclustername:fs> set special=QFSfilesystemname clzc:zoneclustername:fs> set type=samfs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Reportez-vous à l'Étape 7.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=lofs-mountpoint clzc:zoneclustername:fs> set special=QFS-mountpoint clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
phys-schost# clzonecluster show -v zoneclustername
Exemple 7-6 Ajout d'un système de fichiers partagé QFS en tant que point de montage direct à un cluster de zones
L'exemple suivant illustre l'ajout du système de fichiers partagés QFS Data-cz1 au cluster de zones sczone. Sur le cluster global, le point de montage du système de fichiers est /zones/sczone/root/db_qfs/Data1, où /zones/sczone/root/ désigne le chemin racine de la zone. Sur le nœud du cluster de zones, le point de montage du système de fichiers est /db_qfs/Data1.
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data1 clzc:sczone:fs> set special=Data-cz1 clzc:sczone:fs> set type=samfs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: samfs options: [] …
Exemple 7-7 Ajout d'un système de fichiers partagé QFS en tant que système de fichiers loopback à un cluster de zones
L'exemple suivant montre un système de fichiers partagés QFS avec ajout du fichier mountpoint/db_qfs/Data1 au cluster de zones sczone. Le cluster de zones dispose du système de fichiers grâce au mécanisme de montage loopback du fichier mountpoint/db_qfs/Data-cz1.
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # Data-cz1 - /db_qfs/Data1 samfs - no shared,notrace phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/db_qfs/Data-cz1 clzc:sczone:fs> set special=/db_qfs/Data clzc:sczone:fs> set type=lofs clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /db_qfs/Data1 special: Data-cz1 raw: type: lofs options: [] cluster-control: [true] …
Effectuez cette procédure pour ajouter un système de fichiers du cluster à utiliser avec un cluster de zones.
Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud votant du cluster global.
phys-schost# vi /etc/vfstab … /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=zonecluster-lofs-mountpoint clzc:zoneclustername:fs> set special=globalcluster-mountpoint clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Spécifie le point de montage de système de fichiers sur le système LOFS pour que le cluster de zones puisse disposer du système de fichiers du cluster.
Spécifie le point de montage du système de fichiers du cluster d'origine dans le cluster global.
Pour plus d'informations sur la création de systèmes de fichiers loopback, reportez-vous à la section How to Create and Mount an LOFS File System du System Administration Guide: Devices and File Systems.
phys-schost# clzonecluster show -v zoneclustername
Exemple 7-8 Ajout d'un système de fichiers du cluster à un cluster de zones
L'exemple suivant montre comment ajouter un système de fichiers du cluster avec un point de montage /global/apache à un cluster de zones. Le cluster de zones dispose du système de fichiers grâce au mécanisme de montage loopback du point de montage /zone/apache.
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging phys-schost-1# clzonecluster configure zoneclustername clzc:zoneclustername> add fs clzc:zoneclustername:fs> set dir=/zone/apache clzc:zoneclustername:fs> set special=/global/apache clzc:zoneclustername:fs> set type=lofs clzc:zoneclustername:fs> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /zone/apache special: /global/apache raw: type: lofs options: [] cluster-control: true …
Étapes suivantes
Configurez le système de fichiers du cluster pour qu'il soit disponible dans le cluster de zones en utilisant une ressource HAStoragePlus. La ressource HAStoragePlus gère les données en montant le système de fichiers dans le cluster global et en exécutant ensuite un montage loopback sur les nœuds du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Configuring an HAStoragePlus Resource for Cluster File Systems du Oracle Solaris Cluster Data Services Planning and Administration Guide.
Exécutez cette procédure afin d'ajouter un système de fichiers de cluster à utiliser avec un cluster de zones.
Avant de commencer
Assurez-vous que le système de fichiers Oracle ACFS est créé et prêt à l'utilisation par un cluster de zones. Reportez-vous à la section Création d'un système de fichiers Oracle ACFS.
Exécutez cette étape depuis la zone globale d'un nœud.
# clzonecluster configure zonecluster clzc:zonecluster> add fs clzc:zonecluster:fs> set dir=mountpoint clzc:zonecluster:fs> set special=/dev/asm/volume-dev-path clzc:zonecluster:fs> set type=acfs clzc:zonecluster:fs> end clzc:zonecluster> exit
# clzonecluster show zonecluster … Resource Name: fs dir: mountpoint special /dev/asm/volume-dev-path raw: type: acfs options: [] cluster-control: true …
Cette section décrit la procédure d’ajout de périphériques de stockage réservés à l'usage direct d'un cluster de zones. Les périphériques globaux sont des périphériques accessibles par plus d'un nœud de cluster en même temps.
Après l'ajout d'un périphérique à un cluster de zones, ce périphérique est visible uniquement au sein de ce cluster de zones.
Cette section inclut les instructions et procédures suivantes :
Ajout d'un métapériphérique à un cluster de zones (Solaris Volume Manager)
Ajout d'un ensemble de disques à un cluster de zones (Solaris Volume Manager)
Ajout d'un périphérique de disque brut à un cluster de zones
Effectuez cette procédure pour ajouter un métapériphérique d'un ensemble de disques Solaris Volume Manager à un cluster de zones.
Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber
Vous devez ouvrir une session add device distincte pour chaque entrée set match=.
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Indique le chemin de périphérique logique complet pour accéder au métapériphérique.
Indique le chemin de périphérique physique complet pour accéder au métapériphérique.
La modification prend effet après la réinitialisation du cluster de zones.
phys-schost# clzonecluster reboot zoneclustername
Exemple 7-9 Ajout d'un métapériphérique à un cluster de zones
L'exemple suivant illustre l'ajout du métapériphérique d1 contenu dans l'ensemble de disques oraset au cluster de zones sczone. L'ensemble de disques porte le numéro 3.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
Effectuez cette procédure pour ajouter un ensemble de disques Solaris Volume Manager entier à un cluster de zones.
Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber
Vous devez ouvrir une session add device distincte pour chaque entrée set match=.
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Indique le chemin de périphérique logique complet pour accéder à l'ensemble de disques.
Indique le chemin de périphérique physique complet pour accéder au métapériphérique.
La modification prend effet après la réinitialisation du cluster de zones.
phys-schost# clzonecluster reboot zoneclustername
Exemple 7-10 Ajout d'un ensemble de disques à un cluster de zones
L'exemple suivant illustre l'ajout de l'ensemble de disques oraset au cluster de zones sczone. L'ensemble de disques porte le numéro 3.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
Effectuez cette procédure pour ajouter un périphérique DID à un cluster de zones.
Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.
Le périphérique que vous ajoutez doit être connecté à tous les nœuds du cluster de zones.
phys-schost# cldevice list -v
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
phys-schost# clzonecluster configure zoneclustername clzc:zoneclustername> add device clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs* clzc:zoneclustername:device> end clzc:zoneclustername> verify clzc:zoneclustername> commit clzc:zoneclustername> exit
Indique le chemin de périphérique complet pour accéder au périphérique DID.
La modification prend effet après la réinitialisation du cluster de zones.
phys-schost# clzonecluster reboot zoneclustername
Exemple 7-11 Ajout d'un périphérique DID à un cluster de zones
L'exemple suivant illustre l'ajout du périphérique DID d10 au cluster de zones sczone.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
Ce type de périphérique n'est alors plus sous le contrôle de la commande clzonecluster, mais il est traité comme un périphérique local du nœud. Pour plus d'informations sur l'exportation de périphériques de disque brut vers une zone non globale, reportez-vous à la section Importation de périphériques bruts et de périphériques en mode bloc à l’aide de la commande zonecfg du Guide d’administration système : Gestion des ressources des conteneurs et des zones Oracle Solaris.