Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'installation du logiciel Oracle Solaris Cluster Oracle Solaris Cluster 4.0 (Français) |
1. Planification de la configuration d'Oracle Solaris Cluster
2. Installation de logiciels sur des noeuds de cluster global
3. Etablissement d'un cluster global
4. Configuration du logiciel Solaris Volume Manager
5. Création d'un système de fichiers de cluster
6. Création de clusters de zones
Configuration d'un cluster de zones
Présentation de l'utilitaire clzonecluster
Etablissement du cluster de zones
Création d'un cluster de zones
Ajout de systèmes de fichiers à un cluster de zones
Ajout d'un système de fichiers local à un cluster de zones
Ajout d'un pool de stockage ZFS à un cluster de zones
Ajout d'un système de fichiers de cluster à un cluster de zones
Ajout de périphériques de stockage à un cluster de zones
Ajout d'un métapériphérique à un cluster de zones (Solaris Volume Manager)
Ajout d'un ensemble de disques à un cluster de zones (Solaris Volume Manager)
Cette section contient les procédures permettant de configurer un cluster de zones non globales Oracle Solaris, également appelé cluster de zones. Elle contient les rubriques suivantes :
L'utilitaire clzonecluster crée, modifie et supprime un cluster de zones. En d'autres termes, il gère activement un cluster de zones. C'est lui qui, par exemple, initialise ou arrête un cluster de zones. Les messages de progression de l'utilitaire clzonecluster s'affichent sur la console, mais ils ne sont pas enregistrés dans un fichier journal.
Le champ d'action de cet utilitaire est similaire à celui de l'utilitaire zonecfg et concerne les niveaux suivants d'un cluster :
Cluster : affecte le cluster de zones entier.
L'étendue du noeud affecte uniquement le noeud de cluster de zones spécifié.
Ressource : peut affecter un noeud spécifique ou le cluster de zones entier, selon le niveau à partir duquel la ressource a été entrée. La plupart des ressources peuvent uniquement être entrées à partir du noeud. Les invites suivantes permettent de connaître le niveau d'entrée de la ressource :
clzc:zone-cluster-name:resource> cluster-wide setting clzc:zone-cluster-name:node:resource> node-specific setting
Vous pouvez utiliser l'utilitaire clzonecluster pour spécifier des paramètres de ressources de zones Oracle Solaris ainsi que les paramètres spécifiques aux clusters de zones. Pour plus d'informations sur les paramètres que vous pouvez définir dans un cluster de zones, reportez-vous à la page de manuel clzonecluster(1CL). Des informations supplémentaires relatives aux paramètres de ressources de zones Oracle Solaris sont disponibles dans la page de manuel zonecfg(1M).
Cette section décrit la procédure de configuration d'un cluster de zones non globales.
Effectuez cette procédure pour créer un cluster de zones non globales.
Avant de commencer
Créez un cluster global. Voir le Chapitre 3, Etablissement d'un cluster global.
Tenez compte des exigences et recommandations relatives à la création d'un cluster de zones. Reportez-vous à la section Clusters de zones.
Ayez à disposition les informations suivantes :
Le nom unique qui sera assigné au cluster de zones.
Le chemin de zone que les noeuds de cluster de zones devront utiliser. Pour plus d'informations, reportez-vous à la description de la propriété zonepath dans la section Types de ressources et propriétés du manuel Administration Oracle Solaris : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources.
Le nom de chaque noeud du cluster global sur lequel un noeud de cluster de zones sera créé.
Le nom d'hôte public de la zone, ou alias d'hôte, qui sera assigné à chaque noeud de cluster de zones.
Le cas échéant, l'adresse IP de réseau public utilisée par chaque noeud de cluster de zones.
Le cas échéant, le nom de l'adaptateur de réseau public utilisé par chaque noeud de cluster de zones pour se connecter au réseau public.
Remarque - Si vous ne configurez pas une adresse IP pour chaque noeud de cluster de zone, deux choses se produisent :
Cette zone cluster ne sera pas en mesure de configurer les périphériques NAS pour l'utiliser dans le cluster de zone. Le cluster utilise l'adresse IP du noeud de cluster de zone lors de la communication avec le périphérique NAS, de sorte que le fait de ne pas disposer d'adresse IP permet d'éviter la séparation du support de cluster pour les périphériques NAS.
Le logiciel de gestion du cluster s'activera n'importe quel autre l'adresse IP de l'hôte sur n'importe quelle carte d'interface réseau.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
Si un noeud n'est pas un noeud de cluster, les modifications apportées ne seront pas propagées avant que ce noeud ne retourne en mode cluster. Par conséquent, vous pouvez créer un cluster de zones même si des noeuds du cluster global ne sont pas en mode cluster. Lorsque ces noeuds retournent en mode cluster, le système procède aux tâches de création sur ces noeuds.
phys-schost# clnode status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-2 Online phys-schost-1 Online
Tenez compte des instructions spéciales suivantes :
Par défaut, des zones racine entières sont créées. Pour créer des zones racine entières, ajoutez l'option -b à la commande create.
La spécification d'une adresse IP et la carte d'interface réseau pour chaque noeud de cluster de zone est facultatif.
phys-schost-1# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> create Set the zone path for the entire zone cluster clzc:zone-cluster-name> set zonepath=/zones/zone-cluster-name Add the first node and specify node-specific settings clzc:zone-cluster-name> add node clzc:zone-cluster-name:node> set physical-host=base-cluster-node1 clzc:zone-cluster-name:node> set hostname=hostname1 clzc:zone-cluster-name:node> add net clzc:zone-cluster-name:node:net> set address=public-netaddr clzc:zone-cluster-name:node:net> set physical=adapter clzc:zone-cluster-name:node:net> end clzc:zone-cluster-name:node> end Add authorization for the public-network addresses that the zone cluster is allowed to use clzc: zone-cluster-name> add net clzc: zone-cluster-name:net> set address=IP-address1 clzc: zone-cluster-name:net> end Save the configuration and exit the utility clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
phys-schost-1# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> add node clzc:zone-cluster-name:node> set physical-host=base-cluster-node2 clzc:zone-cluster-name:node> set hostname=hostname2 clzc:zone-cluster-name:node> add net clzc:zone-cluster-name:node:net> set address=public-netaddr clzc:zone-cluster-name:node:net> set physical=adapter clzc:zone-cluster-name:node:net> end clzc:zone-cluster-name:node> end clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
La sous-commande verify vérifie la disponibilité des ressources spécifiées. Si la commande clzonecluster verify réussit, aucune sortie ne s'affiche.
phys-schost-1# clzonecluster verify zone-cluster-name phys-schost-1# clzonecluster status zone-cluster-name === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- zone basenode1 zone-1 Offline Configured basenode2 zone-2 Offline Configured
phys-schost-1# clzonecluster install options zone-cluster-name Waiting for zone install commands to complete on all the nodes of the zone cluster "zone-cluster-name"...
Si nécessaire, incluez les options suivantes dans la commande clzonecluster install.
Pour inclure des informations de configuration système, ajoutez l'option suivante :
-c config-profile.xml
L'option -c config-profile.xml fournit un profil de configuration pour toutes les zones non globales du cluster de zones. L'utilisation de cette option modifie uniquement le nom d'hôte de la zone qui est unique pour chaque zone du cluster de zones. Tous les profils doivent contenir l'extension .xml.
Si les noeuds de cluster de base du cluster de zones ne sont pas tous installés avec les mêmes packages Oracle Solaris Cluster mais que vous ne souhaitez pas modifier les packages situés sur les noeuds de packages, ajoutez l'option suivante :
-M manifest.xml
L'option -M manifest.xml spécifie un programme d'installation automatisée que vous pouvez configurer pour installer les packages requis sur tous les noeuds de cluster de zones. Si vous exécutez la commande clzonecluster install sans l'option -M, l'installation du cluster de zones échoue sur un noeud de base si un package installé sur le noeud de base d'où la commande est émise est manquant.
Installation of the zone cluster might take several minutes phys-schost-1# clzonecluster boot zone-cluster-name Waiting for zone boot commands to complete on all the nodes of the zone cluster "zone-cluster-name"...
Sur chaque noeud de cluster de zones, émettez la commande suivante et suivez les instructions des différents écrans interactifs.
phys-schost-1# zlogin -C zone-cluster-name
phys-schost# init -g0 -y -i6
Exécutez les commandes suivantes sur chaque noeud du cluster de zones :
phys-schost# zlogin zcnode zcnode# svcadm enable svc:/network/dns/client:default zcnode# svcadm enable svc:/network/login:rlogin zcnode# reboot
Exemple 6-1 Fichier de configuration pour créer un cluster de zones
L'exemple suivant illustre le contenu d'un fichier de commandes qui peut être associé à l'utilitaire clzonecluster pour créer un cluster de zones. Le fichier contient la série des commandes clzonecluster qu'il vous faudrait saisir manuellement.
Dans la configuration suivante, le cluster de zones sczone est créé sur le noeud de cluster global phys-schost-1. Le cluster de zones utilise /zones/sczone comme chemin d'accès de la zone et l'adresse IP publique 172.16.2.2. Le nom d'hôte zc-host-1 est attribué au premier noeud du cluster de zones et celui-ci utilise l'adresse réseau 172.16.0.1 et l'adaptateur net0. Le second noeud du cluster de zones est créé sur le noeud de cluster global phys-schost-2. Le nom d'hôte zc-host-2 est attribué au second cluster de zones et utilise l'adresse réseau 172.16.0.2 et l'adaptateur net1.
create set zonepath=/zones/sczone add net set address=172.16.2.2 end add node set physical-host=phys-schost-1 set hostname=zc-host-1 add net set address=172.16.0.1 set physical=net0 end end add node set physical-host=phys-schost-2 set hostname=zc-host-2 add net set address=172.16.0.2 set physical=net1 end end commit exit
Exemple 6-2 Création d'un cluster de zones à l'aide d'un fichier de configuration
L'exemple suivant récapitule les commandes de création du cluster de zones sczone sur le noeud de cluster global phys-schost-1 à l'aide du fichier de configuration sczone-config. Les noms d'hôtes des noeuds du cluster de zones sont zc-host-1 et zc-host-2.
phys-schost-1# clzonecluster configure -f sczone-config sczone phys-schost-1# clzonecluster verify sczone phys-schost-1# clzonecluster install sczone Waiting for zone install commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster boot sczone Waiting for zone boot commands to complete on all the nodes of the zone cluster "sczone"... phys-schost-1# clzonecluster status sczone === Zone Clusters === --- Zone Cluster Status --- Name Node Name Zone HostName Status Zone Status ---- --------- ------------- ------ ----------- sczone phys-schost-1 zc-host-1 Offline Running phys-schost-2 zc-host-2 Offline Running
Étapes suivantes
Pour ajouter l'utilisation d'un système de fichiers au cluster de zones, passez à la section Ajout de systèmes de fichiers à un cluster de zones.
Pour ajouter l'utilisation de périphériques de stockage globaux au cluster de zones, passez à la section Ajout de périphériques de stockage à un cluster de zones.
Voir aussi
Pour mettre à jour un cluster de zones, suivez les procédures décrites au Chapitre 11, Mise à jour du logiciel du manuel Guide d’administration système d’Oracle Solaris Cluster. Ces procédures comportent des instructions spéciales pour les clusters de zones, le cas échéant.
Un système de fichiers ajouté à un cluster de zones et mis en ligne devient utilisable au sein de ce cluster de zones. Pour monter le système de fichiers, configurez-le à l'aide de ressources de cluster telles que SUNW.HAStoragePlus ou SUNW.ScalMountPoint.
Cette section décrit les procédures d'ajout de systèmes de fichiers en vue d'une utilisation par le cluster de zones suivantes :
En outre, si vous souhaitez configurer un pool de stockage ZFS hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS File System Highly Available du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Effectuez cette procédure pour ajouter un système de fichiers local au cluster global qui sera réservé à l'usage du cluster de zones.
Remarque - Pour ajouter un pool ZFS à un cluster de zones, effectuez les étapes décrites à la section Ajout d'un pool de stockage ZFS à un cluster de zones.
Sinon, pour configurer un pool de stockage ZFS hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS File System Highly Available du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
Assurez-vous que le système de fichiers est créé sur des disques partagés.
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> add fs clzc:zone-cluster-name:fs> set dir=mount-point clzc:zone-cluster-name:fs> set special=disk-device-name clzc:zone-cluster-name:fs> set raw=raw-disk-device-name clzc:zone-cluster-name:fs> set type=FS-type clzc:zone-cluster-name:fs> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
Indique le point de montage du système de fichiers.
Indique le nom du périphérique de disque.
Indique le nom du périphérique de disque brut.
Indique le type de système de fichiers.
Remarque - Activez la journalisation pour les systèmes de fichiers UFS.
phys-schost# clzonecluster show -v zone-cluster-name
Exemple 6-3 Ajout d'un système de fichiers local à un cluster de zones
Cet exemple permet d'ajouter le système de fichiers local /global/oracle/d1 qui servira au cluster de zones sczone.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add fs clzc:sczone:fs> set dir=/global/oracle/d1 clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1 clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1 clzc:sczone:fs> set type=ufs clzc:sczone:fs> add options [logging] clzc:sczone:fs> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /global/oracle/d1 special: /dev/md/oracle/dsk/d1 raw: /dev/md/oracle/rdsk/d1 type: ufs options: [logging] cluster-control: [true] …
Étapes suivantes
Configurez le système de fichiers de manière à ce qu'il soit hautement disponible, à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Remarque - Pour configurer un pool de stockage ZFS hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS File System Highly Available du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Effectuez toutes les étapes de cette procédure à partir d'un noeud de la zone globale.
Assurez-vous que le pool est connecté à des disques partagés liés à tous les noeuds du cluster de zones.
Reportez-vous à la section Administration d’Oracle Solaris : Systèmes de fichiers ZFS pour consulter les procédures de création d'un pool ZFS.
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> add dataset clzc:zone-cluster-name:dataset> set name=ZFSpoolname clzc:zone-cluster-name:dataset> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
phys-schost# clzonecluster show -v zone-cluster-name
Exemple 6-4 Ajout d'un pool de stockage ZFS à un cluster de zones
L'exemple suivant illustre l'ajout du pool de stockage ZFS zpool1 au cluster de zones sczone.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add dataset clzc:sczone:dataset> set name=zpool1 clzc:sczone:dataset> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: dataset name: zpool1 …
Étapes suivantes
Configurez le pool de stockage ZFS de manière à ce qu'il soit hautement disponible à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers du pool sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Effectuez toutes les étapes de cette procédure à partir d'un noeud votant du cluster global.
phys-schost# vi /etc/vfstab … /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> add fs clzc:zone-cluster-name:fs> set dir=zone-cluster-lofs-mountpoint clzc:zone-cluster-name:fs> set special=global-cluster-mount-point clzc:zone-cluster-name:fs> set type=lofs clzc:zone-cluster-name:fs> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
Spécifie le point de montage de système de fichiers sur le système LOFS pour que le cluster de zones puisse disposer du système de fichiers de cluster.
Spécifie le point de montage du système de fichiers de cluster d'origine dans le cluster global.
Pour plus d'informations sur la création de systèmes de fichiers loopback, reportez-vous à la section Création et montage d’un système de fichiers LOFS du manuel Administration d’Oracle Solaris : Périphériques et systèmes de fichiers.
phys-schost# clzonecluster show -v zone-cluster-name
Exemple 6-5 Ajout d'un système de fichiers de cluster à un cluster de zones
L'exemple suivant montre comment ajouter un système de fichiers de cluster avec un point de montage /global/apache à un cluster de zones. Le cluster de zones dispose du système de fichiers grâce au mécanisme de montage loopback du point de montage /zone/apache.
phys-schost-1# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging phys-schost-1# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> add fs clzc:zone-cluster-name:fs> set dir=/zone/apache clzc:zone-cluster-name:fs> set special=/global/apache clzc:zone-cluster-name:fs> set type=lofs clzc:zone-cluster-name:fs> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit phys-schost-1# clzonecluster show -v sczone … Resource Name: fs dir: /zone/apache special: /global/apache raw: type: lofs options: [] cluster-control: true …
Étapes suivantes
Configurez le système de fichiers de cluster pour qu'il soit disponible dans le cluster de zones en utilisant une ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers dans le cluster global avant d'exécuter un montage loopback sur les noeuds de cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Configuring an HAStoragePlus Resource for Cluster File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.
Cette section décrit la procédure d'ajout de périphériques de stockage réservés à l'usage direct d'un cluster de zones. Les périphériques globaux sont des périphériques accessibles par plus d'un noeud de cluster en même temps.
Remarque - Pour importer des périphériques de disque brut (cNtXd YsZ) dans un noeud de cluster de zones, utilisez la commande zonecfg comme vous le feriez normalement pour d'autres marques de zones non globales.
Ce type de périphérique n'est alors plus sous le contrôle de la commande clzonecluster, mais il est traité comme un périphérique local du noeud. Reportez-vous à la section Montage de systèmes de fichiers dans des zones non globales en cours d’exécution du manuel Administration Oracle Solaris : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources pour plus d'informations sur l'importation de périphériques de disque brut dans une zone non globale.
Après l'ajout d'un périphérique à un cluster de zones, ce périphérique est visible uniquement au sein de ce cluster de zones.
Cette section contient les procédures suivantes :
Ajout d'un métapériphérique à un cluster de zones (Solaris Volume Manager)
Ajout d'un ensemble de disques à un cluster de zones (Solaris Volume Manager)
Effectuez cette procédure pour ajouter un métapériphérique d'un ensemble de disques Solaris Volume Manager à un cluster de zones.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/set-number
Vous devez ouvrir une session add device distincte pour chaque entrée set match=.
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> add device clzc:zone-cluster-name:device> set match=/dev/md/diskset/*dsk/metadevice clzc:zone-cluster-name:device> end clzc:zone-cluster-name> add device clzc:zone-cluster-name:device> set match=/dev/md/shared/setnumber/*dsk/metadevice clzc:zone-cluster-name:device> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
Indique le chemin de périphérique logique complet pour accéder au métapériphérique.
Indique le chemin de périphérique physique complet pour accéder au métapériphérique.
La modification prend effet après la réinitialisation du cluster de zones.
phys-schost# clzonecluster reboot zone-cluster-name
Exemple 6-6 Ajout d'un métapériphérique à un cluster de zones
L'exemple suivant illustre l'ajout du métapériphérique d1 contenu dans l'ensemble de disques oraset au cluster de zones sczone. L'ensemble de disques porte le numéro 3.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1 clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1 clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
Effectuez cette procédure pour ajouter un ensemble de disques Solaris Volume Manager entier à un cluster de zones.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
phys-schost# cldevicegroup status
phys-schost# cldevicegroup online diskset
phys-schost# ls -l /dev/md/diskset lrwxrwxrwx 1 root root 8 Jul 22 23:11 /dev/md/diskset -> shared/set-number
Vous devez ouvrir une session add device distincte pour chaque entrée set match=.
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> add device clzc:zone-cluster-name:device> set match=/dev/md/diskset/*dsk/* clzc:zone-cluster-name:device> end clzc:zone-cluster-name> add device clzc:zone-cluster-name:device> set match=/dev/md/shared/set-number/*dsk/* clzc:zone-cluster-name:device> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
Indique le chemin de périphérique logique complet pour accéder à l'ensemble de disques.
Indique le chemin de périphérique physique complet pour accéder au métapériphérique.
La modification prend effet après la réinitialisation du cluster de zones.
phys-schost# clzonecluster reboot zone-cluster-name
Exemple 6-7 Ajout d'un ensemble de disques à un cluster de zones
L'exemple suivant illustre l'ajout de l'ensemble de disques oraset au cluster de zones sczone. L'ensemble de disques porte le numéro 3.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/md/oraset/*dsk/* clzc:sczone:device> end clzc:sczone> add device clzc:sczone:device> set match=/dev/md/shared/3/*dsk/* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone
Effectuez cette procédure pour ajouter un périphérique DID à un cluster de zones.
Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.
Le périphérique que vous ajoutez doit être connecté à tous les noeuds du cluster de zones.
phys-schost# cldevice list -v
Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.
phys-schost# clzonecluster configure zone-cluster-name clzc:zone-cluster-name> add device clzc:zone-cluster-name:device> set match=/dev/did/*dsk/dNs* clzc:zone-cluster-name:device> end clzc:zone-cluster-name> verify clzc:zone-cluster-name> commit clzc:zone-cluster-name> exit
Indique le chemin de périphérique complet pour accéder au périphérique DID.
La modification prend effet après la réinitialisation du cluster de zones.
phys-schost# clzonecluster reboot zone-cluster-name
Exemple 6-8 Ajout d'un périphérique DID à un cluster de zones
L'exemple suivant illustre l'ajout du périphérique DID d10 au cluster de zones sczone.
phys-schost-1# clzonecluster configure sczone clzc:sczone> add device clzc:sczone:device> set match=/dev/did/*dsk/d10s* clzc:sczone:device> end clzc:sczone> verify clzc:sczone> commit clzc:sczone> exit phys-schost-1# clzonecluster reboot sczone