JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'installation du logiciel Oracle Solaris Cluster     Oracle Solaris Cluster 4.0 (Français)
search filter icon
search icon

Informations document

Préface

1.  Planification de la configuration d'Oracle Solaris Cluster

2.  Installation de logiciels sur des noeuds de cluster global

3.  Etablissement d'un cluster global

4.  Configuration du logiciel Solaris Volume Manager

5.  Création d'un système de fichiers de cluster

6.  Création de clusters de zones

Configuration d'un cluster de zones

Présentation de l'utilitaire clzonecluster

Etablissement du cluster de zones

Création d'un cluster de zones

Ajout de systèmes de fichiers à un cluster de zones

Ajout d'un système de fichiers local à un cluster de zones

Ajout d'un pool de stockage ZFS à un cluster de zones

Ajout d'un système de fichiers de cluster à un cluster de zones

Ajout de périphériques de stockage à un cluster de zones

Ajout d'un métapériphérique à un cluster de zones (Solaris Volume Manager)

Ajout d'un ensemble de disques à un cluster de zones (Solaris Volume Manager)

Ajout d'un périphérique DID à un cluster de zones

7.  Désinstallation du logiciel à partir du cluster

Index

Configuration d'un cluster de zones

Cette section contient les procédures permettant de configurer un cluster de zones non globales Oracle Solaris, également appelé cluster de zones. Elle contient les rubriques suivantes :

Présentation de l'utilitaire clzonecluster

L'utilitaire clzonecluster crée, modifie et supprime un cluster de zones. En d'autres termes, il gère activement un cluster de zones. C'est lui qui, par exemple, initialise ou arrête un cluster de zones. Les messages de progression de l'utilitaire clzonecluster s'affichent sur la console, mais ils ne sont pas enregistrés dans un fichier journal.

Le champ d'action de cet utilitaire est similaire à celui de l'utilitaire zonecfg et concerne les niveaux suivants d'un cluster :

Etablissement du cluster de zones

Cette section décrit la procédure de configuration d'un cluster de zones non globales.

Création d'un cluster de zones

Effectuez cette procédure pour créer un cluster de zones non globales.

Avant de commencer

  1. Connectez-vous en tant que superutilisateur à un noeud actif appartenant à un cluster global.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Assurez-vous que le noeud du cluster global s'exécute en mode cluster.

    Si un noeud n'est pas un noeud de cluster, les modifications apportées ne seront pas propagées avant que ce noeud ne retourne en mode cluster. Par conséquent, vous pouvez créer un cluster de zones même si des noeuds du cluster global ne sont pas en mode cluster. Lorsque ces noeuds retournent en mode cluster, le système procède aux tâches de création sur ces noeuds.

    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. Créez le cluster de zones.

    Tenez compte des instructions spéciales suivantes :

    • Par défaut, des zones racine entières sont créées. Pour créer des zones racine entières, ajoutez l'option -b à la commande create.

    • La spécification d'une adresse IP et la carte d'interface réseau pour chaque noeud de cluster de zone est facultatif.

    phys-schost-1# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> create
    
    Set the zone path for the entire zone cluster
    clzc:zone-cluster-name> set zonepath=/zones/zone-cluster-name
    
    Add the first node and specify node-specific settings
    clzc:zone-cluster-name> add node
    clzc:zone-cluster-name:node> set physical-host=base-cluster-node1
    clzc:zone-cluster-name:node> set hostname=hostname1
    clzc:zone-cluster-name:node> add net
    clzc:zone-cluster-name:node:net> set address=public-netaddr
    clzc:zone-cluster-name:node:net> set physical=adapter
    clzc:zone-cluster-name:node:net> end
    clzc:zone-cluster-name:node> end
    
    Add authorization for the public-network addresses that the zone cluster is allowed to use
    clzc: zone-cluster-name> add net
    clzc: zone-cluster-name:net> set address=IP-address1
    clzc: zone-cluster-name:net> end
    
    Save the configuration and exit the utility
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
  4. (Facultatif) Ajoutez un ou plusieurs noeuds supplémentaires au cluster de zones.
    phys-schost-1# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add node
    clzc:zone-cluster-name:node> set physical-host=base-cluster-node2
    clzc:zone-cluster-name:node> set hostname=hostname2
    clzc:zone-cluster-name:node> add net
    clzc:zone-cluster-name:node:net> set address=public-netaddr
    clzc:zone-cluster-name:node:net> set physical=adapter
    clzc:zone-cluster-name:node:net> end
    clzc:zone-cluster-name:node> end
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
  5. Vérifiez la configuration du cluster de zones.

    La sous-commande verify vérifie la disponibilité des ressources spécifiées. Si la commande clzonecluster verify réussit, aucune sortie ne s'affiche.

    phys-schost-1# clzonecluster verify zone-cluster-name
    phys-schost-1# clzonecluster status zone-cluster-name
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1          Offline   Configured
              basenode2    zone-2          Offline   Configured
  6. Installez le cluster de zones.
    phys-schost-1# clzonecluster install options zone-cluster-name
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zone-cluster-name"...

    Si nécessaire, incluez les options suivantes dans la commande clzonecluster install.

    • Pour inclure des informations de configuration système, ajoutez l'option suivante :

      -c config-profile.xml

      L'option -c config-profile.xml fournit un profil de configuration pour toutes les zones non globales du cluster de zones. L'utilisation de cette option modifie uniquement le nom d'hôte de la zone qui est unique pour chaque zone du cluster de zones. Tous les profils doivent contenir l'extension .xml.

    • Si les noeuds de cluster de base du cluster de zones ne sont pas tous installés avec les mêmes packages Oracle Solaris Cluster mais que vous ne souhaitez pas modifier les packages situés sur les noeuds de packages, ajoutez l'option suivante :

      -M manifest.xml

      L'option -M manifest.xml spécifie un programme d'installation automatisée que vous pouvez configurer pour installer les packages requis sur tous les noeuds de cluster de zones. Si vous exécutez la commande clzonecluster install sans l'option -M, l'installation du cluster de zones échoue sur un noeud de base si un package installé sur le noeud de base d'où la commande est émise est manquant.

  7. Initialisez le cluster de zones.
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zone-cluster-name
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zone-cluster-name"...
  8. Si vous n'avez pas défini le profil durant l'installation du cluster de zones, configurez le profil manuellement.

    Sur chaque noeud de cluster de zones, émettez la commande suivante et suivez les instructions des différents écrans interactifs.

    phys-schost-1# zlogin -C zone-cluster-name
  9. Une fois tous les noeuds du cluster de zones modifiés, réinitialisez les noeuds du cluster global pour initialiser les modifications apportées au fichier /etc/inet/hosts du cluster de zones.
    phys-schost# init -g0 -y -i6
  10. Activez le service DNS et accédez au rlogin des noeuds du cluster de zones.

    Exécutez les commandes suivantes sur chaque noeud du cluster de zones :

    phys-schost# zlogin zcnode
    zcnode# svcadm enable svc:/network/dns/client:default
    zcnode# svcadm enable svc:/network/login:rlogin
    zcnode# reboot

Exemple 6-1 Fichier de configuration pour créer un cluster de zones

L'exemple suivant illustre le contenu d'un fichier de commandes qui peut être associé à l'utilitaire clzonecluster pour créer un cluster de zones. Le fichier contient la série des commandes clzonecluster qu'il vous faudrait saisir manuellement.

Dans la configuration suivante, le cluster de zones sczone est créé sur le noeud de cluster global phys-schost-1. Le cluster de zones utilise /zones/sczone comme chemin d'accès de la zone et l'adresse IP publique 172.16.2.2. Le nom d'hôte zc-host-1 est attribué au premier noeud du cluster de zones et celui-ci utilise l'adresse réseau 172.16.0.1 et l'adaptateur net0. Le second noeud du cluster de zones est créé sur le noeud de cluster global phys-schost-2. Le nom d'hôte zc-host-2 est attribué au second cluster de zones et utilise l'adresse réseau 172.16.0.2 et l'adaptateur net1.

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=net0
end
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=net1
end
end
commit
exit

Exemple 6-2 Création d'un cluster de zones à l'aide d'un fichier de configuration

L'exemple suivant récapitule les commandes de création du cluster de zones sczone sur le noeud de cluster global phys-schost-1 à l'aide du fichier de configuration sczone-config. Les noms d'hôtes des noeuds du cluster de zones sont zc-host-1 et zc-host-2.

phys-schost-1# clzonecluster configure -f sczone-config sczone
phys-schost-1# clzonecluster verify sczone
phys-schost-1# clzonecluster install sczone
Waiting for zone install commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster boot sczone
Waiting for zone boot commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster status sczone
=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name        Zone HostName    Status    Zone Status
----      ---------        -------------    ------    -----------
sczone    phys-schost-1    zc-host-1        Offline   Running
          phys-schost-2    zc-host-2        Offline   Running

Étapes suivantes

Pour ajouter l'utilisation d'un système de fichiers au cluster de zones, passez à la section Ajout de systèmes de fichiers à un cluster de zones.

Pour ajouter l'utilisation de périphériques de stockage globaux au cluster de zones, passez à la section Ajout de périphériques de stockage à un cluster de zones.

Voir aussi

Pour mettre à jour un cluster de zones, suivez les procédures décrites au Chapitre 11, Mise à jour du logiciel du manuel Guide d’administration système d’Oracle Solaris Cluster. Ces procédures comportent des instructions spéciales pour les clusters de zones, le cas échéant.

Ajout de systèmes de fichiers à un cluster de zones

Un système de fichiers ajouté à un cluster de zones et mis en ligne devient utilisable au sein de ce cluster de zones. Pour monter le système de fichiers, configurez-le à l'aide de ressources de cluster telles que SUNW.HAStoragePlus ou SUNW.ScalMountPoint.

Cette section décrit les procédures d'ajout de systèmes de fichiers en vue d'une utilisation par le cluster de zones suivantes :

En outre, si vous souhaitez configurer un pool de stockage ZFS hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS File System Highly Available du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un système de fichiers local à un cluster de zones

Effectuez cette procédure pour ajouter un système de fichiers local au cluster global qui sera réservé à l'usage du cluster de zones.


Remarque - Pour ajouter un pool ZFS à un cluster de zones, effectuez les étapes décrites à la section Ajout d'un pool de stockage ZFS à un cluster de zones.

Sinon, pour configurer un pool de stockage ZFS hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS File System Highly Available du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.


  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Sur le cluster global, créez un système de fichiers pour le cluster de zones.

    Assurez-vous que le système de fichiers est créé sur des disques partagés.

  3. Ajoutez le système de fichiers à la configuration du cluster de zones.
    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add fs
    clzc:zone-cluster-name:fs> set dir=mount-point
    clzc:zone-cluster-name:fs> set special=disk-device-name
    clzc:zone-cluster-name:fs> set raw=raw-disk-device-name
    clzc:zone-cluster-name:fs> set type=FS-type
    clzc:zone-cluster-name:fs> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    dir=mount-point

    Indique le point de montage du système de fichiers.

    special=disk-device-name

    Indique le nom du périphérique de disque.

    raw=raw-disk-device-name

    Indique le nom du périphérique de disque brut.

    type=FS-type

    Indique le type de système de fichiers.


    Remarque - Activez la journalisation pour les systèmes de fichiers UFS.


  4. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zone-cluster-name

Exemple 6-3 Ajout d'un système de fichiers local à un cluster de zones

Cet exemple permet d'ajouter le système de fichiers local /global/oracle/d1 qui servira au cluster de zones sczone.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

Étapes suivantes

Configurez le système de fichiers de manière à ce qu'il soit hautement disponible, à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un pool de stockage ZFS à un cluster de zones


Remarque - Pour configurer un pool de stockage ZFS hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS File System Highly Available du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.


  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud de la zone globale.

  2. Créez le pool de stockage ZFS sur le cluster global.

    Assurez-vous que le pool est connecté à des disques partagés liés à tous les noeuds du cluster de zones.

    Reportez-vous à la section Administration d’Oracle Solaris : Systèmes de fichiers ZFS pour consulter les procédures de création d'un pool ZFS.

  3. Ajoutez le pool de stockage ZFS à la configuration du cluster de zones.
    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add dataset
    clzc:zone-cluster-name:dataset> set name=ZFSpoolname
    clzc:zone-cluster-name:dataset> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
  4. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zone-cluster-name

Exemple 6-4 Ajout d'un pool de stockage ZFS à un cluster de zones

L'exemple suivant illustre l'ajout du pool de stockage ZFS zpool1 au cluster de zones sczone.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

Étapes suivantes

Configurez le pool de stockage ZFS de manière à ce qu'il soit hautement disponible à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers du pool sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un système de fichiers de cluster à un cluster de zones

  1. Connectez-vous en tant que superutilisateur à un noeud votant du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud votant du cluster global.

  2. Sur le cluster global, configurez le système de fichiers de cluster à utiliser avec un cluster de zones.
  3. Pour chaque noeud du cluster global hébergeant un noeud de cluster de zones, ajoutez une entrée au fichier /etc/vfstab correspondant au système de fichiers que vous souhaitez monter sur le cluster de zones.
    phys-schost# vi /etc/vfstab
    …
    /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
  4. Configurez le système de fichiers de cluster en tant que système de fichiers loopback pour le cluster de zones.
    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add fs
    clzc:zone-cluster-name:fs> set dir=zone-cluster-lofs-mountpoint
    clzc:zone-cluster-name:fs> set special=global-cluster-mount-point
    clzc:zone-cluster-name:fs> set type=lofs
    clzc:zone-cluster-name:fs> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    dir=zone-cluster-lofs-mount-point

    Spécifie le point de montage de système de fichiers sur le système LOFS pour que le cluster de zones puisse disposer du système de fichiers de cluster.

    special=global-cluster-mount-point

    Spécifie le point de montage du système de fichiers de cluster d'origine dans le cluster global.

    Pour plus d'informations sur la création de systèmes de fichiers loopback, reportez-vous à la section Création et montage d’un système de fichiers LOFS du manuel Administration d’Oracle Solaris : Périphériques et systèmes de fichiers.

  5. Assurez-vous que le système LOFS a été ajouté.
    phys-schost# clzonecluster show -v zone-cluster-name

Exemple 6-5 Ajout d'un système de fichiers de cluster à un cluster de zones

L'exemple suivant montre comment ajouter un système de fichiers de cluster avec un point de montage /global/apache à un cluster de zones. Le cluster de zones dispose du système de fichiers grâce au mécanisme de montage loopback du point de montage /zone/apache.

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging

phys-schost-1# clzonecluster configure zone-cluster-name
clzc:zone-cluster-name> add fs
clzc:zone-cluster-name:fs> set dir=/zone/apache
clzc:zone-cluster-name:fs> set special=/global/apache
clzc:zone-cluster-name:fs> set type=lofs
clzc:zone-cluster-name:fs> end
clzc:zone-cluster-name> verify
clzc:zone-cluster-name> commit
clzc:zone-cluster-name> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /zone/apache
    special:                                   /global/apache
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           true
…

Étapes suivantes

Configurez le système de fichiers de cluster pour qu'il soit disponible dans le cluster de zones en utilisant une ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers dans le cluster global avant d'exécuter un montage loopback sur les noeuds de cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Configuring an HAStoragePlus Resource for Cluster File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout de périphériques de stockage à un cluster de zones

Cette section décrit la procédure d'ajout de périphériques de stockage réservés à l'usage direct d'un cluster de zones. Les périphériques globaux sont des périphériques accessibles par plus d'un noeud de cluster en même temps.


Remarque - Pour importer des périphériques de disque brut (cNtXd YsZ) dans un noeud de cluster de zones, utilisez la commande zonecfg comme vous le feriez normalement pour d'autres marques de zones non globales.

Ce type de périphérique n'est alors plus sous le contrôle de la commande clzonecluster, mais il est traité comme un périphérique local du noeud. Reportez-vous à la section Montage de systèmes de fichiers dans des zones non globales en cours d’exécution du manuel Administration Oracle Solaris : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources pour plus d'informations sur l'importation de périphériques de disque brut dans une zone non globale.


Après l'ajout d'un périphérique à un cluster de zones, ce périphérique est visible uniquement au sein de ce cluster de zones.

Cette section contient les procédures suivantes :

Ajout d'un métapériphérique à un cluster de zones (Solaris Volume Manager)

Effectuez cette procédure pour ajouter un métapériphérique d'un ensemble de disques Solaris Volume Manager à un cluster de zones.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Identifiez l'ensemble de disques qui contient le métapériphérique à ajouter au cluster de zones et vérifiez qu'il est en ligne.
    phys-schost# cldevicegroup status
  3. Si l'ensemble de disques à ajouter n'est pas en ligne, mettez-le en ligne.
    phys-schost# cldevicegroup online diskset
  4. Déterminez le numéro d'ensemble qui correspond à l'ensemble de disques à ajouter.
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/set-number 
  5. Ajoutez le métapériphérique que le cluster de zones pourra utiliser.

    Vous devez ouvrir une session add device distincte pour chaque entrée set match=.


    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/md/diskset/*dsk/metadevice
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/md/shared/setnumber/*dsk/metadevice
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/md/diskset/*dsk/metadevice

    Indique le chemin de périphérique logique complet pour accéder au métapériphérique.

    match=/dev/md/shared/N/*dsk/metadevice

    Indique le chemin de périphérique physique complet pour accéder au métapériphérique.

  6. Réinitialisez le cluster de zones.

    La modification prend effet après la réinitialisation du cluster de zones.

    phys-schost# clzonecluster reboot zone-cluster-name

Exemple 6-6 Ajout d'un métapériphérique à un cluster de zones

L'exemple suivant illustre l'ajout du métapériphérique d1 contenu dans l'ensemble de disques oraset au cluster de zones sczone. L'ensemble de disques porte le numéro 3.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

Ajout d'un ensemble de disques à un cluster de zones (Solaris Volume Manager)

Effectuez cette procédure pour ajouter un ensemble de disques Solaris Volume Manager entier à un cluster de zones.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Identifiez l'ensemble de disques à ajouter au cluster de zones et vérifiez qu'il est en ligne.
    phys-schost# cldevicegroup status
  3. Si l'ensemble de disques à ajouter n'est pas en ligne, mettez-le en ligne.
    phys-schost# cldevicegroup online diskset
  4. Déterminez le numéro d'ensemble qui correspond à l'ensemble de disques à ajouter.
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/set-number 
  5. Ajoutez l'ensemble de disques que le cluster de zones pourra utiliser.

    Vous devez ouvrir une session add device distincte pour chaque entrée set match=.


    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/md/diskset/*dsk/*
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/md/shared/set-number/*dsk/*
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/md/diskset/*dsk/*

    Indique le chemin de périphérique logique complet pour accéder à l'ensemble de disques.

    match=/dev/md/shared/N/*dsk/*

    Indique le chemin de périphérique physique complet pour accéder au métapériphérique.

  6. Réinitialisez le cluster de zones.

    La modification prend effet après la réinitialisation du cluster de zones.

    phys-schost# clzonecluster reboot zone-cluster-name

Exemple 6-7 Ajout d'un ensemble de disques à un cluster de zones

L'exemple suivant illustre l'ajout de l'ensemble de disques oraset au cluster de zones sczone. L'ensemble de disques porte le numéro 3.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/*
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

Ajout d'un périphérique DID à un cluster de zones

Effectuez cette procédure pour ajouter un périphérique DID à un cluster de zones.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Identifiez le périphérique DID à ajouter au cluster de zones.

    Le périphérique que vous ajoutez doit être connecté à tous les noeuds du cluster de zones.

    phys-schost# cldevice list -v
  3. Ajoutez le périphérique DID que le cluster de zones pourra utiliser.

    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> add device
    clzc:zone-cluster-name:device> set match=/dev/did/*dsk/dNs*
    clzc:zone-cluster-name:device> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/did/*dsk/dNs*

    Indique le chemin de périphérique complet pour accéder au périphérique DID.

  4. Réinitialisez le cluster de zones.

    La modification prend effet après la réinitialisation du cluster de zones.

    phys-schost# clzonecluster reboot zone-cluster-name

Exemple 6-8 Ajout d'un périphérique DID à un cluster de zones

L'exemple suivant illustre l'ajout du périphérique DID d10 au cluster de zones sczone.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/did/*dsk/d10s*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone