JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'installation du logiciel Oracle Solaris Cluster     Oracle Solaris Cluster 3.3 3/13 (Français)
search filter icon
search icon

Informations document

Préface

1.  Planification de la configuration d'Oracle Solaris Cluster

2.  Installation de logiciels sur des noeuds de cluster global

3.  Etablissement d'un cluster global

4.  Configuration du logiciel Solaris Volume Manager

5.  Création d'un système de fichiers de cluster

6.  Création de zones et de clusters de zones non globaux

Configuration d'une zone non globale sur un noeud de cluster global

Création d'une zone non globale sur un noeud de cluster global

Configuration d'une ressource HAStoragePlus pour un système de fichiers de cluster utilisé par des zones non globales

Configuration d'un cluster de zones

Présentation de l'utilitaire clzonecluster

Etablissement du cluster de zones

Préparation de l'utilisation de Trusted Extensions avec les clusters de zones

Création d'un cluster de zones

Ajout de systèmes de fichiers à un cluster de zones

Ajout d'un système de fichiers local hautement disponible à un cluster de zones

Ajout d'un pool de stockage ZFS à un cluster de zones

Ajout d'un système de fichiers de cluster à un cluster de zones

Ajout de systèmes de fichiers locaux à un noeud spécifique de cluster de zones

Ajout d'un système de fichiers local à un noeud spécifique de cluster de zones

Ajout d'un pool de stockage ZFS local à un noeud spécifique de cluster de zones

Ajout de périphériques de stockage à un cluster de zones

Ajout d'un périphérique de stockage global à un cluster de zones

Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones

7.  Désinstallation du logiciel à partir du cluster

Index

Configuration d'un cluster de zones

Cette section contient les procédures permettant de configurer un cluster de zones non globales de conteneurs Oracle Solaris, également appelé cluster de zones.

Présentation de l'utilitaire clzonecluster

L'utilitaire clzonecluster crée, modifie et supprime un cluster de zones. En d'autres termes, il gère activement un cluster de zones. C'est lui qui, par exemple, initialise ou arrête un cluster de zones. Les messages de progression de l'utilitaire clzonecluster s'affichent sur la console, mais ils ne sont pas enregistrés dans un fichier journal.

Le champ d'action de cet utilitaire est similaire à celui de l'utilitaire zonecfg et concerne les niveaux suivants :

Etablissement du cluster de zones

Cette section décrit la procédure de configuration d'un cluster de zones non globales.

Préparation de l'utilisation de Trusted Extensions avec les clusters de zones

Cette procédure prépare le cluster global à l'utilisation de la fonction Trusted Extensions du logiciel Oracle Solaris avec les clusters de zones et active cette fonction.

Si vous n'avez pas l'intention d'activer Trusted Extensions, passez à la section Création d'un cluster de zones.

Suivez cette procédure sur chaque noeud du cluster global.

Avant de commencer

Effectuez les tâches suivantes :

  1. Connectez-vous en tant que superutilisateur sur un noeud du cluster global.
  2. Désactivez les scripts zoneshare et zoneunshare de Trusted Extensions.

    Les scripts zoneshare et zoneunshare de Trusted Extensions permettent d'exporter des répertoires personnels sur le système. Une configuration Oracle Solaris Cluster ne prend pas en charge cette fonction.

    Désactivez cette fonction en remplaçant chaque script par un lien symbolique pointant vers l'utilitaire /bin/true. Effectuez cette opération sur chaque noeud de cluster global.

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
  3. Configurez toutes les adresses IP partagées de nom d'hôte logique situées dans le cluster global.

    Reportez-vous à la section Exécution du script txzonemgr du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.

  4. Assurez-vous que la console d'administration est définie dans le fichier /etc/security/tsol/tnrhdb comme admin_low.
    ipaddress:admin_low
  5. Assurez-vous qu'aucun fichier /etc/hostname.interface ne contient l'option -failover dans une entrée.

    Supprimez l'option -failover de toutes les entrées concernées.

  6. Modifiez le fichier /etc/security/tsol/tnrhdb pour autoriser la communication avec les composants du cluster global.

    Effectuez les tâches suivantes par le biais de l'assistant des modèles de sécurité dans Solaris Management Console, comme indiqué à la section Construction d’un modèle d’hôte distant du manuel Procédures de l’administrateur Trusted Extensions.

    • Créez une nouvelle entrée pour les adresses IP utilisées par les composants de cluster et assignez un modèle CIPSO à chaque entrée.

      Ajoutez des entrées pour chacune des adresses IP suivantes, figurant dans le fichier /etc/inet/hosts du noeud de cluster global :

      • Chaque adresse IP privée du noeud de cluster global

      • Toutes les adresses IP cl_privnet du cluster global

      • Chaque adresse IP publique de nom d'hôte logique du cluster global

      • Chaque adresse IP publique partagée du cluster global

      Les entrées doivent ressembler à ce qui suit.

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • Ajoutez une entrée pour rendre interne le modèle par défaut.

      0.0.0.0:internal

    Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration du domaine d’interprétation du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.

  7. Activez le service SMF de Trusted Extensions et réinitialisez le noeud de cluster global.
    phys-schost# svcadm enable -s svc:/system/labeld:default
    phys-schost# shutdown -g0 -y -i6

    Pour plus d'informations, reportez-vous à la section Activation de Trusted Extensions du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.

  8. Vérifiez que le service SMF de Trusted Extensions est activé.
    phys-schost# svcs labeld
    STATE          STIME    FMRI
    online         17:52:55 svc:/system/labeld:default
  9. Répétez les procédures de l'Étape 1 à l'Étape 8 sur chaque noeud restant du cluster global.

    Lorsque toutes les étapes sont terminées sur tous les noeuds de cluster global, effectuez le reste des étapes de cette procédure sur chaque noeud du cluster global.

  10. Ajoutez l'adresse IP du serveur LDAP activé par Trusted Extensions au fichier /etc/inet/hosts sur chaque noeud de cluster global.

    Le serveur LDAP est utilisé par la zone globale et par les noeuds du cluster de zones.

  11. Activez la connexion à distance par le serveur LDAP au noeud de cluster global.
    1. Dans le fichier /etc/default/login, commentez l'entrée CONSOLE.
    2. Activez la connexion à distance.
      phys-schost# svcadm enable rlogin
    3. Modifiez le fichier /etc/pam.conf.

      Modifiez les entrées de gestion des comptes en ajoutant un onglet et en saisissant allow_remote ou allow_unlabeled respectivement, comme illustré ci-dessous.

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  12. Modifiez le fichier /etc/nsswitch.ldap.
    • Assurez-vous que l'ordre de recherche des entrées passwd et group commence par files.

      …
      passwd:      files ldap
      group:       files ldap
      …
    • Assurez-vous que l'ordre de recherche des entrées hosts et netmasks répertorie en premier cluster.

      …
      hosts:       cluster files ldap
      …
      netmasks:    cluster files ldap
      …
  13. Transformez le noeud de cluster global en client LDAP.

    Reportez-vous à la section Établissement de la zone globale en tant que client LDAP dans Trusted Extensions du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.

  14. Ajoutez des utilisateurs Trusted Extensions au fichier /etc/security/tsol/tnzonecfg.

    Utilisez l'assistant d'ajout d'utilisateurs dans Solaris Management Console, comme indiqué à la section Création de rôles et d’utilisateurs dans Trusted Extensions du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.

Étapes suivantes

Création du cluster de zones. Reportez-vous à la section Création d'un cluster de zones.

Création d'un cluster de zones

Effectuez cette procédure pour créer un cluster de zones non globales.

Pour modifier le cluster de zones après son installation, reportez-vous à la section Tâches d’administration d’un cluster de zones du manuel Guide d’administration système d’Oracle Solaris Cluster et à la page de manuel clzonecluster(1CL).

Avant de commencer

  1. Connectez-vous en tant que superutilisateur à un noeud actif appartenant à un cluster global.

    Remarque - Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.


  2. Assurez-vous que le noeud du cluster global s'exécute en mode cluster.

    Si un noeud n'est pas un noeud de cluster, les modifications apportées ne seront pas propagées avant que ce noeud ne retourne en mode cluster. Par conséquent, vous pouvez créer un cluster de zones même si des noeuds du cluster global ne sont pas en mode cluster. Lorsque ces noeuds retournent en mode cluster, le système procède aux tâches de création sur ces noeuds.

    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.

  4. Sélectionnez l'option de menu Zone Cluster.
  5. Sélectionnez l'option de menu Create a Zone Cluster.
  6. Saisissez le nom du cluster de zones que vous souhaitez ajouter.

    Un nom de cluster de zones peut contenir des lettres ASCII (a-z et A-Z), des chiffres, un trait d'union ou un trait de soulignement. La longueur maximale du nom est de 20 caractères.

  7. Choisissez la propriété à modifier.

    Remarque - Les propriétés brand et ip-type sont définies par défaut et ne peuvent pas être modifiées.


    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    zonepath= zone-cluster-node-path
    Spécifie le chemin d'accès au noeud du cluster de zones. /zones/sczone, par exemple.
    enable_priv_net=, value
    Lorsqu'elle est définie sur true, la communication de réseau privé Oracle Solaris Cluster est activée entre les noeuds du cluster de zones. Les noms d'hôtes privés et les adresses IP Oracle Solaris Cluster des noeuds de cluster de zones sont générés automatiquement par le système. La communication de réseau privé n'est pas activée si la valeur est définie sur false. La valeur par défaut est true.
    limitpriv= privilege[,…]
    Spécifie l'ensemble maximal de privilèges que tout processus de cette zone peut obtenir. Pour plus d'informations, reportez-vous à la page de manuel zonecfg(1M).
  8. (Facultatif) Choisissez les propriétés de contrôle de ressource système de zone à modifier.

    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    max-lwps=, value
    Spécifie le nombre maximal de processus légers (LWP) disponibles simultanément pour le cluster de zones.
    max-shm-memory=, value
    Spécifie la quantité maximale de mémoire partagée (en Go) autorisée pour ce cluster de zones.
    max-shm-ids=, value
    Spécifie le nombre maximal d'ID de mémoire partagée autorisé pour ce cluster de zones.
    max-msg-ids=, value
    Spécifie le nombre maximal d'ID de file d'attente de messages autorisé pour ce cluster de zones.
    max-sem-ids=, value
    Spécifie le nombre maximal d'ID de sémaphore autorisé pour ce cluster de zones.
    cpu-shares=, value
    Spécifie le nombre de partages de l'ordonnanceur de partage équitable (FSS) à allouer à ce cluster de zones.
  9. (Facultatif) Choisissez la propriété de contrôle de ressource CPU de zone à modifier.

    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    scope= scope-type
    Spécifie si la propriété ncpus utilisée dans un cluster de zones est dedicated-cpu ou capped-cpu.
    ncpus=, value
    Spécifie la limite du type d'étendue.
    • Si la propriété scope est définie sur dedicated-cpu , la propriété ncpus définit une limite du nombre de CPU qui doivent être assignées à une utilisation exclusive de cette zone. La zone crée un pool et un ensemble de processeurs lorsqu'elle s'initialise. Reportez-vous aux pages de manuel pooladm(1M) et poolcfg(1M) pour plus d'informations sur les pools de ressource.

    • Si la propriété scope est définie sur capped-cpu , la propriété ncpus définit une limite pour la quantité de temps CPU pouvant être utilisé par un cluster de zones. L'unité utilisée traduit vers le pourcentage d'une seule CPU pouvant être utilisée par tous les threads utilisateur dans une zone, exprimé sous forme de fraction (par exemple, 75) ou de nombre mixte (nombre entier et fraction, par exemple, 1,25). Une valeur ncpus égale à 1 correspond à 100% d'une CPU. Reportez-vous aux pages de manuel pooladm(1M), pooladm(1M) et poolcfg(1M) pour plus d'informations sur les pools de ressources.

  10. (Facultatif) Choisissez la propriété de limite de mémoire à modifier.

    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    physical=, value
    Spécifie la limite de la mémoire physique (en Go).
    swap=, value
    Spécifie la limite de la mémoire swap (en Go).
    locked=, value
    Spécifie la limite de la mémoire verrouillée (en Go).
  11. Choisissez un hôte physique dans la liste des hôtes physiques disponibles.

    Vous pouvez sélectionner un noeud/hôte ou tous les noeuds/hôtes physiques disponibles puis configurer un noeud de cluster de zones à la fois.

    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    hostname= hostname
    Spécifie le nom d'hôte du noeud de cluster de zones. Par exemple, zc-host-1 .
    address= public-network-address
    Spécifie l'adresse de réseau public du noeud de cluster de zones sur un cluster de zones IP partagées. Par exemple, 172.1.1.1.
    physical= physical-interface
    Spécifie une interface physique pour le réseau public dans les interfaces disponibles qui sont détectées sur les noeuds physiques (bge0, par exemple).
    defrouter= default-router
    Spécifie le routeur par défaut pour l'adresse de réseau, si votre zone est configurée dans un sous-réseau différent. Chaque zone ou ensemble de zones qui utilise un paramètre defrouter différent doit se trouver sur un sous-réseau différent, par exemple, 192.168.0.1. Reportez-vous à la page de manuel zonecfg(1M) pour plus d'informations sur la propriété defrouter.
  12. Spécifiez les adresses de réseau du cluster de zones.

    Les adresses réseau permettent de configurer un nom d'hôte logique ou des ressources de cluster IP partagées dans le cluster de zones. L'adresse de réseau se trouve dans l'étendue globale du cluster de zones.

  13. A l'écran Review Configuration, appuyez sur la touche Entrée pour continuer et appuyez sur la touche c pour créer le cluster de zones.

    Les résultats de la modification de votre configuration s'affichent, comme ci-dessous :

     >>> Result of the Creation for the Zone Cluster(sczone) <<<
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            create
            set brand=cluster
            set zonepath=/zones/sczone
            set ip-type=shared
            set enable_priv_net=true
            add capped-memory
            set physical=2G
            end
            add node
            set physical-host=phys-schost-1
            set hostname=zc-host-1
            add net
            set address=172.1.1.1
            set physical=net0
            end
            end
            add net
            set address=172.1.1.2
                  end
    
        Zone cluster, zc2 has been created and configured successfully.
    
        Continue to install the zone cluster(yes/no) ?
  14. Saisissez yes pour continuer.

    L'utilitaire clsetup effectue une installation standard d'un cluster de zones et vous ne pouvez pas indiquer d'options.

  15. Lorsque vous avez terminé, quittez l'utilitaire clsetup.
  16. Vérifiez la configuration du cluster de zones.

    La sous-commande verify vérifie la disponibilité des ressources spécifiées. Si la commande clzonecluster verify s'exécute correctement, il n'y a pas de sortie.

    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Configured
              basenode2    zone-2        Offline   Configured
  17. Pour Trusted Extensions, rendez les fichiers de mot de passe accessibles en écriture sur chaque noeud de cluster de zones.

    A partir de la zone globale, lancez l'interface graphique txzonemgr.

    phys-schost# txzonemgr

    Sélectionnez la zone globale, sélectionnez l'option Configurer un service de noms par zone.

  18. Installez le cluster de zones.
    phys-schost-1# clzonecluster install [-c config-profile.xml] zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...

    L'option -c config-profile.xml fournit un profil de configuration pour toutes les zones non globales du cluster de zones. L'utilisation de cette option modifie uniquement le nom d'hôte de la zone qui est unique pour chaque zone du cluster de zones. Tous les profils doivent contenir l'extension .xml.

  19. Initialisez le cluster de zones.
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...
  20. Si vous n'avez pas utilisé l'option -c config-profile.xml lors de l'installation du cluster de zones, exécutez la configuration sysid.

    Suivez les étapes ci-après pour chaque noeud de cluster de zones.


    Remarque - Dans les étapes suivantes, la zone non globale zcnode et zone-cluster-name partagent le même nom.


    1. Annulez la configuration de l'instance Oracle Solaris et réinitialisez la zone.
      phys-schost# zlogin zcnode
      zcnode# sysconfig unconfigure
      zcnode# reboot

      La session zlogin se termine au cours de la réinitialisation.

    2. Emettez la commande zlogin et suivez les instructions des différents écrans interactifs.
      phys-schost# zlogin -C zcnode
    3. Lorsque vous avez terminé, quittez la console de la zone.

      Pour plus d'informations sur les méthodes permettant de quitter une zone non globale, reportez-vous à la section Sortie d’une zone non globale du manuel Guide d’administration système : Conteneurs Oracle Solaris-Gestion des ressources et Oracle Solaris Zones.

    4. Répétez ces opérations pour chaque noeud restant de cluster de zones.
  21. Si vous utilisez Trusted Extensions, terminez les mappages d'adresse IP pour le cluster de zones.

    Effectuez cette étape sur chaque noeud du cluster de zones.

    1. A partir d'un noeud du cluster global, affichez l'ID du noeud.
      phys-schost# cat /etc/cluster/nodeid
      N
    2. Connectez-vous à un noeud de cluster de zones sur le même noeud de cluster global.

      Assurez-vous que le service SMF a été importé et que tous les services sont en fonctionnement avant de vous connecter.

    3. Déterminez les adresses IP utilisées par ce noeud de cluster de zones pour l'interconnexion privée.

      Le logiciel du cluster affecte automatiquement ces adresses IP lorsqu'il configure un cluster de zones.

      Dans la sortie ifconfig -a, localisez l'interface logique clprivnet0 qui appartient au cluster de zones. La valeur d'inet est l'adresse IP qui a été affectée pour prendre en charge l'utilisation de l'interconnexion privée de cluster par le cluster de zones.

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. Ajoutez au fichier /etc/inet/hosts du noeud de cluster de zones les adresses IP de ce noeud.
      • Le nom d'hôte pour l'interconnexion privée, clusternodeN-priv, où N représente l'ID de noeud du cluster global.

        172.16.0.22    clusternodeN-priv 
      • Chaque ressource net spécifiée à la commande clzonecluster lors de la création du cluster de zones

    5. Répétez cette procédure pour les autres noeuds restants du cluster de zones.
  22. Modifiez le fichier /etc/security/tsol/tnrhdb pour autoriser la communication avec les composants du cluster de zones.

    Effectuez les tâches suivantes par le biais de l'assistant des modèles de sécurité dans Solaris Management Console, comme indiqué à la section Construction d’un modèle d’hôte distant du manuel Procédures de l’administrateur Trusted Extensions.

    • Créez une nouvelle entrée pour les adresses IP utilisées par les composants de cluster de zones et assignez un modèle CIPSO à chaque entrée.

      Ajoutez des entrées pour chacune des adresses IP suivantes, figurant dans le fichier /etc/inet/hosts du noeud de cluster de zones :

      • Chaque adresse IP privée du noeud de cluster de zones

      • Toutes les adresses IP cl_privnet du cluster de zones

      • Chaque adresse IP publique de nom d'hôte logique du cluster de zones

      • Chaque adresse IP publique à adresse partagée du cluster de zones

      Les entrées doivent ressembler à ce qui suit.

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • Ajoutez une entrée pour rendre interne le modèle par défaut.

      0.0.0.0:internal

    Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration du domaine d’interprétation du manuel Guide de configuration d’Oracle Solaris Trusted Extensions.

  23. Activez le service DNS et accédez au rlogin des noeuds du cluster de zones.

    Exécutez les commandes suivantes sur chaque noeud du cluster de zones :

    phys-schost# zlogin zcnode
    zcnode# svcadm enable svc:/network/dns/client:default
    zcnode# svcadm enable svc:/network/login:rlogin
    zcnode# reboot

Exemple 6-2 Fichier de configuration pour créer un cluster de zones

L'exemple suivant illustre le contenu d'un fichier de commandes qui peut être associé à l'utilitaire clzonecluster pour créer un cluster de zones. Le fichier contient la série des commandes clzonecluster qu'il vous faudrait saisir manuellement.

Dans la configuration suivante, le cluster de zones sczone est créé sur le noeud de cluster global phys-schost-1. Le cluster de zones utilise /zones/sczone comme chemin d'accès à la zone et l'adresse IP publique 172.16.2.2. Le nom d'hôte zc-host-1 est attribué au premier noeud du cluster de zones et celui-ci utilise l'adresse réseau 172.16.0.1 et l'adaptateur bge0. Le second noeud du cluster de zones est créé sur le noeud de cluster global phys-schost-2. Le nom d'hôte zc-host-2 est attribué au second noeud du cluster de zones et utilise l'adresse réseau 172.16.0.2 et l'adaptateur bge1.

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit

Étapes suivantes

Pour ajouter un système de fichiers au cluster de zones, passez à la section Ajout de systèmes de fichiers à un cluster de zones.

Pour ajouter des périphériques de stockage globaux au cluster de zones, passez à la section Ajout de périphériques de stockage à un cluster de zones.

Voir aussi

Pour appliquer des patchs à un cluster de zones, suivez les procédures décrites au Chapitre 11, Application de patchs au logiciel et au microprogramme d’Oracle Solaris Cluster du manuel Guide d’administration système d’Oracle Solaris Cluster. Ces procédures comportent des instructions spéciales pour les clusters de zones, le cas échéant.

Ajout de systèmes de fichiers à un cluster de zones

Cette section décrit les procédures d'ajout de systèmes de fichiers en vue de leur utilisation par le cluster de zones :

Un système de fichiers ajouté à un cluster de zones et mis en ligne devient utilisable au sein de ce cluster de zones. Pour monter le système de fichiers, configurez-le à l'aide de ressources de cluster telles que SUNW.HAStoragePlus ou SUNW.ScalMountPoint.

Les procédures suivantes sont présentées dans cette section :

Pour configurer un pool de stockage ZFS hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un système de fichiers local hautement disponible à un cluster de zones

Procédez comme suit pour configurer un système de fichiers local hautement disponible sur le cluster global en vue d'une utilisation par le cluster de zones. Le système de fichiers est ajouté au cluster de zones et est configuré avec une ressource HAStoragePlus pour rendre le système de fichiers local hautement disponible.

Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.


  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.


    Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.


  3. Sélectionnez l'option de menu Zone Cluster.

    Le menu des tâches du cluster de zones s'affiche.

  4. Sélectionnez l'option de menu Add File System/Storage Device to a Zone Cluster.

    Le menu Select Zone Cluster s'affiche.

  5. Sélectionnez le cluster de zones dans lequel vous souhaitez ajouter le système de fichiers.

    Le menu Storage Type Selection s'affiche.

  6. Sélectionnez l'option de menu File System.

    Le menu File System Selection for the Zone Cluster s'affiche.

  7. Sélectionnez le système de fichiers que vous souhaitez ajouter au cluster de zones.

    Les systèmes de fichiers figurant dans cette liste sont ceux qui sont configurés sur des disques partagés et dont l'accès est octroyé aux noeuds où le cluster de zones est configuré. Vous pouvez également appuyer sur la touche e pour spécifier manuellement toutes les propriétés d'un système de fichiers.

    Le menu Mount Type Selection s'affiche.

  8. Sélectionnez le type de montage loopback.

    Le menu File System Properties for the Zone Cluster s'affiche.

  9. Modifiez les propriétés que vous êtes autorisé à modifier pour le système de fichiers que vous ajoutez.

    Remarque - Pour les systèmes de fichiers UFS, activez la journalisation.


    Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée.

  10. Appuyez sur la touche c pour enregistrer la modification apportée à la configuration.

    Les résultats de la modification apportée à votre configuration s'affichent.

  11. Lorsque vous avez terminé, quittez l'utilitaire clsetup.
  12. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 6-3 Ajout d'un système de fichiers local hautement disponible à un cluster de zones

Cet exemple permet d'ajouter le système de fichiers local /global/oracle/d1 qui servira au cluster de zones sczone.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

Étapes suivantes

Configurez le système de fichiers de manière à ce qu'il soit hautement disponible, à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un pool de stockage ZFS à un cluster de zones

Suivez cette procédure pour ajouter un pool de stockage ZFS en vue de son utilisation par un cluster de zones. Le pool peut être local pour un noeud de cluster de zones unique ou configuré avec HAStoragePlus pour être hautement disponible.

L'utilitaire clsetup détecte et affiche l'ensemble des pools ZFS configurés sur des disques partagés dont l'accès est possible pour les noeuds où le cluster de zones sélectionné est configuré. Après avoir exécuté l'utilitaire clsetup pour ajouter le pool de stockage ZFS d'une étendue de cluster à un cluster de zones existant, vous pouvez utiliser la commande clzonecluster pour modifier la configuration ou pour ajouter un pool de stockage ZFS dans le noeud dans une étendue de noeud.

Avant de commencer

Assurez-vous que le pool ZFS est connecté à des disques partagés liés à tous les noeuds du cluster de zones. Reportez-vous à la section Guide d’administration Oracle Solaris ZFS pour consulter les procédures de création d'un pool ZFS.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Remarque - Suivez toutes les étapes de cette procédure à partir d'un noeud de la zone globale.


  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.


    Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.


  3. Sélectionnez l'option de menu Zone Cluster.

    Le menu des tâches du cluster de zones s'affiche.

  4. Sélectionnez l'option de menu Add File System/Storage Device to a Zone Cluster.

    Le menu Select Zone Cluster s'affiche.

  5. Sélectionnez le cluster de zones dans lequel vous souhaitez ajouter le pool de stockage ZFS.

    Le menu Storage Type Selection s'affiche.

  6. Sélectionnez l'option de menu ZFS.

    Le menu ZFS Pool Selection pour le cluster de zones s'affiche.

  7. Sélectionnez le pool ZFS que vous souhaitez ajouter au cluster de zones.

    Les pools ZFS figurant dans cette liste sont ceux qui sont configurés sur des disques partagés et dont l'accès est octroyé aux noeuds où le cluster de zones est configuré. Vous pouvez également appuyer sur la touche e pour spécifier manuellement les propriétés d'un pool ZFS.

    Le menu ZFS Pool Dataset Property for the Zone Cluster s'affiche. Le pool ZFS sélectionné est affecté à la propriété name.

  8. Appuyez sur la touche d puis sur Entrée.

    Le menu Review File Systems/Storage Devices for the Zone Cluster s'affiche.

  9. Appuyez sur la touche c pour enregistrer la modification apportée à la configuration.

    Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add dataset
            set name=myzpool5
            end
    
        Configuration change to sczone zone cluster succeeded.
  10. Lorsque vous avez terminé, quittez l'utilitaire clsetup.
  11. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 6-4 Ajout d'un pool de stockage ZFS à un cluster de zones

L'exemple suivant illustre l'ajout du pool de stockage ZFS zpool1 au cluster de zones sczone.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

Étapes suivantes

Configurez le pool de stockage ZFS de sorte qu'il soit hautement disponible à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers du pool sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un système de fichiers de cluster à un cluster de zones

L'utilitaire clsetup détecte et affiche les systèmes de fichiers disponibles configurés sur les noeuds de cluster dans lesquels le cluster de zones sélectionné est configuré. Lorsque vous exécutez l'utilitaire clsetup pour ajouter un système de fichiers, le système de fichiers est ajouté dans l'étendue du cluster.

Vous pouvez ajouter les types suivants de systèmes de fichiers de cluster à un cluster de zones :

Avant de commencer

Assurez-vous que le système de fichiers de cluster à ajouter au cluster de zones est configuré. Reportez-vous à la section Planification des systèmes de fichiers de cluster et au Chapitre 5, Création d'un système de fichiers de cluster.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Remarque - Suivez toutes les étapes de cette procédure à partir d'un noeud votant du cluster global.


  2. Pour chaque noeud du cluster global hébergeant un noeud de cluster de zones, ajoutez une entrée au fichier /etc/vfstab correspondant au système de fichiers que vous souhaitez monter sur le cluster de zones.
    phys-schost# vi /etc/vfstab
    • Pour une entrée UFS, incluez l'option de montage global, comme dans l'exemple suivant :
      /dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs ufs 2 no global, logging
    • Pour une entrée QFS partagée, incluez l'option de montage shared, comme dans l'exemple suivant :
      Data-cz1    -    /db_qfs/Data1 samfs - no shared,notrace
  3. Sur le cluster global, démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.


    Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.


  4. Sélectionnez l'option de menu Zone Cluster.

    Le menu des tâches du cluster de zones s'affiche.

  5. Sélectionnez l'option de menu Add File System/Storage Device to a Zone Cluster.

    Le menu Select Zone Cluster s'affiche.

  6. Sélectionnez le cluster de zones dans lequel vous souhaitez ajouter le système de fichiers.

    Le menu Storage Type Selection s'affiche.

  7. Sélectionnez l'option de menu File System.

    Le menu File System Selection for the Zone Cluster s'affiche.

  8. Sélectionnez un système de fichiers dans la liste.

    Le menu Mount Type Selection s'affiche.

    Vous pouvez également appuyer sur la touche e pour spécifier manuellement toutes les propriétés d'un système de fichiers.


    Remarque - Si vous utilisez un système de fichiers ACFS, appuyez sur la touche a pour sélectionner Discover ACFS puis spécifiez le répertoire ORACLE_HOME.


  9. Sélectionnez le type de montage de système de fichiers loopback pour le cluster de zones.

    Remarque - Si vous avez choisi un système de fichiers ACFS à l'Étape 8, l'utilitaire clsetup ignore cette étape car ACFS prend uniquement en charge le type de montage direct.


    Pour plus d'informations sur la création de systèmes de fichiers loopback, reportez-vous à la section How to Create and Mount an LOFS File System du manuel System Administration Guide: Devices and File Systems.

    Le menu File System Properties for the Zone Cluster s'affiche.

  10. Indiquez le répertoire du point de montage.

    Saisissez le numéro correspondant à la propriété dir et appuyez sur Entrée. Saisissez ensuite le nom du répertoire de point de montage LOFS dans le champ New Value et appuyez sur Entrée.

    Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée. Le menu Review File Systems/Storage Devices for the Zone Cluster s'affiche.

  11. Appuyez sur la touche c pour enregistrer la modification apportée à la configuration.

    Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :

      >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add fs
            set dir=/dev/md/ddg/dsk/d9
            set special=/dev/md/ddg/dsk/d10
            set raw=/dev/md/ddg/rdsk/d10
            set type=lofs
            end
    
        Configuration change to sczone zone cluster succeeded.
  12. Lorsque vous avez terminé, quittez l'utilitaire clsetup.
  13. Assurez-vous que le système LOFS a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername

Étapes suivantes

(Facultatif) Configurez le système de fichiers de cluster que doit gérer une ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers dans le cluster global avant d'exécuter un montage loopback sur les noeuds de cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Configuring an HAStoragePlus Resource for Cluster File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout de systèmes de fichiers locaux à un noeud spécifique de cluster de zones

Cette section décrit la procédure d'ajout de systèmes de fichiers qui sont dédiés à un seul noeud de cluster de zones. Pour configurer des systèmes de fichiers en vue d'une utilisation par le cluster de zones entier, reportez-vous à la section Ajout de systèmes de fichiers à un cluster de zones.

Cette section contient les procédures suivantes :

Ajout d'un système de fichiers local à un noeud spécifique de cluster de zones

Suivez cette procédure pour ajouter un système de fichiers local à un noeud unique et spécifique d'un cluster de zones spécifique. Le système de fichiers n'est pas géré par le logiciel Oracle Solaris Cluster mais est transmis à la zone Oracle Solaris sous-jacente.


Remarque - Pour ajouter un système de fichiers local hautement disponible à un cluster de zones, effectuez les procédures décrites dans la section Ajout d'un système de fichiers local hautement disponible à un cluster de zones.


  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.


  2. Créez le système de fichiers local que vous souhaitez configurer vers un noeud spécifique de cluster de zones.

    Utilisez les disques locaux du noeud de cluster global qui héberge le noeud du cluster de zones prévu.

  3. Ajoutez le système de fichiers à la configuration du cluster de zones dans l'étendue du noeud.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add fs
    clzc:zoneclustername:node:fs> set dir=mountpoint
    clzc:zoneclustername:node:fs> set special=disk-device-name
    clzc:zoneclustername:node:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:node:fs> set type=FS-type
    clzc:zoneclustername:node:fs> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    Spécifie le point de montage du système de fichiers

    special=disk-device-name

    Indique le nom du périphérique de disque.

    raw=raw-disk-device-name

    Spécifie le nom du périphérique de disque brut

    type=FS-type

    Indique le type de système de fichiers.


    Remarque - Activez la journalisation pour les systèmes de fichiers UFS.


  4. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 6-5 Ajout d'un système de fichiers local à un noeud de cluster de zones

Cet exemple ajoute un système de fichiers UFS local /local/data en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add fs
clzc:sczone:node:fs> set dir=/local/data
clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1
clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1
clzc:sczone:node:fs> set type=ufs
clzc:sczone:node:fs> add options [logging]
clzc:sczone:node:fs> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                fs
     dir:                                           /local/data
     special:                                       /dev/md/localdg/dsk/d1
     raw:                                           /dev/md/localdg/rdsk/d1
     type:                                          ufs
     options:                                       [logging]
     cluster-control:                               false ...

Ajout d'un pool de stockage ZFS local à un noeud spécifique de cluster de zones

Suivez cette procédure pour ajouter un pool de stockage ZFS local à un noeud spécifique de cluster de zones. Le pool ZFS local n'est pas géré par le logiciel Oracle Solaris Cluster mais est transmis à la zone Oracle Solaris sous-jacente.


Remarque - Pour ajouter un pool ZFS local hautement disponible à un cluster de zones, reportez-vous à la section Ajout d'un système de fichiers local hautement disponible à un cluster de zones.


Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.


  2. Créez le pool ZFS local que vous souhaitez configurer vers un noeud spécifique de cluster de zones.

    Utilisez les disques locaux du noeud de cluster global qui héberge le noeud du cluster de zones prévu.

  3. Ajoutez le pool à la configuration du cluster de zones dans l'étendue du noeud.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add dataset
    clzc:zoneclustername:node:dataset> set name=localZFSpoolname
    clzc:zoneclustername:node:dataset> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    set name=localZFSpoolname

    Spécifie le nom du pool ZFS local

  4. Vérifiez l'ajout du pool ZFS.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 6-6 Ajout d'un pool ZFS local à un noeud de cluster de zones

Cet exemple ajoute le pool ZFS local local_pool en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add dataset
clzc:sczone:node:dataset> set name=local_pool
clzc:sczone:node:dataset> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                dataset
     name:                                          local_pool

Ajout de périphériques de stockage à un cluster de zones

Cette section décrit comment ajouter l'utilisation directe de périphériques de stockage globaux par un cluster de zones ou comment ajouter des périphériques de stockage dédiés à un seul noeud de cluster de zones. Les périphériques globaux sont des périphériques accessibles par plus d'un noeud de cluster en même temps.

Après l'ajout d'un périphérique à un cluster de zones, ce périphérique est visible uniquement au sein de ce cluster de zones.

Cette section contient les procédures suivantes :

Ajout d'un périphérique de stockage global à un cluster de zones

Suivez cette procédure pour ajouter l'un des types de périphériques de stockage suivants dans une étendue de cluster :


Remarque - Pour ajouter un périphérique de disque brut à un noeud spécifique de cluster de zones, reportez-vous à la section Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones.


L'utilitaire clsetup détecte et affiche les périphériques de stockage disponibles configurés sur les noeuds de cluster dans lesquels le cluster de zones sélectionné est configuré. Après avoir exécuté l'utilitaire clsetup pour ajouter un périphérique de stockage à un cluster de zones existant, utilisez la commande clzonecluster afin de modifier la configuration. Pour obtenir des instructions sur l'utilisation de la commande clzonecluster pour supprimer un périphérique de stockage d'un cluster de zones, reportez-vous à la section Suppression d’un périphérique de stockage d’un cluster de zones du manuel Guide d’administration système d’Oracle Solaris Cluster.

  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.


  2. Identifiez le périphérique à ajouter au cluster de zones et vérifiez qu'il est en ligne.
    phys-schost# cldevicegroup status
  3. Si le périphérique à ajouter n'est pas en ligne, mettez-le en ligne.
    phys-schost# cldevicegroup online device
  4. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.


    Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.


  5. Sélectionnez l'option de menu Zone Cluster.

    Le menu des tâches du cluster de zones s'affiche.

  6. Sélectionnez l'option de menu Add File System/Storage Device to a Zone Cluster.

    Le menu Select Zone Cluster s'affiche.

  7. Sélectionnez le cluster de zones dans lequel vous souhaitez ajouter le périphérique de stockage.

    Le menu Storage Type Selection s'affiche.

  8. Sélectionnez l'option de menu Device.

    Une liste des périphériques disponibles s'affiche.

  9. Choisissez un périphérique de stockage dans la liste.

    Vous pouvez également appuyer sur la touche e pour spécifier manuellement les propriétés d'un périphérique de stockage.

    Le menu Device Property for the Zone Cluster s'affiche.

  10. Ajoutez ou modifiez les propriétés de l'unité de stockage que vous ajoutez.

    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée. Le menu Review File Systems/Storage Devices for the Zone Cluster s'affiche.

  11. Appuyez sur la touche c pour enregistrer la modification apportée à la configuration.

    Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add device
            set match=/dev/md/ddg/*dsk/*
            end
            add device
            set match=/dev/md/shared/1/*dsk/*
            end
    
        Configuration change to sczone zone cluster succeeded.
        The change will become effective after the zone cluster reboots.
  12. Lorsque vous avez terminé, quittez l'utilitaire clsetup.
  13. Vérifiez l'ajout du périphérique.
    phys-schost# clzonecluster show -v zoneclustername

Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones

Suivez cette procédure pour ajouter un périphérique de disque brut à un noeud spécifique de cluster de zones. Ce périphérique n'est alors plus sous le contrôle; d'Oracle Solaris Cluster. Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.


Remarque - Pour ajouter un périphérique de disque brut en vue d'une utilisation par le cluster de zones complet, reportez-vous à la section Ajout d'un périphérique de stockage global à un cluster de zones.


  1. Connectez-vous en tant que superutilisateur à un noeud du cluster global hébergeant le cluster de zones.

    Remarque - Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.


  2. Identifiez le périphérique (cNt XdYsZ) à ajouter au cluster de zones et vérifiez qu'il est en ligne.
  3. Ajoutez le périphérique à la configuration du cluster de zones dans l'étendue du noeud.

    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> select node physical-host=baseclusternode
    clzc:zone-cluster-name:node> add device
    clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs*
    clzc:zone-cluster-name:node:device> end
    clzc:zone-cluster-name:node> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/*dsk/cNt XdYs*

    Spécifie le chemin de périphérique complet pour accéder au périphérique de disque brut

  4. Vérifiez l'ajout du périphérique.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 6-7 Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones

L'exemple suivant illustre l'ajout du périphérique de disque brut c1t1d0s0 en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add device
clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0
clzc:sczone:node:device> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                device
     name:                                          /dev/*dsk/c1t1d0s0