JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'installation du logiciel Oracle Solaris Cluster     Oracle Solaris Cluster 4.1 (Français)
search filter icon
search icon

Informations document

Préface

1.  Planification de la configuration d'Oracle Solaris Cluster

2.  Installation de logiciels sur des noeuds de cluster global

3.  Etablissement d'un cluster global

4.  Configuration du logiciel Solaris Volume Manager

5.  Création d'un système de fichiers de cluster

6.  Création de clusters de zones

Présentation de la création et de la configuration d'un cluster de zones

Création et configuration d'un cluster de zones

Création d'un cluster de zones

Installation et configuration de Trusted Extensions

Création d'un cluster de zones

Configuration d'un cluster de zones pour utiliser Trusted Extensions

Ajout de systèmes de fichiers à un cluster de zones

Ajout d'un système de fichiers local hautement disponible à un cluster de zones

Ajout d'un pool de stockage ZFS à un cluster de zones

Ajout d'un système de fichiers de cluster à un cluster de zones

Ajout de systèmes de fichiers locaux à un noeud spécifique de cluster de zones

Ajout d'un système de fichiers local à un noeud spécifique de cluster de zones

Ajout d'un pool de stockage ZFS local à un noeud spécifique de cluster de zones

Ajout de périphériques de stockage à un cluster de zones

Ajout d'un périphérique de stockage global à un cluster de zones

Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones

7.  Désinstallation du logiciel à partir du cluster

Index

Création et configuration d'un cluster de zones

Cette section présente les informations et les procédures permettant de créer et de configurer un cluster de zones.

Création d'un cluster de zones

Cette section présente des procédures d'exécution de l'utilitaire clsetup pour créer un cluster de zones, puis ajouter une adresse de réseau, un système de fichiers, un pool de stockage ZFS et un périphérique de stockage dans le nouveau cluster de zones.

Si un noeud n'est pas un noeud de cluster, les modifications apportées ne seront pas propagées avant que ce noeud ne retourne en mode cluster. Par conséquent, vous pouvez créer un cluster de zones même si des noeuds du cluster global ne sont pas en mode cluster. Lorsque ces noeuds retournent en mode cluster, le système procède aux tâches de création sur ces noeuds.

Vous pouvez également exécuter l'utilitaire clzonecluster pour créer et configurer un cluster. Pour plus d'informations, reportez-vous à la page de manuel clzonecluster(1CL).

Cette section contient les procédures suivantes :

Installation et configuration de Trusted Extensions

Cette procédure prépare le cluster global en vue d'utiliser la fonction Trusted Extensions d'Oracle Solaris dans les clusters de zones. Si vous n'avez pas l'intention d'activer Trusted Extensions, passez à la section Création d'un cluster de zones.

Suivez cette procédure sur chaque noeud du cluster global.

Avant de commencer

Effectuez les tâches suivantes :

  1. Prenez le rôle root sur un noeud du cluster global.
  2. Installez et configurez le logiciel Trusted Extensions.

    Suivez les procédures décrites au Chapitre 3, Ajout de la fonction Trusted Extensions à Oracle Solaris (tâches) du manuel Configuration et administration de Trusted Extensions.

  3. Désactivez les scripts zoneshare et zoneunshare de Trusted Extensions.

    Les scripts zoneshare et zoneunshare de Trusted Extensions prennent en charge la possibilité d'exporter des répertoires personnels sur le système. Une configuration Oracle Solaris Cluster ne prend pas en charge cette fonction.

    Désactivez cette fonction en remplaçant chaque script par un lien symbolique pointant vers l'utilitaire /bin/true.

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -s /usr/lib/zones/zoneunshare /bin/true
  4. Configurez tous les noms d'hôtes logiques et adresses IP partagées devant être utilisés dans le cluster de zones.

    Reportez-vous à la section Création d’un système Trusted Extensions par défaut du manuel Configuration et administration de Trusted Extensions.

  5. (Facultatif) Activez la connexion à distance par le serveur LDAP vers le noeud de cluster global.
    1. Dans le fichier /etc/default/login, commentez l'entrée CONSOLE.
    2. Activez la connexion à distance.
      phys-schost# svcadm enable rlogin
    3. Modifiez le fichier /etc/pam.conf.

      Modifiez les entrées de gestion des comptes en ajoutant un onglet et en saisissant allow_remote ou allow_unlabeled respectivement, comme illustré ci-dessous.

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  6. Modifiez le modèle admin_low.
    1. Assignez le modèle admin_low à chaque adresse IP n'appartenant pas à un ordinateur Trusted Extensions que la zone globale utilise.
      # tncfg -t admin_low
      tncfg:admin_low> add host=ip-address1
      tncfg:admin_low> add host=ip-address2
      …
      tncfg:admin_low> exit
    2. Supprimez l'adresse générique 0.0.0.0/32 du modèle tncfg.
      # tncfg -t admin_low remove host=0.0.0.0
  7. Assignez le modèle cipso à chaque adresse IP n'appartenant pas à un ordinateur Trusted Extensions qu'une zone globale utilise.
    # tncfg -t cipso
    tncfg:cipso> add host=ip-address1
    tncfg:cipso> add host=ip-address2
    …
    tncfg:cipso> exit
  8. Répétez les procédures de l'Étape 1 à l'Étape 7 sur chaque noeud restant du cluster global.

    Lorsque toutes les étapes sont terminées sur tous les noeuds de cluster global, effectuez le reste des étapes de cette procédure sur chaque noeud du cluster global.

  9. Sur chaque noeud de cluster global, ajoutez l'adresse IP du serveur LDAP activé par Trusted Extensions dans le fichier /etc/inet/hosts.

    Le serveur LDAP est utilisé par la zone globale et par les noeuds du cluster de zones.

  10. (Facultatif) Transformez le noeud du cluster global en client LDAP.

    Reportez-vous à la section Etablissement de la zone globale en tant que client LDAP dans Trusted Extensions du manuel Configuration et administration de Trusted Extensions.

  11. Ajoutez des utilisateurs Trusted Extensions.

    Reportez-vous à la section Création de rôles et d’utilisateurs dans Trusted Extensions du manuel Configuration et administration de Trusted Extensions.

Étapes suivantes

Création du cluster de zones. Passez à la section Création d'un cluster de zones.

Création d'un cluster de zones

Suivez cette procédure pour créer un cluster de zones.

Pour modifier le cluster de zones après son installation, reportez-vous à la section Tâches d’administration d’un cluster de zones du manuel Guide d’administration système d’Oracle Solaris Cluster et à la page de manuel clzonecluster(1CL).

Avant de commencer


Astuce - Lorsque vous êtes dans l'utilitaire clsetup, vous pouvez appuyer sur la touche < pour revenir à un écran précédent.


  1. Prenez le rôle root sur un noeud de membre actif d'un cluster global.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Assurez-vous que le noeud du cluster global s'exécute en mode cluster.
    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.

  4. Sélectionnez l'option de menu Cluster de zones.
  5. Sélectionnez l'option de menu Créer un cluster de zones.
  6. Saisissez le nom du cluster de zones que vous souhaitez ajouter.

    Un nom de cluster de zones peut contenir des lettres ASCII (a-z et A-Z), des chiffres, un trait d'union ou un trait de soulignement. La longueur maximale du nom est de 20 caractères.

  7. Choisissez la propriété à modifier.

    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    zonepath= zone-cluster-node-path
    Spécifie le chemin d'accès au noeud du cluster de zones. /zones/sczone, par exemple.
    brand= brand-type
    Spécifie les marques de zones solaris, solaris10 ou labeled utilisées dans le cluster de zones.

    Remarque - Pour utiliser Trusted Extensions, vous devez utiliser uniquement la marque labeled. Pour créer un cluster de zones IP exclusives, vous devez uniquement utiliser la marque solaris.


    ip-type=, valeur
    Indique le type d'adresse IP de réseau utilisé par le cluster de zones. Les valeurs ip-type valides sont shared et exclusive.

    Le nombre maximal de clusters de zones IP exclusives est restreint par la propriété cluster num_xip_zoneclusters, que vous pouvez définir lors de l'installation initiale du cluster. Cette valeur est de trois par défaut. Pour plus d'informations, reportez-vous à la page de manuel cluster(1CL).

    enable_priv_net=, valeur
    Lorsqu'elle est définie sur true, la communication de réseau privé Oracle Solaris Cluster est activée entre les noeuds du cluster de zones. Les noms d'hôtes privés et les adresses IP Oracle Solaris Cluster des noeuds de cluster de zones sont générés automatiquement par le système. La communication de réseau privé n'est pas activée si la valeur est définie sur false. La valeur par défaut est true.

    Lorsque la propriété enable_priv_net est définie sur true avec les propriétés suivantes, la communication privée se produit de l'une des manières suivantes :

    • ip-type=shared – La communication entre les noeuds de cluster de zones utilise les réseaux privés du cluster global.

    • ip-type= exclusive (marque solaris uniquement) – La communication entre les noeuds de cluster de zones utilise les ressources privnet spécifiées. Les ressources privnet sont des interfaces réseau virtuel (VNIC) pour les adaptateurs de réseau privé de type Ethernet ou des partitions Infiniband (IB) pour le type IB des adaptateurs de réseau privé. Les VNIC ou les partitions IB sont automatiquement créées par l'assistant sur chaque adaptateur de réseau privé du cluster global et sont utilisées pour configurer un cluster de zones.

    Les VNIC ou les partitions IB générées par l'assistant utilisent les conventions de nommage suivantes :

    Pour le type Ethernet : private-network-interface-name_zone-cluster-name_vnic0.

    Pour le type IB : private-network-interface-name_zone-cluster-name_ibp0.

    Par exemple, les interfaces de réseau privé du cluster global sont net2 et net3 et le nom du cluster de zones est zone1. Si net2 et net3 sont des interfaces de réseau de type Ethernet, les deux VNIC créées pour le cluster de zones ont les mêmes noms net2_zone1_vnic0 et net3_zone1_vnic0.

    Si net2 et net3 sont des interfaces de réseau de type IB, les deux partitions IB créées pour le cluster de zones ont les mêmes noms net2_zone1_ibp0 et net3_zone1_ibp0.

  8. Pour un cluster de zones marquées solaris10, saisissez un mot de passe root de zone.

    Un mot de passe de compte root est requis pour une zone marquée solaris10.

  9. (Facultatif) Choisissez la propriété de contrôle de ressource système de zone à modifier.

    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    max-lwps=, valeur
    Spécifie le nombre maximal de processus légers (LWP) disponibles simultanément pour le cluster de zones.
    max-shm-memory=, valeur
    Spécifie la quantité maximale de mémoire partagée (en Go) autorisée pour ce cluster de zones.
    max-shm-ids=, valeur
    Spécifie le nombre maximal d'ID de mémoire partagée autorisé pour ce cluster de zones.
    max-msg-ids=, valeur
    Spécifie le nombre maximal d'ID de file d'attente de messages autorisé pour ce cluster de zones.
    max-sem-ids=, valeur
    Spécifie le nombre maximal d'ID de sémaphore autorisé pour ce cluster de zones.
    cpu-shares=, valeur
    Spécifie le nombre de partages de l'ordonnanceur de partage équitable (FSS) à allouer à ce cluster de zones.
  10. (Facultatif) Choisissez la propriété de contrôle de ressource CPU de zone à modifier.

    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    scope= scope-type
    Spécifie si la propriété ncpus utilisée dans un cluster de zones est dedicated-cpu ou capped-cpu.
    ncpus=, valeur
    Spécifie la limite du type d'étendue.
    • Si la propriété scope est définie sur dedicated-cpu , la propriété ncpus définit une limite du nombre de CPU qui doivent être assignées à une utilisation exclusive de cette zone. La zone crée un pool et un ensemble de processeurs lorsqu'elle s'initialise. Reportez-vous aux pages de manuel pooladm(1M) et poolcfg(1M) pour plus d'informations sur les pools de ressource.

    • Si la propriété scope est définie sur capped-cpu , la propriété ncpus définit une limite pour la quantité de temps CPU pouvant être utilisé par un cluster de zones. L'unité utilisée traduit vers le pourcentage d'une seule CPU pouvant être utilisée par tous les threads utilisateur dans une zone, exprimé sous forme de fraction (par exemple, 75) ou de nombre mixte (nombre entier et fraction, par exemple, 1,25). Une valeur ncpus égale à 1 correspond à 100% d'une CPU. Reportez-vous aux pages de manuel pooladm(1M), pooladm(1M) et poolcfg(1M) pour plus d'informations sur les pools de ressources.

  11. (Facultatif) Choisissez la propriété de limite de mémoire à modifier.

    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    physical=, valeur
    Spécifie la limite de la mémoire physique (en Go).
    swap=, valeur
    Spécifie la limite de la mémoire swap (en Go).
    locked=, valeur
    Spécifie la limite de la mémoire verrouillée (en Go).
  12. Choisissez un hôte physique dans la liste des hôtes physiques disponibles.

    Vous pouvez sélectionner un noeud/hôte ou tous les noeuds/hôtes physiques disponibles puis configurer un noeud de cluster de zones à la fois.

    Vous pouvez définir les propriétés suivantes :


    Propriété
    Description
    hostname= hostname
    Spécifie le nom d'hôte du noeud de cluster de zones. Par exemple, zc-host-1.
    address= public-network-address
    Spécifie l'adresse de réseau public du noeud de cluster de zones sur un cluster de zones IP partagées. Par exemple, 172.1.1.1.
    physical= physical-interface
    Spécifie une interface physique de réseau pour le réseau public dans les interfaces de réseau disponibles qui sont découvertes sur les noeuds physiques. Par exemple, sc_ipmp0 ou net0.
    defrouter= default-router
    Spécifie le routeur par défaut pour l'adresse de réseau, si votre zone est configurée dans un sous-réseau différent. Chaque zone ou ensemble de zones qui utilise un paramètre defrouter différent doit se trouver sur un sous-réseau différent, par exemple, 192.168.0.1. Reportez-vous à la page de manuel zonecfg(1M) pour plus d'informations sur la propriété defrouter.
  13. Spécifiez les adresses de réseau du cluster de zones.

    Les adresses de réseau permettent de configurer un nom d'hôte logique ou des ressources de cluster IP partagées dans le cluster de zones. L'adresse de réseau se trouve dans l'étendue globale du cluster de zones.

  14. A l'écran Vérification de la configuration, appuyez sur la touche Entrée pour continuer et appuyez sur la touche c pour créer le cluster de zones.

    Les résultats de la modification de votre configuration s'affichent, comme ci-dessous :

     >>> Result of the Creation for the Zone Cluster(sczone) <<<
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            create
            set brand=solaris
            set zonepath=/zones/sczone
            set ip-type=shared
            set enable_priv_net=true
            add capped-memory
            set physical=2G
            end
            add node
            set physical-host=phys-schost-1
            set hostname=zc-host-1
            add net
            set address=172.1.1.1
            set physical=net0
            end
            end
            add net
            set address=172.1.1.2
                  end
    
        Zone cluster, zc2 has been created and configured successfully.
    
        Continue to install the zone cluster(yes/no) ?
  15. Saisissez yes pour continuer.

    L'utilitaire clsetup effectue une installation standard d'un cluster de zones et vous ne pouvez pas indiquer d'options.

  16. Lorsque vous avez terminé, fermez l'utilitaire clsetup.
  17. Vérifiez la configuration du cluster de zones.

    La sous-commande verify vérifie la disponibilité des ressources spécifiées. Si la commande clzonecluster verify réussit, aucune sortie ne s'affiche.

    phys-schost-1# clzonecluster verify zone-cluster-name
    phys-schost-1# clzonecluster status zone-cluster-name
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone       basenode1     zone-1           Offline   Configured
              basenode2     zone-2           Offline   Configured
  18. Pour Trusted Extensions, rendez les fichiers de mot de passe accessibles en écriture sur chaque noeud de cluster de zones.

    A partir de la zone globale, lancez l'interface graphique txzonemgr.

    phys-schost# txzonemgr

    Sélectionnez la zone globale, sélectionnez l'option Configurer un service de noms par zone.

  19. Installez le cluster de zones.
    phys-schost-1# clzonecluster install options zone-cluster-name
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zone-cluster-name"...
    • Pour un cluster de zones marquées solaris ou labeled, les options suivantes sont valides.
      Option
      Description
      -c config-profile.xml
      Inclut les informations de configuration du système. L'option -c config-profile.xml fournit un profil de configuration pour toutes les zones non globales du cluster de zones. L'utilisation de cette option modifie uniquement le nom d'hôte de la zone qui est unique pour chaque zone du cluster de zones. Tous les profils doivent contenir l'extension .xml.
      -M manifest.xml
      Spécifie un manifeste de programme d'installation automatisée que vous configurez pour installer les packages nécessaires sur tous les noeuds de cluster de zones. Utilisez cette option si les noeuds de cluster de base du cluster de zones ne sont pas tous installés avec les mêmes packages Oracle Solaris Cluster mais que vous ne souhaitez pas modifier les packages situés sur les noeuds de base. Si vous exécutez la commande clzonecluster install sans l'option -M, l'installation du cluster de zones échoue sur un noeud de base si un package installé sur le noeud de base d'où la commande est émise est manquant.
    • Pour un cluster de zones marquées solaris10, les options suivantes sont valides.

      Utilisez l'option -a ou -d pour installer le logiciel Geographic Edition, les packages de base et les agents qui sont pris en charge dans le cluster de zones :


      Remarque - Pour obtenir une liste des agents qui sont actuellement pris en charge dans un cluster de zones marquées solaris10, reportez-vous au Oracle Solaris Cluster 4 Compatibility Guide.



      Option
      Description
      Requis – Patchs Oracle Solaris Cluster 145333-15 pour SPARC et 145334–15 pour x86
      Vous devez installez au minimum Oracle Solaris Cluster 3.3 patch 145333–15 pour SPARC ou 145334–15 pour x86 avant d'installer le cluster de zones marquées solaris10. Connectez-vous à My Oracle Support pour extraire le patch. Puis, à partir de la zone globale, utilisez l'option -p pour installer le patch :
      # clzonecluster install-cluster \
      -p patchdir=patchdir[,patchlistfile=filename] \
      [-n phys-schost-1[,…]] \
      [-v] \
      zone-cluster-name

      Pour obtenir des instructions supplémentaires sur l'installation des patchs, connectez-vous à My Oracle Support et recherchez l'ID 1278636.1, Recherche et téléchargement de toute révision d'un patch Solaris.

      -a absolute_path_to_archive zone-cluster-name
      Spécifie le chemin absolu vers une archive d'image à utiliser comme image source.
      # clzonecluster install \
      [-n nodename] \
      -a absolute_path_to_archive \
      zone-cluster-name
      -d dvd-image zone-cluster-name
      Spécifie le chemin d'accès complet au répertoire racine d'une zone non globale solaris10 installée. Le répertoire de DVD du logiciel du cluster doit être accessible à partir de la zone globale du noeud où vous exécutez la commande.
      # clzonecluster install-cluster \
      -d dvd-image \
      zoneclustername

    Pour plus d'informations, reportez-vous à la page de manuel clzonecluster(1CL).

  20. Si vous n'avez pasutilisé l'option -c config-profile.xml lors de l'installation du cluster de zones, configurez sysid .

    Dans le cas contraire, passez à l'Étape 21.


    Remarque - Dans les étapes suivantes, la zone non globale zcnode et zone-cluster-name partagent le même nom.


    • Pour un cluster de zones marquées labeled IP exclusive, procédez aux étapes suivantes.

      Configurez uniquement un noeud de cluster de zones à la fois.

      1. Initialisez la zone non globale d'un noeud de cluster de zones.
        phys-schost# zoneadm -z zcnode boot
      2. Annulez la configuration de l'instance Oracle Solaris et réinitialisez la zone.
        phys-schost# zlogin zcnode
        zcnode# sysconfig unconfigure
        zcnode# reboot

        La session zlogin se termine au cours de la réinitialisation.

      3. Emettez la commande zlogin et suivez les instructions des différents écrans interactifs.
        phys-schost# zlogin -C zcnode
      4. Lorsque vous avez terminé, quittez la console de la zone.

        Pour plus d'informations sur les méthodes pour sortir d'une zone non globale, reportez-vous à la section Sortie d’une zone non globale du manuel Administration d’Oracle Solaris 11.1 : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources.

      5. A partir de la zone globale, arrêtez le noeud de cluster de zones.
        phys-schost# zoneadm -z zcnode halt
      6. Répétez les étapes précédentes pour chaque noeud restant de cluster de zones.
    • Pour un cluster de zones marquées labeled IP partagée, procédez comme suit sur chaque noeud de cluster de zones.
      1. A partir d'un noeud de cluster global, initialisez le cluster de zones.
        phys-schost# clzonecluster boot zone-cluster-name
      2. Annulez la configuration de l'instance Oracle Solaris et réinitialisez la zone.
        phys-schost# zlogin zcnode
        zcnode# sysconfig unconfigure
        zcnode# reboot

        La session zlogin se termine au cours de la réinitialisation.

      3. Emettez la commande zlogin et suivez les instructions des différents écrans interactifs.
        phys-schost# zlogin -C zcnode
      4. Lorsque vous avez terminé, quittez la console de la zone.

        Pour plus d'informations sur les méthodes pour sortir d'une zone non globale, reportez-vous à la section Sortie d’une zone non globale du manuel Administration d’Oracle Solaris 11.1 : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources.

      5. Répétez la procédure de l'Étape b à l'Étape d pour chaque noeud restant de cluster de zones.
    • Pour un cluster de zones marquées solaris ou solaris10, procédez comme suit sur chaque noeud de cluster de zones.
      1. A partir d'un noeud de cluster global, initialisez le cluster de zones.
        phys-schost# clzonecluster boot zone-cluster-name
      2. Emettez la commande zlogin et suivez les instructions des différents écrans interactifs.
        phys-schost# zlogin -C zcnode
      3. Lorsque vous avez terminé, quittez la console de la zone.

        Pour plus d'informations sur les méthodes pour sortir d'une zone non globale, reportez-vous à la section Sortie d’une zone non globale du manuel Administration d’Oracle Solaris 11.1 : Oracle Solaris Zones, Oracle Solaris 10 Zones et gestion des ressources.

      4. Répétez la procédure de l'Étape b à l'Étape c pour chaque noeud restant de cluster de zones.
  21. Initialisez le cluster de zones.

    L'installation du cluster de zones peut prendre plusieurs minutes.

    phys-schost# clzonecluster boot zone-cluster-name
  22. (Clusters de zones IP exclusives) Configurez manuellement un groupe IPMP.

    L'utilitaire clsetup ne configure pas automatiquement les groupes IPMP pour les clusters de zones IP exclusives. Vous devez créer un groupe IPMP manuellement avant de créer une ressource de nom d'hôte logique ou d'adresse partagée.

    phys-schost# ipadm create-ipmp -i interface sc_ipmp0
    phys-schost# ipadm delete-addr interface/name
    phys-schost# ipadm create-addr -T static -a IPaddress/prefix sc_ipmp0/name

Étapes suivantes

Pour configurer des services de données Oracle Solaris Cluster 3.3 que vous avez installés dans un cluster de zones marquée solaris10, suivez les procédures pour les clusters de zones du manuel applicable de services de données. Reportez-vous à la Oracle Solaris Cluster 3.3 Documentation.

Pour terminer la configuration de Trusted Extensions, passez à la section Configuration d'un cluster de zones pour utiliser Trusted Extensions.

Sinon, ajoutez des systèmes de fichiers ou de périphériques de stockage au cluster de zones. Reportez-vous aux sections suivantes :

Configuration d'un cluster de zones pour utiliser Trusted Extensions

Une fois un cluster de zones marquées labeled créé, procédez aux étapes suivantes pour terminer la configuration afin d'utiliser Trusted Extensions.

  1. Terminez les mappages d'adresse IP du cluster de zones.

    Effectuez cette étape sur chaque noeud du cluster de zones.

    1. A partir d'un noeud du cluster global, affichez l'ID du noeud.
      phys-schost# cat /etc/cluster/nodeid
      N
    2. Connectez-vous à un noeud de cluster de zones sur le même noeud de cluster global.

      Assurez-vous que le service SMF a été importé et que tous les services sont en fonctionnement avant de vous connecter.

    3. Déterminez les adresses IP utilisées par ce noeud de cluster de zones pour l'interconnexion privée.

      Le logiciel du cluster affecte automatiquement ces adresses IP lorsqu'il configure un cluster de zones.

      Dans la sortie ifconfig -a, localisez l'interface logique clprivnet0 qui appartient au cluster de zones. La valeur d'inet est l'adresse IP qui a été affectée pour prendre en charge l'utilisation de l'interconnexion privée de cluster par le cluster de zones.

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      net0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. Ajoutez au fichier /etc/inet/hosts du noeud de cluster de zones les adresses suivantes de ce noeud.
      • Le nom d'hôte pour l'interconnexion privée, clusternodeN-priv, où N représente l'ID de noeud du cluster global.

        172.16.0.22    clusternodeN-priv 
      • Chaque ressource net spécifiée à la commande clzonecluster lors de la création du cluster de zones

    5. Répétez cette procédure pour les autres noeuds restants du cluster de zones.
  2. Autorisez la communication avec les composants du cluster de zones.

    Créez de nouvelles entrées pour les adresses IP utilisées par les composants de cluster de zones et assignez un modèle CIPSO à chaque entrée. Ces adresses IP existant dans le fichier /etc/inet/hosts du noeud de cluster de zones sont les suivantes :

    • Chaque adresse IP privée du noeud de cluster de zones

    • Toutes les adresses IP cl_privnet du cluster de zones

    • Chaque adresse IP publique de nom d'hôte logique du cluster de zones

    • Chaque adresse IP publique à adresse partagée du cluster de zones

    phys-schost# tncfg -t cipso
    tncfg:cipso> add host=ipaddress1
    tncfg:cipso> add host=ipaddress2
    …
    tncfg:cipso> exit

    Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration d’un autre domaine d’interprétation du manuel Configuration et administration de Trusted Extensions.

  3. Définissez le multihébergement strict IP sur weak.

    Exécutez les commandes suivantes sur chaque noeud du cluster de zones :

    phys-schost# ipadm set-prop -p hostmodel=weak ipv4
    phys-schost# ipadm set-prop -p hostmodel=weak ipv6

    Pour plus d'informations sur la propriété hostmodel, reportez-vous à la section hostmodel (ipv4 ou ipv6) du manuel Manuel de référence des paramètres réglables Oracle Solaris 11.1.

Étapes suivantes

Ajouter des systèmes de fichiers ou de périphériques de stockage au cluster de zones. Reportez-vous aux sections suivantes :

Voir aussi

Si vous souhaitez mettre à jour le logiciel sur un cluster de zones, suivez les procédures du Chapitre 11, Mise à jour du logiciel du manuel Guide d’administration système d’Oracle Solaris Cluster. Ces procédures comportent des instructions spéciales pour les clusters de zones, le cas échéant.

Ajout de systèmes de fichiers à un cluster de zones

Un système de fichiers ajouté à un cluster de zones et mis en ligne devient utilisable au sein de ce cluster de zones. Pour monter le système de fichiers, configurez-le à l'aide de ressources de cluster telles que SUNW.HAStoragePlus ou SUNW.ScalMountPoint.


Remarque - Pour ajouter un système de fichiers dont l'utilisation est limitée à un seul noeud de cluster de zones, reportez-vous à la section Ajout de systèmes de fichiers locaux à un noeud spécifique de cluster de zones.


Cette section décrit les procédures d'ajout de systèmes de fichiers en vue d'une utilisation par le cluster de zones suivantes :

Ajout d'un système de fichiers local hautement disponible à un cluster de zones

Procédez comme suit pour configurer un système de fichiers local hautement disponible sur le cluster global en vue d'une utilisation par un cluster de zones. Le système de fichiers est ajouté au cluster de zones et est configuré avec une ressource HAStoragePlus pour rendre le système de fichiers local hautement disponible.

Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.

  1. Prenez le rôle root sur un noeud du cluster global hébergeant le cluster de zones.
  2. Sur le cluster global, créez un système de fichiers pour le cluster de zones.

    Assurez-vous que le système de fichiers est créé sur des disques partagés.

  3. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.


    Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.


  4. Sélectionnez l'option de menu Cluster de zones.

    Le menu des tâches du cluster de zones s'affiche.

  5. Sélectionnez l'option de menu Ajouter un système de fichiers/périphérique de stockage à un cluster de zones.

    Le menu Sélectionner un cluster de zones s'affiche.

  6. Sélectionnez le cluster de zones dans lequel vous souhaitez ajouter le système de fichiers.

    Le menu Sélection du type de stockage s'affiche.

  7. Sélectionnez l'option de menu Système de fichiers.

    Le menu Sélection du système de fichiers pour le cluster de zones s'affiche.

  8. Sélectionnez le système de fichiers que vous souhaitez ajouter au cluster de zones.

    Les systèmes de fichiers figurant dans cette liste sont ceux qui sont configurés sur des disques partagés et dont l'accès est octroyé aux noeuds où le cluster de zones est configuré. Vous pouvez également appuyer sur la touche e pour spécifier manuellement toutes les propriétés d'un système de fichiers.

    Le menu Sélection du type de montage s'affiche.

  9. Sélectionnez le type de montage loopback.

    Le menu Propriétés du système de fichiers du cluster de zones s'affiche.

  10. Modifiez les propriétés que vous êtes autorisé à modifier pour le système de fichiers que vous ajoutez.

    Remarque - Pour les systèmes de fichiers UFS, activez la journalisation.


    Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée.

  11. Appuyez sur la touche c pour enregistrer la modification apportée à la configuration.

    Les résultats de la modification apportée à votre configuration s'affichent.

  12. Lorsque vous avez terminé, fermez l'utilitaire clsetup.
  13. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zone-cluster-name

Exemple 6-1 Ajout d'un système de fichiers local hautement disponible à un cluster de zones

Cet exemple permet d'ajouter le système de fichiers local /global/oracle/d1 qui servira au cluster de zones sczone.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

Étapes suivantes

Configurez le système de fichiers de manière à ce qu'il soit hautement disponible, à l'aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un pool de stockage ZFS à un cluster de zones

Suivez cette procédure pour ajouter un pool de stockage ZFS à un cluster de zones. Le pool peut être local pour un noeud de cluster de zones unique ou configuré avec HAStoragePlus pour être hautement disponible.

L'utilitaire clsetup détecte et affiche l'ensemble des pools ZFS configurés sur des disques partagés dont l'accès est possible pour les noeuds où le cluster de zones sélectionné est configuré. Après avoir exécuté l'utilitaire clsetup pour ajouter le pool de stockage ZFS d'une étendue de cluster à un cluster de zones existant, vous pouvez utiliser la commande clzonecluster pour modifier la configuration ou pour ajouter un pool de stockage ZFS dans le noeud dans une étendue de noeud.

Avant de commencer

Assurez-vous que le pool ZFS est connecté à des disques partagés liés à tous les noeuds du cluster de zones. Reportez-vous à la section Administration d’Oracle Solaris 11.1 : Systèmes de fichiers ZFS pour consulter les procédures de création d'un pool ZFS.

  1. Prenez le rôle root sur un noeud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.


    Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.


  3. Sélectionnez l'option de menu Cluster de zones.

    Le menu des tâches du cluster de zones s'affiche.

  4. Sélectionnez l'option de menu Ajouter un système de fichiers/périphérique de stockage à un cluster de zones.

    Le menu Sélectionner un cluster de zones s'affiche.

  5. Sélectionnez le cluster de zones dans lequel vous souhaitez ajouter le pool de stockage ZFS.

    Le menu Sélection du type de stockage s'affiche.

  6. Sélectionnez l'option de menu ZFS.

    Le menu Sélection du pool ZFS pour le cluster de zones s'affiche.

  7. Sélectionnez le pool ZFS que vous souhaitez ajouter au cluster de zones.

    Les pools ZFS figurant dans cette liste sont ceux qui sont configurés sur des disques partagés et dont l'accès est octroyé aux noeuds où le cluster de zones est configuré. Vous pouvez également appuyer sur la touche e pour spécifier manuellement les propriétés d'un pool ZFS.

    Le menu Propriété de jeu de données du pool ZFS pour le cluster de zones s'affiche. Le pool ZFS sélectionné est affecté à la propriété name.

  8. Appuyez sur la touche d et sur Entrée.

    Le menu Vérifier les systèmes de fichiers/périphériques de stockage pour le cluster de zones s'affiche.

  9. Appuyez sur la touche c pour enregistrer la modification apportée à la configuration.

    Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add dataset
            set name=myzpool5
            end
    
        Configuration change to sczone zone cluster succeeded.
  10. Lorsque vous avez terminé, fermez l'utilitaire clsetup.
  11. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername
  12. Pour rendre le pool de stockage ZFS hautement disponible, configurez le pool contenant une ressource HAStoragePlus.

    La ressource HAStoragePlus gère le montage des systèmes de fichiers du pool sur le noeud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un système de fichiers de cluster à un cluster de zones

L'utilitaire clsetup détecte et affiche les systèmes de fichiers disponibles configurés sur les noeuds de cluster dans lesquels le cluster de zones sélectionné est configuré. Lorsque vous exécutez l'utilitaire clsetup pour ajouter un système de fichiers, le système de fichiers est ajouté dans l'étendue de cluster.

Vous pouvez ajouter les types suivants de systèmes de fichiers de cluster à un cluster de zones :

Avant de commencer

Assurez-vous que le système de fichiers de cluster à ajouter au cluster de zones est configuré. Reportez-vous à la section Planification des systèmes de fichiers de cluster et au Chapitre 5, Création d'un système de fichiers de cluster.

  1. Prenez le rôle root sur un noeud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Pour chaque noeud du cluster global hébergeant un noeud de cluster de zones, ajoutez une entrée au fichier /etc/vfstab correspondant au système de fichiers que vous souhaitez monter sur le cluster de zones.
    phys-schost# vi /etc/vfstab
    • Pour une entrée UFS, incluez l'option de montage global, comme dans l'exemple suivant :
      /dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs ufs 2 no global, logging
  3. Sur le cluster global, démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.


    Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.


  4. Sélectionnez l'option de menu Cluster de zones.

    Le menu des tâches du cluster de zones s'affiche.

  5. Sélectionnez l'option de menu Ajouter un système de fichiers/périphérique de stockage à un cluster de zones.

    Le menu Sélectionner un cluster de zones s'affiche.

  6. Sélectionnez le cluster de zones dans lequel vous souhaitez ajouter le système de fichiers.

    Le menu Sélection du type de stockage s'affiche.

  7. Sélectionnez l'option de menu Système de fichiers.

    Le menu Sélection du système de fichiers pour le cluster de zones s'affiche.

  8. Sélectionnez un système de fichiers dans la liste.

    Vous pouvez également appuyer sur la touche e pour spécifier manuellement toutes les propriétés d'un système de fichiers.

    Le menu Sélection du type de montage s'affiche.

  9. Sélectionnez le type de montage de système de fichiers loopback pour le cluster de zones.

    Pour plus d'informations sur la création de systèmes de fichiers loopback, reportez-vous à la section How to Create and Mount an LOFS File System du manuel Oracle Solaris 11.1 Administration: Devices and File Systems.

    Le menu Propriétés du système de fichiers du cluster de zones s'affiche.

  10. Indiquez le répertoire du point de montage.

    Saisissez le numéro correspondant à la propriété dir et appuyez sur Entrée. Saisissez ensuite le nom du répertoire de point de montage LOFS dans le champ Nouvelle valeur et appuyez sur Entrée.

    Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée. Le menu Vérifier les systèmes de fichiers/périphériques de stockage pour le cluster de zones s'affiche.

  11. Appuyez sur la touche c pour enregistrer la modification apportée à la configuration.

    Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :

      >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add fs
            set dir=/dev/md/ddg/dsk/d9
            set special=/dev/md/ddg/dsk/d10
            set raw=/dev/md/ddg/rdsk/d10
            set type=lofs
            end
    
        Configuration change to sczone zone cluster succeeded.
  12. Lorsque vous avez terminé, fermez l'utilitaire clsetup.
  13. Assurez-vous que le système LOFS a été ajouté.
    phys-schost# clzonecluster show -v zone-cluster-name

Étapes suivantes

(Facultatif) Configurez le système de fichiers de cluster que doit gérer une ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers dans le cluster global avant d'exécuter un montage loopback sur les noeuds de cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Configuring an HAStoragePlus Resource for Cluster File Systems du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout de systèmes de fichiers locaux à un noeud spécifique de cluster de zones

Cette section décrit la procédure d'ajout de systèmes de fichiers qui sont dédiés à un seul noeud de cluster de zones. Pour configurer des systèmes de fichiers en vue d'une utilisation par le cluster de zones entier, reportez-vous à la section Ajout de systèmes de fichiers à un cluster de zones.

Cette section contient les procédures suivantes :

Ajout d'un système de fichiers local à un noeud spécifique de cluster de zones

Suivez cette procédure pour ajouter un système de fichiers local à un noeud unique et spécifique d'un cluster de zones spécifique. Le système de fichiers n'est pas géré par le logiciel Oracle Solaris Cluster mais est transmis à la zone Oracle Solaris sous-jacente.


Remarque - Pour ajouter un système de fichiers local hautement disponible à un cluster de zones, effectuez les procédures décrites dans la section Ajout d'un système de fichiers local hautement disponible à un cluster de zones.


  1. Prenez le rôle root sur un noeud du cluster global hébergeant le cluster de zones.

    Remarque - Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.


  2. Créez le système de fichiers local que vous souhaitez configurer vers un noeud spécifique de cluster de zones.

    Utilisez les disques locaux du noeud de cluster global qui héberge le noeud du cluster de zones prévu.

  3. Ajoutez le système de fichiers à la configuration du cluster de zones dans l'étendue du noeud.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add fs
    clzc:zoneclustername:node:fs> set dir=mountpoint
    clzc:zoneclustername:node:fs> set special=disk-device-name
    clzc:zoneclustername:node:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:node:fs> set type=FS-type
    clzc:zoneclustername:node:fs> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    Spécifie le point de montage du système de fichiers

    special=disk-device-name

    Indique le nom du périphérique de disque.

    raw=raw-disk-device-name

    Spécifie le nom du périphérique de disque brut

    type=FS-type

    Indique le type de système de fichiers.


    Remarque - Activez la journalisation pour les systèmes de fichiers UFS.


  4. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 6-2 Ajout d'un système de fichiers local à un noeud de cluster de zones

Cet exemple ajoute un système de fichiers UFS local /local/data en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add fs
clzc:sczone:node:fs> set dir=/local/data
clzc:sczone:node:fs> set special=/dev/md/localdg/dsk/d1
clzc:sczone:node:fs> set raw=/dev/md/localdg/rdsk/d1
clzc:sczone:node:fs> set type=ufs
clzc:sczone:node:fs> add options [logging]
clzc:sczone:node:fs> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                fs
     dir:                                           /local/data
     special:                                       /dev/md/localdg/dsk/d1
     raw:                                           /dev/md/localdg/rdsk/d1
     type:                                          ufs
     options:                                       [logging]
     cluster-control:                               false ...

Ajout d'un pool de stockage ZFS local à un noeud spécifique de cluster de zones

Suivez cette procédure pour ajouter un pool de stockage ZFS local à un noeud spécifique de cluster de zones. Le pool ZFS local n'est pas géré par le logiciel Oracle Solaris Cluster mais est transmis à la zone Oracle Solaris sous-jacente.


Remarque - Pour ajouter un pool ZFS local hautement disponible à un cluster de zones, reportez-vous à la section Ajout d'un système de fichiers local hautement disponible à un cluster de zones.


Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.

  1. Prenez le rôle root sur un noeud du cluster global hébergeant le cluster de zones.
  2. Créez le pool ZFS local que vous souhaitez configurer vers un noeud spécifique de cluster de zones.

    Utilisez les disques locaux du noeud de cluster global qui héberge le noeud du cluster de zones prévu.

  3. Ajoutez le pool à la configuration du cluster de zones dans l'étendue du noeud.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> select node physical-host=baseclusternode
    clzc:zoneclustername:node> add dataset
    clzc:zoneclustername:node:dataset> set name=localZFSpoolname
    clzc:zoneclustername:node:dataset> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    set name=localZFSpoolname

    Spécifie le nom du pool ZFS local

  4. Vérifiez l'ajout du pool ZFS.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 6-3 Ajout d'un pool ZFS local à un noeud de cluster de zones

Cet exemple ajoute le pool ZFS local local_pool en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add dataset
clzc:sczone:node:dataset> set name=local_pool
clzc:sczone:node:dataset> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                dataset
     name:                                          local_pool

Ajout de périphériques de stockage à un cluster de zones

Cette section décrit comment ajouter l'utilisation directe de périphériques de stockage globaux par un cluster de zones ou comment ajouter des périphériques de stockage dédiés à un seul noeud de cluster de zones. Les périphériques globaux sont des périphériques accessibles par plus d'un noeud de cluster en même temps.

Après l'ajout d'un périphérique à un cluster de zones, ce périphérique est visible uniquement au sein de ce cluster de zones.

Cette section contient les procédures suivantes :

Ajout d'un périphérique de stockage global à un cluster de zones

Suivez cette procédure pour ajouter l'un des types de périphériques de stockage suivants dans une étendue de cluster :


Remarque - Pour ajouter un périphérique de disque brut à un noeud spécifique de cluster de zones, reportez-vous à la section Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones.


L'utilitaire clsetup détecte et affiche les périphériques de stockage disponibles configurés sur les noeuds de cluster dans lesquels le cluster de zones sélectionné est configuré. Après avoir exécuté l'utilitaire clsetup pour ajouter un périphérique de stockage à un cluster de zones existant, utilisez la commande clzonecluster afin de modifier la configuration. Pour obtenir des instructions sur l'utilisation de la commande clzonecluster pour supprimer un périphérique de stockage d'un cluster de zones, reportez-vous à la section Suppression d’un périphérique de stockage d’un cluster de zones du manuel Guide d’administration système d’Oracle Solaris Cluster.

  1. Prenez le rôle root sur un noeud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Identifiez le périphérique à ajouter au cluster de zones et vérifiez qu'il est en ligne.
    phys-schost# cldevicegroup status
  3. Si le périphérique à ajouter n'est pas en ligne, mettez-le en ligne.
    phys-schost# cldevicegroup online device
  4. Démarrez l'utilitaire clsetup.
    phys-schost# clsetup

    Le menu principal s'affiche.


    Astuce - Pour revenir à un écran précédent, appuyez sur la touche < puis sur la touche Entrée.


  5. Sélectionnez l'option de menu Cluster de zones.

    Le menu des tâches du cluster de zones s'affiche.

  6. Sélectionnez l'option de menu Ajouter un système de fichiers/périphérique de stockage à un cluster de zones.

    Le menu Sélectionner un cluster de zones s'affiche.

  7. Sélectionnez le cluster de zones dans lequel vous souhaitez ajouter le périphérique de stockage.

    Le menu Sélection du type de stockage s'affiche.

  8. Sélectionnez l'option de menu Périphérique.

    Une liste des périphériques disponibles s'affiche.

  9. Choisissez un périphérique de stockage dans la liste.

    Vous pouvez également appuyer sur la touche e pour spécifier manuellement les propriétés d'un périphérique de stockage.

    Le menu Propriété de périphérique de stockage pour le cluster de zones s'affiche.

  10. Ajoutez ou modifiez les propriétés de l'unité de stockage que vous ajoutez.

    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    Lorsque vous avez terminé, appuyez sur la touche d et sur Entrée. Le menu Vérifier les systèmes de fichiers/périphériques de stockage pour le cluster de zones s'affiche.

  11. Appuyez sur la touche c pour enregistrer la modification apportée à la configuration.

    Les résultats de la modification apportée à votre configuration s'affichent. Par exemple :

     >>> Result of Configuration Change to the Zone Cluster(sczone) <<<
    
        Adding file systems or storage devices to sczone zone cluster...
    
        The zone cluster is being created with the following configuration
    
            /usr/cluster/bin/clzonecluster configure sczone
            add device
            set match=/dev/md/ddg/*dsk/*
            end
            add device
            set match=/dev/md/shared/1/*dsk/*
            end
    
        Configuration change to sczone zone cluster succeeded.
        The change will become effective after the zone cluster reboots.
  12. Lorsque vous avez terminé, fermez l'utilitaire clsetup.
  13. Vérifiez l'ajout du périphérique.
    phys-schost# clzonecluster show -v zoneclustername

Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones

Suivez cette procédure pour ajouter un périphérique de disque brut à un noeud spécifique de cluster de zones. Ce périphérique n'est alors plus sous le contrôle; d'Oracle Solaris Cluster. Suivez toutes les étapes de la procédure à partir d'un noeud du cluster global.


Remarque - Pour ajouter un périphérique de disque brut en vue d'une utilisation par le cluster de zones complet, reportez-vous à la section Ajout d'un périphérique de stockage global à un cluster de zones.


  1. Prenez le rôle root sur un noeud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un noeud du cluster global.

  2. Identifiez le périphérique (cNt XdYsZ) à ajouter au cluster de zones et vérifiez qu'il est en ligne.
  3. Ajoutez le périphérique à la configuration du cluster de zones dans l'étendue du noeud.

    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    phys-schost# clzonecluster configure zone-cluster-name
    clzc:zone-cluster-name> select node physical-host=baseclusternode
    clzc:zone-cluster-name:node> add device
    clzc:zone-cluster-name:node:device> set match=/dev/*dsk/cNtXdYs*
    clzc:zone-cluster-name:node:device> end
    clzc:zone-cluster-name:node> end
    clzc:zone-cluster-name> verify
    clzc:zone-cluster-name> commit
    clzc:zone-cluster-name> exit
    match=/dev/*dsk/cNt XdYs*

    Spécifie le chemin de périphérique complet pour accéder au périphérique de disque brut

  4. Vérifiez l'ajout du périphérique.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 6-4 Ajout d'un périphérique de disque brut à un noeud spécifique de cluster de zones

L'exemple suivant illustre l'ajout du périphérique de disque brut c1t1d0s0 en vue d'une utilisation par un noeud du cluster de zones sczone. Ce noeud de cluster de zones est hébergé dans un noeud de cluster global phys-schost-1 .

phys-schost-1# clzonecluster configure sczone
clzc:sczone> select node physical-host=phys-schost-1
clzc:sczone:node> add device
clzc:sczone:node:device> set match=/dev/*dsk/c1t1d0s0
clzc:sczone:node:device> end
clzc:sczone:node> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
     --- Solaris Resources for phys-schost-1 --- 
…
   Resource Name:                                device
     name:                                          /dev/*dsk/c1t1d0s0