JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'installation du logiciel Oracle Solaris Cluster     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

1.  Planification de la configuration de Oracle Solaris Cluster

2.  Installation de logiciels sur des noeliguds de cluster global

3.  Établissement d'un cluster global

4.  Configuration du logiciel Solaris Volume Manager

5.  Installation et configuration de Veritas Volume Manager

6.  Création d'un système de fichiers de cluster

7.  Création de zones non globales et de clusters de zones

Configuration d'une zone non globale sur un noeligud de cluster global

Création d'une zone non globale sur un noeligud de cluster global

Configuration d'une ressource HAStoragePlus pour un système de fichiers de cluster utilisé par des zones non globales

Configuration d'un cluster de zones

Présentation de l'utilitaire clzonecluster

Configuration d'un cluster de zones

Préparation de l'utilisation de Trusted Extensions avec des clusters de zones

Création d'un cluster de zones

Ajout de systèmes de fichiers à un cluster de zones

Ajout d'un système de fichiers local à un cluster de zones

Ajout d'un pool de stockage ZFS à un cluster de zones

Ajout d'un système de fichiers partagés QFS à un cluster de zones

Ajout d'un système de fichiers du cluster à un cluster de zones

Ajout d'un système de fichiers Oracle ACFS à un cluster de zones

Ajout de périphériques de stockage à un cluster de zones

Ajout d'un métapériphérique à un cluster de zones (Solaris Volume Manager)

Ajout d'un ensemble de disques à un cluster de zones (Solaris Volume Manager)

Ajout d'un périphérique DID à un cluster de zones

Ajout d'un périphérique de disque brut à un cluster de zones

8.  Installation du module Oracle Solaris Cluster sur Sun Management Center

9.  Désinstallation du logiciel à partir du cluster

A.  Fiches d'information sur l'installation et la configuration de Oracle Solaris Cluster

Index

Configuration d'un cluster de zones

Cette section contient les procédures permettant de configurer un cluster de zones non globales de conteneurs Solaris, également appelé cluster de zones.

Présentation de l'utilitaire clzonecluster

L'utilitaire clzonecluster crée, modifie et supprime un cluster de zones. En d'autres termes, il gère activement un cluster de zones. C'est lui qui, par exemple, initialise ou arrête un cluster de zones. Les messages de progression de l'utilitaire clzonecluster s'affichent sur la console, mais ils ne sont pas enregistrés dans un fichier journal.

Le champ d'action de cet utilitaire est similaire à celui de l'utilitaire zonecfg et concerne les niveaux suivants d'un cluster :

Configuration d'un cluster de zones

Cette section décrit la procédure de configuration d’un cluster de zones non globales.

Préparation de l'utilisation de Trusted Extensions avec des clusters de zones

Cette procédure permet de préparer le cluster global pour utiliser la fonction Trusted Extensions d'Oracle Solaris avec des clusters de zones et d'activer la fonction Trusted Extensions.

Si vous ne prévoyez pas d'activer la fonction Trusted Extensions, passez à la section Création d'un cluster de zones.

Effectuez cette procédure sur chaque nœud du cluster global.

Avant de commencer

Effectuez les tâches suivantes :

  1. Connectez-vous en tant que superutilisateur sur un nœud du cluster global.
  2. Désactivez les scripts Trusted Extensions zoneshare et zoneunshare.

    Les scripts Trusted Extensions zoneshare et zoneunshare prennent en charge la possibilité d'exporter des répertoires de base sur le système. Une configuration Oracle Solaris Cluster ne prend pas en charge cette fonction.

    Désactivez cette fonction en remplaçant chaque script par un lien symbolique renvoyant vers l'utilitaire /bin/true. Effectuez cette opération sur chaque nœud du cluster global.

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true
  3. Configurez toutes les adresses IP partagées de nom d'hôte logique faisant partie du cluster global.

    Reportez-vous à la section Exécution du script txzonemgr du Guide de configuration d’Oracle Solaris Trusted Extensions.

  4. Assurez-vous que la console d'administration est définie dans le fichier /etc/security/tsol/tnrhdb sur admin_low.
    ipaddress:admin_low
  5. Assurez-vous qu'aucune entrée du fichier /etc/hostname.interface ne contient l'option -failover.

    Supprimez l'option -failover de toutes les entrées contenant cette option.

  6. Modifiez le fichier /etc/security/tsol/tnrhdb pour autoriser les communications avec les composants du cluster global.

    Utilisez l'assistant de modèles de sécurité dans la console de gestion Solaris comme décrit dans la section Procédure de construction d’un modèle d’hôte distant du Procédures de l’administrateur Oracle Solaris Trusted Extensions pour effectuer les tâches suivantes :

    • Créez une entrée pour les adresses IP utilisées par les composants du cluster et assignez un modèle CIPSO à chaque entrée.

      Ajoutez des entrées pour chacune des adresses IP suivantes se trouvant dans le fichier /etc/inet/hosts du nœud du cluster global :

      • Chaque adresse IP privée du nœud du cluster global

      • Toutes les adresses IP cl_privnet du cluster global

      • Chaque adresse IP publique de nom d'hôte logique du cluster global

      • Chaque adresse IP publique partagée du cluster global

      Les entrées doivent être similaires à l'entrée ci-dessous :

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • Ajoutez une entrée pour que le modèle par défaut soit considéré comme interne.

      0.0.0.0:internal

    Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration du domaine d’interprétation du Guide de configuration d’Oracle Solaris Trusted Extensions.

  7. Activer le service SMF Trusted Extensions et réinitialisez le nœud du cluster global.
    phys-schost# svcadm enable -s svc:/system/labeld:default
    phys-schost# shutdown -g0 -y -i6

    Pour plus d'informations, reportez-vous à la section Activation de Trusted Extensions du Guide de configuration d’Oracle Solaris Trusted Extensions.

  8. Assurez-vous que le service TMF Trusted Extensions est activé.
    phys-schost# svcs labeld
    STATE          STIME    FMRI
    online         17:52:55 svc:/system/labeld:default
  9. Répétez la procédure de l'Étape 1 à l'Étape 8 pour chaque nœud restant du cluster global.

    Lorsque le service SMF est activé sur tous les nœuds du cluster global, suivez les étapes restantes de cette procédure sur chaque nœud du cluster global.

  10. Ajoutez l'adresse IP du serveur LDAP avec la fonction Trusted Extensions activée dans le fichier /etc/inet/hosts sur chaque nœud du cluster global.

    Le serveur LDAP est utilisé par la zone globale et par les nœuds du cluster de zones.

  11. Activez la connexion à distance par le serveur LDAP vers le nœud du cluster global.
    1. Dans le fichier /etc/default/login, ajoutez un commentaire à l'entrée CONSOLE.
    2. Activez la connexion à distance.
      phys-schost# svcadm enable rlogin
    3. Modifiez le fichier /etc/pam.conf.

      Modifiez les entrées de gestion des comptes en ajoutant une tabulation et en saisissant respectivement les arguments allow_remote ou allow_unlabeled comme indiqué ci-dessous :

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  12. Modifiez le fichier /etc/nsswitch.ldap.
    • Assurez-vous que les entrées passwd et group recherchent en premier le critère files.

      …
      passwd:      files ldap
      group:       files ldap
      …
    • Assurez-vous que les entrées hosts et netmasks recherchent en premier le critère cluster.

      …
      hosts:       cluster files ldap
      …
      netmasks:    cluster files ldap
      …
  13. Convertissez le nœud du cluster global en client LDAP.

    Reportez-vous à la section Établissement de la zone globale en tant que client LDAP dans Trusted Extensions du Guide de configuration d’Oracle Solaris Trusted Extensions.

  14. Ajoutez les utilisateurs Trusted Extensions au fichier /etc/security/tsol/tnzonecfg.

    Utilisez l'assistant d'ajout d'utilisateur de la console de gestion Solaris comme décrit dans la section Creating Roles and Users in Trusted Extensions du Solaris Trusted Extensions Installation and Configuration for Solaris 10 11/06 and Solaris 10 8/07 Releases.

Étapes suivantes

Créez le cluster de zones. Reportez-vous à la section Création d'un cluster de zones.

Création d'un cluster de zones

Effectuez cette procédure pour créer un cluster de zones non globales.

Avant de commencer

  1. Connectez-vous en tant que superutilisateur à un nœud élément actif du cluster global.

    Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.


  2. Assurez-vous que le nœud du cluster global s'exécute en mode cluster.

    Si un nœud n'est pas un nœud de cluster, les modifications apportées ne seront pas propagées avant que ce nœud ne retourne en mode cluster. Par conséquent, vous pouvez créer un cluster de zones même si des nœuds du cluster global ne sont pas en mode cluster. Lorsque ces nœuds retournent en mode cluster, le système procède aux tâches de création sur ces nœuds.

    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. Créez le cluster de zones.

    Tenez compte des instructions spéciales suivantes :

    • Si la fonction Trusted Extensions est activée, l'élément zoneclustername doit porter le même nom qu'une étiquette de sécurité Trusted Extensions du niveau de sécurité à assigner au cluster de zones. Ces étiquettes de sécurité sont configurées dans les fichiers /etc/security/tsol/tnrhtp sur le cluster global.

    • Par défaut, des zones racine éparses sont créées. Pour créer des zones racine entières, ajoutez l'option -b à la commande create.

    • La spécification d'une adresse IP et d'une carte d'interface réseau pour chaque nœud de cluster de zones est facultative.

    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> create
    
    Set the zone path for the entire zone cluster
    clzc:zoneclustername> set zonepath=/zones/zoneclustername
    
    Add the first node and specify node-specific settings
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode1
    clzc:zoneclustername:node> set hostname=hostname1
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    
    Add authorization for the public-network addresses that the zone cluster is allowed to use
    clzc: zoneclustername> add net
    clzc: zoneclustername:net> set address=ipaddress1
    clzc: zoneclustername:net> end
    
    Set the root password globally for all nodes in the zone cluster
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set root_password=encrypted_password
    clzc:zoneclustername:sysid> end
    
    Save the configuration and exit the utility
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  4. Si la fonction Trusted Extensions est activée, définissez le système de fichiers /var/tsol/doors et la propriété du service de noms sur NONE.
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=/var/tsol/doors
    clzc:zoneclustername:fs> set special=/var/tsol/doors
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> add options ro
    clzc:zoneclustername:fs> end
    
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  5. (Facultatif) Ajoutez un ou plusieurs nœuds supplémentaires au cluster de zones.
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode2
    clzc:zoneclustername:node> set hostname=hostname2
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  6. Si la fonction Trusted Extensions est activée sur chaque nœud du cluster de zones, ajoutez ou modifiez les entrées suivantes dans le fichier /zones/zoneclustername/root/etc/sysidcfg.
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set name_service=LDAP
    clzc:zoneclustername:sysid> set domain_name=domainorg.domainsuffix
    clzc:zoneclustername:sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix"
    clzc:zoneclustername:sysid> set proxy_password="proxypassword"
    clzc:zoneclustername:sysid> set profile=ldap-server
    clzc:zoneclustername:sysid> set profile_server=txldapserver_ipaddress
    clzc:zoneclustername:sysid> end
    
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  7. Vérifiez la configuration du cluster de zones.

    La sous-commande verify vérifie la disponibilité des ressources spécifiées. Si la commande clzonecluster verify s'exécute convenablement, aucune sortie ne doit s'afficher.

    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Configured
              basenode2    zone-2        Offline   Configured
  8. Installez le cluster de zones.
    phys-schost-1# clzonecluster install zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...
  9. Initialisez le cluster de zones.
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...
  10. Si vous utilisez Trusted Extensions, terminez les mappages des adresses IP du cluster de zones.

    Effectuez cette étape sur chaque nœud du cluster de zones.

    1. Placez-vous sur un nœud du cluster global et affichez son ID.
      phys-schost# cat /etc/cluster/nodeid
      N
    2. Connectez-vous à un nœud du cluster de zones se trouvant sur le même nœud du cluster global.

      Assurez-vous que le service SMF a été importé et que tous les services fonctionnent avant de vous connecter.

    3. Déterminez les adresses IP utilisées par ce nœud de cluster de zones pour l'interconnexion privée.

      Le logiciel du cluster assigne automatiquement ces adresses IP lorsqu'il configure un cluster de zones.

      Dans la sortie ifconfig -a, localisez l'interface logique clprivnet0 appartenant au cluster de zones. La valeur de la propriété inet correspond à l'adresse IP assignée pour prendre en charge l'utilisation de l'interconnexion privée du cluster par ce cluster de zones.

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. Ajouter au fichier /etc/inet/hosts du nœud du cluster de zones les adresses IP de ce dernier.
      • Le nom d'hôte de l'interconnexion privée, à savoir clusternode N-priv, pour lequel la lettre N représente l'ID du nœud du cluster global.

        172.16.0.22    clusternodeN-priv 
      • Chaque ressource net spécifiée dans la commande clzonecluster lorsque vous avez créé le cluster de zones.

    5. Répétez l'opération sur les nœuds restants du cluster de zones.
  11. Modifiez le fichier /etc/security/tsol/tnrhdb pour autoriser les communications avec les composants du cluster de zones.

    Utilisez l'assistant de modèles de sécurité dans la console de gestion Solaris comme décrit dans la section Procédure de construction d’un modèle d’hôte distant du Procédures de l’administrateur Oracle Solaris Trusted Extensions pour effectuer les tâches suivantes :

    • Créer une entrée pour les adresses IP utilisées par les composants du cluster de zones et assignez un modèle CIPSO à chaque entrée.

      Ajoutez des entrées pour chacune des adresses IP suivantes se trouvant dans le fichier /etc/inet/hosts du nœud du cluster de zones :

      • Chaque adresse IP privée du nœud du cluster de zones.

      • Toutes les adresses IP cl_privnet dans le cluster de zones.

      • Chaque adresse IP publique de nom d'hôte logique du cluster de zones.

      • Chaque adresse IP publique partagée du cluster de zones.

      Les entrées doivent être similaires à l'entrée ci-dessous :

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • Ajoutez une entrée pour que le modèle par défaut soit considéré comme interne.

      0.0.0.0:internal

    Pour plus d'informations sur les modèles CIPSO, reportez-vous à la section Configuration du domaine d’interprétation du Guide de configuration d’Oracle Solaris Trusted Extensions.

  12. Une fois tous les nœuds du cluster de zones modifiés, réinitialisez les nœuds du cluster global pour initialiser les modifications apportées au fichier /etc/inet/hosts du cluster de zones.
    phys-schost# init -g0 -y -i6
  13. Activez le service DNS et accédez au rlogin des nœuds du cluster de zones.

    Exécutez les commandes suivantes sur chaque nœud du cluster de zones :

    phys-schost# zlogin zcnode
    zcnode# svcadm enable svc:/network/dns/client:default
    zcnode# svcadm enable svc:/network/login:rlogin
    zcnode# reboot

Exemple 7-2 Fichier de configuration pour créer un cluster de zones

L'exemple suivant illustre le contenu d'un fichier de commandes qui peut être associé à l'utilitaire clzonecluster pour créer un cluster de zones. Le fichier contient la série des commandes clzonecluster qu'il vous faudrait saisir manuellement.

Dans la configuration suivante, le cluster de zones sczone est créé sur le nœud de cluster global phys-schost-1. Le cluster de zones utilise le chemin de zone /zones/sczone et l'adresse IP publique 172.16.2.2. Le premier nœud du cluster de zones est affecté au nom d'hôte zc-host-1 et utilise l'adresse réseau 172.16.0.1 et l'adaptateur bge0. Le second nœud du cluster de zones est créé sur le nœud de cluster global phys-schost-2. Il est affecté au nom d'hôte zc-host-2 et utilise l'adresse réseau 172.16.0.2 et l'adaptateur bge1.

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit

Exemple 7-3 Création d'un cluster de zones avec un fichier de configuration

L'exemple suivant récapitule les commandes de création du cluster de zones sczone sur le nœud de cluster global phys-schost-1 à l'aide du fichier de configuration sczone-config. Les noms d'hôte des nœuds du cluster de zones sont zc-host-1 et zc-host-2.

phys-schost-1# clzonecluster configure -f sczone-config sczone
phys-schost-1# clzonecluster verify sczone
phys-schost-1# clzonecluster install sczone
Waiting for zone install commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster boot sczone
Waiting for zone boot commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster status sczone
=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name        Zone HostName    Status    Zone Status
----      ---------        -------------    ------    -----------
sczone    phys-schost-1    zc-host-1        Offline   Running
          phys-schost-2    zc-host-2        Offline   Running

Étapes suivantes

Pour ajouter un système de fichiers au cluster de zones, reportez-vous à la section Ajout de systèmes de fichiers à un cluster de zones.

Pour ajouter des périphériques de stockage au cluster de zones, reportez-vous à la section Ajout de périphériques de stockage à un cluster de zones.

Voir aussi

Pour appliquer un patch sur un cluster de zones, suivez les procédures du Chapitre 11, Mise à jour du logiciel ou installation d’un microprogramme Oracle Solaris Cluster du Guide d’administration système d’Oracle Solaris Cluster. Ces procédures comportent des instructions spéciales pour les clusters de zones, le cas échéant.

Ajout de systèmes de fichiers à un cluster de zones

Cette section décrit les procédures d'ajout de systèmes de fichiers au cluster de zones en vue de leur utilisation par ce dernier.

Un système de fichiers ajouté à un cluster de zones et mis en ligne devient utilisable au sein de ce cluster de zones. Pour monter le système de fichiers, configurez-le à l’aide de ressources de cluster telles que SUNW.HAStoragePlus ou SUNW.ScalMountPoint.

Cette section inclut les procédures suivantes :

En outre, pour savoir comment configurer un pool de stockage ZFS pour qu'il soit hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available du Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un système de fichiers local à un cluster de zones

Effectuez cette procédure pour ajouter un système de fichiers local au cluster global qui sera réservé à l'usage du cluster de zones.


Remarque - Pour ajouter un pool ZFS à un cluster de zones, effectuez les étapes décrites à la section Ajout d'un pool de stockage ZFS à un cluster de zones.

Pour configurer un pool de stockage ZFS pour qu'il soit hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available du Oracle Solaris Cluster Data Services Planning and Administration Guide.


  1. Connectez-vous en tant que superutilisateur à un nœud du cluster global hébergeant le cluster de zones.

    Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.


  2. Sur le cluster global, créez un système de fichiers pour le cluster de zones.

    Assurez-vous que le système de fichiers est créé sur des disques partagés.

  3. Ajoutez le système de fichiers à la configuration du cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=disk-device-name
    clzc:zoneclustername:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:fs> set type=FS-type
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    Indique le point de montage du système de fichiers.

    special=disk-device-name

    Indique le nom du périphérique de disque.

    raw=raw-disk-device-name

    Indique le nom du périphérique de disque brut.

    type=FS-type

    Indique le type de système de fichiers.


    Remarque - Activez la journalisation pour les systèmes de fichiers UFS et VxFS.


  4. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 7-4 Ajout d'un système de fichiers local à un cluster de zones

Cet exemple permet d'ajouter le système de fichiers local /global/oracle/d1 qui servira au cluster de zones sczone.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…

Étapes suivantes

Configurez le système de fichiers de manière à ce qu'il soit hautement disponible, à l’aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage du système de fichiers sur le nœud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un pool de stockage ZFS à un cluster de zones

Effectuez cette procédure pour ajouter un pool de stockage ZFS qui sera réservé à l'usage du cluster de zones.


Remarque - Pour savoir comment configurer un pool de stockage ZFS pour qu'il soit hautement disponible dans un cluster de zones, reportez-vous à la section How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available du Oracle Solaris Cluster Data Services Planning and Administration Guide.


  1. Connectez-vous en tant que superutilisateur à un nœud du cluster global hébergeant le cluster de zones.

    Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud de la zone globale.


  2. Créez le pool de stockage ZFS sur le cluster global.

    Remarque - Assurez-vous que le pool est connecté à des disques partagés liés à tous les nœuds du cluster de zones.


    Pour connaître les étapes de la création d'un pool ZFS, reportez-vous au Guide d’administration Oracle Solaris ZFS.

  3. Ajoutez le pool de stockage ZFS à la configuration du cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add dataset
    clzc:zoneclustername:dataset> set name=ZFSpoolname
    clzc:zoneclustername:dataset> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  4. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 7-5 Ajout d'un pool de stockage ZFS à un cluster de zones

L'exemple suivant illustre l'ajout du pool de stockage ZFS zpool1 au cluster de zones sczone.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…

Étapes suivantes

Configurez le pool de stockage ZFS de manière à ce qu'il soit hautement disponible, à l’aide de la ressource HAStoragePlus. La ressource HAStoragePlus gère le montage des systèmes de fichiers inclus dans le pool sur le nœud du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Enabling Highly Available Local File Systems du Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un système de fichiers partagés QFS à un cluster de zones

Effectuez cette procédure pour ajouter un système de fichiers partagés Sun QFS qui sera réservé à l'usage du cluster de zones.


Remarque - Pour l'instant, les systèmes de fichiers partagés QFS sont uniquement pris en charge par les clusters configurés avec Oracle RAC (Real Application Clusters) (RAC). Sur les clusters non configurés avec Oracle RAC, vous pouvez utiliser un système de fichiers QFS monoposte, configuré en tant que système de fichiers local à haut niveau de disponibilité.


  1. Connectez-vous en tant que superutilisateur à un nœud votant du cluster global hébergeant le cluster de zones.

    Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud votant du cluster global.


  2. Sur le cluster global, configurez le système de fichiers partagés QFS réservé à l'usage du cluster de zones.

    Suivez les procédures relatives aux systèmes de fichiers partagés, disponibles à la page Configuring Sun QFS File Systems With Sun Cluster.

  3. Pour chaque nœud du cluster global hébergeant un nœud de cluster de zones, ajoutez une entrée au fichier /etc/vfstab correspondant au système de fichiers que vous souhaitez monter sur le cluster de zones.
    phys-schost# vi /etc/vfstab
  4. Si vous ajoutez un système de fichiers partagé QFS en tant que système de fichiers loopback à un cluster de zones, passez à l'Étape 6.
  5. Ajoutez le système de fichiers à la configuration du cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=QFSfilesystemname
    clzc:zoneclustername:fs> set type=samfs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit

    Reportez-vous à l'Étape 7.

  6. Configurez le système de fichiers QFS en tant que système de fichiers loopback pour le cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=lofs-mountpoint
    clzc:zoneclustername:fs> set special=QFS-mountpoint
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  7. Vérifiez que le système de fichiers a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 7-6 Ajout d'un système de fichiers partagé QFS en tant que point de montage direct à un cluster de zones

L'exemple suivant illustre l'ajout du système de fichiers partagés QFS Data-cz1 au cluster de zones sczone. Sur le cluster global, le point de montage du système de fichiers est /zones/sczone/root/db_qfs/Data1, où /zones/sczone/root/ désigne le chemin racine de la zone. Sur le nœud du cluster de zones, le point de montage du système de fichiers est /db_qfs/Data1.

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
Data-cz1    -    /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data1
clzc:sczone:fs> set special=Data-cz1
clzc:sczone:fs> set type=samfs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      samfs
    options:                                   []
…

Exemple 7-7 Ajout d'un système de fichiers partagé QFS en tant que système de fichiers loopback à un cluster de zones

L'exemple suivant montre un système de fichiers partagés QFS avec ajout du fichier mountpoint/db_qfs/Data1 au cluster de zones sczone. Le cluster de zones dispose du système de fichiers grâce au mécanisme de montage loopback du fichier mountpoint/db_qfs/Data-cz1.

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
Data-cz1    -    /db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data-cz1
clzc:sczone:fs> set special=/db_qfs/Data
clzc:sczone:fs> set type=lofs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           [true]
…

Ajout d'un système de fichiers du cluster à un cluster de zones

Effectuez cette procédure pour ajouter un système de fichiers du cluster à utiliser avec un cluster de zones.

  1. Connectez-vous en tant que superutilisateur à un nœud votant du cluster global hébergeant le cluster de zones.

    Remarque - Effectuez toutes les étapes de cette procédure à partir d'un nœud votant du cluster global.


  2. Sur le cluster global, configurez le système de fichiers du cluster à utiliser avec un cluster de zones.
  3. Pour chaque nœud du cluster global hébergeant un nœud de cluster de zones, ajoutez une entrée au fichier /etc/vfstab correspondant au système de fichiers que vous souhaitez monter sur le cluster de zones.
    phys-schost# vi /etc/vfstab
    …
    /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
  4. Configurez le système de fichiers du cluster en tant que système de fichiers loopback pour le cluster de zones.
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=zonecluster-lofs-mountpoint
    clzc:zoneclustername:fs> set special=globalcluster-mountpoint
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=zonecluster-lofs-mountpoint

    Spécifie le point de montage de système de fichiers sur le système LOFS pour que le cluster de zones puisse disposer du système de fichiers du cluster.

    special=globalcluster-mountpoint

    Spécifie le point de montage du système de fichiers du cluster d'origine dans le cluster global.

    Pour plus d'informations sur la création de systèmes de fichiers loopback, reportez-vous à la section How to Create and Mount an LOFS File System du System Administration Guide: Devices and File Systems.

  5. Assurez-vous que le système LOFS a été ajouté.
    phys-schost# clzonecluster show -v zoneclustername

Exemple 7-8 Ajout d'un système de fichiers du cluster à un cluster de zones

L'exemple suivant montre comment ajouter un système de fichiers du cluster avec un point de montage /global/apache à un cluster de zones. Le cluster de zones dispose du système de fichiers grâce au mécanisme de montage loopback du point de montage /zone/apache.

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging

phys-schost-1# clzonecluster configure zoneclustername
clzc:zoneclustername> add fs
clzc:zoneclustername:fs> set dir=/zone/apache
clzc:zoneclustername:fs> set special=/global/apache
clzc:zoneclustername:fs> set type=lofs
clzc:zoneclustername:fs> end
clzc:zoneclustername> verify
clzc:zoneclustername> commit
clzc:zoneclustername> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /zone/apache
    special:                                   /global/apache
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           true
…

Étapes suivantes

Configurez le système de fichiers du cluster pour qu'il soit disponible dans le cluster de zones en utilisant une ressource HAStoragePlus. La ressource HAStoragePlus gère les données en montant le système de fichiers dans le cluster global et en exécutant ensuite un montage loopback sur les nœuds du cluster de zones hébergeant actuellement les applications configurées pour utiliser le système de fichiers. Pour plus d'informations, reportez-vous à la section Configuring an HAStoragePlus Resource for Cluster File Systems du Oracle Solaris Cluster Data Services Planning and Administration Guide.

Ajout d'un système de fichiers Oracle ACFS à un cluster de zones

Exécutez cette procédure afin d'ajouter un système de fichiers de cluster à utiliser avec un cluster de zones.

Avant de commencer

Assurez-vous que le système de fichiers Oracle ACFS est créé et prêt à l'utilisation par un cluster de zones. Reportez-vous à la section Création d'un système de fichiers Oracle ACFS.

  1. Connectez-vous en tant que superutilisateur ou adoptez un rôle qui fournisse une autorisation reposant sur un contrôle d'accès à base de rôles de type solaris.cluster.admin et solaris.cluster.modify.
  2. Ajoutez le système de fichiers Oracle ACFS au cluster de zones.

    Exécutez cette étape depuis la zone globale d'un nœud.

    # clzonecluster configure zonecluster
    clzc:zonecluster> add fs
    clzc:zonecluster:fs> set dir=mountpoint
    clzc:zonecluster:fs> set special=/dev/asm/volume-dev-path
    clzc:zonecluster:fs> set type=acfs
    clzc:zonecluster:fs> end
    clzc:zonecluster> exit
  3. Vérifiez que le système de fichiers est ajouté au cluster de zones.
    # clzonecluster show zonecluster
    …
       Resource Name:                fs
       dir:                          mountpoint
       special                       /dev/asm/volume-dev-path
       raw:
       type:                         acfs
       options:                      []
       cluster-control:              true
    …

Ajout de périphériques de stockage à un cluster de zones

Cette section décrit la procédure d’ajout de périphériques de stockage réservés à l'usage direct d'un cluster de zones. Les périphériques globaux sont des périphériques accessibles par plus d'un nœud de cluster en même temps.

Après l'ajout d'un périphérique à un cluster de zones, ce périphérique est visible uniquement au sein de ce cluster de zones.

Cette section inclut les instructions et procédures suivantes :

Ajout d'un métapériphérique à un cluster de zones (Solaris Volume Manager)

Effectuez cette procédure pour ajouter un métapériphérique d'un ensemble de disques Solaris Volume Manager à un cluster de zones.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.

  2. Identifiez l'ensemble de disques qui contient le métapériphérique à ajouter au cluster de zones et vérifiez qu'il est en ligne.
    phys-schost# cldevicegroup status
  3. Si l'ensemble de disques à ajouter n'est pas en ligne, mettez-le en ligne.
    phys-schost# cldevicegroup online diskset
  4. Déterminez le numéro d'ensemble qui correspond à l'ensemble de disques à ajouter.
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
  5. Ajoutez le métapériphérique que le cluster de zones pourra utiliser.

    Vous devez ouvrir une session add device distincte pour chaque entrée set match=.


    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/md/diskset/*dsk/metadevice

    Indique le chemin de périphérique logique complet pour accéder au métapériphérique.

    match=/dev/md/shared/N/*dsk/metadevice

    Indique le chemin de périphérique physique complet pour accéder au métapériphérique.

  6. Réinitialisez le cluster de zones.

    La modification prend effet après la réinitialisation du cluster de zones.

    phys-schost# clzonecluster reboot zoneclustername

Exemple 7-9 Ajout d'un métapériphérique à un cluster de zones

L'exemple suivant illustre l'ajout du métapériphérique d1 contenu dans l'ensemble de disques oraset au cluster de zones sczone. L'ensemble de disques porte le numéro 3.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

Ajout d'un ensemble de disques à un cluster de zones (Solaris Volume Manager)

Effectuez cette procédure pour ajouter un ensemble de disques Solaris Volume Manager entier à un cluster de zones.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.

  2. Identifiez l'ensemble de disques à ajouter au cluster de zones et vérifiez qu'il est en ligne.
    phys-schost# cldevicegroup status
  3. Si l'ensemble de disques à ajouter n'est pas en ligne, mettez-le en ligne.
    phys-schost# cldevicegroup online diskset
  4. Déterminez le numéro d'ensemble qui correspond à l'ensemble de disques à ajouter.
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
  5. Ajoutez l'ensemble de disques que le cluster de zones pourra utiliser.

    Vous devez ouvrir une session add device distincte pour chaque entrée set match=.


    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/md/diskset/*dsk/*

    Indique le chemin de périphérique logique complet pour accéder à l'ensemble de disques.

    match=/dev/md/shared/N/*dsk/*

    Indique le chemin de périphérique physique complet pour accéder au métapériphérique.

  6. Réinitialisez le cluster de zones.

    La modification prend effet après la réinitialisation du cluster de zones.

    phys-schost# clzonecluster reboot zoneclustername

Exemple 7-10 Ajout d'un ensemble de disques à un cluster de zones

L'exemple suivant illustre l'ajout de l'ensemble de disques oraset au cluster de zones sczone. L'ensemble de disques porte le numéro 3.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/*
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

Ajout d'un périphérique DID à un cluster de zones

Effectuez cette procédure pour ajouter un périphérique DID à un cluster de zones.

  1. Connectez-vous en tant que superutilisateur à un nœud du cluster global hébergeant le cluster de zones.

    Effectuez toutes les étapes de cette procédure à partir d'un nœud du cluster global.

  2. Identifiez le périphérique DID à ajouter au cluster de zones.

    Le périphérique que vous ajoutez doit être connecté à tous les nœuds du cluster de zones.

    phys-schost# cldevice list -v
  3. Ajoutez le périphérique DID que le cluster de zones pourra utiliser.

    Remarque - L'astérisque (*) sert de caractère générique dans le nom du chemin.


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/did/*dsk/dNs*

    Indique le chemin de périphérique complet pour accéder au périphérique DID.

  4. Réinitialisez le cluster de zones.

    La modification prend effet après la réinitialisation du cluster de zones.

    phys-schost# clzonecluster reboot zoneclustername

Exemple 7-11 Ajout d'un périphérique DID à un cluster de zones

L'exemple suivant illustre l'ajout du périphérique DID d10 au cluster de zones sczone.

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/did/*dsk/d10s*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

Ajout d'un périphérique de disque brut à un cluster de zones