9 Préparation de solutions haute disponibilité

Les configurations Oracle HSM haute disponibilité sont conçues pour maintenir des services d'archivage et de système de fichiers ininterrompus. Dans une solution de haute disponibilité, le logiciel Oracle HSM ou QFS est intégré au logiciel Oracle Solaris Cluster, au matériel redondant et aux communications redondantes. Si un système hôte ou un composant échoue ou est mis hors service par les administrateurs, les services Oracle HSM basculent automatiquement sur un hôte de remplacement auquel les utilisateurs et les applications peuvent accéder. Les configurations haute disponibilité réduisent ainsi les périodes d'inactivité dues à une panne de l'équipement ou du système.

Les configurations haute disponibilité sont complexes et doivent être soigneusement conçues et déployées pour éviter les interactions imprévues et, éventuellement, l'altération des données. Ce chapitre démarre par une explication des configurations prises en charge. Etudiez cette section et sélectionnez la configuration qui répond le mieux à vos exigences en matière de disponibilité. Les sections suivantes expliquent ensuite comment configurer la configuration sélectionnée.

Notez que vous ne pouvez pas mélanger les architectures matérielles dans une configuration Oracle Solaris Cluster partagée. Tous les noeuds doivent utiliser l'architecture SPARC, l'architecture x86-64 (Solaris 11.1 uniquement) ou l'architecture x86 32 bits (Solaris 10 et versions antérieures).

Compréhension des configurations haute disponibilité prises en charge

Dans les solutions en cluster à plusieurs hôtes, les interactions entre les systèmes de fichiers, les applications, les systèmes d'exploitation, le logiciel de mise en cluster et le stockage doivent être soigneusement contrôlées pour assurer l'intégrité des données stockées. Pour réduire la complexité et les risques potentiels, les configurations Oracle HSM haute disponibilité prises en charge sont adaptées à quatre ensembles spécifiques d'exigences de déploiement :

HA-QFS : configuration de système de fichiers QFS autonome, non partagée et de haute disponibilité

La configuration QFS haute disponibilité (HA-QFS) permet de garantir qu'un système de fichiers QFS autonome et non partagé reste accessible en cas de panne de l'hôte. Le système de fichiers est configuré sur les deux noeuds dans un cluster à deux noeuds géré par le logiciel Solaris Cluster en tant que ressource du type SUNW.HAStoragePlus. Mais, à tout moment, seul un noeud monte le système de fichiers QFS. Si le noeud qui monte le système de fichiers tombe en panne, le logiciel de clustering procède au basculement et remonte le système de fichiers sur le noeud restant.

Les clients accèdent aux données par le biais du système de fichiers réseau (NFS), du système de fichiers réseau haute disponibilité (HA-NFS) ou des partages SMB/CIFS avec le noeud de cluster actif jouant le rôle de serveur de fichiers.

Pour obtenir des instructions sur l'implémentation, reportez-vous à la Systèmes de fichiers non partagés QFS haute disponibilité.

HA-COTC, un système de fichiers QFS haute disponibilité avec des serveurs de métadonnées haute disponibilité

La configuration HA-COTC (clients haute disponibilité hors du cluster) assure la disponibilité d'un serveur de métadonnées QFS de sorte que les clients du système de fichiers QFS puissent continuer d'accéder à leurs données en cas de panne d'un serveur. Le système de fichiers est partagé. Les serveurs QFS actifs et de métadonnées potentiels sont hébergés sur un cluster à deux noeuds géré par le logiciel Solaris Cluster. Une ressource Oracle HSM haute disponibilité de type SUNW.qfs gère le basculement pour les serveurs de systèmes de fichiers partagés au sein du cluster. Tous les clients sont hébergés en dehors du cluster. Les serveurs en cluster s'assurent de la disponibilité des métadonnées, délivrent des licences d'E/S et assurent la cohérence du système de fichiers.

Si le noeud qui héberge le serveur de métadonnées actif tombe en panne, le logiciel Solaris Cluster active automatiquement le serveur de métadonnées (MDS) potentiel sur le noeud en bon état et lance le basculement. Le système de fichiers QFS est partagé. Il est donc déjà monté sur le noeud du serveur de métadonnées qui vient d'être activé et reste monté sur les clients. Les clients continuent de recevoir les mises à jour des métadonnées et les baux d'E/S, donc le système de fichiers peut continuer sans interruption.

Les configurations HA-COTC doivent utiliser des systèmes de fichiers ma haute performance avec des périphériques de métadonnées mm et des périphériques de données mr physiquement séparés. Les systèmes de fichiers ms à usage général et les périphériques md ne sont pas pris en charge.

Vous pouvez utiliser un système de fichiers réseau (NFS) standard ou SMB/CIFS pour partager les systèmes de fichiers HA-COTC avec des clients qui n'exécutent pas Oracle HSM. Toutefois, HA-NFS n'est pas pris en charge.

Pour obtenir des instructions d'implémentation, reportez-vous à la Systèmes de fichiers partagés QFS haute disponibilité, clients en dehors du cluster.

HA-SAM, une configuration de système de fichiers QFS partagé, haute disponibilité et avec archivage

La configuration Oracle Hierarchical Storage Manager (HA-SAM) haute disponibilité garantit la disponibilité d'un système de fichiers d'archivage en s'assurant que le serveur de métadonnées QFS et l'application Oracle Hierarchical Storage Manager continuent de fonctionner en cas de panne d'un hôte de serveur. Le système de fichiers est partagé entre les serveurs de métadonnées QFS actifs et potentiels hébergés sur un cluster à deux noeuds géré par le logiciel Solaris Cluster. Une ressource Oracle HSM haute disponibilité du type SUNW.qfs gère le basculement pour les serveurs.

En cas de panne du noeud du serveur de métadonnées Oracle HSM actif, le logiciel de clustering active automatiquement le noeud du serveur de métadonnées potentiel et lance le basculement. Le système de fichiers QFS étant partagé et déjà monté sur tous les noeuds, l'accès aux données et métadonnées reste ininterrompu.

Les clients accèdent aux données par le biais du système de fichiers réseau (NFS), du système de fichiers réseau haute disponibilité (HA-NFS) ou des partages SMB/CIFS avec le noeud de cluster actif jouant le rôle de serveur de fichiers.

Pour obtenir des instructions d'implémentation, reportez-vous à la Systèmes de fichiers d'archivage partagés Oracle HSM haute disponibilité,.

SC-RAC, une configuration de système de fichiers QFS partagé et haute disponibilité pour Oracle RAC

La configuration SC-RAC (Solaris Cluster-Oracle Real Application Cluster) prend en charge les solutions de base de données haute disponibilité qui utilisent les systèmes de fichiers QFS. Le logiciel RAC coordonne les demandes d'E/S, distribue la charge de travail et conserve un ensemble unique et cohérent de fichiers de base de données pour plusieurs instances Oracle Database exécutées sur les noeuds d'un cluster. Dans la configuration SC-RAC, Oracle Database, Oracle Real Application Cluster (RAC) et le logiciel QFS sont exécutés sur deux noeuds du cluster ou plus. Le logiciel Solaris Cluster gère le cluster comme une ressource de type SUNW.qfs. Un noeud est configuré en tant que serveur de métadonnées (MDS) d'un système de fichiers partagé QFS. Les autres noeuds sont configurés en tant que serveurs de métadonnées potentiels qui partagent le système de fichiers en tant que clients. Si le noeud du serveur de métadonnées actif tombe en panne, le logiciel Solaris Cluster active automatiquement un serveur de métadonnées potentiel sur un noeud en bon état et lance le basculement. Le système de fichiers QFS étant partagé et déjà monté sur tous les noeuds, l'accès aux données reste ininterrompu.

Systèmes de fichiers non partagés QFS haute disponibilité

Pour configurer un système de fichiers QFS haute disponibilité (HA-QFS), vous devez configurer deux hôtes identiques dans un cluster Solaris à deux noeuds géré en tant que ressource du type SUNW.HAStoragePlus. Vous devez ensuite configurer un système de fichiers QFS non partagé sur les deux noeuds. Seul un noeud monte le système de fichiers à tout moment. Cependant, si un noeud tombe en panne, le logiciel de clustering lance automatiquement le basculement et remonte le système de fichiers sur le noeud restant.

Pour configurer un système de fichiers QFS haute disponibilité (HA-QFS), procédez comme suit :

Création de systèmes de fichiers QFS non partagés sur les deux noeuds du cluster

  1. Connectez-vous à l'un des noeuds du cluster en tant qu'utilisateur root.

    Dans l'exemple, les hôtes sont qfs1mds-node1 et qfs1mds-node2. Nous nous connectons à l'hôte qfs1mds-node1 :

    [qfs1mds-node1]root@solaris:~# 
    
  2. Configurez le système de fichiers QFS souhaité sur l'hôte, mais ne le montez pas.

    Configurez le système de fichiers à l'aide des instructions fournies dans la Configuration d'un système de fichiers ms à usage généraliste ou la Configuration d'un système de fichiers ma haute performance. La configuration HA-QFS ne prend pas en charge les systèmes de fichiers partagés QFS.

  3. Connectez-vous au noeud de cluster restant en tant qu'utilisateur root.

    Dans l'exemple, nous nous connectons à l'hôte qfs1mds-node2 à l'aide de ssh :

    [qfs1mds-node1]root@solaris:~# ssh root@qfs1mds-node2
    Password:
    [qfs1mds-node2]root@solaris:~# 
    
  4. Configurez un système de fichiers QFS identique sur le deuxième noeud.

  5. Puis, configurez le système de fichiers QFS haute disponibilité.

Configuration du système de fichiers QFS haute disponibilité

Procédez comme suit :

  1. Connectez-vous à l'un des noeuds du cluster en tant qu'utilisateur root.

    Dans l'exemple, les hôtes sont qfs1mds-node1 et qfs1mds-node2. Nous nous connectons à l'hôte qfs1mds-node1 :

    [qfs1mds-node1]root@solaris:~# 
    
  2. Si vous ne l'avez pas déjà fait, définissez le type de ressource SUNW.HAStoragePlus pour le logiciel Solaris Cluster. Exécutez la commande clresourcetype register SUNW.HAStoragePlus.

    HAStoragePlus est le type de ressource Solaris Cluster qui définit et gère les dépendances entre les groupes de périphériques de disque, les systèmes de fichiers en cluster et les systèmes de fichiers locaux. Il coordonne le démarrage du basculement des services de données, de sorte que tous les composants requis soient prêts lorsque le service tente de redémarrer. Pour plus d'informations, reportez-vous à la page de manuel SUNW.HAStoragePlus.

    [qfs1mds-node1]root@solaris:~# clresourcetype register SUNW.HAStoragePlus
    [qfs1mds-node1]root@solaris:~# 
    
  3. Créez une nouvelle ressource Solaris Cluster du type SUNW.HAStoragePlus et un nouveau groupe de ressources pour la contenir. Exécutez la commande /usr/global/bin/clresource create -g resource-group -t SUNW.HAStoragePlus -x FilesystemMountPoints=/global/mount-point -x FilesystemCheckCommand=/bin/true QFS-resource, où :

    • resource-group correspond au nom que vous avez choisi pour le groupe de ressources du système de fichiers.

    • mount-point correspond au répertoire dans lequel le système de fichiers QFS est monté.

    • QFS-resource correspond au nom que vous avez donné à la ressource SUNW.HAStoragePlus.

    Dans cet exemple, nous créons le groupe de ressources qfsrg avec le répertoire de point de montage /global/qfs1 et la ressource SUNW.HAStoragePlus haqfs (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs1mds-node1]root@solaris:~# clresource create -g qfsrg -t SUNW.HAStoragePlus \
    -x FilesystemMountPoints=/global/hsmqfs1/qfs1 \
    -x FilesystemCheckCommand=/bin/true haqfs 
    [qfs1mds-node1]root@solaris:~# 
    
  4. Affichez les noeuds dans le cluster. Exécutez la commande clresourcegroup status.

    Dans l'exemple, les noeuds de l'hôte du système de fichiers QFS sont qfs1mds-1 et qfs1mds-2. Le noeud qfs1mds-1 est en ligne (Online). Il s'agit donc du noeud principal qui monte le système de fichiers et héberge le groupe de ressources qfsrg :

    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name    Node Name    Suspended   Status
    ----------    ---------    ---------   ------
    qfsrg         qfs1mds-1    No          Online
                  qfs1mds-2    No          Offline
    [qfs1mds-node1]root@solaris:~# 
    
  5. Assurez-vous que le groupe de ressources bascule correctement en déplaçant le groupe de ressources vers le noeud secondaire. Exécutez la commande Solaris Cluster clresourcegroup switch -n node2 group-name, où node2 correspond au nom du noeud secondaire et group-name correspond au nom que vous avez choisi pour le groupe de ressources HA-QFS. Exécutez ensuite clresourcegroup status pour vérifier le résultat.

    Dans l'exemple, nous déplaçons le groupe de ressources haqfs vers qfs1mds-node2 et confirmons que le groupe de ressources se met en ligne sur le noeud spécifié :

    [qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node2 qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name    Node Name    Suspended   Status
    ----------    ---------    ---------   ------
    qfsrg         qfs1mds-1    No          Offline
                  qfs1mds-2    No          Online
    [qfs1mds-node1]root@solaris:~# 
    
  6. Replacez le groupe de ressources sur le noeud principal. Exécutez la commande Solaris Cluster clresourcegroup switch -n node1 group-name, où node1 correspond au nom du noeud principal et group-name correspond au nom que vous avez choisi pour le groupe de ressources HA-QFS. Exécutez ensuite clresourcegroup status pour vérifier le résultat.

    Dans l'exemple, nous avons replacé le groupe de ressources qfsrg sur qfs1mds-node1 :

    [qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node1 qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsrg       qfs1mds-node1   No          Online
                qfs1mds-node2   No          Offline
    [qfs1mds-node1]root@solaris:~# 
    
  7. Si vous avez besoin de configurer le partage HA-NFS (système de fichiers réseau haute disponibilité), faites-le maintenant. Pour obtenir des instructions, reportez-vous au manuel Oracle Solaris Cluster Data Service for Network File System (NFS) Guide inclus dans la bibliothèque de documentation en ligne Oracle Solaris Cluster.

  8. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  9. Sinon, passez à la Configuration des notifications et de la journalisation.

Systèmes de fichiers partagés QFS haute disponibilité, clients en dehors du cluster

La configuration HA-COTC (haute disponibilité-clients en dehors du cluster) est un système de fichiers partagé QFS sans archivage qui héberge le serveur de métadonnées (MDS) essentiel sur les noeuds d'un cluster haute disponibilité géré par le logiciel Solaris Cluster. Cette disposition fournit la protection via basculement pour les métadonnées QFS et les baux d'accès aux fichiers, de sorte que les clients du système de fichiers ne perdent pas l'accès à leurs données si un serveur tombe en panne. Les clients de système de fichiers et les périphériques de données restent toutefois hors du cluster, de sorte que Solaris Cluster lutte contre le logiciel QFS pour le contrôle des données partagées QFS.

Pour configurer un système de fichiers HA-COTC, effectuez les tâches ci-dessous :

Création d'un fichier d'hôtes de système de fichiers partagé QFS sur les deux noeuds du cluster HA-COTC

Dans un système de fichiers partagé QFS, vous devez configurer un fichier d'hôtes sur les serveurs de métadonnées, de sorte que tous les hôtes puissent accéder aux métadonnées pour le système de fichiers. Le fichier d'hôtes est stocké avec le fichier mcf dans le répertoire /etc/opt/SUNWsamfs/. Lors de la création initiale d'un système de fichiers partagé, la commande sammkfs -S configure le partage selon les paramètres stockés dans ce fichier. Créez-le maintenant en appliquant la procédure ci-dessous.

  1. Connectez-vous au noeud principal du cluster HA-COTC en tant qu'utilisateur root.

    Dans l'exemple, les hôtes sont qfs1mds-node1 et qfs1mds-node2. Nous nous connectons à l'hôte qfs1mds-node1 :

    [qfs1mds-node1]root@solaris:~# 
    
  2. Affichez la configuration du cluster. Exécutez la commande /usr/global/bin/cluster show. Recherchez l'enregistrement de chaque nom de noeud (Node Name), puis notez le privatehostname, le nom de Transport Adapter et la propriété ip_address de chaque adaptateur réseau.

    Les sorties des commandes peuvent être très longues. Ainsi, dans les exemples ci-dessous, les affichages trop longs sont abrégés à l'aide de points de suspension (...).

    Dans les exemples, chaque noeud comporte deux interfaces réseau, qfe3 et hme0 :

    • Les adaptateurs hme0 disposent d'adresses IP sur le réseau privé que le cluster utilise pour la communication interne entre les noeuds. Le logiciel Solaris Cluster attribue un nom d'hôte privé correspondant à chaque adresse privée.

      Par défaut, le nom d'hôte privé du noeud principal est clusternode1-priv et le nom d'hôte privé du noeud secondaire est clusternode2-priv.

    • Les adaptateurs qfe3 disposent d'adresses IP et de noms d'hôte publics (qfs1mds-node1 et qfs1mds-node2) que le cluster utilise pour le transport de données.

    [qfs1mds-node1]root@solaris:~# cluster show
    ...
      === Cluster Nodes ===                        
      Node Name:                                    qfs1mds-node1...
        privatehostname:                               clusternode1-priv...
        Transport Adapter List:                        qfe3, hme0...
        Transport Adapter:                          qfe3...
          Adapter Property(ip_address):                172.16.0.12...
        Transport Adapter:                          hme0...
          Adapter Property(ip_address):                10.0.0.129...
      Node Name:                                    qfs1mds-node2...
        privatehostname:                               clusternode2-priv...
        Transport Adapter List:                        qfe3, hme0...
          Adapter Property(ip_address):                172.16.0.13...
        Transport Adapter:                          hme0
          Adapter Property(ip_address):                10.0.0.122
    
  3. A l'aide d'un éditeur de texte, créez le fichier /etc/opt/SUNWsamfs/hosts.family-set-name sur le serveur de métadonnées, où family-set-name correspond au nom de famille du système de fichiers.

    Dans cet exemple, nous créons le fichier hosts.qfs1 à l'aide de l'éditeur de texte vi. Nous ajoutons des en-têtes facultatives pour afficher les colonnes dans la table des hôtes, en commençant chaque ligne par le signe dièse (#), lequel indique un commentaire :

    [qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1
    # /etc/opt/SUNWsamfs/hosts.qfs1
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    
  4. Dans la première colonne de la table, entrez les noms d'hôte des noeuds du serveur de métadonnées principal et secondaire, suivis par des espaces. Placez chaque entrée sur une ligne séparée.

    Dans un fichier d'hôtes, les lignes sont des rangées (enregistrements) et les espaces sont des séparateurs de colonnes (champ). Dans cet exemple, la colonne Host Name des deux premières lignes contient les valeurs qfs1mds-node1 et qfs1mds-node2, soit les noms d'hôte des noeuds de cluster qui hébergent les serveurs de métadonnées pour le système de fichiers :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  
    qfs1mds-node2  
    
  5. Dans la deuxième colonne de chaque ligne, commencez à fournir des informations Network Interface pour l'hôte Host Name. Saisissez le nom d'hôte privé ou l'adresse réseau privée Solaris Cluster de chaque noeud de cluster HA-COTC, suivi d'une virgule.

    Les noeuds du serveur HA-COTC utilisent les noms d'hôte privés pour les communications de serveur à serveur au sein du cluster haute disponibilité. Dans cet exemple, nous utilisons les noms d'hôte privés clusternode1-priv et clusternode2-priv qui sont les noms par défaut assignés par le logiciel Solaris Cluster :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,  
    qfs1mds-node2  clusternode2-priv,  
    
  6. A la suite de la virgule dans la deuxième colonne de chaque ligne, entrez un nom d'hôte public virtuel pour le serveur de métadonnées actif, suivi par des espaces.

    Les noeuds de serveur HA-COTC utilisent le réseau de données public pour communiquer avec les clients, chacun résidant hors du cluster. Dans la mesure où l'adresse IP et le nom d'hôte du serveur de métadonnées actif changent lors du basculement (de qfs1mds-node1 à qfs1mds-node2 et inversement), nous utilisons un nom d'hôte virtuel (qfs1mds) pour les deux. Ultérieurement, nous configurerons le logiciel Solaris Cluster pour toujours acheminer les demandes pour qfs1mds vers le serveur de métadonnées actif :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds  
    qfs1mds-node2  clusternode2-priv,qfs1mds  
    
  7. Dans la troisième colonne de chaque ligne, indiquez le nombre ordinal du serveur (1 pour le serveur de métadonnées actif et 2 pour le serveur de métadonnées potentiel), suivi par des espaces.

    Dans cet exemple, il n'existe qu'un seul serveur de métadonnées : le noeud principal, qfs1mds-node1, est le serveur de métadonnées actif. Il s'agit donc du nombre ordinal 1. Le second noeud, qfs1mds-node2, correspond au nombre ordinal 2 :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds      1
    qfs1mds-node2  clusternode2-priv,qfs1mds      2
    
  8. Dans la quatrième colonne de chaque ligne, entrez 0 (zéro), suivi par des espaces.

    Un 0 (zéro), un - (tiret) ou une valeur vierge dans la quatrième colonne indique que l'hôte est activé (on) : configuré avec accès au système de fichiers partagé. Un 1 (chiffre un) indique que l'hôte est désactivé off, configuré sans accès au système de fichiers (pour plus d'informations sur l'utilisation de ces valeurs lors de l'administration des systèmes de fichiers partagés, reportez-vous à la page de manuel samsharefs).

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds      1        0
    qfs1mds-node2  clusternode2-priv,qfs1mds      2        0
    
  9. Dans la cinquième colonne de la ligne du noeud principal, entrez le mot-clé server.

    Le mot-clé server identifie le serveur de métadonnées actif par défaut.

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds      1        0    server
    qfs1mds-node2  clusternode2-priv,qfs1mds      2        0   
     
    
  10. Ajoutez une ligne pour chaque hôte client, en définissant la valeur de Server Ordinal sur 0. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Le nombre ordinal de serveur 0 identifie l'hôte comme un client plutôt qu'un serveur. Les clients HA-COTC ne sont pas membres du cluster et, par conséquent, communiquent uniquement via le réseau de données public du cluster. Ils disposent uniquement d'adresses IP publiques. Dans cet exemple, nous ajoutons deux clients, qfs1client1 et qfs1client2, par leur adresse IP publique, 172.16.0.133 et 172.16.0.147 plutôt que par leur nom d'hôte :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv,qfs1mds      1        0    server
    qfs1mds-node2  clusternode2-priv,qfs1mds      2        0    
    qfs1client1    172.16.0.133                   0        0
    qfs1client2    172.16.0.147                   0        0
    :wq
    [qfs1mds-node1]root@solaris:~# 
    
  11. Placez une copie du fichier /etc/opt/SUNWsamfs/hosts.family-set-name global sur le serveur de métadonnées potentiel QFS (le second noeud du cluster HA-COTC).

  12. Procédez maintenant à la création des fichiers d'hôtes locaux sur les serveurs QFS et les clients en dehors du cluster HA-COTC.

Création des fichiers d'hôtes locaux sur les serveurs QFS et les clients en dehors du cluster HA-COTC

Dans une configuration haute disponibilité qui partage un système de fichiers avec les clients en dehors du cluster, vous devez vous assurer que les clients communiquent uniquement avec les serveurs du système de fichiers à l'aide du réseau de données public défini par le logiciel Solaris Cluster. Pour ce faire, vous utilisez des fichiers d'hôtes locaux QFS spécifiquement configurés pour acheminer de manière sélective le trafic réseau entre les clients et plusieurs interfaces réseau sur le serveur.

Chaque hôte du système de fichiers identifie les interfaces réseau des autres hôtes en commençant par vérifier le fichier /etc/opt/SUNWsamfs/hosts.family-set-name sur le serveur de métadonnées. Il vérifie ensuite son propre fichier /etc/opt/SUNWsamfs/hosts.family-set-name.local. S'il n'y a pas de fichier d'hôtes local, l'hôte utilise les adresses d'interfaces spécifiées dans le fichier d'hôtes global, dans l'ordre spécifié dans le fichier global. S'il y a un fichier d'hôtes local, l'hôte le compare avec le fichier global et utilise uniquement les interfaces répertoriées dans les deux fichiers, dans l'ordre spécifié dans le fichier local. En utilisant différentes adresses dans différentes dispositions dans chaque fichier, vous pouvez contrôler les interfaces utilisées par différents hôtes.

Pour configurer les fichiers d'hôtes locaux, suivez la procédure décrite ci-dessous :

  1. Connectez-vous au noeud principal du cluster HA-COTC en tant qu'utilisateur root.

    Dans l'exemple, les hôtes sont qfs1mds-node1 et qfs1mds-node2. Nous nous connectons à l'hôte qfs1mds-node1 :

    [qfs1mds-node1]root@solaris:~# 
    
  2. Création de fichiers d'hôtes locaux sur chacun des serveurs de métadonnées actif et potentiel. A l'aide du chemin et du nom de fichier /etc/opt/SUNWsamfs/hosts.family-set-name.local, où family-set-name correspond à l'identificateur d'équipement du système de fichiers partagé. Incluez uniquement les interfaces pour les réseaux que vous souhaitez que les serveurs actifs et potentiels utilisent.

    Dans notre exemple, nous souhaitons que les serveurs de métadonnées actifs et potentiels communiquent entre eux via le réseau privé et avec les clients via le réseau public. Ainsi, le fichier d'hôtes local sur les serveurs actifs et potentiels, hosts.qfs1.local, répertorie uniquement les adresses privées du cluster pour les serveurs actifs et potentiels :

    [qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local
    # /etc/opt/SUNWsamfs/hosts.qfs1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv              1        0    server 
    qfs1mds-node2  clusternode2-priv              2        0   
    qfs1client1    172.16.0.133                   0        0
    qfs1client2    172.16.0.147                   0        0
    :wq
    [qfs1mds-node1]root@solaris:~# ssh root@qfs1mds-node2
    Password:
    
    [qfs1mds-node2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local
    # /etc/opt/SUNWsamfs/hosts.qfs1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds-node1  clusternode1-priv              1        0    server 
    qfs1mds-node2  clusternode2-priv              2        0   
    qfs1client1    172.16.0.133                   0        0
    qfs1client2    172.16.0.147                   0        0
    :wq
    [qfs1mds-node2]root@solaris:~# exit
    [qfs1mds-node1]root@solaris:~# 
    
  3. Utilisez un éditeur de texte pour créer un fichier d'hôtes local sur chacun des clients. A l'aide du chemin et du nom de fichier /etc/opt/SUNWsamfs/hosts.family-set-name.local, où family-set-name correspond à l'identificateur d'équipement du système de fichiers partagé. Incluez uniquement les interfaces pour les réseaux que vous souhaitez que les clients utilisent. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Dans notre exemple, nous utilisons l'éditeur vi. Nous souhaitons que les clients communiquent uniquement avec les serveurs via le réseau de données public. Le fichier ne comprend donc que le nom d'hôte virtuel pour le serveur de métadonnées actif qfs1mds. Le logiciel Solaris Cluster achemine les demandes pour qfs1mds vers le noeud de serveur actif :

    [qfs1mds-node1]root@solaris:~# ssh root@qfsclient1
    Password:
    [qfs1client1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local
    # /etc/opt/SUNWsamfs/hosts.qfs1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds        qfs1mds                        1        0    server 
    :wq
    qfs1client1]root@solaris:~# exit
    [qfs1mds-node1]root@solaris:~# ssh root@qfs1client2
    Password:
    [qfs1client2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1.local
    # /etc/opt/SUNWsamfs/hosts.qfs1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    qfs1mds        qfs1mds                        1        0    server 
    :wq
    [qfs1client2]root@solaris:~# exit
    [qfs1mds-node1]root@solaris:~# 
    
  4. Procédez ensuite à la configuration d'un serveur de métadonnées QFS actif sur le noeud principal du cluster HA-COTC.

Configuration d'un serveur de métadonnées QFS actif sur le noeud principal du cluster HA-COTC

Pour configurer le serveur de métadonnées actif, effectuez les tâches suivantes :

Création d'un système de fichiers QFS haute performance sur le noeud HA-COTC principal

  1. Sélectionnez le noeud du cluster qui servira à la fois de noeud principal pour le cluster HA-COTC et de serveur de métadonnées actif pour le système de fichiers partagé QFS. Connectez-vous en tant que root.

    Dans l'exemple, qfs1mds-node1 correspond au noeud principal et au serveur de métadonnées actif :

    [qfs1mds-node1]root@solaris:~# 
    
  2. Sélectionnez les périphériques de stockage globaux qui seront utilisés pour le système de fichiers QFS. Exécutez la commande /usr/global/bin/cldevice list -v de Solaris Cluster.

    Le logiciel Solaris Cluster assigne des identificateurs de périphériques (DID) uniques à tous les périphériques qui se connectent aux noeuds du cluster. Les périphériques globaux sont accessibles depuis tous les noeuds du cluster, tandis que les périphériques locaux sont accessibles uniquement depuis les hôtes qui les montent. Les périphériques globaux restent accessibles à la suite d'un basculement. Ce n'est pas le cas des périphériques locaux.

    Dans l'exemple, notez que les périphériques d1, d2, d7 et d8 ne sont pas accessibles depuis les deux noeuds. Nous effectuons donc la sélection parmi les périphériques d3, d4 et d5 lors de la configuration du système de fichiers partagé QFS haute disponibilité :

    [qfs1mds-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path
    ----------          ----------------
    d1                  qfs1mds-node1:/dev/rdsk/c0t0d0
    d2                  qfs1mds-node1:/dev/rdsk/c0t6d0
    d3                  qfs1mds-node1:/dev/rdsk/c1t1d0
    d3                  qfs1mds-node2:/dev/rdsk/c1t1d0
    d4                  qfs1mds-node1:/dev/rdsk/c1t2d0
    d4                  qfs1mds-node2:/dev/rdsk/c1t2d0
    d5                  qfs1mds-node1:/dev/rdsk/c1t3d0
    d5                  qfs1mds-node2:/dev/rdsk/c1t3d0
    d6                  qfs1mds-node2:/dev/rdsk/c0t0d0
    d7                  qfs1mds-node2:/dev/rdsk/c0t1d0
    
  3. Sur le noeud principal sélectionné, créez un système de fichiers ma haute performance qui utilise les périphériques de données md ou mr. Dans un éditeur de texte, ouvrez le fichier /etc/opt/SUNWsamfs/mcf.

    Dans l'exemple, nous configurons le système de fichiers qfs1. Nous configurons le périphérique d3 en tant que périphérique de métadonnées (type d'équipement mm), et utilisons d4 et d5 comme périphériques de données (type d'équipement mr) :

    [qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1     -        
     /dev/did/dsk/d3s0     101        mm         qfs1     -
     /dev/did/dsk/d4s0     102        mr         qfs1     -
     /dev/did/dsk/d5s1     103        mr         qfs1     -
    
  4. Dans le fichier /etc/opt/SUNWsamfs/mcf, entrez le paramètre shared dans la colonne Additional Parameters de l'entrée du système de fichiers. Enregistrez le fichier.

    [qfs1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1     -        shared
     /dev/did/dsk/d3s0     101        mm         qfs1     -
     /dev/did/dsk/d4s0     102        mr         qfs1     -
     /dev/did/dsk/d5s1     103        mr         qfs1     -
    :wq
    [qfs1mds-node1]root@solaris:~# 
    
  5. Recherchez les erreurs éventuelles dans le fichier mcf. Exécutez la commande /opt/SUNWsamfs/sbin/sam-fsd et corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous vérifions le fichier mcf sur l'hôte qfs1mds-node1 :

    [qfs1mds-node1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1mds-node1]root@solaris:~# 
    
  6. Créez le système de fichiers. Exécutez la commande /opt/SUNWsamfs/sbin/sammkfs -S family-set-name, où family-set-name correspond à l'identificateur d'équipement du système de fichiers.

    La commande sammkfs lit les fichiers hosts.family-set-name et mcf sur le noeud principal, qfs1mds-node1, et crée un système de fichiers partagé avec les propriétés spécifiées.

    [qfs1mds-node1]root@solaris:~# sammkfs -S qfs1
    Building 'qfs1' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [qfs1mds-node1]root@solaris:~# 
    
  7. Procédez maintenant à l'exclusion des périphériques de données du contrôle de cluster.

Exclusion des périphériques de données du contrôle de cluster

Par défaut, le logiciel Solaris Cluster clôt les périphériques de disque pour l'utilisation exclusive du cluster. Dans les configurations HA-COTC, seuls les périphériques de métadonnées (mm) font partie du cluster. Les périphériques de données (mr) sont partagés avec les clients du système de fichiers en dehors du cluster et directement connectés aux hôtes du client. Vous devez donc placer les périphériques de données (mr) en dehors du contrôle du logiciel de cluster. Cela peut se faire de l'une des deux manières suivantes :

Désactivation de la séparation pour les périphériques de données QFS dans le cluster HA-COTC
  1. Connectez-vous au noeud principal du cluster HA-COTC et au serveur de métadonnées actif pour le système de fichiers partagé QFS. Connectez-vous en tant que root.

    Dans l'exemple, qfs1mds-node1 correspond au noeud principal et au serveur de métadonnées actif :

    [qfs1mds-node1]root@solaris:~# 
    
  2. Pour chaque périphérique de données (mr) défini dans le fichier /etc/opt/SUNWsamfs/mcf, désactivez la séparation. Exécutez la commande cldevice set -p default_fencing=nofencing-noscrub device-identifier, où device-identifier correspond à l'identificateur de périphérique répertorié pour le périphérique dans la première colonne du fichier mcf.

    Ne désactivez pas la séparation pour les périphériques de métadonnées (mm). Dans les configurations HA-COTC, les périphériques de métadonnées QFS (mm) font partie du cluster, contrairement aux périphériques de données partagés QFS (mr). Les périphériques de données sont directement connectés aux clients en dehors du cluster. Pour cette raison, les périphériques de données HA-COTC (mr) doivent être gérés en tant que périphériques locaux qui ne sont pas gérés par le logiciel Solaris Cluster. Sinon, le logiciel Solaris Cluster et QFS sont susceptibles de travailler de manière contradictoire et de corrompre les données.

    Dans les exemples ci-dessus, nous avons configuré les périphériques d4 et d5 en tant que périphériques de données pour le système de fichiers qfs1. Ainsi, nous désactivons globalement la séparation pour ces périphériques (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs1mds-node1]root@solaris:~# cldevice set -p \
    default_fencing=nofencing-noscrub d4
    [qfs1mds-node1]root@solaris:~# cldevice set -p \
    default_fencing=nofencing-noscrub d5 
    
  3. Procédez ensuite au montage du système de fichiers QFS sur le noeud principal du cluster HA-COTC.

Disposition des périphériques de données partagés dans un groupe de périphériques local uniquement sur le cluster HA-COTC
  1. Connectez-vous au noeud principal du cluster HA-COTC et au serveur de métadonnées actif pour le système de fichiers partagé QFS. Connectez-vous en tant que root.

    Dans l'exemple, qfs1mds-node1 correspond au noeud principal et au serveur de métadonnées actif :

    [qfs1mds-node1]root@solaris:~# 
    
  2. Placez tous les périphériques de données (mr) du système de fichiers dans un groupe de périphériques localonly. Utilisez la commande cldevicegroup set -d device-identifier-list -p localonly=true -n active-mds-node device-group, où device-list correspond à une liste séparée par des virgules d'identificateurs de périphériques, active-mds-node correspond au noeud principal sur lequel le serveur de métadonnées actif réside normalement et device-group correspond au nom que vous choisissez pour votre groupe de périphériques.

    Dans l'exemple suivant, nous plaçons les périphériques de données d4 et d5 (numéros d'équipement mcf 102 et 103) dans le groupe de périphériques local mdsdevgrp sur le noeud principal (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs1mds-node1]root@solaris:~# cldevicegroup set -d d4,d5 -p localonly=true \
    -n node1mds mdsdevgrp
    [qfs1mds-node1]root@solaris:~# 
    
  3. Procédez ensuite au montage du système de fichiers QFS sur le noeud principal du cluster HA-COTC.

Montage du système de fichiers QFS sur le noeud HA-COTC principal

  1. Connectez-vous au noeud principal du cluster HA-COTC et au serveur de métadonnées actif pour le système de fichiers partagé QFS. Connectez-vous en tant que root.

    Dans l'exemple, qfs1mds-node1 correspond au noeud principal et au serveur de métadonnées actif :

    [qfs1mds-node1]root@solaris:~# 
    
  2. Sauvegardez le fichier /etc/vfstab du système d'exploitation.

    [qfs1mds-node1]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    
  3. Ouvrez le fichier /etc/vfstab du système d'exploitation dans un éditeur de texte et démarrez une ligne pour le nouveau système de fichiers. Entrez le nom du système de fichiers dans la première colonne (Device to Mount) suivi d'un ou de plusieurs espaces.

    Dans l'exemple, utilisez l'éditeur de texte vi. Nous démarrons une ligne pour le système de fichiers qfs1 :

    [qfs1mds-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount         System  fsck  Mount    Mount
    #to Mount  to fsck  Point         Type    Pass  at Boot  Options
    #--------  -------  ------------  ------  ----  -------  ---------------------
    /devices   -        /devices      devfs   -     no       -
    /proc      -        /proc         proc    -     no       -
    ...
    qfs1       -       
     
    
  4. Dans la deuxième colonne du fichier /etc/vfstab (Device to fsck), entrez un tiret (-) suivi d'au moins un espace.

    Le tiret indique au système d'exploitation d'ignorer la vérification de l'intégrité du système de fichiers. Ces vérifications concernent les systèmes de fichiers UFS plutôt que SAMFS.

    [qfs1mds-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount         System  fsck  Mount    Mount
    #to Mount  to fsck  Point         Type    Pass  at Boot  Options
    #--------  -------  ------------  ------  ----  -------  ---------------------
    /devices   -        /devices      devfs   -     no       -
    /proc      -        /proc         proc    -     no       -
    ...
    qfs1       -       
     
    
  5. Dans la troisième colonne du fichier /etc/vfstab, entrez le point de montage du système de fichiers par rapport au cluster. Sélectionnez un sous-répertoire qui ne se trouve pas directement en dessous du répertoire root du système.

    Le montage d'un système de fichiers QFS partagé immédiatement sous la racine peut provoquer des problèmes de basculement lors de l'utilisation du type de ressource SUNW.qfs. Dans l'exemple, nous définissons le point de montage sur le cluster sur /global/ha-cotc/qfs1 :

    #File
    #Device    Device   Mount                 System  fsck  Mount    Mount
    #to Mount  to fsck  Point                 Type    Pass  at Boot  Options
    #--------  -------  --------------------  ------  ----  -------  --------------
    /devices   -        /devices              devfs   -     no       -
    /proc      -        /proc                 proc    -     no       -
    ...
    qfs1       -        /global/ha-cotc/qfs1  
    
  6. Renseignez les champs restants de l'enregistrement de fichier /etc/vfstab comme vous le feriez pour n'importe quel système de fichiers QFS partagé. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    #File
    #Device    Device   Mount                 System  fsck  Mount    Mount
    #to Mount  to fsck  Point                 Type    Pass  at Boot  Options
    #--------  -------  --------------------  ------  ----  -------  --------------
    /devices   -        /devices              devfs   -     no       -
    /proc      -        /proc                 proc    -     no       -
    ...
    qfs1       -        /global/ha-cotc/qfs1  samfs   -     no       shared
    :wq
    [qfs1mds-node1]root@solaris:~# 
    
  7. Créez un point de montage pour le système de fichiers partagé haute disponibilité.

    La commande mkdir avec l'option -p (parents) crée le répertoire /global s'il n'existe pas déjà :

    [qfs1mds-node1]root@solaris:~# mkdir -p /global/ha-cotc/qfs1
    
  8. Montez le système de fichiers partagé haute disponibilité sur le noeud principal.

    [qfs1mds-node1]root@solaris:~# mount /global/ha-cotc/qfs1
    
  9. Procédez ensuite à la configuration d'un serveur de métadonnées QFS potentiel sur le noeud secondaire du cluster HA-COTC.

Configuration d'un serveur de métadonnées QFS potentiel sur le noeud secondaire du cluster HA-COTC

Le noeud secondaire du cluster à deux noeuds sert de serveur de métadonnées potentiel. Un serveur de métadonnées potentiel est un hôte qui peut accéder aux périphériques de métadonnées et, par conséquent, endosser les responsabilités d'un serveur de métadonnées. Ainsi, si le serveur de métadonnées actif sur le noeud principal tombe en panne, le logiciel Solaris Cluster peut basculer sur le noeud secondaire et activer le serveur de métadonnées potentiel. Pour configurer le serveur de métadonnées potentiel, effectuez les tâches suivantes :

Création d'un système de fichiers QFS haute performance sur le noeud HA-COTC secondaire

  1. Connectez-vous au noeud secondaire sur le cluster HA-COTC en tant qu'utilisateur root.

    Dans l'exemple, qfs1mds-node2 est le noeud secondaire et le serveur de métadonnées potentiel :

    [qfs1mds-node2]root@solaris:~# 
    
  2. Copiez le fichier /etc/opt/SUNWsamfs/mcf du noeud principal vers le noeud secondaire.

  3. Recherchez les erreurs éventuelles dans le fichier mcf. Exécutez la commande /opt/SUNWsamfs/sbin/sam-fsd et corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous vérifions le fichier mcf sur l'hôte qfs1mds-node1 :

    [qfs1mds-node2]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1mds-node2]root@solaris:~# 
    
  4. Procédez ensuite au montage du système de fichiers QFS sur le noeud secondaire du cluster HA-COTC.

Montage du système de fichiers QFS sur le noeud HA-COTC secondaire

  1. Connectez-vous au noeud secondaire sur le cluster HA-COTC en tant qu'utilisateur root.

    Dans l'exemple, qfs1mds-node2 est le noeud secondaire :

    [qfs1mds-node2]root@solaris:~# 
    
  2. Sauvegardez le fichier /etc/vfstab du système d'exploitation.

    [qfs1mds-node2]root@solaris:~# cp /etc/vfstab /etc/vfstab.backup
    
  3. Ouvrez le fichier /etc/vfstab du système d'exploitation dans un éditeur de texte et ajoutez une ligne pour le nouveau système de fichiers. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Dans cet exemple, nous utilisons l'éditeur de texte vi :

    [qfs1mds-node2]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount                 System  fsck  Mount    Mount
    #to Mount  to fsck  Point                 Type    Pass  at Boot  Options
    #--------  -------  --------------------  ------  ----  -------  -------------
    /devices   -        /devices              devfs   -     no       -
    /proc      -        /proc                 proc    -     no       -
    ...
    qfs1       -        /global/ha-cotc/qfs1  samfs   -     no       shared
    :wq
    [qfs1mds-node2]root@solaris:~# 
    
  4. Créez le point de montage du système de fichiers partagé haute disponibilité sur le noeud secondaire.

    [qfs1mds-node2]root@solaris:~# mkdir -p /global/ha-cotc/qfs1
    [qfs1mds-node2]root@solaris:~# 
    
  5. Montez le système de fichiers partagé haute disponibilité sur le noeud secondaire.

    [qfs1mds-node2]root@solaris:~# mount /global/ha-cotc/qfs1
    [qfs1mds-node2]root@solaris:~# 
    
  6. Procédez maintenant à la configuration du basculement des serveurs de métadonnées HA-COTC.

Configuration du basculement des serveurs de métadonnées HA-COTC

Lorsque vous hébergez un système de fichiers partagé Oracle HSM dans un cluster géré par le logiciel Solaris Cluster, vous configurez le basculement des serveurs de métadonnées en créant une ressource de cluster SUNW.qfs, un type de ressource défini par le logiciel Oracle HSM (reportez-vous à la page de manuel SUNW.qfs pour plus d'informations). Pour créer et configurer la ressource pour une configuration HA-COTC, procédez comme suit :

  1. Connectez-vous au noeud principal dans le cluster HA-COTC en tant qu'utilisateur root.

    Dans l'exemple, qfs1mds-node1 est le noeud principal :

    [qfs1mds-node1]root@solaris:~# 
    
  2. Définissez le type de ressource QFS, SUNW.qfs, pour le logiciel Solaris Cluster. Exécutez la commande clresourcetype register SUNW.qfs.

    [qfs1mds-node1]root@solaris:~# clresourcetype register SUNW.qfs
    [qfs1mds-node1]root@solaris:~# 
    
  3. Si l'enregistrement échoue parce que le fichier d'enregistrement est introuvable, placez un lien symbolique vers le répertoire /opt/SUNWsamfs/sc/etc/ dans le répertoire dans lequel Solaris Cluster conserve les fichiers d'enregistrement de type de ressource, /opt/cluster/lib/rgm/rtreg/.

    Vous n'avez pas installé le logiciel Oracle Solaris Cluster avant d'installer le logiciel Oracle HSM. Normalement, Oracle HSM fournit automatiquement l'emplacement du fichier d'enregistrement SUNW.qfs lorsqu'il détecte Solaris Cluster durant l'installation. Vous devez donc créer un lien manuellement.

    [qfs1mds-node1]root@solaris:~# cd /opt/cluster/lib/rgm/rtreg/
    [qfs1mds-node1]root@solaris:~# ln -s /opt/SUNWsamfs/sc/etc/SUNW.qfs SUNW.qfs
    [qfs1mds-node1]root@solaris:~# 
    
  4. Créez un groupe de ressources pour le serveur de métadonnées QFS. Exécutez la commande Solaris Cluster clresourcegroup create -n node-list group-name, où node-list correspond à une liste séparée par des virgules des deux noms de noeud de cluster et group-name correspond au nom que nous souhaitons utiliser pour le groupe de ressources.

    Dans cet exemple, nous créons le groupe de ressources qfsrg avec les noeuds de serveur HA-COTC en tant que membres (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs1mds-node1]root@solaris:~# clresourcegroup create -n \ qfs1mds-node1,qfs1mds-node2 qfsrg
    [qfs1mds-node1]root@solaris:~# 
    
  5. Dans le nouveau groupe de ressources, configurez un nom d'hôte virtuel pour le serveur de métadonnées actif. Exécutez la commande Solaris Cluster clreslogicalhostname create -g group-name virtualMDS, où group-name correspond au nom du groupe de ressources QFS et virtualMDS correspond au nom d'hôte virtuel.

    Utilisez le même nom d'hôte virtuel que vous avez utilisé dans les fichiers d'hôtes pour le système de fichiers partagé. Dans l'exemple, nous créons l'hôte virtuel qfs1mds dans le groupe de ressources qfsr :

    [qfs1mds-node1]root@solaris:~# clreslogicalhostname create -g qfsrg qfs1mds
    
  6. Ajoutez les ressources du système de fichiers QFS au groupe de ressources. Exécutez la commande clresource create -g group-name -t SUNW.qfs -x QFSFileSystem=mount-point -y Resource_dependencies=virtualMDS resource-name, où :

    • group-name correspond au nom du groupe de ressources QFS.

    • mount-point correspond au point de montage du système de fichiers dans le cluster, un sous-répertoire qui n'est pas directement sous le répertoire root du système.

      Le montage d'un système de fichiers QFS partagé immédiatement sous la racine peut provoquer des problèmes de basculement lors de l'utilisation du type de ressource SUNW.qfs.

    • virtualMDS correspond au nom d'hôte virtuel du serveur de métadonnées actif.

    • resource-name correspond au nom que vous souhaitez donner à la ressource.

    Dans cet exemple, nous créons une ressource nommée hasqfs du type SUNW.qfs dans le groupe de ressources qfsrg. Nous définissons la propriété d'extension SUNW.qfs QFSFileSystem sur le point de montage /global/ha-cotc/qfs1 et définissons la propriété standard Resource_dependencies sur l'hôte logique pour le serveur de métadonnées actif, qfs1mds (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs1mds-node1]root@solaris:~# clresource create -g qfsrg -t SUNW.qfs \
    -x QFSFileSystem=/global/ha-cotc/qfs1 -y Resource_dependencies=qfs1mds hasqfs 
    
  7. Mettez le groupe de ressources en ligne. Exécutez la commande clresourcegroup online -emM group-name, où group-name correspond au nom du groupe de ressources QFS.

    Dans l'exemple, nous mettons en ligne le groupe de ressources qfsr :

    [qfs1mds-node1]root@solaris:~# clresourcegroup manage qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup online -emM qfsrg
    
  8. Assurez-vous que le groupe de ressources QFS est en ligne. Exécutez la commande Solaris Cluster clresourcegroup status.

    Dans l'exemple, le groupe de ressources qfsrg est online sur le noeud principal, sam1mds-node1 :

    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsrg       qfs1mds-node1   No          Online
                qfs1mds-node2   No          Offline
    
  9. Assurez-vous que le groupe de ressources bascule correctement en déplaçant le groupe de ressources vers le noeud secondaire. Exécutez la commande Solaris Cluster clresourcegroup switch -n node2 group-name, où node2 correspond au nom du noeud secondaire et group-name correspond au nom que vous avez choisi pour le groupe de ressources HA-QFS. Exécutez ensuite clresourcegroup status pour vérifier le résultat.

    Dans l'exemple, nous déplaçons le groupe de ressources qfsrg vers qfs1mds-node2 et confirmons que le groupe de ressources se met en ligne sur le noeud spécifié :

    [qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node2 qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsrg       qfs1mds-node1   No          Offline
                qfs1mds-node2   No          Online
    
  10. Replacez le groupe de ressources sur le noeud principal. Exécutez la commande Solaris Cluster clresourcegroup switch -n node1 group-name, où node1 correspond au nom du noeud principal et group-name correspond au nom que vous avez choisi pour le groupe de ressources HA-QFS. Exécutez ensuite clresourcegroup status pour vérifier le résultat.

    Dans l'exemple, nous avons replacé le groupe de ressources qfsrg sur qfs1mds-node1 :

    [qfs1mds-node1]root@solaris:~# clresourcegroup switch -n qfs1mds-node1 qfsrg
    [qfs1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsrg       qfs1mds-node1   No          Online
                qfs1mds-node2   No          Offline
    
  11. Procédez ensuite à la configuration des hôtes en dehors du cluster HA-COTC en tant que clients du système de fichiers partagé QFS.

Configuration des hôtes en dehors du cluster HA-COTC en tant que clients du système de fichiers partagé QFS

Configurez chaque hôte en tant que client QFS qui n'a pas accès aux périphériques de métadonnées du système de fichiers, de sorte que les clients n'interfèrent pas avec la configuration haute disponibilité des serveurs de métadonnées au sein du cluster.

Pour chaque client du système de fichiers partagé HA-COTC, procédez comme suit :

  1. Connectez-vous au noeud principal dans le cluster HA-COTC. Connectez-vous en tant que root.

    [qfs1mds-node1]root@solaris:~# 
    
  2. Affichez la configuration du périphérique du cluster. Exécutez la commande Solaris Cluster /usr/global/bin/cldevice list -v.

    [qfs1mds-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path 
    ----------          ----------------
    d1                  qfs1mds-node1:/dev/rdsk/c0t0d0 
    d2                  qfs1mds-node1:/dev/rdsk/c0t6d0
    ...
    d7                  qfs1mds-node2:/dev/rdsk/c0t1d0
    [qfs1mds-node1]root@solaris:~# 
    
  3. Observez la sortie de la commande cldevice list -v. Notez le chemin d'accès /dev/rdsk/ qui correspond à l'identificateur de périphérique pour chaque périphérique de données QFS (mr).

    Dans l'exemple, les périphériques de données QFS sont d4 et d5 :

    [qfs1mds-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path
    ----------          ----------------
    d1                  qfs1mds-node1:/dev/rdsk/c0t0d0
    d2                  qfs1mds-node1:/dev/rdsk/c0t6d0
    d3                  qfs1mds-node1:/dev/rdsk/c1t1d0
    d3                  qfs1mds-node2:/dev/rdsk/c1t1d0
    d4                  qfs1mds-node1:/dev/rdsk/c1t2d0
    d4                  qfs1mds-node2:/dev/rdsk/c1t2d0
    d5                  qfs1mds-node1:/dev/rdsk/c1t3d0
    d5                  qfs1mds-node2:/dev/rdsk/c1t3d0
    d6                  qfs1mds-node2:/dev/rdsk/c0t0d0
    d7                  qfs1mds-node2:/dev/rdsk/c0t1d0
    [qfs1mds-node1]root@solaris:~# 
    
  4. Connectez-vous à l'hôte client du cluster HA-COTC en tant qu'utilisateur root.

    Dans l'exemple, qfs1client1 est l'hôte client :

    [qfs1mds-node1]root@solaris:~# ssh root@qfs1client1
    [qfs1client1]root@solaris:~# 
    
  5. Sur l'hôte client, récupérez les informations de configuration pour le système de fichiers partagé. Exécutez la commande samfsconfig /dev/rdsk/*.

    La commande samfsconfig /dev/rdsk/* recherche le chemin d'accès spécifié des périphériques connectés qui appartiennent à un système de fichiers QFS. Dans l'exemple, la commande trouve les chemins vers les périphériques de données qfs1 (mr). Comme prévu, elle ne trouve pas les périphériques de métadonnées (mm) et renvoie donc les messages Missing slices et Ordinal 0 avant de répertorier les périphériques de données partagés :

    [qfs1client1]root@solaris:~# samfsconfig /dev/rdsk/*
    # Family Set 'qfs1' Created Thu Dec 21 07:17:00 2013
    # Missing slices
    # Ordinal 0
    # /dev/rdsk/c1t2d0s0   102        mr       qfs1  -
    # /dev/rdsk/c1t3d0s1   103        mr       qfs1  -
    
  6. Comparez la sortie de la commande samfsconfig à la sortie de la commande Solaris Cluster cldevice list sur le serveur. Assurez-vous que les deux affichent les mêmes chemins d'accès aux périphériques de données mr.

    Les commandes samfsconfig et cldevice list doivent indiquer les mêmes périphériques, mais les numéros de contrôleur (cN) sont susceptibles d'être différents. Dans l'exemple, les commandes samfsconfig et cldevice list pointent vers les mêmes périphériques.

    Sur le noeud du serveur de métadonnées, le fichier /etc/opt/SUNWsamfs/mcf identifie les périphériques de données mr 102 et 103 à l'aide des identificateurs de périphériques du cluster d4 et d5 :

     /dev/did/dsk/d4s0     102        mr         qfs1  -
     /dev/did/dsk/d5s1     103        mr         qfs1  -
    

    La commande cldevice list sur le serveur de métadonnées mappe les identificateurs de périphériques du cluster d4 et d5 vers les chemins /dev/rdisk/c1t2d0 et /dev/rdisk/c1t3d0 :

     d4                  qfs1mds-node1:/dev/rdsk/c1t2d0
     d5                  qfs1mds-node1:/dev/rdsk/c1t3d0
    

    Sur le noeud client, la commande samfsconfig identifie également les périphériques de données mr partagés 102 et 103 avec les chemins /dev/rdisk/c1t2d0 et /dev/rdisk/c1t3d0 :

     /dev/rdsk/c1t2d0s0    102        mr       qfs1  -
     /dev/rdsk/c1t3d0s1    103        mr       qfs1  -
    
  7. Ouvrez le fichier /etc/opt/SUNWsamfs/mcf du client dans un éditeur de texte. Ajoutez une entrée pour le système de fichiers partagé HA-COTC. Cette entrée doit correspondre parfaitement aux entrées des fichiers mcf du serveur de métadonnées.

    Dans cet exemple, nous utilisons l'éditeur vi pour créer une entrée pour le système de fichiers QFS partagé qfs1 (nombre ordinal d'équipement 100) :

    [qfs1client1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1     -        shared
    
  8. Sur une nouvelle ligne, démarrez une entrée pour les périphériques de métadonnées (mm) du système de fichiers partagé HA-COTC. Dans la première colonne (Equipment Identifier), entrez le mot clé nodev.

    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1      -       shared
     nodev
    
  9. Remplissez les champs restants pour les périphériques de métadonnées (mm) du système de fichiers HA-COTC avec les mêmes nombres ordinaux d'équipement, la même famille et les mêmes paramètres d'état de périphérique que ceux dans les fichiers mcf sur les serveurs de métadonnées.

    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   ----------------
    qfs1                  100        ma         qfs1      -       shared
     nodev                 101        mm         qfs1     -
    
  10. Copiez l'intégralité des entrées pour les périphériques de données (mr) à partir de la sortie samfsconfig. Collez les entrées dans le fichier /etc/opt/SUNWsamfs/mcf du client. Supprimez les marques de commentaire (#) du début insérées par samfsconfig. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   -----------------
    qfs1                  100        ma         qfs1      -       shared
     nodev                 101        mm         qfs1     -
     /dev/rdsk/c1t2d0s0    102        mr         qfs1     - 
     /dev/rdsk/c1t3d0s1    103        mr         qfs1     -
    :wq
    [qfs1client1]root@solaris:~# 
    
  11. Recherchez les erreurs éventuelles dans le fichier mcf. Exécutez la commande /opt/SUNWsamfs/sbin/sam-fsd et corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous vérifions le fichier mcf sur l'hôte qfs1client1 :

    [qfs1client1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1client1]root@solaris:~# 
    
  12. Ouvrez le fichier /etc/vfstab du système d'exploitation client dans un éditeur de texte et ajoutez une entrée pour le nouveau système de fichiers en utilisant les mêmes paramètres que sur le serveur. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Dans cet exemple, nous utilisons l'éditeur de texte vi :

    [qfs1client1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount                 System  fsck  Mount    Mount
    #to Mount  to fsck  Point                 Type    Pass  at Boot  Options
    #--------  -------  --------------------  ------  ----  -------  -------------
    /devices   -        /devices              devfs   -     no       -
    /proc      -        /proc                 proc    -     no       -
    ...
    qfs1       -        /global/ha-cotc/qfs1  samfs   -     no       shared
    :wq
    [qfs1client1]root@solaris:~# 
    
  13. Créez le point de montage du système de fichiers partagé haute disponibilité sur le client.

    [qfs1client1]root@solaris:~# mkdir -p /global/qfs1
    [qfs1client1]root@solaris:~# 
    
  14. Montez le système de fichiers partagé haute disponibilité sur le client.

    Dans l'exemple

    [qfs1client1]root@solaris:~# mount /global/qfs1
    [qfs1client1]root@solaris:~# 
    
  15. Répétez cette procédure jusqu'à ce que tous les clients HA-COTC soient configurés.

  16. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  17. Sinon, passez à la Configuration des notifications et de la journalisation.

Systèmes de fichiers d'archivage partagés Oracle HSM haute disponibilité

La configuration Oracle Hierarchical Storage Manager (HA-SAM) haute disponibilité garantit la disponibilité d'un système de fichiers d'archivage en s'assurant que le serveur de métadonnées QFS et l'application Oracle Hierarchical Storage Manager continuent de fonctionner en cas de panne d'un hôte de serveur. Le système de fichiers est partagé entre les serveurs de métadonnées QFS actifs et potentiels hébergés sur un cluster à deux noeuds géré par le logiciel Solaris Cluster. Si le noeud de cluster actif tombe en panne, le logiciel de clustering active automatiquement le serveur Oracle HSM potentiel sur le noeud restant et transfert le contrôle des opérations en cours. Les répertoires de stockage locaux de l'application Oracle HSM et du système de fichiers QFS étant déjà partagés et montés, l'accès aux données et aux métadonnées reste ininterrompu.

La configuration HA-SAM assure la cohérence du système de fichiers dans un environnement de cluster car elle permet d'envoyer toutes les E/S via le serveur de métadonnées actif. Vous partagez le système de fichiers HA-SAM uniquement pour des raisons liées à l'accessibilité. Vous ne pouvez pas utiliser l'hôte de serveur de métadonnées potentiel en tant que client du système de fichiers comme vous le feriez dans d'autres configurations de systèmes de fichiers partagés SAM-QFS. Le serveur de métadonnées potentiel n'exécute pas les E/S, à moins qu'il soit activé au cours du basculement du noeud. Vous pouvez partager un système de fichiers HA-SAM avec les clients utilisant NFS. Vous devez cependant vous assurer que les partages sont exportés exclusivement à partir du noeud de serveur de métadonnées actif.

Les systèmes de fichiers d'archivage haute disponibilité dépendent de trois types de ressources Solaris Cluster :

  • SUNW.hasam

    Si l'hôte principal tombe en panne, la ressource SUNW.hasam gère le basculement de l'application Oracle Hierarchical Storage Manager. Le logiciel SUNW.hasam est inclus dans la distribution du logiciel Oracle HSM.

  • SUNW.qfs

    Si l'hôte principal tombe en panne, la ressource SUNW.qfs gère le basculement pour le serveur de métadonnées QFS. Le logiciel SUNW.qfs est inclus dans la distribution du logiciel Oracle HSM (pour plus d'informations, reportez-vous à la page de manuel SUNW.qfs).

  • SUNW.HAStoragePlus

    Si l'hôte principal tombe en panne, la ressource SUNW.HAStoragePlus gère le basculement du stockage local de Oracle Hierarchical Storage Manager. L'application Oracle HSM conserve les informations d'archivage volatiles (files d'attente des tâches et catalogues de médias amovibles) dans le système de fichiers local de l'hôte du serveur. SUNW.HAStoragePlus est inclus dans le logiciel Solaris Cluster en tant que type de ressource standard (pour plus d'informations, reportez-vous à la documentation Administration et planification des services de données dans la Bibliothèque de documentation Oracle Solaris).

Pour configurer des instances des composants requis et les intégrer dans une configuration d'archivage HA-SAM qui fonctionne, effectuez les tâches suivantes :

Création d'un fichier d'hôtes global sur les deux noeuds du cluster HA-SAM

Dans un système de fichiers partagé Oracle HSM d'archivage, vous devez configurer un fichier d'hôtes sur les serveurs de métadonnées, de sorte que les hôtes sur les deux noeuds puissent accéder aux métadonnées pour le système de fichiers. Le fichier d'hôtes est stocké avec le fichier mcf dans le répertoire /etc/opt/SUNWsamfs/. Lors de la création initiale d'un système de fichiers partagé, la commande sammkfs -S configure le partage selon les paramètres stockés dans ce fichier. Créez-le maintenant en appliquant la procédure ci-dessous.

  1. Connectez-vous au noeud principal du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, sam1mds-node1 est le noeud principal :

    [sam1mds-node1]root@solaris:~# 
    
  2. Affichez la configuration du cluster. Exécutez la commande /usr/global/bin/cluster show. Dans la sortie, localisez l'enregistrement pour chaque Node Name et notez le privatehostname, le nom Transport Adapter et la propriété ip_address de chaque adaptateur réseau.

    Dans l'exemple, chaque noeud comporte deux interfaces réseau, hme0 et qfe3 :

    • Les adaptateurs hme0 disposent d'adresses IP sur le réseau privé que le cluster utilise pour la communication interne entre les noeuds. Le logiciel Solaris Cluster attribue un privatehostname qui correspond à chaque adresse privée.

      Par défaut, le nom d'hôte privé du noeud principal est clusternode1-priv et le nom d'hôte privé du noeud secondaire est clusternode2-priv.

    • Les adaptateurs qfe3 disposent d'adresses IP et de noms d'hôte publics (sam1mds-node1 et sam1mds-node2) que le cluster utilise pour le transport de données.

    Notez que l'affichage a été abrégé à l'aide de points de suspension (...) :

    [sam1mds-node1]root@solaris:~# cluster show
    ...
      === Cluster Nodes ===                        
      Node Name:                                    sam1mds-node1...
        privatehostname:                               clusternode1-priv...
        Transport Adapter List:                        qfe3, hme0...
        Transport Adapter:                          qfe3...
          Adapter Property(ip_address):                172.16.0.12...
        Transport Adapter:                          hme0...
          Adapter Property(ip_address):                10.0.0.129...
      Node Name:                                    sam1mds-node2...
        privatehostname:                               clusternode2-priv...
        Transport Adapter List:                        qfe3, hme0...
          Adapter Property(ip_address):                172.16.0.13...
        Transport Adapter:                          hme0...
          Adapter Property(ip_address):                10.0.0.122
    
  3. A l'aide d'un éditeur de texte, créez le fichier /etc/opt/SUNWsamfs/hosts.family-set-name, où family-set-name correspond au nom de famille que le fichier /etc/opt/SUNWsamfs/mcf assigne à l'équipement du système de fichiers.

    Dans l'exemple, nous créons le fichier hosts.sam1 à l'aide de l'éditeur de texte vi. Nous ajoutons des en-têtes facultatifs pour afficher les colonnes dans la table des hôtes, en commençant chaque ligne par le signe dièse (#) pour indiquer un commentaire :

    [sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sam1
    # /etc/opt/SUNWsamfs/hosts.sam1
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    
  4. Dans la première colonne de la table, entrez les noms d'hôte des noeuds de serveur de métadonnées principal et secondaire, suivis par des espaces, avec chaque entrée sur une ligne séparée.

    Dans un fichier d'hôtes, les lignes sont des rangées (enregistrements) et les espaces sont des séparateurs de colonnes (champ). Dans cet exemple, la colonne Host Name des deux premières lignes contient les valeurs sam1mds-node1 et sam1mds-node2, soit les noms d'hôte des noeuds de cluster qui hébergent les serveurs de métadonnées pour le système de fichiers :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  
    sam1mds-node2  
    
  5. Dans la deuxième colonne de chaque ligne, commencez par fournir les informations Network Interface pour les hôtes répertoriés dans la colonne Host Name. Saisissez le nom d'hôte privé ou l'adresse réseau privée Solaris Cluster de chaque noeud de cluster HA-SAM, suivi d'une virgule.

    Les noeuds du serveur HA-SAM utilisent les noms d'hôte privés pour les communications de serveur à serveur au sein du cluster haute disponibilité. Dans cet exemple, nous utilisons les noms d'hôte privés clusternode1-priv et clusternode2-priv qui sont les noms par défaut assignés par le logiciel Solaris Cluster :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,  
    sam1mds-node2  clusternode2-priv,  
    
  6. A la suite de la virgule dans la deuxième colonne de chaque ligne, entrez le nom d'hôte public pour le serveur de métadonnées actif, suivi par des espaces.

    Les noeuds du serveur HA-SAM utilisent le réseau de données public pour communiquer avec les hôtes en dehors du cluster. Dans la mesure où l'adresse IP et le nom d'hôte du serveur de métadonnées actif changent lors du basculement (de sam1mds-node1 à sam1mds-node2 et inversement), nous utilisons un nom d'hôte virtuel (sam1mds) pour les deux. Ultérieurement, nous configurerons le logiciel Solaris Cluster pour toujours acheminer les demandes pour sam1mds vers le serveur de métadonnées actif :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,sam1mds  
    sam1mds-node2  clusternode2-priv,sam1mds  
    
  7. Dans la troisième colonne de chaque ligne, indiquez le nombre ordinal du serveur (1 pour le serveur de métadonnées actif et 2 pour le serveur de métadonnées potentiel), suivi par des espaces.

    Dans cet exemple, il n'existe qu'un seul serveur de métadonnées : le noeud principal, sam1mds-node1, est le serveur de métadonnées actif, il s'agit donc du nombre ordinal 1, et le second noeud, sam1mds-node2, correspond au nombre ordinal 2 :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,sam1mds      1
    sam1mds-node2  clusternode2-priv,sam1mds      2
    
  8. Dans la quatrième colonne de chaque ligne, entrez 0 (zéro), suivi par des espaces.

    Le caractère 0, un trait d'union (-) ou une valeur vierge dans la quatrième colonne indiquent que l'hôte est activé (on), c'est-à-dire configuré avec un accès au système de fichiers partagé. Un 1 (chiffre un) indique que l'hôte est désactivé off, configuré sans accès au système de fichiers (pour plus d'informations sur l'utilisation de ces valeurs lors de l'administration des systèmes de fichiers partagés, reportez-vous à la page de manuel samsharefs).

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,sam1mds      1        0
    sam1mds-node2  clusternode2-priv,sam1mds      2        0
    
  9. Dans la cinquième colonne de la ligne du noeud principal, entrez le mot-clé server. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Le mot-clé server identifie le serveur de métadonnées actif par défaut :

    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv,sam1mds      1        0    server
    sam1mds-node2  clusternode2-priv,sam1mds      2        0   
    :wq
    [sam1mds-node1]root@solaris:~#  
    
  10. Placez une copie du fichier /etc/opt/SUNWsamfs/hosts.family-set-name global sur le serveur de métadonnées potentiel.

  11. Procédez maintenant à la création de fichiers d'hôtes locaux sur les deux noeuds du cluster HA-SAM.

Création de fichiers d'hôtes locaux sur les deux noeuds du cluster HA-SAM

Dans un système de fichiers d'archivage haute disponibilité, vous devez vous assurer que les serveurs communiquent entre eux à l'aide du réseau privé défini par le logiciel Solaris Cluster. Pour ce faire, vous utilisez des fichiers d'hôtes locaux spécifiquement configurés pour acheminer de manière sélective le trafic réseau entre les interfaces réseau sur les serveurs.

Chaque hôte du système de fichiers identifie les interfaces réseau des autres hôtes en commençant par vérifier le fichier /etc/opt/SUNWsamfs/hosts.family-set-name sur le serveur de métadonnées. Il vérifie ensuite son propre fichier /etc/opt/SUNWsamfs/hosts.family-set-name.local. S'il n'y a pas de fichier d'hôtes local, l'hôte utilise les adresses d'interfaces spécifiées dans le fichier d'hôtes global, dans l'ordre spécifié dans le fichier global. S'il y a un fichier d'hôtes local, l'hôte le compare avec le fichier global et utilise uniquement les interfaces répertoriées dans les deux fichiers, dans l'ordre spécifié dans le fichier local. En utilisant différentes adresses dans différentes dispositions dans chaque fichier, vous pouvez contrôler les interfaces utilisées par différents hôtes.

Pour configurer les fichiers d'hôtes locaux, suivez la procédure décrite ci-dessous :

  1. Connectez-vous au noeud principal du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, sam1mds-node1 est le noeud principal :

    [sam1mds-node1]root@solaris:~# 
    
  2. A l'aide d'un éditeur de texte, créez un fichier d'hôtes local sur le serveur de métadonnées actif, à l'aide du chemin et du nom de fichier /etc/opt/SUNWsamfs/hosts.family-set-name.local, où family-set-name correspond au nom de famille assigné par le fichier /etc/opt/SUNWsamfs/mcf à l'équipement du système de fichiers. Incluez uniquement les interfaces des réseaux que le serveur actif doit utiliser lors de la communication avec le serveur potentiel. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Dans notre exemple, nous souhaitons que les serveurs de métadonnées actifs et potentiels communiquent entre eux via le réseau privé. Ainsi, le fichier d'hôtes local sur le serveur de métadonnées actif, hosts.sam1.local, répertorie uniquement les adresses privées du cluster pour les serveurs actifs et potentiels :

    [sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sam1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv              1        0    server 
    sam1mds-node2  clusternode2-priv              2        0   
    :wq
    [sam1mds-node1]root@solaris:~# 
    
  3. Connectez-vous au noeud secondaire du cluster en tant qu'utilisateur root.

    Dans l'exemple, sam1mds-node2 est le noeud secondaire :

    [sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2
    Password:
    [sam1mds-node2]root@solaris:~# 
    
  4. Utilisez un éditeur de texte pour créer un fichier d'hôtes local sur le serveur de métadonnées potentiel. Utilisez le chemin et le nom de fichier /etc/opt/SUNWsamfs/hosts.family-set-name.local, où family-set-name correspond au nom de famille assigné par le fichier /etc/opt/SUNWsamfs/mcf à l'équipement du système de fichiers. Incluez uniquement les interfaces des réseaux que le serveur potentiel doit utiliser lors de la communication avec le serveur actif. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Dans notre exemple, nous souhaitons que les serveurs de métadonnées actifs et potentiels communiquent entre eux via le réseau privé. Ainsi, le fichier d'hôtes local sur le serveur de métadonnées potentiel, hosts.sam1.local, répertorie uniquement les adresses privées du cluster pour les serveurs actifs et potentiels :

    [sam1mds-node2]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.sam1.local
    #                                             Server   On/  Additional
    #Host Name     Network Interface              Ordinal  Off  Parameters
    #------------  -----------------------------  -------  ---  ----------
    sam1mds-node1  clusternode1-priv              1        0    server 
    sam1mds-node2  clusternode2-priv              2        0   
    :wq
    [sam1mds-node2]root@solaris:~# exit
    [sam1mds-node1]root@solaris:~# 
    
  5. Procédez ensuite à la configuration d'un serveur de métadonnées QFS actif sur le noeud principal du cluster HA-SAM.

Configuration d'un serveur de métadonnées QFS actif sur le noeud principal du cluster HA-SAM

  1. Sélectionnez le noeud du cluster qui servira à la fois de noeud principal pour le cluster HA-SAM et de serveur de métadonnées actif pour le système de fichiers partagé QFS. Connectez-vous en tant que root.

    Dans l'exemple, sam1mds-node1 est le noeud principal :

    [sam1mds-node1]root@solaris:~# 
    
  2. Sélectionnez les périphériques de stockage globaux qui seront utilisés pour le système de fichiers QFS. Exécutez la commande /usr/global/bin/cldevice list -v.

    Le logiciel Solaris Cluster assigne des identificateurs de périphériques (DID) uniques à tous les périphériques qui se connectent aux noeuds du cluster. Les périphériques globaux sont accessibles depuis tous les noeuds du cluster, tandis que les périphériques locaux sont accessibles uniquement depuis les hôtes qui les montent. Les périphériques globaux restent accessibles à la suite d'un basculement. Ce n'est pas le cas des périphériques locaux.

    Dans l'exemple, notez que les périphériques d1, d2, d7 et d8 ne sont pas accessibles depuis les deux noeuds. Nous effectuons donc la sélection parmi les périphériques d3, d4 et d5 lors de la configuration du système de fichiers partagé QFS haute disponibilité :

    [sam1mds-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path
    ----------          ----------------
    d1                  sam1mds-node1:/dev/rdsk/c0t0d0
    d2                  sam1mds-node1:/dev/rdsk/c0t6d0
    d3                  sam1mds-node1:/dev/rdsk/c1t1d0
    d3                  sam1mds-node2:/dev/rdsk/c1t1d0
    d4                  sam1mds-node1:/dev/rdsk/c1t2d0
    d4                  sam1mds-node2:/dev/rdsk/c1t2d0
    d5                  sam1mds-node1:/dev/rdsk/c1t3d0
    d5                  sam1mds-node2:/dev/rdsk/c1t3d0
    d6                  sam1mds-node2:/dev/rdsk/c0t0d0
    d7                  sam1mds-node2:/dev/rdsk/c0t1d0
    
  3. Sur le noeud principal sélectionné, créez un système de fichiers ma haute performance qui utilise les périphériques de données mr. Dans un éditeur de texte, ouvrez le fichier /etc/opt/SUNWsamfs/mcf.

    Dans l'exemple, nous configurons le système de fichiers sam1. Nous configurons le périphérique d3 en tant que périphérique de métadonnées (type d'équipement mm), et utilisons d4 et d5 comme périphériques de données (type d'équipement mr) :

    [sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   -----------------
    sam1                  100        ma         sam1     -        
     /dev/did/dsk/d3s0     101        mm         sam1     -
     /dev/did/dsk/d4s0     102        mr         sam1     -
     /dev/did/dsk/d5s1     103        mr         sam1     -
    
  4. Dans le fichier /etc/opt/SUNWsamfs/mcf, entrez le paramètre shared dans la colonne Additional Parameters de l'entrée du système de fichiers. Enregistrez le fichier.

    [sam1mds-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   -----------------
    sam1                  100        ma         sam1     -        shared
     /dev/did/dsk/d3s0     101        mm         sam1     -
     /dev/did/dsk/d4s0     102        mr         sam1     -
     /dev/did/dsk/d5s1     103        mr         sam1     -
    :wq
    [sam1mds-node1]root@solaris:~# 
    
  5. Recherchez les erreurs éventuelles dans le fichier mcf. Exécutez la commande /opt/SUNWsamfs/sbin/sam-fsd et corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous vérifions le fichier mcf sur l'hôte sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [sam1mds-node1]root@solaris:~# 
    
  6. Créez le système de fichiers. Exécutez la commande /opt/SUNWsamfs/sbin/sammkfs -S family-set-name, où family-set-name correspond au nom de famille que le fichier /etc/opt/SUNWsamfs/mcf assigne à l'équipement de système de fichiers.

    La commande sammkfs lit les fichiers hosts.family-set-name et mcf, et crée un système de fichiers Oracle HSM avec les propriétés spécifiées.

    [sam1mds-node1]root@solaris:~# sammkfs -S sam1
    Building 'sam1' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [sam1mds-node1]root@solaris:~# 
    
  7. Ouvrez le fichier /etc/vfstab du système d'exploitation dans un éditeur de texte et démarrez une ligne pour le nouveau système de fichiers. Entrez le nom du système de fichiers dans la première colonne, suivi d'espaces, puis un tiret dans la deuxième colonne, suivi d'espaces.

    Dans l'exemple, nous utilisons l'éditeur de texte vi. Nous démarrons une ligne pour le système de fichiers sam1. Le tiret empêche le système d'exploitation de tenter de vérifier l'intégrité du système de fichiers à l'aide des outils UFS :

    [sam1mds-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount         System  fsck  Mount    Mount
    #to Mount  to fsck  Point         Type    Pass  at Boot  Options
    #--------  -------  ------------  ------  ----  -------  ---------------------
    /devices   -        /devices      devfs   -     no       -
    /proc      -        /proc         proc    -     no       -
    ...
    sam1       -        
    
  8. Dans la troisième colonne du fichier /etc/vfstab, entrez le point de montage du système de fichiers par rapport au cluster. Sélectionnez un sous-répertoire qui ne se trouve pas directement en dessous du répertoire root du système.

    Le montage d'un système de fichiers QFS partagé immédiatement sous la racine peut provoquer des problèmes de basculement lors de l'utilisation du type de ressource SUNW.qfs. Dans l'exemple, nous définissons le point de montage sur le cluster sur /global/ha-sam/sam1 :

    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  ---------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-sam/sam1  
    
  9. Renseignez les champs restants de l'enregistrement de fichier /etc/vfstab comme vous le feriez pour n'importe quel système de fichiers partagé Oracle HSM. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  ---------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-sam/sam1 samfs   -     no       shared
    :wq
    [sam1mds-node1]root@solaris:~# 
    
  10. Créez un point de montage pour le système de fichiers haute disponibilité.

    La commande mkdir avec l'option -p (parents) crée le répertoire /global s'il n'existe pas déjà :

    [sam1mds-node1]root@solaris:~# mkdir -p /global/ha-sam/sam1
    
  11. Montez le système de fichiers partagé haute disponibilité sur le noeud principal.

    [sam1mds-node1]root@solaris:~# mount /global/ha-sam/sam1
    
  12. Procédez ensuite à la configuration d'un serveur de métadonnées QFS potentiel sur le noeud secondaire du cluster HA-SAM.

Configuration d'un serveur de métadonnées QFS potentiel sur le noeud secondaire du cluster HA-SAM

Le noeud secondaire du cluster à deux noeuds sert de serveur de métadonnées potentiel. Un serveur de métadonnées potentiel est un hôte qui peut accéder aux périphériques de métadonnées et, par conséquent, endosser les responsabilités d'un serveur de métadonnées. Ainsi, si le serveur de métadonnées actif sur le noeud principal tombe en panne, le logiciel Solaris Cluster peut basculer sur le noeud secondaire et activer le serveur de métadonnées potentiel.

  1. Connectez-vous au noeud secondaire du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, sam1mds-node2 est le noeud secondaire :

    [sam1mds-node2]root@solaris:~# 
    
  2. Copiez le fichier /etc/opt/SUNWsamfs/mcf du noeud principal vers le noeud secondaire.

  3. Recherchez les erreurs éventuelles dans le fichier mcf. Exécutez la commande /opt/SUNWsamfs/sbin/sam-fsd et corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous vérifions le fichier mcf sur l'hôte sam1mds-node1 :

    [sam1mds-node2]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [sam1mds-node2]root@solaris:~# 
    
  4. Créez le système de fichiers. Exécutez la commande /opt/SUNWsamfs/sbin/sammkfs -S family-set-name, où family-set-name correspond au nom de famille que le fichier /etc/opt/SUNWsamfs/mcf assigne à l'équipement de système de fichiers.

    La commande sammkfs lit les fichiers hosts.family-set-name et mcf, et crée un système de fichiers Oracle HSM avec les propriétés spécifiées.

    [sam1mds-node2]root@solaris:~# sammkfs sam1
    Building 'sam1' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [sam1mds-node2]root@solaris:~# 
    
  5. Ouvrez le fichier /etc/vfstab du système d'exploitation dans un éditeur de texte et ajoutez une ligne pour le nouveau système de fichiers. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Dans cet exemple, nous utilisons l'éditeur de texte vi :

    [sam1mds-node2]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  --------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-sam/sam1 samfs   -     no       shared
    :wq
    [sam1mds-node2]root@solaris:~# 
    
  6. Créez le point de montage du système de fichiers partagé haute disponibilité sur le noeud secondaire.

    [sam1mds-node2]root@solaris:~# mkdir -p /global/ha-sam/sam1
    
  7. Montez le système de fichiers partagé haute disponibilité sur le noeud secondaire.

    [sam1mds-node2]root@solaris:~# mount /global/ha-sam/sam1
    
  8. Procédez maintenant à la création du groupe de ressources du cluster HA-SAM.

Création du groupe de ressources du cluster HA-SAM

Créez le groupe de ressources qui gèrera les ressources haute disponibilité pour votre solution HA-SAM.

  1. Connectez-vous au noeud principal du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, le noeud principal est sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# 
    
  2. Créez un groupe de ressources Solaris Cluster pour gérer les ressources de la solution HA-SAM. Exécutez la commande clresourcegroup create -n node1,node2 groupname, où :

    • node1 correspond au nom d’hôte du principal noeud du cluster.

    • node2 correspond au nom d'hôte du noeud secondaire du cluster.

    • groupname correspond au nom que vous avez choisi pour le groupe de ressources HA-SAM.

    Dans cet exemple, nous créons un groupe de ressources nommé has-rg et incluons les hôtes sam1mds-node1 et sam1mds-node2 (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# clresourcegroup create \
    -n sam1mds-node1,sam1mds-node2 has-rg
    
  3. Procédez ensuite à la configuration d'un système de fichiers local haute disponibilité pour les fichiers de configuration Oracle HSM.

Configuration d'un système de fichiers local haute disponibilité pour les fichiers de configuration Oracle HSM

Pour réussir la reprise après un basculement, le logiciel Oracle HSM doit redémarrer les opérations d'archivage qui étaient en cours d'exécution au moment du basculement. Pour redémarrer les opérations d'archivage, le logiciel doit pouvoir accéder aux informations de configuration et d'état du système qui sont généralement stockées sur le système de fichiers local du serveur de métadonnées actif. Vous devez donc déplacer les informations nécessaires vers un système de fichiers local haute disponibilité qui reste toujours accessible à partir des deux noeuds du cluster.

Pour créer le système de fichiers nécessaire, procédez comme suit :

  1. Connectez-vous au noeud principal du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, le noeud principal est sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# 
    
  2. Sur le noeud principal du cluster, créez un système de fichiers UFS sur une tranche libre d'un périphérique global. Exécutez la commande newfs /dev/global/dsk/dXsY, où X correspond au numéro d'identificateur de périphérique (DID) du périphérique global et Y correspond au numéro de la tranche.

    Dans cet exemple, nous créons le nouveau système de fichiers sur /dev/global/dsk/d10s0 :

    [sam1mds-node1]root@solaris:~# newfs /dev/global/dsk/d10s0
    newfs: construct a new file system /dev/global/dsk/d10s0: (y/n)? y
    /dev/global/dsk/d10s0: 1112940 sectors in 1374 cylinders of 15 tracks,
    54 sectors 569.8MB in 86 cyl groups (16 c/g, 6.64MB/g, 3072 i/g) 
    super-block backups(for fsck -b #) at:
    32, 13056, 26080, 39104, 52128, 65152, 78176, 91200, 104224, . . .
    [sam1mds-node1]root@solaris:~# 
    
  3. Sur le noeud principal du cluster, ouvrez le fichier /etc/vfstab du système d'exploitation dans un éditeur de texte. Ajoutez une ligne pour le nouveau système de fichiers UFS. Enregistrez le fichier et fermez l'éditeur de texte.

    La ligne doit être une liste délimitée par des espaces sous la forme : /dev/global/dsk/dXsY /dev/global/dsk/dXsY /global/mount_point ufs 5 no global, où :

    • X correspond au numéro d'identificateur de périphérique (DID) du périphérique global qui détient le système de fichiers.

    • Y correspond au numéro de la tranche qui détient le système de fichiers.

    • /dev/global/dsk/dXsY correspond au nom du périphérique du système de fichiers qui sera monté.

    • /dev/global/dsk/dXsY correspond au nom du périphérique du système de fichiers qui sera vérifié par la commande fsck.

    • mount_point correspond au nom du sous-répertoire où le fichier UFS doit être monté.

    • ufs correspond au type du système de fichiers.

    • 5 correspond au numéro de passe fsck recommandé.

    • no indique au système d'exploitation qu'il ne doit pas monter le système de fichiers au démarrage.

    • global monte le système de fichiers pour que les deux noeuds disposent d'un accès.

    Dans l'exemple, nous utilisons l'éditeur de texte vi. Le nom du système de fichiers est /dev/global/dsk/d10s0 et le point de montage est /global/hasam_cfg (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  --------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-samsam1  samfs   -     no       shared
    /dev/global/dsk/d10s0   /dev/global/rdsk/d10s0  /global/hasam_cfg  ufs  5 \
         no   global
    :wq
    [sam1mds-node2]root@solaris:~# 
    
  4. Créez le point de montage du système de fichiers local haute disponibilité sur le noeud principal du cluster. Exécutez la commande mkdir -p /global/mount_pointmount_point correspond au répertoire sélectionné du point de montage.

    Dans cet exemple, nous créons le répertoire /global/hasam_cfg :

    [sam1mds-node1]root@solaris:~# mkdir -p /global/hasam_cfg
    
  5. Connectez-vous au noeud secondaire du cluster en tant qu'utilisateur root.

    Dans cet exemple, sam1mds-node2 est le noeud secondaire. Nous nous connectons à l'aide de ssh :

    [sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2
    Password:
    [sam1mds-node2]root@solaris:~# 
    
  6. Sur le noeud secondaire, ouvrez le fichier /etc/vfstab du système d'exploitation dans un éditeur de texte. Ajoutez une entrée identique pour le nouveau système de fichiers UFS. Enregistrez le fichier et fermez l'éditeur de texte.

    [sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2
    Password:
    [sam1mds-node2]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount               System  fsck  Mount    Mount
    #to Mount  to fsck  Point               Type    Pass  at Boot  Options
    #--------  -------  ------------------- ------  ----  -------  --------------
    /devices   -        /devices            devfs   -     no       -
    /proc      -        /proc               proc    -     no       -
    ...
    sam1       -        /global/ha-samsam1  samfs   -     no       shared
    /dev/global/dsk/d10s0   /dev/global/rdsk/d10s0  /global/hasam_cfg  ufs  5  \
        no   global
    :wq
    [sam1mds-node1]root@solaris:~# 
    
  7. Sur le noeud secondaire, créez le même point de montage.

    Dans cet exemple, nous créons le répertoire /global/hasam_cfg. Nous fermons ensuite la session ssh et reprenons la session sur le noeud principal :

    [sam1mds-node2]root@solaris:~# mkdir -p /global/hasam_cfg
    [sam1mds-node2]root@solaris:~# exit
    [sam1mds-node1]root@solaris:~# 
    
  8. Montez le système de fichiers local haute disponibilité sur le noeud principal. Exécutez la commande mount /global/mount_point, où mount_point correspond au répertoire sélectionné du point de montage.

    La commande monte le système de fichiers UFS sur les deux noeuds. Dans cet exemple, le système de fichiers est monté sur /global/hasam_cfg :

    [sam1mds-node1]root@solaris:~# mount /global/hasam_cfg
    [sam1mds-node1]root@solaris:~# 
    
  9. Sur le noeud principal, créez un sous-répertoire pour conserver les informations de transfert de Oracle HSM. Exécutez la commande mkdir -p /global/mount_point/catalog, où mount_point correspond au répertoire du point de montage sélectionné.

    [sam1mds-node1]root@solaris:~# mkdir /global/hasam_cfg/catalog
    [sam1mds-node1]root@solaris:~# 
    
  10. Sur le noeud principal, créez un sous-répertoire pour conserver les catalogues d'archives de Oracle HSM. Exécutez la commande mkdir -p /global/mount_point/stager, où mount_point correspond au répertoire sélectionné du point de montage.

    [sam1mds-node1]root@solaris:~# mkdir /global/hasam_cfg/stager
    [sam1mds-node1]root@solaris:~# 
    
  11. Procédez ensuite au déplacement des fichiers de configuration Oracle HSM vers le système de fichiers local haute disponibilité.

Déplacement des fichiers de configuration Oracle HSM vers le système de fichiers local haute disponibilité

  1. Connectez-vous au noeud principal du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, le noeud principal est sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# 
    
  2. Sur le noeud principal, copiez les répertoires catalog/ et stager/ à partir de leur emplacement par défaut dans /var/opt/SUNWsamfs/ vers un emplacement temporaire.

    Dans cet exemple, nous copions les fichiers de manière récursive vers /var/tmp/ (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# cp -r /var/opt/SUNWsamfs/catalog \
    /var/tmp/catalog 
    [sam1mds-node1]root@solaris:~# cp -r /var/opt/SUNWsamfs/stager /var/tmp/stager
    [sam1mds-node1]root@solaris:~# 
    
  3. Sur le noeud principal, supprimez les répertoires catalog/ et stager/ de /var/opt/SUNWsamfs/.

    [sam1mds-node1]root@solaris:~# rm -rf /var/opt/SUNWsamfs/catalog 
    [sam1mds-node1]root@solaris:~# rm -rf /var/opt/SUNWsamfs/stager
    [sam1mds-node1]root@solaris:~# 
    
  4. Sur le noeud principal, créez un lien symbolique à partir de l'emplacement par défaut des informations de catalogue vers le nouvel emplacement dans le système de fichiers local UFS haute disponibilité. Exécutez la commande ln -s /global/mount_point/catalog /var/opt/SUNWsamfs/catalog, où :

    • mount_point correspond au nom du sous-répertoire où le système de fichiers local haute disponibilité est connecté au système de fichiers racine du noeud.

    • /var/opt/SUNWsamfs/catalog correspond à l'emplacement par défaut.

    Le lien symbolique redirigera automatiquement les demandes d'informations de catalogue vers le nouvel emplacement. Dans cet exemple, nous créons un lien catalog qui pointe vers le nouvel emplacement /global/hasam_cfg/catalog (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# ln -s /global/hasam_cfg/catalog \
    /var/opt/SUNWsamfs/catalog
    [sam1mds-node1]root@solaris:~# 
    
  5. Sur le noeud principal, créez un lien symbolique à partir de l'emplacement par défaut des informations de transfert vers le nouvel emplacement dans le système de fichiers local UFS haute disponibilité. Exécutez la commande ln -s /global/mount_point/stager /var/opt/SUNWsamfs/stager, où :

    • mount_point correspond au nom du sous-répertoire où le système de fichiers local haute disponibilité est connecté au système de fichiers racine du noeud.

    • /var/opt/SUNWsamfs/stager correspond à l'emplacement par défaut.

    Le lien symbolique redirigera automatiquement les demandes d'informations de transfert vers le nouvel emplacement. Dans cet exemple, nous créons un lien stager qui pointe vers le nouvel emplacement /global/hasam_cfg/stager (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# ln -s /global/hasam_cfg/stager \ /var/opt/SUNWsamfs/stager
    [sam1mds-node1]root@solaris:~# 
    
  6. Assurez-vous que les liens symboliques remplacent les répertoires /var/opt/SUNWsamfs/catalog et /var/opt/SUNWsamfs/stager par défaut sur le noeud principal. Assurez-vous que les liens symboliques pointent vers les nouveaux emplacements dans le système de fichiers haute disponibilité.

    Dans l'exemple, les liens sont corrects :

    [sam1mds-node1]root@solaris:~# ls -l /var/opt/SUNWsamfs/catalog
    lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/catalog -> /global/hasam_cfg/catalog
    [sam1mds-node1]root@solaris:~# ls -l /var/opt/SUNWsamfs/stager
    lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/stager -> /global/hasam_cfg/stager
    [sam1mds-node1]root@solaris:~# 
    
  7. Copiez le contenu des répertoires catalog/ et stager/ à partir de l'emplacement temporaire vers le système de fichiers haute disponibilité.

    Dans cet exemple, nous copions les répertoires catalog/ et stager/ depuis /var/tmp/ vers le nouvel emplacement /global/hasam_cfg/stager (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# cp -rp /var/tmp/catalog/* \
    /var/opt/SUNWsamfs/catalog
    [sam1mds-node1]root@solaris:~# cp -rp /var/tmp/stager/* \
    /var/opt/SUNWsamfs/stager
    [sam1mds-node1]root@solaris:~# 
    
  8. Connectez-vous au noeud secondaire du cluster HA-SAM en tant qu'utilisateur root.

    Dans cet exemple, nous utilisons ssh (shell sécurisé) pour nous connecter à sam1mds-node2, le noeud secondaire :

    [sam1mds-node1]root@solaris:~# ssh root@sam1mds-node2
    Password:
    [sam1mds-node2]root@solaris:~# 
    
  9. Sur le noeud secondaire, créez un lien symbolique à partir de l'emplacement par défaut des informations de catalogue vers le nouvel emplacement dans le système de fichiers local UFS haute disponibilité. Exécutez la commande ln -s /global/mount_point/catalog /var/opt/SUNWsamfs/catalog, où :

    • mount_point correspond au nom du sous-répertoire où le système de fichiers local haute disponibilité est connecté au système de fichiers racine du noeud.

    • /var/opt/SUNWsamfs/catalog correspond à l'emplacement par défaut.

    Le lien symbolique redirigera automatiquement les demandes d'informations de catalogue vers le nouvel emplacement. Dans cet exemple, nous créons un lien catalog qui pointe vers le nouvel emplacement /global/hasam_cfg/catalog (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node2]root@solaris:~# ln -s /global/hasam_cfg/catalog \
    /var/opt/SUNWsamfs/catalog
    [sam1mds-node2]root@solaris:~# 
    
  10. Sur le noeud secondaire, créez un lien symbolique à partir de l'emplacement par défaut des informations de transfert vers le nouvel emplacement dans le système de fichiers local UFS haute disponibilité. Exécutez la commande ln -s /global/mount_point/stager /var/opt/SUNWsamfs/stager, où :

    • mount_point correspond au nom du sous-répertoire où le système de fichiers local haute disponibilité est connecté au système de fichiers racine du noeud.

    • /var/opt/SUNWsamfs/stager correspond à l'emplacement par défaut.

    Le lien symbolique redirigera automatiquement les demandes d'informations de transfert vers le nouvel emplacement. Dans cet exemple, nous créons un lien stager qui pointe vers le nouvel emplacement /global/hasam_cfg/stager (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node2]root@solaris:~# ln -s /global/hasam_cfg/stager \ /var/opt/SUNWsamfs/stager
    [sam1mds-node2]root@solaris:~# 
    
  11. Assurez-vous que les liens symboliques remplacent les répertoires /var/opt/SUNWsamfs/catalog et /var/opt/SUNWsamfs/stager par défaut sur le noeud secondaire. Assurez-vous que les liens symboliques pointent vers les nouveaux emplacements dans le système de fichiers haute disponibilité.

    Dans cet exemple, les liens sont corrects. Nous fermons donc la session ssh et reprenons la session sur le noeud principal :

    [sam1mds-node2]root@solaris:~# ls -l /var/opt/SUNWsamfs/catalog
    lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/catalog -> /global/hasam_cfg/catalog
    [sam1mds-node2]root@solaris:~# ls -l /var/opt/SUNWsamfs/stager
    lrwxrwxrwx 1 root other ... /var/opt/SUNWsamfs/stager -> /global/hasam_cfg/stager
    [sam1mds-node2]root@solaris:~# exit
    [sam1mds-node1]root@solaris:~#  
    
  12. Procédez ensuite à la configuration du cluster HA-SAM pour l'utilisation du système de fichiers local haute disponibilité.

Configuration du cluster HA-SAM pour l'utilisation du système de fichiers local haute disponibilité

  1. Sur le noeud principal du cluster HA-SAM, enregistrez le type de ressource SUNW.HAStoragePlus dans le cadre de la configuration du cluster. Exécutez la commande Solaris Cluster clresourcetype register SUNW.HAStoragePlus.

    [sam1mds-node1]root@solaris:~# clresourcetype register SUNW.HAStoragePlus
    [sam1mds-node1]root@solaris:~# 
    
  2. Sur le noeud principal, créez une nouvelle instance du type de ressource SUNW.HAStoragePlus et associez-la à un groupe de ressources Solaris Cluster. Exécutez la commande clresource create -g groupname -t SUNW.HAStoragePlus -x FilesystemMountPoints=mountpoint -x AffinityOn=TRUE resourcename, où :

    • groupname correspond au nom que vous avez choisi pour le groupe de ressources HA-SAM.

    • SUNW.HAStoragePlus correspond au type de ressource Solaris Cluster qui prend en charge le basculement des systèmes de fichiers locaux.

    • mountpoint correspond au point de montage du système de fichiers local haute disponibilité qui contiendra les catalogues et les fichiers de transfert.

    • resourcename correspond au nom que vous avez choisi pour la ressource elle-même.

    Dans cet exemple, nous créons une ressource nommée has-cfg du type SUNW.HAStoragePlus. Nous ajoutons la nouvelle ressource au groupe de ressources has-rg. Ensuite, nous configurons les propriétés de l'extension de la ressource. Nous définissons FilesystemMountPoints sur /global/hasam_cfg et AffinityOn sur TRUE (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# clresource create -g has-rg \
    -t SUNW.HAStoragePlus -x FilesystemMountPoints=/global/hasam_cfg \
    -x AffinityOn=TRUE has-cfg
    [sam1mds-node1]root@solaris:~# 
    
  3. Procédez ensuite à la configuration du basculement du serveur de métadonnées du système de fichiers QFS.

Configuration du basculement du serveur de métadonnées du système de fichiers QFS

Vous configurez le basculement des serveurs de métadonnées en créant une ressource de cluster SUNW.qfs, un type de ressource défini par le logiciel Oracle HSM (reportez-vous à la page de manuel SUNW.qfs pour plus d'informations). Pour créer et configurer la ressource pour une configuration HA-SAM, procédez comme suit :

  1. Connectez-vous au noeud principal du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, le noeud principal est sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# 
    
  2. Définissez le type de ressource SUNW.qfs pour le logiciel Solaris Cluster. Exécutez la commande clresourcetype register SUNW.qfs.

    [sam1mds-node1]root@solaris:~# clresourcetype register SUNW.qfs
    [qfs1mds-node1]root@solaris:~# 
    
  3. Si l'enregistrement échoue parce que le fichier d'enregistrement est introuvable, placez un lien symbolique vers le répertoire /opt/SUNWsamfs/sc/etc/ dans le répertoire dans lequel Solaris Cluster conserve les fichiers d'enregistrement de type de ressource, /opt/cluster/lib/rgm/rtreg/.

    L'enregistrement échoue si vous n'avez pas installé le logiciel Oracle Solaris Cluster avant d'installer le logiciel Oracle HSM. Normalement, Oracle HSM fournit automatiquement l'emplacement du fichier d'enregistrement SUNW.qfs lorsqu'il détecte Solaris Cluster durant l'installation. Dans cet exemple, nous créons le lien manuellement.

    [qfs1mds-node1]root@solaris:~# cd /opt/cluster/lib/rgm/rtreg/
    [qfs1mds-node1]root@solaris:~# ln -s /opt/SUNWsamfs/sc/etc/SUNW.qfs SUNW.qfs
    [qfs1mds-node1]root@solaris:~# 
    
  4. Dans le nouveau groupe de ressources, configurez un nom d'hôte virtuel pour le serveur de métadonnées actif. Exécutez la commande Solaris Cluster clreslogicalhostname create -g group-name virtualMDS, où :

    • group-name correspond au nom du groupe de ressources QFS.

    • virtualMDS correspond au nom d'hôte virtuel.

    Utilisez le même nom d'hôte virtuel que vous avez utilisé dans les fichiers d'hôtes pour le système de fichiers partagé. Dans cet exemple, nous ajoutons le nom d'hôte virtuel sam1mds au groupe de ressources has-rg :

    [sam1mds-node1]root@solaris:~# clreslogicalhostname create -g has-rg sam1mds
    [qfs1mds-node1]root@solaris:~# 
    
  5. Ajoutez les ressources du système de fichiers Oracle HSM au groupe de ressources. Exécutez la commande clresource create -g groupname -t SUNW.qfs -x QFSFileSystem=mount-point, où :

    • groupname correspond au nom que vous avez choisi pour le groupe de ressources HA-SAM.

    • SUNW.qfs correspond au type de ressource Solaris Cluster qui prend en charge le basculement des serveurs de métadonnées du système de fichiers QFS.

    • mount-point correspond au point de montage du système de fichiers dans le cluster, un sous-répertoire qui n'est pas directement sous le répertoire root du système.

      Le montage d'un système de fichiers QFS partagé immédiatement sous la racine peut provoquer des problèmes de basculement lors de l'utilisation du type de ressource SUNW.qfs.

    • resource-name correspond au nom que vous avez choisi pour la ressource elle-même.

    Dans cet exemple, nous créons une ressource nommée has-qfs du type SUNW.qfs dans le groupe de ressources has-rg. Nous définissons la propriété d'extension SUNW.qfs QFSFileSystem sur le point de montage /global/ha-sam/sam1. Nous définissons la propriété standard Resource_dependencies sur sam1mds, le nom d'hôte virtuel qui représente le serveur de métadonnées actif (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# clresource create -g has-rg -t SUNW.qfs \
    -x QFSFileSystem=/global/ha-sam/sam1 -y Resource_dependencies=sam1mds has-qfs 
    [sam1mds-node1]root@solaris:~# 
    
  6. Procédez ensuite à la configuration du basculement de l'application Oracle Hierarchical Storage Manager.

Configuration du basculement de l'application Oracle Hierarchical Storage Manager

Vous configurez le basculement de l'application Oracle Hierarchical Storage Manager en créant une ressource SUNW.hasam Oracle HSM. Ce type de ressource coordonne l'arrêt et le redémarrage méthodiques des processus Oracle HSM.

Pour configurer le basculement de l'application Oracle Hierarchical Storage Manager, procédez comme suit :

  1. Connectez-vous au noeud principal du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, le noeud principal est sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# 
    
  2. Définissez le type de ressource SUNW.hasam pour le logiciel Solaris Cluster. Exécutez la commande clresourcetype register SUNW.hasam.

    [sam1mds-node1]root@solaris:~# clresourcetype register SUNW.hasam
    [sam1mds-node1]root@solaris:~# 
    
  3. Ajoutez la ressource SUNW.hasam Oracle HSM au groupe de ressources. Exécutez la commande clresource create -g groupname -t SUNW.hasam -x QFSName=fs-name -x CatalogFileSystem=mount-point resource-name, où :

    • groupname correspond au nom que vous avez choisi pour le groupe de ressources HA-SAM.

    • SUNW.hasam correspond au type de ressource Solaris Cluster qui prend en charge le basculement de l'application Oracle Hierarchical Storage Manager.

    • mount-point correspond au point de montage du système de fichiers global qui contient les catalogues d'archives Oracle HSM.

    • resource-name correspond au nom que vous avez choisi pour la ressource elle-même.

    Dans cet exemple, nous créons une ressource nommée has-sam du type SUNW.hasam dans le groupe de ressources has-rg. Nous définissons la propriété d'extension SUNW.hasam QFSName pour le nom du système de fichiers QFS spécifié dans le fichier mcf, sam1. Nous définissons la propriété d'extension SUNW.hasam CatalogFileSystem pour le point de montage /global/hasam_cfg :

    [sam1mds-node1]root@solaris:~# clresource create -g has-rg -t SUNW.hasam \
    -x QFSName=sam1 -x CatalogFileSystem=/global/hasam_cfg has-sam
    [sam1mds-node1]root@solaris:~# 
    
  4. Procédez ensuite à la définition des dépendances de ressources du cluster pour la solution HA-SAM.

Définition des dépendances de ressources du Cluster pour la solution HA-SAM

  1. Connectez-vous au noeud principal du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, le noeud principal est sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# 
    
  2. Le système de fichiers QFS ne doit pas démarrer si le système de fichiers local haute disponibilité n'est pas disponible. Créez une dépendance de la ressource SUNW.qfs vis-à-vis de la ressource SUNW.HAStoragePlus. Exécutez la commande clresource set -p Resource_dependencies=dependency resource-name de Solaris Cluster, où :

    • dependency correspond au nom de la ressource SUNW.HAStoragePlus.

    • resource-name correspond au nom de la ressource SUNW.qfs.

    Dans cet exemple, nous créons une dépendance de la ressource SUNW.qfs vis-à-vis de la ressource SUNW.HAStoragePlus has-cfg (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# clresource set \
    -p Resource_dependencies=has-cfg has-qfs
    [sam1mds-node1]root@solaris:~# 
    
  3. Aucun nom d’hôte virtuel ne doit être rendu disponible par le cluster, à moins que le serveur de métadonnées QFS actif ne soit en ligne. Ainsi, créez une dépendance du nom d’hôte virtuel vis-à-vis de la ressource SUNW.qfs. Exécutez la commande clresource set -p Resource_dependencies=virtualMDS resource-name de Solaris Cluster, où :

    • virtualMDS correspond au nom d’hôte virtuel qui représente le serveur de métadonnées Oracle HSM actif.

    • resource-name correspond au nom de la ressource SUNW.qfs.

    Dans cet exemple, le nom d’hôte virtuel que nous avons créé lorsque nous avons configuré la ressource SUNW.qfs est sam1mds. La ressouce est nommée has-qfs (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [sam1mds-node1]root@solaris:~# clresource set \
    -p Resource_dependencies=sam1mds has-qfs
    [sam1mds-node1]root@solaris:~# 
    
  4. Procédez ensuite à la mise en ligne du groupe de ressources HA-SAM et au test de la configuration.

Mise en ligne du groupe de ressources HA-SAM et test de la configuration

  1. Connectez-vous au noeud principal du cluster HA-SAM en tant qu'utilisateur root.

    Dans l'exemple, le noeud principal est sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# 
    
  2. Mettez le groupe de ressources en ligne. Exécutez les commandes clresourcegroup manage groupname et clresourcegroup online -emM groupname de Solaris Cluster, où groupname correspond au nom du groupe de ressources HA-SAM.

    Dans cet exemple, nous mettons en ligne le groupe de ressources has-rg :

    [sam1mds-node1]root@solaris:~# clresourcegroup manage has-rg
    [sam1mds-node1]root@solaris:~# clresourcegroup online -emM has-rg
    [sam1mds-node1]root@solaris:~# 
    
  3. Assurez-vous que le groupe de ressources HA-SAM est en ligne. Exécutez la commande Solaris Cluster clresourcegroup status.

    Dans cet exemple, le groupe de ressources has-rg est online sur le noeud principal, sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    has-rg      sam1mds-node1   No          Online
                sam1mds-node2   No          Offline
    [sam1mds-node1]root@solaris:~# 
    
  4. Ensuite, assurez-vous que le groupe de ressources bascule correctement. Déplacez le groupe de ressources sur le noeud secondaire. Exécutez la commande clresourcegroup switch -n node2 groupname Solaris Cluster, où node2 correspond au nom du noeud secondaire et groupname correspond au nom que vous avez choisi pour le groupe de ressources HA-SAM. Exécutez ensuite clresourcegroup status pour vérifier le résultat.

    Dans cet exemple, nous déplaçons le groupe de ressources has-rg vers sam1mds-node2 et confirmons que le groupe de ressources se met en ligne sur le noeud spécifié :

    [sam1mds-node1]root@solaris:~# clresourcegroup switch -n sam1mds-node2 has-rg
    [sam1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    has-rg      sam1mds-node1   No          Offline
                sam1mds-node2   No          Online
    [sam1mds-node1]root@solaris:~# 
    
  5. Replacez le groupe de ressources sur le noeud principal. Exécutez la commande clresourcegroup switch -n node1 groupname de Solaris Cluster, où node1 correspond au nom du noeud principal et groupname correspond au nom que vous avez choisi pour le groupe de ressources HA-SAM. Exécutez ensuite clresourcegroup status pour vérifier le résultat.

    Dans cet exemple, nous avons déplacé le groupe de ressources has-rg sur sam1mds-node1 :

    [sam1mds-node1]root@solaris:~# clresourcegroup switch -n sam1mds-node1 has-rg
    [sam1mds-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    has-rg      sam1mds-node1   No          Online
                sam1mds-node2   No          Offline
    [sam1mds-node1]root@solaris:~# 
    
  6. Si nécessaire, configurez dès maintenant le partage du système de fichiers réseau haute disponibilité (HA-NFS).

    Les procédures détaillées relatives à la configuration de HA-NFS sont incluses dans le manuel Oracle Solaris Cluster Data Service for Network File System (NFS) Guide inclus dans la bibliothèque de documentation en ligne Oracle Solaris Cluster.

  7. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  8. Sinon, passez à la Configuration des notifications et de la journalisation.

Systèmes de fichiers partagés QFS haute disponibilité et Oracle RAC

Dans la configuration SC-RAC (Solaris Cluster-Oracle Real Application Cluster), le logiciel Solaris Cluster gère un système de fichiers partagé QFS en tant que ressource SUNW.qfs montée sur les noeuds qui hébergent également Oracle Database et le logiciel Oracle Real Application Cluster (RAC). Tous les noeuds sont configurés en tant que serveurs QFS, avec un noeud configuré comme serveur de métadonnées actif et les autres comme serveurs de métadonnées potentiels. Si le noeud du serveur de métadonnées actif tombe en panne, le logiciel Solaris Cluster active automatiquement un serveur de métadonnées potentiel sur un noeud en bon état et lance le basculement. Les E/S sont coordonnées via Oracle RAC et le système de fichiers QFS est partagé et déjà monté sur tous les noeuds. L'accès aux données reste donc ininterrompu.

Dans la configuration SC-RAC, le logiciel RAC coordonne les demandes d'E/S, distribue la charge de travail et conserve un ensemble unique et cohérent de fichiers de base de données pour plusieurs instances Oracle Database exécutées sur les noeuds du cluster. L'intégrité du système de fichiers étant assurée sous RAC, les serveurs de métadonnées QFS potentiels peuvent effectuer des E/S en tant que clients du système de fichiers partagé. Pour plus d'informations, reportez-vous à la documentation du service de données Oracle Solaris Cluster pour Oracle Real Application Clusters dans la bibliothèque de documentation en ligne Oracle Solaris Cluster.

Pour configurer un système de fichiers SC-RAC, effectuez les tâches ci-dessous :

Création d'un fichier d'hôtes de système de fichiers partagé QFS sur tous les noeuds du cluster SC-RAC

Dans un système de fichiers partagé QFS, vous devez configurer un fichier d'hôtes sur les serveurs de métadonnées, de sorte que tous les hôtes puissent accéder aux métadonnées pour le système de fichiers. Le fichier d'hôtes est stocké avec le fichier mcf dans le répertoire /etc/opt/SUNWsamfs/. Lors de la création initiale d'un système de fichiers partagé, la commande sammkfs -S configure le partage selon les paramètres stockés dans ce fichier. Créez-le maintenant en appliquant la procédure ci-dessous.

  1. Connectez-vous au noeud principal du cluster SC-RAC en tant qu'utilisateur root.

    Dans l'exemple, le noeud principal estqfs1rac-node1 :

    [qfs1rac-node1]root@solaris:~# 
    
  2. Affichez la configuration du cluster. Exécutez la commande /usr/global/bin/cluster show. Dans la sortie, recherchez l'enregistrement de chaque Node Name. Notez ensuite le privatehostname, le nom du Transport Adapter et la propriété ip_address de chaque adaptateur réseau.

    Dans les exemples, chaque noeud comporte deux interfaces réseau, qfe3 et hme0 :

    • Les adaptateurs hme0 disposent d'adresses IP sur le réseau privé que le cluster utilise pour la communication interne entre les noeuds. Le logiciel Solaris Cluster attribue un privatehostname qui correspond à chaque adresse privée.

      Par défaut, le nom d'hôte privé du noeud principal est clusternode1-priv et le nom d'hôte privé du noeud secondaire est clusternode2-priv.

    • Les adaptateurs qfe3 disposent d'adresses IP et de noms d'hôte publics (qfs1rac-node1 et qfs1rac-node2) que le cluster utilise pour le transport de données.

    Notez que l'affichage a été abrégé à l'aide de points de suspension (...) :

    [qfs1rac-node1]root@solaris:~# cluster show
    ...
      === Cluster Nodes ===                        
      Node Name:                                    qfs1rac-node1...
        privatehostname:                               clusternode1-priv...
        Transport Adapter List:                        qfe3, hme0...
        Transport Adapter:                          qfe3...
          Adapter Property(ip_address):                172.16.0.12...
        Transport Adapter:                          hme0...
          Adapter Property(ip_address):                10.0.0.129...
      Node Name:                                    qfs1rac-node2...
        privatehostname:                               clusternode2-priv...
        Transport Adapter List:                        qfe3, hme0...
          Adapter Property(ip_address):                172.16.0.13...
        Transport Adapter:                          hme0
          Adapter Property(ip_address):                10.0.0.122...
      Node Name:                                    qfs1rac-node3...
        privatehostname:                               clusternod3-priv...
        Transport Adapter List:                        qfe3, hme0...
          Adapter Property(ip_address):                172.16.0.33...
        Transport Adapter:                          hme0
          Adapter Property(ip_address):                10.0.0.092
    
  3. A l'aide d'un éditeur de texte, créez le fichier /etc/opt/SUNWsamfs/hosts.family-set-name, où family-set-name correspond au nom de famille que le fichier /etc/opt/SUNWsamfs/mcf assigne à l'équipement du système de fichiers.

    Dans cet exemple, nous créons le fichier hosts.qfs1rac à l'aide de l'éditeur de texte vi. Nous ajoutons des en-têtes facultatifs pour afficher les colonnes dans la table des hôtes, en commençant chaque ligne par le signe dièse (#) pour indiquer un commentaire :

    [qfs1rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/hosts.qfs1rac
    # /etc/opt/SUNWsamfs/hosts.qfs1rac
    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    
  4. Dans la première colonne de la table, entrez les noms d'hôte des noeuds du serveur de métadonnées principal et secondaire, suivis par des espaces. Placez chaque entrée sur une ligne séparée.

    Dans un fichier d'hôtes, les lignes sont des rangées (enregistrements) et les espaces sont des séparateurs de colonnes (champ). Dans cet exemple, la colonne Nom d'hôte des deux premières lignes répertorie les noms d'hôte des noeuds de clusterqfs1rac-node1, qfs1rac-node2 et qfs1rac-node3.

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  
    qfs1rac-node2  
    qfs1rac-node3  
    
  5. Dans la deuxième colonne de chaque ligne, commencez à fournir des informations Network Interface pour l'hôte Host Name. Saisissez le nom d'hôte privé ou l'adresse réseau privée Solaris Cluster de chaque noeud de cluster SC-RAC, suivi d'une virgule.

    Les noeuds du serveur SC-RAC utilisent les noms d'hôte privés pour les communications de serveur à serveur au sein du cluster haute disponibilité. Dans cet exemple, nous utilisons les noms d'hôte privés clusternode1-priv, clusternode2-priv et clusternode3-priv qui sont les noms par défaut assignés par le logiciel Solaris Cluster :

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,  
    qfs1rac-node2  clusternode2-priv,  
    qfs1rac-node3  clusternode3-priv,  
    
  6. A la suite de la virgule dans la deuxième colonne de chaque ligne, entrez le nom d'hôte public pour le serveur de métadonnées actif, suivi par des espaces.

    Les noeuds de serveur SC-RAC utilisent le réseau de données public pour communiquer avec les clients, chacun résidant hors du cluster. Dans la mesure où l'adresse IP et le nom d'hôte du serveur de métadonnées actif changent lors du basculement (de qfs1rac-node1 à qfs1rac-node2, par exemple), nous représentons le serveur actif avec un nom d'hôte virtuel, qfs1rac-mds. Ultérieurement, nous configurerons le logiciel Solaris Cluster pour toujours acheminer les demandes pour qfs1rac-mds vers le noeud qui héberge actuellement le serveur de métadonnées actif :

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,qfs1rac-mds   
    qfs1rac-node2  clusternode2-priv,qfs1rac-mds   
    qfs1rac-node3  clusternode3-priv,qfs1rac-mds   
    
  7. Dans la troisième colonne de chaque ligne, indiquez le nombre ordinal du serveur (1 pour le serveur de métadonnées actif et 2 pour le serveur de métadonnées potentiel), suivi par des espaces.

    Dans cet exemple, le noeud principal qfs1rac-node1 est le serveur de métadonnées actif. Son numéro ordinal est donc 1. Le deuxième noeud, qfs1rac-node2, correspond au numéro ordinal 2, etc. :

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,qfs1rac-mds     1
    qfs1rac-node2  clusternode2-priv,qfs1rac-mds     2
    qfs1rac-node3  clusternode3-priv,qfs1rac-mds     3
    
  8. Dans la quatrième colonne de chaque ligne, entrez 0 (zéro), suivi par des espaces.

    Le caractère 0, un trait d'union (-) ou une valeur vierge dans la quatrième colonne indiquent que l'hôte est activé (on), c'est-à-dire configuré avec un accès au système de fichiers partagé. Un 1 (chiffre un) indique que l'hôte est désactivé (off), configuré sans accès au système de fichiers (pour plus d'informations sur l'utilisation de ces valeurs lors de l'administration des systèmes de fichiers partagés, reportez-vous à la page de manuel samsharefs).

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,qfs1rac-mds     1        0
    qfs1rac-node2  clusternode2-priv,qfs1rac-mds     2        0
    qfs1rac-node3  clusternode3-priv,qfs1rac-mds     3        0
    
  9. Dans la cinquième colonne de la ligne du noeud principal, entrez le mot-clé server. Enregistrez le fichier et fermez l'éditeur de texte.

    Le mot-clé server identifie le serveur de métadonnées actif par défaut :

    #                                                Server   On/  Additional
    #Host Name     Network Interface                 Ordinal  Off  Parameters
    #------------  --------------------------------  -------  ---  ----------
    qfs1rac-node1  clusternode1-priv,qfs1rac-mds     1        0    server
    qfs1rac-node2  clusternode2-priv,qfs1rac-mds     2        0  
    qfs1rac-node3  clusternode3-priv,qfs1rac-mds     2        0  
    :wq
    [qfs1rac-node1]root@solaris:~# 
    
  10. Placez une copie du fichier /etc/opt/SUNWsamfs/hosts.family-set-name global sur chaque noeud du cluster SC-RAC.

  11. Procédez maintenant à la configuration d'un serveur de métadonnées QFS actif sur le noeud principal du cluster SC-RAC.

Configuration d'un serveur de métadonnées QFS actif sur le noeud principal du cluster SC-RAC

  1. Sélectionnez le noeud du cluster qui servira à la fois de noeud principal pour le cluster SC-RAC et de serveur de métadonnées actif pour le système de fichiers partagé QFS. Connectez-vous en tant que root.

    Dans l'exemple, le noeud principal estqfs1rac-node1 :

    [qfs1rac-node1]root@solaris:~# 
    
  2. Sélectionnez les périphériques de stockage globaux qui seront utilisés pour le système de fichiers QFS. Exécutez la commande /usr/global/bin/cldevice list -v.

    Le logiciel Solaris Cluster assigne des identificateurs de périphériques (DID) uniques à tous les périphériques qui se connectent aux noeuds du cluster. Les périphériques globaux sont accessibles depuis tous les noeuds du cluster, tandis que les périphériques locaux sont accessibles uniquement depuis les hôtes qui les montent. Les périphériques globaux restent accessibles à la suite d'un basculement. Ce n'est pas le cas des périphériques locaux.

    Dans cet exemple, notez que les périphériques d1, d2, d6, d7 et d8 ne sont accessibles depuis aucun noeud. Nous effectuons donc la sélection parmi les périphériques d3, d4 et d5 lors de la configuration du système de fichiers partagé QFS haute disponibilité :

    [qfs1rac-node1]root@solaris:~# cldevice list -v
    DID Device          Full Device Path
    ----------          ----------------
    d1                  qfs1rac-node1:/dev/rdsk/c0t0d0
    d2                  qfs1rac-node1:/dev/rdsk/c0t6d0
    d3                  qfs1rac-node1:/dev/rdsk/c1t1d0
    d3                  qfs1rac-node2:/dev/rdsk/c1t1d0
    d3                  qfs1rac-node3:/dev/rdsk/c1t1d0
    d4                  qfs1rac-node1:/dev/rdsk/c1t2d0
    d4                  qfs1rac-node2:/dev/rdsk/c1t2d0
    d4                  qfs1rac-node3:/dev/rdsk/c1t2d0
    d5                  qfs1rac-node1:/dev/rdsk/c1t3d0
    d5                  qfs1rac-node2:/dev/rdsk/c1t3d0
    d5                  qfs1rac-node3:/dev/rdsk/c1t3d0
    d6                  qfs1rac-node2:/dev/rdsk/c0t0d0
    d7                  qfs1rac-node2:/dev/rdsk/c0t1d0
    d8                  qfs1rac-node3:/dev/rdsk/c0t1d0
    
  3. Créez un système de fichiers ma partagé haute performance qui utilise les périphériques de données mr. Dans un éditeur de texte, ouvrez le fichier /etc/opt/SUNWsamfs/mcf.

    Dans l'exemple, nous configurons le système de fichiers qfs1rac. Nous configurons le périphérique d3 en tant que périphérique de métadonnées (type d'équipement mm), et utilisons d4 et d5 comme périphériques de données (type d'équipement mr) :

    [qfs1rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   --------------
    qfs1rac               100        ma         qfs1rac  -        
     /dev/did/dsk/d3s0     101        mm         qfs1rac  -
     /dev/did/dsk/d4s0     102        mr         qfs1rac  -
     /dev/did/dsk/d5s0     103        mr         qfs1rac  -
    ...
    
  4. Dans le fichier /etc/opt/SUNWsamfs/mcf, entrez le paramètre shared dans la colonne Additional Parameters de l'entrée du système de fichiers. Enregistrez le fichier.

    [qfs1rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # Equipment           Equipment  Equipment  Family   Device   Additional
    # Identifier          Ordinal    Type       Set      State    Parameters
    #------------------   ---------  ---------  -------  ------   --------------
    qfs1rac               100        ma         qfs1rac  -        shared
     /dev/did/dsk/d3s0     101        mm         qfs1rac  -
     /dev/did/dsk/d4s0     102        mr         qfs1rac  -
     /dev/did/dsk/d5s0     103        mr         qfs1rac  -
    ...
    :wq
    [qfs1rac-node1]root@solaris:~# 
    
  5. Recherchez les erreurs éventuelles dans le fichier mcf. Exécutez la commande /opt/SUNWsamfs/sbin/sam-fsd et corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous vérifions le fichier mcf sur l'hôte qfs1rac-node1 :

    [qfs1rac-node1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1rac-node1]root@solaris:~# 
    
  6. Créez le système de fichiers. Exécutez la commande /opt/SUNWsamfs/sbin/sammkfs -S family-set-name, où family-set-name correspond à l'identificateur d'équipement du système de fichiers.

    La commande sammkfs lit les fichiers hosts.family-set-name et mcf et crée un système de fichiers partagé avec les propriétés indiquées.

    [qfs1rac-node1]root@solaris:~# sammkfs -S qfs1rac
    Building 'qfs1rac' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [qfs1rac-node1]root@solaris:~# 
    
  7. Ouvrez le fichier /etc/vfstab du système d'exploitation dans un éditeur de texte et démarrez une ligne pour le nouveau système de fichiers. Entrez le nom du système de fichiers dans la première colonne, suivi d'espaces, puis un tiret dans la deuxième colonne, suivi d'espaces.

    Dans l'exemple, nous utilisons l'éditeur de texte vi. Nous démarrons une ligne pour le système de fichiers qfs1rac. Le tiret empêche le système d'exploitation de tenter de vérifier l'intégrité du système de fichiers à l'aide des outils UFS :

    [qfs1rac-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount            System  fsck  Mount    Mount
    #to Mount  to fsck  Point            Type    Pass  at Boot  Options
    #--------  -------  ---------------  ------  ----  -------  ------------------
    /devices   -        /devices         devfs   -     no       -
    /proc      -        /proc            proc    -     no       -
    ...
    qfs1rac    -        
    
  8. Dans la troisième colonne du fichier /etc/vfstab, entrez le point de montage du système de fichiers par rapport au cluster. Spécifiez un sous-répertoire qui ne se trouve pas directement en dessous du répertoire root du système.

    Le montage d'un système de fichiers QFS partagé immédiatement sous la racine peut provoquer des problèmes de basculement lors de l'utilisation du type de ressource SUNW.qfs. Dans l'exemple, le point de montage pour le système de fichiers qfs1rac est /global/sc-rac/qfs1rac :

    #File
    #Device    Device   Mount                    System  fsck  Mount    Mount
    #to Mount  to fsck  Point                    Type    Pass  at Boot  Options
    #--------  -------  -----------------------  ------  ----  -------  ----------
    /devices   -        /devices                 devfs   -     no       -
    /proc      -        /proc                    proc    -     no       -
    ...
    qfs1rac    -        /global/sc-rac/qfs1rac 
     
    
  9. Entrez le type de système de fichiers samfs dans la quatrième colonne, - (tiret) dans la cinquième colonne et no dans la sixième colonne.

    #File
    #Device    Device   Mount                    System  fsck  Mount    Mount
    #to Mount  to fsck  Point                    Type    Pass  at Boot  Options
    #--------  -------  -----------------------  ------  ----  -------  ----------
    /devices   -        /devices                 devfs   -     no       -
    /proc      -        /proc                    proc    -     no       -
    ...
    qfs1rac    -        /global/sc-rac/qfs1rac   samfs   -     no
    :wq
    [qfs1rac-node1]root@solaris:~# 
    
  10. Dans la septième colonne du fichier /etc/vfstab, entrez les options de montage répertoriées ci-dessous. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Les options de montage suivantes sont recommandées pour la configuration de cluster SC-RAC. Elles peuvent être spécifiées ici, dans /etc/vfstab, ou dans le fichier /etc/opt/SUNWsamfs/samfs.cmd, si cela est plus approprié :

    • shared

    • stripe=1

    • sync_meta=1

    • mh_write

    • qwrite

    • forcedirectio

    • notrace

    • rdlease=300

    • wrlease=300

    • aplease=300

    Dans l'exemple, la liste a été abrégée pour s'adapter à la mise en page :

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- --------------------   ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs1rac   -       /global/sc-rac/qfs1rac samfs  -    no      shared,...=300
    :wq
    [qfs1rac-node1]root@solaris:~# 
    
  11. Créez le point de montage du système de fichiers partagé haute disponibilité.

    [qfs1rac-node1]root@solaris:~# mkdir -p /global/sc-rac/qfs1rac
    [qfs1rac-node1]root@solaris:~# 
    
  12. Montez le système de fichiers partagé haute disponibilité sur le noeud principal.

    [qfs1rac-node1]root@solaris:~# mount /global/sc-rac/qfs1rac
    [qfs1rac-node1]root@solaris:~# 
    
  13. Procédez ensuite à la configuration d'un serveur de métadonnées QFS potentiel sur les noeuds restants du cluster SC-RAC.

Configuration d'un serveur de métadonnées QFS potentiel sur les noeuds restants du cluster SC-RAC

Les noeuds restants du cluster font office de serveurs de métadonnées potentiels. Un serveur de métadonnées potentiel est un hôte qui peut accéder aux périphériques de métadonnées et endosser les responsabilités d'un serveur de métadonnées. Ainsi, si le serveur de métadonnées actif sur le noeud principal tombe en panne, le logiciel Solaris Cluster peut basculer sur un noeud secondaire et activer un serveur de métadonnées potentiel.

Pour chaque noeud restant dans le cluster SC-RAC, procédez comme suit :

  1. Connectez-vous au noeud en tant qu'utilisateur root.

    Dans l'exemple, le noeud actuel est qfs1rac-node2 :

    [qfs1rac-node2]root@solaris:~# 
    
  2. Copiez le fichier /etc/opt/SUNWsamfs/mcf du noeud principal vers le noeud actuel.

  3. Recherchez les erreurs éventuelles dans le fichier mcf. Exécutez la commande /opt/SUNWsamfs/sbin/sam-fsd et corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous vérifions le fichier mcf sur l'hôte qfs1rac-node2 :

    [qfs1rac-node2]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs1rac-node2]root@solaris:~# 
    
  4. Ouvrez le fichier /etc/vfstab du système d'exploitation dans un éditeur de texte et démarrez une ligne pour le nouveau système de fichiers.

    Dans cet exemple, nous utilisons l'éditeur de texte vi :

    [qfs1rac-node2]root@solaris:~# vi /etc/vfstab
    #File
    #Device    Device   Mount                  System  fsck  Mount    Mount
    #to Mount  to fsck  Point                  Type    Pass  at Boot  Options
    #--------  -------  ---------------------- ------  ----  -------  ------------
    /devices   -        /devices               devfs   -     no       -
    /proc      -        /proc                  proc    -     no       -
    ...
    qfs1rac    -        /global/sc-rac/qfs1rac samfs   -     no
    
  5. Dans la septième colonne du fichier /etc/vfstab, entrez les options de montage répertoriées ci-dessous. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Les options de montage suivantes sont recommandées pour la configuration de cluster SC-RAC. Elles peuvent être spécifiées ici, dans /etc/vfstab, ou dans le fichier /etc/opt/SUNWsamfs/samfs.cmd, si cela est plus approprié :

    • shared

    • stripe=1

    • sync_meta=1

    • mh_write

    • qwrite

    • forcedirectio

    • notrace

    • rdlease=300

    • wrlease=300

    • aplease=300

    Dans l'exemple, la liste a été abrégée pour s'adapter à la mise en page :

    #File
    #Device   Device  Mount                  System  fsck  Mount   Mount
    #to Mount to fsck Point                  Type    Pass  at Boot Options
    #-------- ------- ---------------------- ------  ----  ------- ------------
    /devices  -       /devices               devfs   -     no      -
    /proc     -       /proc                  proc    -     no      -
    ...
    qfs1rac   -       /global/sc-rac/qfs1rac samfs   -     no      shared,...=300
    :wq
    [qfs1rac-node2]root@solaris:~# 
    
  6. Créez le point de montage du système de fichiers partagé haute disponibilité sur le noeud secondaire.

    [qfs1rac-node2]root@solaris:~# mkdir -p /global/sc-rac/qfs1rac
    [qfs1rac-node2]root@solaris:~# 
    
  7. Montez le système de fichiers partagé haute disponibilité sur le noeud secondaire.

    [qfs1rac-node2]root@solaris:~# mount /global/sc-rac/qfs1rac
    [qfs1rac-node2]root@solaris:~# 
    
  8. Procédez maintenant à laconfiguration du basculement des serveurs de métadonnées SC-RAC .

Configuration du basculement des serveurs de métadonnées SC-RAC

Lorsque vous hébergez un système de fichiers partagé Oracle HSM dans un cluster géré par le logiciel Solaris Cluster, vous configurez le basculement des serveurs de métadonnées en créant une ressource de cluster SUNW.qfs, un type de ressource défini par le logiciel Oracle HSM (reportez-vous à la page de manuel SUNW.qfs pour plus d'informations). Pour créer et configurer la ressource pour une configuration SC-RAC, procédez comme suit :

  1. Connectez-vous au noeud principal dans le cluster SC-RAC en tant qu'utilisateur root.

    Dans l'exemple, le noeud principal estqfs1rac-node1 :

    [qfs1rac-node1]root@solaris:~# 
    
  2. Définissez le type de ressource QFS, SUNW.qfs, pour le logiciel Solaris Cluster. Exécutez la commande clresourcetype registerSUNW.qfs.

    [qfs1rac-node1]root@solaris:~# clresourcetype registerSUNW.qfs
    [qfs1rac-node1]root@solaris:~# 
    
  3. Si l'enregistrement échoue parce que le fichier d'enregistrement est introuvable, placez un lien symbolique vers le répertoire /opt/SUNWsamfs/sc/etc/ dans le répertoire dans lequel Solaris Cluster conserve les fichiers d'enregistrement de type de ressource, /opt/cluster/lib/rgm/rtreg/.

    Vous n'avez pas installé le logiciel Oracle Solaris Cluster avant d'installer le logiciel Oracle HSM. Normalement, Oracle HSM fournit automatiquement l'emplacement du fichier d'enregistrement SUNW.qfs lorsqu'il détecte Solaris Cluster durant l'installation. Vous devez donc créer un lien manuellement.

    [qfs1rac-node1]root@solaris:~# cd /opt/cluster/lib/rgm/rtreg/
    [qfs1rac-node1]root@solaris:~# ln -s /opt/SUNWsamfs/sc/etc/SUNW.qfs SUNW.qfs
    [qfs1rac-node1]root@solaris:~# 
    
  4. Créez un groupe de ressources pour le serveur de métadonnées QFS. Exécutez la commande clresourcegroup create -n node-list group-name de Solaris Cluster, où node-list correspond à une liste séparée par des virgules des noeuds du cluster et group-name correspond au nom que nous souhaitons utiliser pour le groupe de ressources.

    Dans cet exemple, nous créons le groupe de ressources qfsracrg avec les noeuds de serveur SC-RAC en tant que membres (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs1rac-node1]root@solaris:~# clresourcegroup create \
    -n qfs1rac-node1,qfs1rac-node2 qfsracrg
    [qfs1rac-node1]root@solaris:~# 
    
  5. Dans le nouveau groupe de ressources, configurez un nom d'hôte virtuel pour le serveur de métadonnées actif. Exécutez la commande clreslogicalhostname create -g group-name de Solaris Cluster, où group-name correspond au nom du groupe de ressources QFS et virtualMDS correspond au nom de l'hôte virtuel.

    Utilisez le même nom d'hôte virtuel que vous avez utilisé dans les fichiers d'hôtes pour le système de fichiers partagé. Dans cet exemple, nous créons l'hôte virtuel qfs1rac-mds dans le groupe de ressources qfsracrg (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs1rac-node1]root@solaris:~# clreslogicalhostname create \
    -g qfsracrg qfs1rac-mds
    [qfs1rac-node1]root@solaris:~# 
    
  6. Ajoutez les ressources du système de fichiers QFS au groupe de ressources. Exécutez la commande clresource create -g group-name -t SUNW.qfs -x QFSFileSystem=mount-point -y Resource_dependencies=virtualMDS resource-name, où :

    • group-name correspond au nom du groupe de ressources QFS.

    • mount-point correspond au point de montage du système de fichiers dans le cluster, un sous-répertoire qui n'est pas directement sous le répertoire root du système.

      Le montage d'un système de fichiers QFS partagé immédiatement sous la racine peut provoquer des problèmes de basculement lors de l'utilisation du type de ressource SUNW.qfs.

    • virtualMDS correspond au nom d'hôte virtuel du serveur de métadonnées actif.

    • resource-name correspond au nom que vous souhaitez donner à la ressource.

    Dans l'exemple, nous créons une ressource nommée scrac du type SUNW.qfs dans le groupe de ressources qfsracrg. Nous définissons la propriété d'extension SUNW.qfs QFSFileSystemsur le point de montage /global/sc-rac/qfs1rac. Nous définissons la propriété standard Resource_dependencies sur l'hôte logique pour le serveur de métadonnées actif qfs1rac-mds (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs1rac-node1]root@solaris:~# create -g qfsracrg -t SUNW.qfs \
    -x QFSFileSystem=/global/sc-rac/qfs1rac \
    -y Resource_dependencies=qfs1rac-mds scrac 
    [qfs1rac-node1]root@solaris:~# 
    
  7. Mettez le groupe de ressources en ligne. Exécutez les commandes clresourcegroup manage group-name et clresourcegroup online -emM group-name de Solaris Cluster, où group-name correspond au nom du groupe de ressources QFS.

    Dans l'exemple, nous mettons en ligne le groupe de ressources qfsracrg :

    [qfs1rac-node1]root@solaris:~# clresourcegroup manage qfsracrg
    [qfs1rac-node1]root@solaris:~# clresourcegroup online -emM qfsracrg
    [qfs1rac-node1]root@solaris:~# 
    
  8. Assurez-vous que le groupe de ressources QFS est en ligne. Exécutez la commande Solaris Cluster clresourcegroup status.

    Dans l'exemple, le groupe de ressources qfsracrg est online sur le noeud principal, qfs1rac-node1 :

    [qfs1rac-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsracrg    qfs1rac-node1   No          Online
                qfs1rac-node2   No          Offline
                qfs1rac-node3   No          Offline
    [qfs1rac-node1]root@solaris:~# 
    
  9. Assurez-vous que le groupe de ressources bascule correctement. Déplacez le groupe de ressources sur le noeud secondaire. Exécutez la commande clresourcegroup switch -n node2 group-name de Solaris Cluster, où node2 correspond au nom du noeud secondaire et group-name correspond au nom que vous avez choisi pour le groupe de ressources HA-SAM. Exécutez ensuite clresourcegroup status pour vérifier le résultat.

    Dans cet exemple, nous déplaçons le groupe de ressources qfsracrg vers qfs1rac-node2 et qfs1rac-node3, et confirmons que le groupe de ressources se met en ligne sur le noeud spécifié :

    [qfs1rac-node1]root@solaris:~# clresourcegroup switch -n qfs1rac-node2 qfsracrg
    [qfs1rac-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsracrg    qfs1rac-node1   No          Offline
                qfs1rac-node2   No          Online
                qfs1rac-node3   No          Offline
    [qfs1rac-node1]root@solaris:~# clresourcegroup switch -n qfs1rac-node3 qfsracrg
    [qfs1rac-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    qfsracrg    qfs1rac-node1   No          Offline
                qfs1rac-node2   No          Offline
                qfs1rac-node3   No          Online
    [qfs1rac-node1]root@solaris:~# 
    
  10. Replacez le groupe de ressources sur le noeud principal. Exécutez la commande clresourcegroup switch -n node1 group-name de Solaris Cluster, où node1 correspond au nom du noeud principal et group-name correspond au nom que vous avez choisi pour le groupe de ressources HA-SAM. Exécutez ensuite clresourcegroup status pour vérifier le résultat.

    Dans cet exemple, nous avons replacé le groupe de ressources qfsracrg sur qfs1rac-node1 :

    [qfs1rac-node1]root@solaris:~# clresourcegroup switch -n qfs1rac-node1 qfsracrg
    [qfs1rac-node1]root@solaris:~# clresourcegroup status
    === Cluster Resource Groups ===
    Group Name  Node Name       Suspended   Status
    ----------  -------------   ---------   ------
    samr        qfs1rac-node1   No          Online
                qfs1rac-node2   No          Offline
                qfs1rac-node3   No          Offline
    [qfs1rac-node1]root@solaris:~# 
    
  11. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  12. Sinon, passez à la Configuration des notifications et de la journalisation.

Configuration des serveurs de métadonnées QFS sur les noeuds SC-RAC à l'aide du stockage RAID logiciel

Un système de fichiers haute disponibilité doit stocker les données et les métadonnées sur des périphériques de stockage principaux redondants. Le matériel de baie de disques redondant peut fournir la redondance à l'aide de RAID-1 ou RAID-10 pour les métadonnées et RAID-5 pour les données. Si vous avez besoin d'utiliser des périphériques de disques SCSI bruts à double accès ou une baie JBOD (just a bunch of disks) comme stockage principal, vous devez fournir la redondance requise en logiciel.

Pour cette raison, la configuration SC-RAC prend en charge les configurations RAID logicielles basées sur les ensembles de disques multipropriétaire Oracle Solaris Volume Manager (SVM). Cette section décrit les étapes de base que vous devez effectuer lors de la configuration de cette variante de la configuration de système de fichiers SC-RAC.

Notez que vous devez utiliser Solaris Volume Manager exclusivement pour la gestion de la baie de stockage redondante. Ne concaténez pas le stockage sur des périphériques séparés. Cette pratique répartit les E/S vers les périphériques composants de manière inefficace et dégrade les performances du système de fichiers QFS.

Effectuez les tâches suivantes :

Installation de Solaris Volume Manager sous Solaris 11+

Depuis Solaris 11, Solaris Volume Manager (SVM) n'est plus intégré à solaris. Toutefois, le logiciel Solaris Cluster 4 continue à prendre en charge Solaris Volume Manager. Ainsi, pour utiliser le logiciel, vous devez télécharger et installer la version incluse avec Solaris 10 9/10. Pour chaque noeud dans le cluster, procédez comme suit :

  1. Connectez-vous au noeud en tant qu'utilisateur root.

    Dans les exemples ci-dessous, nous configurons le noeud de cluster qfs2rac-node1 à l'aide de Solaris Image Packaging System (IPS) :

    [qfs2rac-node1]root@solaris:~# 
    
  2. Recherchez les packages Solaris Volume Manager (SVM) disponibles localement. Exécutez la commande pkg info svm.

    [qfs2rac-node1]root@solaris:~# pkg info svm
    pkg: info: no packages matching the following patterns you specified are
    installed on the system.  Try specifying -r to query remotely:
            svm
    [qfs2rac-node1]root@solaris:~# 
    
  3. Si vous ne trouvez aucun package localement, recherchez dans le référentiel Solaris Image Packaging System (IPS). Exécutez la commande pkg -r svm.

    [qfs2rac-node1]root@solaris:~# pkg -r svm
              Name: storage/svm
           Summary: Solaris Volume Manager
       Description: Solaris Volume Manager commands
          Category: System/Core
             State: Not installed
         Publisher: solaris
           Version: 0.5.11
     Build Release: 5.11
            Branch: 0.175.0.0.0.2.1
    Packaging Date: October 19, 2011 06:42:14 AM 
              Size: 3.48 MB
              FMRI: pkg://solaris/storage/svm@0.5.11,5.11-0.175.0.0.0.2.1:20111019T064214Z
    [qfs2rac-node1]root@solaris:~# 
    
  4. Installez le package. Exécutez la commande pkg install storage/svm :

    [qfs2rac-node1]root@solaris:~# pkg install storage/svm
               Packages to install:   1
           Create boot environment:  No
    Create backup boot environment: Yes
                Services to change:   1
    DOWNLOAD      PKGS       FILES    XFER (MB)
    Completed      1/1     104/104      1.6/1.6
    PHASE            ACTIONS
    Install Phase    168/168 
    PHASEITEMS
    Package State Update Phase         1/1 
    Image State Update Phase           2/2 
    [qfs2rac-node1]root@solaris:~# 
    
  5. Lorsque l'installation est terminée, vérifiez l'emplacement de metadb. Exécutez la commande which metadb.

    [qfs2rac-node1]root@solaris:~# which metadb
    /usr/sbin/metadb
    [qfs2rac-node1]root@solaris:~# 
    
  6. Vérifiez l'installation. Exécutez la commande metadb.

    [qfs2rac-node1]root@solaris:~# metadb
    [qfs2rac-node1]root@solaris:~# 
    
  7. Si metadb renvoie une erreur, vérifiez si le fichier kernel/drv/md.conf existe.

    [qfs2rac-node1]root@solaris:~# metadb
    metadb: <HOST>: /dev/md/admin: No such file or directory
    [qfs2rac-node1]root@solaris:~# ls -l /kernel/drv/md.conf 
    -rw-r--r--   1 root     sys          295 Apr 26 15:07 /kernel/drv/md.conf
    [qfs2rac-node1]root@solaris:~# 
    
  8. Si le fichier kernel/drv/md.conf n'existe pas, créez-le. Définissez l'utilisateur root comme propriétaire du fichier et sys comme propriétaire du groupe. Définissez les autorisations sur 644.

    Dans l'exemple, nous créons le fichier avec l'éditeur vi. Le contenu du fichier doit ressembler à ceci :

    [qfs2rac-node1]root@solaris:~# vi kernel/drv/md.conf
    ###################################################
    #pragma ident   "@(#)md.conf    2.1   00/07/07 SMI"
    #
    # Copyright (c) 1992-1999 by Sun Microsystems, Inc.
    # All rights reserved.
    #
    name="md" parent="pseudo" nmd=128 md_nsets=4;
    ####################################################
    :wq
    [qfs2rac-node1]root@solaris:~# chown root:sys kernel/drv/md.conf
    [qfs2rac-node1]root@solaris:~# chmod 644
    [qfs2rac-node1]root@solaris:~# 
    
  9. Lancez une nouvelle analyse dynamique du fichier md.conf et assurez-vous que l'arborescence de périphériques est mise à jour. Exécutez la commande update_drv -f md :

    Dans l'exemple, l'arborescence de périphériques est mise à jour. Solaris Volume Manager est donc installé :

    [qfs2rac-node1]root@solaris:~# update_drv -f md
    [qfs2rac-node1]root@solaris:~# ls -l  /dev/md/admin
    lrwxrwxrwx   1 root root 31 Apr 20 10:12 /dev/md/admin -> ../../devices/pseudo/md@0:admin 
    [qfs2rac-node1]root@solaris:~# 
    
  10. Procédez ensuite à la création de groupes de disques multipropriétaire Solaris Volume Manager.

Création de groupes de disques multipropriétaire Solaris Volume Manager

  1. Connectez-vous à tous les noeuds dans la configuration SC-RAC en tant qu'utilisateur root.

    Dans l'exemple, nous nous connectons au noeud qfs2rac-node1. Nous ouvrons ensuite des nouvelles fenêtres de terminal et utilisons ssh pour nous connecter aux noeuds qfs2rac-node2 et qfs2rac-node3 :

    [qfs2rac-node1]root@solaris:~# 
    
    [qfs2rac-node1]root@solaris:~# ssh root@qfs2rac-node2
    Password:
    [qfs2rac-node2]root@solaris:~# 
    
    [qfs2rac-node1]root@solaris:~# ssh root@qfs2rac-node3
    Password:
    [qfs2rac-node3]root@solaris:~# 
    
  2. Si vous utilisez Oracle Solaris Cluster 4.x sous Solaris 11.x et que vous ne l'avez pas déjà fait, vous devez procéder à l'installation de Solaris Volume Manager sur chaque noeud avant de poursuivre.

    A partir de Solaris 11, Solaris Volume Manager n'est plus installé par défaut.

  3. Sur chaque noeud, connectez un nouveau périphérique de base de données d'état et créez trois répliques de base de données d'état. Exécutez la commande metadb -a -f -c3 device-name, où device-name correspond à un nom de périphérique physique sous la forme cXtYdYsZ.

    N'utilisez pas les identificateurs de périphérique (DID) Solaris Cluster. Utilisez le nom de périphérique physique. Dans l'exemple, nous créons les périphériques de base de données d'état sur les trois noeuds du cluster :

    [qfs2rac-node1]root@solaris:~# metadb -a -f -c3 /dev/rdsk/c0t0d0
    
    [qfs2rac-node2]root@solaris:~# metadb -a -f -c3 /dev/rdsk/c0t6d0
    
    [qfs2rac-node3]root@solaris:~# metadb -a -f -c3 /dev/rdsk/c0t4d0
    
  4. Créez un groupe de disques multipropriétaire Solaris Volume Manager sur un noeud. Exécutez la commande metaset -sdiskset -M -a -h host-list, où host-list correspond à une liste de propriétaires délimitée par des espaces.

    Solaris Volume Manager prend en charge jusqu'à quatre hôtes par ensemble de disques. Dans cet exemple, nous créons le groupe de disques datadisks sur qfs2rac-node1 et indiquons les trois noeuds qfs2rac-node1, qfs2rac-node2 et qfs2rac-node3 en tant que propriétaires (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs2rac-node1]root@solaris:~# metaset -s datadisks -M -a -h qfs2rac-node1 \
    qfs2rac-node2 qfs2rac-node3
    
  5. Répertoriez les périphériques sur l'un des noeuds. Exécutez la commande Solaris Cluster cldevice list -n -v.

    [qfs2rac-node1]root@solaris:~# cldevice list -n -v
    DID Device  Full Device Path
    ----------  ----------------
    d13         qfs2rac-node1:/dev/rdsk/c6t600C0FF00000000000332B62CF3A6B00d0
    d14         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E950F1FD9600d0
    d15         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E9124FAF9C00d0
    ...
    [qfs2rac-node1]root@solaris:~# 
    
  6. Dans la sortie de la commande cldevice list -n -v, sélectionnez les périphériques qui seront mis en miroir.

    Dans l'exemple, nous sélectionnons quatre paires de périphériques pour quatre miroirs : d21 et d13, d14 et d17, d23 et d16, et d15 et d19.

    [qfs2rac-node1]root@solaris:~# cldevice list -n -v
    DID Device  Full Device Path
    ----------  ----------------
    d13         qfs2rac-node1:/dev/rdsk/c6t600C0FF00000000000332B62CF3A6B00d0
    d14         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E950F1FD9600d0
    d15         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E9124FAF9C00d0
    d16         qfs2rac-node1:/dev/rdsk/c6t600C0FF00000000000332B28488B5700d0
    d17         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB474EC5DE900d0
    d18         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E975EDA6A000d0
    d19         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB47E331ACF00d0
    d20         qfs2rac-node1:/dev/rdsk/c6t600C0FF0000000000876E9780ECA8100d0
    d21         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000004CAD5B68A7A100d0
    d22         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB43CF85DA800d0
    d23         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000004CAD7CC3CDE500d0
    d24         qfs2rac-node1:/dev/rdsk/c6t600C0FF000000000086DB4259B272300d0
    ....
    [qfs2rac-node1]root@solaris:~# 
    
  7. Ajoutez les périphériques sélectionnés à l'ensemble de disques sur le même noeud. Exécutez la commande metaset -a devicelist, où devicelist correspond à une liste délimitée par des espaces d'un ou plusieurs identificateurs de périphériques en cluster.

    Dans cet exemple, nous ajoutons les disques répertoriés à l'ensemble de disques multipropriétaire dataset1 (notez que la commande ci-dessous est entrée sur une seule ligne ; le saut de ligne est échappé à l'aide de la barre oblique inverse) :

    [qfs2rac-node1]root@solaris:~# metaset -s dataset1 -M -a -h /dev/did/rdsk/d21 \ /dev/did/rdsk/d13 /dev/did/rdsk/d14 /dev/did/rdsk/d17 /dev/did/rdsk/d23 \
    /dev/did/rdsk/d16 /dev/did/rdsk/d15 /dev/did/rdsk/d19
    [qfs2rac-node1]root@solaris:~# 
    
  8. Procédez ensuite à la création de volumes en miroir pour les données et métadonnées QFS.

Création de volumes en miroir pour les données et métadonnées QFS

  1. Pour que les relations entre les composants restent claires, définissez un schéma de nommage pour les volumes logiques RAID-0 et les miroirs RAID-1 que vous allez créer.

    Généralement, les miroirs RAID-1 sont nommés dn, où n correspond à un entier. Les volumes RAID-0 qui composent les miroirs RAID-1 sont nommés dnX, où X correspond à un entier représentant la position du périphérique au sein du miroir (généralement 0 ou 1 pour un miroir bidirectionnel).

    Dans les exemples tout au long de cette procédure, nous créons des miroirs RAID-1 bidirectionnels à partir de paires de volumes logiques RAID-0. Nous nommons donc les miroirs d1, d2, d3, d4, et ainsi de suite. Nous nommons ensuite chaque paire de volumes RAID-0 pour le miroir RAID-1 qui les inclut : d10 et d11, d20 et d21, d30 et d31, d40 et d41, etc.

  2. Connectez-vous au noeud sur lequel vous avez créé l'ensemble de disques multipropriétaire. Connectez-vous en tant que root.

    Dans les exemples ci-dessus, nous avons créé l'ensemble de disques sur qfs2rac-node1 :

    [qfs2rac-node1]root@solaris:~# 
    
  3. Créez le premier volume logique RAID-0. Exécutez la commande metainit -s diskset-name device-name number-of-stripes components-per-stripe component-names, où :

    • diskset-name correspond au nom que vous avez choisi pour l'ensemble de disques.

    • device-name correspond au nom que vous avez choisi pour le volume logique RAID-0.

    • number-of-stripes correspond à 1.

    • components-per-stripe correspond à 1.

    • component-name correspond au nom de périphérique du composant d'ensemble de disques à utiliser dans le volume RAID-0.

    Dans l'exemple, nous utilisons le périphérique de cluster (DID) /dev/did/dsk/d21s0 dans l'ensemble de disques multipropriétaire dataset1 pour créer le volume logique RAID-0 d10 :

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d10 1 1 /dev/did/dsk/d21s0
    [qfs2rac-node1]root@solaris:~# 
    
  4. Créez les volumes logiques RAID-0 restants.

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d11 1 1 /dev/did/dsk/d13s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d20 1 1 /dev/did/dsk/d14s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d21 1 1 /dev/did/dsk/d17s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d30 1 1 /dev/did/dsk/d23s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d31 1 1 /dev/did/dsk/d16s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d40 1 1 /dev/did/dsk/d15s0
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d41 1 1 /dev/did/dsk/d19s0
    ...
    [qfs2rac-node1]root@solaris:~# 
    
  5. Créez le premier miroir RAID-1. Exécutez la commande metainit -s diskset-name RAID-1-mirrorname -m RAID-0-volume0, où :

    • diskset-name correspond au nom de l'ensemble de disques multipropriétaire.

    • RAID-1-mirrorname correspond au nom du volume RAID-1 en miroir.

    • RAID-0-volume0 correspond au premier volume logique RAID-0 que vous ajoutez au miroir.

    Dans l'exemple, nous créons le miroir d1 et ajoutons le premier volume RAID-0 dans le miroir, d10 :

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d1 -m d10
    [qfs2rac-node1]root@solaris:~# 
    
  6. Ajoutez les volumes RAID-0 restants au premier miroir RAID-1. Exécutez la commande metattach -s diskset-name RAID-1-mirrorname RAID-0-volume, où :

    • diskset-name correspond au nom de l'ensemble de disques multipropriétaire

    • RAID-1-mirrorname correspond au nom du volume RAID-1 en miroir

    • RAID-0-volume correspond au volume logique RAID-0 que vous ajoutez au miroir.

    Dans l'exemple, d1 étant un miroir bidirectionnel, nous ajoutons un volume RAID-0 unique, d11 :

    [qfs2rac-node1]root@solaris:~# metattach -s dataset1 d11 d1
    [qfs2rac-node1]root@solaris:~# 
    
  7. Créez les autres miroirs.

    Dans l'exemple, nous créons les miroirs d2, d3, d4, etc.

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d2 -m d20
    [qfs2rac-node1]root@solaris:~# metattach -s dataset1 d21 d2
    [qfs2rac-node1]root@solaris:~# metainit -s dataset2 d3 -m d30
    [qfs2rac-node1]root@solaris:~# metattach -s dataset2 d31 d3
    [qfs2rac-node1]root@solaris:~# metainit -s dataset2 d4 -m d40
    [qfs2rac-node1]root@solaris:~# metattach -s dataset2 d41 d4
    ...
    [qfs2rac-node1]root@solaris:~# 
    
  8. Sélectionnez les miroirs qui conserveront les métadonnées du système de fichiers QFS.

    Pour les exemples ci-dessous, nous choisissons les miroirs d1 et d2.

  9. Dans les miroirs sélectionnés, créez des partitions logicielles pour conserver les métadonnées QFS. Pour chaque miroir, exécutez la commande metainit -s diskset-name partition-name -p RAID-1-mirrorname size, où :

    • diskset-name correspond au nom de l'ensemble de disques multipropriétaire.

    • partition-name correspond au nom de la nouvelle partition.

    • RAID-1-mirrorname correspond au nom du miroir.

    • size correspond à la taille de la partition.

    Dans l'exemple, nous créons deux partitions de 500 giga-octets : d53 sur le miroir d1 et d63 sur le miroir d2 :

    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d53 -p d1 500g
    [qfs2rac-node1]root@solaris:~# metainit -s dataset1 d63 -p d2 500g
    
  10. Procédez ensuite à la création d'un système de fichiers partagé QFS sur le cluster SC-RAC à l'aide de volumes en miroir.

Création d'un système de fichiers partagé QFS sur le cluster SC-RAC à l'aide de volumes en miroir

  1. Si ce n'est pas encore fait, effectuez la procédure de la Création d'un fichier d'hôtes de système de fichiers partagé QFS sur tous les noeuds du cluster SC-RAC. Lorsque vous avez terminé, revenez à cette page.

  2. Sélectionnez le noeud du cluster qui servira à la fois de noeud principal pour le cluster SC-RAC et de serveur de métadonnées actif pour le système de fichiers partagé QFS. Connectez-vous en tant que root.

    Dans l'exemple, nous sélectionnons le noeud qfs2rac-node1 :

    [qfs2rac-node1]root@solaris:~#  
    
  3. Sur le noeud principal, créez un système de fichiers partagé ma haute performance. Utilisez les volumes de disques en miroir Solaris Volume Manager en tant que périphériques de métadonnées mm et périphériques de données mr. Dans un éditeur de texte, ouvrez le fichier /etc/opt/SUNWsamfs/mcf, apportez les modifications requises et enregistrez le fichier.

    Dans l'exemple, nous utilisons l'éditeur de texte vi pour créer le système de fichiers qfs2rac. Les partitions sur les volumes en miroir d1 et d2 servent de périphériques de métadonnées mm du système de fichiers, 110 et 120. Les volumes en miroir d3 et d4 servent de périphériques de données mr du système de fichiers, 130 et 140.

    [qfs2rac-node1]root@solaris:~# vi /etc/opt/SUNWsamfs/mcf 
    # /etc/opt/SUNWsamfs/mcf file:
    #
    # Equipment               Equipment Equipment Family   Device  Additional
    # Identifier              Ordinal   Type      Set      State   Parameters
    # ----------------------- --------- --------  -------  ------  ----------
    qfs2rac                   100        ma       qfs2rac  on      shared
     /dev/md/dataset1/dsk/d53  110        mm       qfs2rac  on
     /dev/md/dataset1/dsk/d63  120        mm       qfs2rac  on
     /dev/md/dataset1/dsk/d3   130        mr       qfs2rac  on
     /dev/md/dataset1/dsk/d4   140        mr       qfs2rac  on
    :wq
    [qfs2rac-node1]root@solaris:~# 
    
  4. Recherchez les erreurs éventuelles dans le fichier mcf. Exécutez la commande /opt/SUNWsamfs/sbin/sam-fsd et corrigez les erreurs trouvées.

    La commande sam-fsd lit les fichiers de configuration Oracle HSM et initialise les systèmes de fichiers. Elle s'arrête en cas d'erreur. Dans l'exemple, nous vérifions le fichier mcf sur l'hôte qfs2rac-node1 :

    [qfs2rac-node1]root@solaris:~# sam-fsd
    ...
    Would start sam-archiverd()
    Would start sam-stagealld()
    Would start sam-stagerd()
    Would start sam-amld()
    [qfs2rac-node1]root@solaris:~# 
    
  5. Créez le système de fichiers. Exécutez la commande /opt/SUNWsamfs/sbin/sammkfs -S family-set-name, où family-set-name correspond à l'identificateur d'équipement du système de fichiers.

    La commande sammkfs lit les fichiers hosts.family-set-name et mcf et crée un système de fichiers partagé avec les propriétés indiquées.

    [qfs2rac-node1]root@solaris:~# sammkfs -S qfs2rac
    Building 'qfs2rac' will destroy the contents of devices:
      ...
    Do you wish to continue? [y/N]yes ...
    [qfs2rac-node1]root@solaris:~# 
    
  6. Ouvrez le fichier /etc/vfstab du système d'exploitation dans un éditeur de texte et démarrez une ligne pour le nouveau système de fichiers. Entrez le nom du système de fichiers dans la première colonne, suivi d'espaces, puis un tiret dans la deuxième colonne, suivi d'espaces.

    Dans l'exemple, utilisez l'éditeur de texte vi. Nous démarrons une ligne pour le système de fichiers qfs2rac. Le tiret empêche le système d'exploitation de tenter de vérifier l'intégrité du système de fichiers à l'aide des outils UFS :

    [qfs2rac-node1]root@solaris:~# vi /etc/vfstab
    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -        
    
  7. Dans la troisième colonne du fichier /etc/vfstab, entrez le point de montage du système de fichiers par rapport au cluster. Spécifiez un sous-répertoire de point de montage qui ne se trouve pas directement en dessous du répertoire root du système.

    Le montage d'un système de fichiers QFS partagé immédiatement sous la racine peut provoquer des problèmes de basculement lors de l'utilisation du type de ressource SUNW.qfs. Dans l'exemple, le point de montage pour le système de fichiers qfs2rac est /global/sc-rac/qfs2rac :

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs  -    no
    
  8. Dans la quatrième colonne du fichier /etc/vfstab, entrez le type de système de fichiers (nfs).

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs
    
  9. Dans la cinquième colonne du fichier /etc/vfstab, entrez l'option de passe fsck (-).

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs  -
    
  10. Dans la sixième colonne du fichier /etc/vfstab, entrez l'option de montage au démarrage (no).

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs  -    no
    
  11. Dans la septième colonne du fichier /etc/vfstab, entrez l'option de montage sw_raid et les options de montage recommandées pour la configuration SC-RAC. Ensuite, enregistrez le fichier et fermez l'éditeur de texte.

    Les options de montage suivantes sont recommandées. Elles peuvent être spécifiées ici, dans /etc/vfstab, ou dans le fichier /etc/opt/SUNWsamfs/samfs.cmd, si cela est plus approprié :

    • shared

    • stripe=1

    • sync_meta=1

    • mh_write

    • qwrite

    • forcedirectio

    • notrace

    • rdlease=300

    • wrlease=300

    • aplease=300

    Dans cet exemple, la liste des options de montage a été abrégée pour s'adapter à la mise en page :

    #File
    #Device   Device  Mount                  System fsck Mount   Mount
    #to Mount to fsck Point                  Type   Pass at Boot Options
    #-------- ------- ---------------------- ------ ---- ------- ------------
    /devices  -       /devices               devfs  -    no      -
    /proc     -       /proc                  proc   -    no      -
    ...
    qfs2rac   -       /global/sc-rac/qfs2rac samfs  -    no      shared,...sw_raid
    :wq
    [qfs2rac-node1]root@solaris:~# 
    
  12. Créez le point de montage du système de fichiers partagé haute disponibilité.

    [qfs2rac-node1]root@solaris:~# mkdir -p /global/sc-rac/qfs2rac
    [qfs2rac-node1]root@solaris:~# 
    
  13. Montez le système de fichiers partagé haute disponibilité sur le noeud principal.

    [qfs2rac-node1]root@solaris:~# mount /global/sc-rac/qfs2rac
    [qfs2rac-node1]root@solaris:~# 
    
  14. Configurez le noeud secondaire. Suivez la procédure décrite à la Configuration d'un serveur de métadonnées QFS potentiel sur les noeuds restants du cluster SC-RAC

  15. Configurez le basculement. Suivez la procédure décrite à la Configuration du basculement des serveurs de métadonnées SC-RAC Revenez ensuite ici.

    Vous avez défini une configuration SC-RAC à l'aide de volumes en miroir Solaris Volume Manager.

  16. Si vous prévoyez d'utiliser la fonctionnalité de base de données sideband, reportez-vous au Configuration de la base de données de rapports.

  17. Sinon, passez à la Configuration des notifications et de la journalisation.