Sun Cluster Software Guide d'installation pour le SE Solaris

ProcedureFinition de la mise à niveau vers Sun Cluster 3.2

Effectuez cette procédure pour terminer la mise à niveau de Sun Cluster. Sur Solaris 10, effectuez toutes les étapes à partir de la zone globale uniquement. Réenregistrez tout d'abord tous les types de ressources ayant bénéficié d'une nouvelle version dans le cadre de la mise à niveau. Modifiez ensuite les ressources concernées de sorte qu'elles puissent utiliser la nouvelle version du type de ressources. Réactivez les ressources et mettez en ligne les groupes de ressources.

Avant de commencer

Assurez-vous que toutes les étapes de la section Vérification de la mise à niveau de Sun Cluster 3.2 ont été appliquées.

  1. Copiez les fichiers de sécurité de conteneur d'agents communs dans tous les nœuds du cluster.

    Ainsi, ces fichiers seront identiques sur tous les nœuds de cluster, et les fichiers copiés disposeront des autorisations de fichier correctes.

    1. Sur chaque nœud, arrêtez l'agent Sun Java Web Console.


      phys-schost# /usr/sbin/smcwebserver stop
      
    2. Sur chaque nœud, arrêtez l'agent de fichiers de sécurité.


      phys-schost# /usr/sbin/cacaoadm stop
      
    3. Sur un nœud, déplacez-vous sur le répertoire /etc/cacao/instances/default/.


      phys-schost-1# cd /etc/cacao/instances/default/
      
    4. Créez un fichier tar du répertoire /etc/opt/SUNWcacao/security/.


      phys-schost-1# tar cf /tmp/SECURITY.tar security
      
    5. Copiez le fichier /tmp/SECURITY.tar vers chacun des autres nœuds du cluster.

    6. Sur chaque nœud vers lequel le fichier /tmp/SECURITY.tar a été copié, procédez à l'extraction des fichiers de sécurité.

      Les fichiers de sécurité existants et présents dans le répertoire /etc/cacao/instances/default/ sont écrasés.


      phys-schost-2# cd /etc/cacao/instances/default/
      phys-schost-2# tar xf /tmp/SECURITY.tar
      
    7. Supprimez le fichier /tmp/SECURITY.tar de chaque nœud du cluster.

      Vous devez supprimer chaque copie du fichier tar pour éviter tout problème de sécurité.


      phys-schost-1# rm /tmp/SECURITY.tar
      phys-schost-2# rm /tmp/SECURITY.tar
      
    8. Sur chaque nœud, lancez l'agent de fichiers de sécurité.


      phys-schost# /usr/sbin/cacaoadm start
      
    9. Sur chaque nœud, démarrez l'agent Sun Java Web Console.


      phys-schost# /usr/sbin/smcwebserver start
      
  2. Si vous avez mis à niveau des services de données non disponibles sur le support produit, enregistrez leurs nouveaux types de ressources.

    Suivez la documentation qui accompagne les services de données.

  3. Si vous avez procédé à une mise à niveau de Sun Cluster HA pour SAP liveCache à partir de Sun Cluster version 3.0 ou 3.1 vers Sun Cluster version 3.2, modifiez le fichier de configuration /opt/SUNWsclc/livecache/bin/lccluster.

    1. Connectez-vous en tant que superutilisateur sur le nœud qui hébergera la ressource liveCache.

    2. Copiez le nouveau fichier /opt/SUNWsclc/livecache/bin/lccluster dans le répertoire /sapdb/LC_NAME/db/sap/.

      Remplacez le fichier lccluster créé lors de la configuration précédente du service de données.

    3. Configurez ce fichier /sapdb/LC_NAME/db/sap/lccluster selon les instructions de la section How to Register and Configure Sun Cluster HA for SAP liveCache du Sun Cluster Data Service for SAP liveCache Guide for Solaris OS.

  4. Si vous avez mis à niveau le système d'exploitation Solaris et que votre configuration utilise des médiateurs à deux chaînes pour Solaris Volume Manager, restaurez les configurations de médiateur.

    1. Identifiez le nœud propriétaire du jeu de disques auquel vous souhaitez ajouter les hôtes médiateurs.


      phys-schost# metaset -s setname
      
      -s nom_jeu

      Spécifie le nom du jeu de disques.

    2. Sur le nœud qui contrôle ou contrôlera le jeu de disques, devenez superutilisateur.

    3. Si aucun nœud n'est propriétaire, devenez propriétaire du jeu de disques.


      phys-schost# cldevicegroup switch -n node devicegroup
      
      node

      Indique le nom du nœud que vous voulez convertir en nœud principal du jeu de disques.

      devicegroup

      Indique le nom du jeu de disques.

    4. Recréez les médiateurs.


      phys-schost# metaset -s setname -a -m mediator-host-list
      
      -a

      Ajoute le nœud au jeu de disques.

      -m mediator-host-list

      Indique le nom des nœuds à ajouter en tant qu'hôtes médiateurs du jeu de disques.

    5. Répétez ces étapes pour chaque jeu de disques du cluster utilisant des médiateurs.

  5. Si vous avez mis à niveau VxVM, mettez à niveau tous les groupes de disques.

    1. Connectez un jeu de disques à mettre à niveau et devenez-en propriétaire.


      phys-schost# cldevicegroup switch -n node devicegroup
      
    2. Exécutez les commandes suivantes pour mettre à niveau un jeu de disques en fonction de la version VxVM installée.


      phys-schost# vxdg upgrade dgname
      

      Reportez-vous au manuel de l'administrateur de VxVM pour de plus amples informations sur la mise à niveau des groupes de disques.

    3. Répétez la procédure pour les autres jeux de disques VxVM du cluster.

  6. Migrez les ressources vers la nouvelle version des types de ressources.

    Vous devez faire migrer toutes les ressources vers la version de type de ressource Sun Cluster 3.2.


    Remarque –

    Pour Sun Cluster HA pour SAP Web Application Server, si vous utilisez une ressource de moteur J2EE ou une ressource de composant serveur d'application Web, ou les deux, vous devez supprimer la ressource et la recréer avec la nouvelle ressource de composant serveur d'application Web. Les modifications apportées à la nouvelle ressource de composant serveur d'application Web incluent l'intégration de la fonctionnalité J2EE. Pour plus d'informations, reportez-vous au manuel Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS.


    Pour de plus amples informations sur les procédures utilisant la ligne de commande, reportez-vous à la rubrique Upgrading a Resource Type du Sun Cluster Data Services Planning and Administration Guide for Solaris OS. Si vous préférez, vous pouvez également effectuer les mêmes tâches en utilisant le menu Groupe de ressources de l'utilitaire clsetup. Le processus implique la réalisation des tâches suivantes :

    • Enregistrement du nouveau type de ressources

    • Migration de la ressource éligible vers la nouvelle version de son type de ressource

    • Modification des propriétés de l'extension du type de ressource comme spécifié dans les Notes de version de Sun Cluster 3.2 pour SE Solaris


      Remarque –

      La version 3.2 de Sun Cluster introduit de nouvelles valeurs par défaut pour certaines propriétés d'extension, notamment la propriété Retry_interval. Ces modifications affectent le comportement des ressources existantes qui utilisent les valeurs par défaut de ces propriétés. Si vous avez besoin de la valeur par défaut précédente d'une ressource, modifiez la ressource migrée pour définir la propriété sur la valeur par défaut précédente.


  7. Si votre cluster exécute le service de données Sun Cluster HA pour Sun Java System Application Server EE (HADB) et que vous arrêtez la base de données HADB avant de commencer une mise à niveau à partition double, réactivez la ressource et démarrez la base de données.


    phys-schost# clresource enable hadb-resource
    phys-schost# hadbm start database-name
    

    Pour de plus amples informations, reportez-vous à la page de manuel hadbm(1m).

  8. Si vous avez mis à niveau vers le système d'exploitation Solaris 10 et que le fichier httpd.conf Apache est situé sur un système de fichiers de cluster, assurez-vous que l'entrée HTTPD du script de contrôle Apache pointe toujours vers cet emplacement.

    1. Affichez l'entrée HTTPD dans le fichier /usr/apache/bin/apchectl.

      L'exemple suivant présente le fichier httpd.conf situé sur le système de fichiers du cluster /global.


      phys-schost# cat /usr/apache/bin/apchectl | grep HTTPD=/usr
      HTTPD="/usr/apache/bin/httpd -f /global/web/conf/httpd.conf"
    2. Si le fichier ne présente pas l'entrée HTTPD correcte, mettez le fichier à jour.


      phys-schost# vi /usr/apache/bin/apchectl
      #HTTPD=/usr/apache/bin/httpd
      HTTPD="/usr/apache/bin/httpd -f /global/web/conf/httpd.conf"
      
  9. À partir d'un nœud, lancez l'utilitaire clsetup.


    phys-schost# clsetup
    

    Le menu principal clsetup s'affiche.

  10. Réactivez toutes les ressources désactivées.

    1. Saisissez le numéro correspondant à l'option des groupes de ressources, puis appuyez sur la touche Retour.

      Le menu du groupe de ressources apparaît.

    2. Saisissez le numéro correspondant à l'option d'activation/désactivation d'une ressource, puis appuyez sur la touche Retour.

    3. Choisissez une ressource à activer, puis suivez les directives fournies.

    4. Répétez l'Étape c pour chaque ressource désactivée.

    5. Une fois que toutes les ressources sont réactivées, entrez q pour revenir au menu Groupe de ressources.

  11. Remettez en ligne tous les groupes de ressources.

    Cette étape inclut la mise en ligne de groupes de ressources dans des zones non globales.

    1. Saisissez le numéro correspondant à l'option en ligne/hors ligne ou la commutation d'un groupe de ressources, puis appuyez sur la touche Retour.

    2. Suivez les indications pour mettre chaque groupe de ressources en mode gestion et mettre en ligne le groupe de ressources.

  12. Une fois tous les groupes de ressources remis en ligne, quittez l'utilitaire clsetup.

    Entrez q pour sortir de chaque sous-menu ou appuyez sur Ctrl-C.

  13. Si, avant la mise à niveau, vous aviez activé la réinitialisation de nœud automatique dans le cas de l'échec de tous les chemins de disque surveillés, assurez-vous que cette fonctionnalité est toujours activée.

    Effectuez également cette tâche si vous souhaitez configurer une réinitialisation automatique pour la première fois.

    1. Déterminez si la fonctionnalité de réinitialisation automatique est activée ou désactivée.


      phys-schost# clnode show
      
      • Si la propriété reboot_on_path_failure est définie sur enabled, aucune autre action n'est nécessaire.

      • Si la propriété reboot_on_path_failure est définie sur disabled, passez à l'étape suivante pour réactiver la propriété.

    2. Activez la fonctionnalité de réinitialisation automatique.


      phys-schost# clnode set -p reboot_on_path_failure=enabled
      
      -p

      Indique la propriété à définir.

      reboot_on_path_failure=enable

      Indique que le nœud est réinitialisé si tous les chemins de disque contrôlés échouent, à condition qu'au moins l'un des disques soit accessible à partir d'un autre nœud du cluster.

    3. Vérifiez que la réinitialisation automatique en cas d'échec du chemin de disque est activée.


      phys-schost# clnode show
      === Cluster Nodes ===                          
      
      Node Name:                                      node
      …
        reboot_on_path_failure:                          enabled
      …
  14. (Facultatif) Capturez les informations de partitionnement du disque pour toute référence ultérieure.


    phys-schost# prtvtoc /dev/rdsk/cNtXdYsZ > filename
    

    Stockez le fichier dans un emplacement extérieur au cluster. Si vous modifiez la configuration du disque, exécutez de nouveau cette commande pour capturer la configuration modifiée. Si un disque est en panne et doit être remplacé, vous pouvez utiliser ces informations pour restaurer la configuration de la partition du disque. Pour de plus amples informations, reportez-vous à la page de manuel prtvtoc(1M).

  15. (Facultatif) Procédez à la sauvegarde de votre configuration de cluster.

    Si vous effectuez une sauvegarde archivée de votre configuration de cluster, vous pourrez la récupérer plus facilement en cas de problème.

    Pour plus d'informations, reportez-vous à la section How to Back Up the Cluster Configuration du Sun Cluster System Administration Guide for Solaris OS.

Erreurs fréquentes

Échec de migration du type de ressource : généralement, vous migrez des ressources vers un nouveau type de ressource lorsque la ressource est hors ligne. Cependant, certaines ressources doivent être en ligne pour qu'une migration du type de ressource soit réussie. Si une migration de type de ressource échoue pour cette raison, des messages d'erreur similaires à ce qui suit s'affichent :

phys-schost - Resource depends on a SUNW.HAStoragePlus type resource that is not online anywhere. (C189917) VALIDATE on resource nfsrs, resource group rg, exited with non-zero exit status. (C720144) Validation of resource nfsrs in resource group rg on node phys-schost failed.

Si une migration de type de ressource échoue parce que la ressource est hors ligne, utilisez l'utilitaire clsetup pour réactiver la ressource, puis mettez son groupe de ressources lié en ligne. Répétez ensuite les procédures de migration pour la ressource.

Changement de l'emplacement des binaires Java : si l'emplacement des binaires Java a changé au cours de la mise à niveau des composants partagés, il se peut que des messages d'erreur similaires à ce qui suit s'affichent lorsque vous essayez d'exécuter la commande cacaoadm start ou smcwebserver start :

# /opt/SUNWcacao/bin/cacaoadm startNo suitable Java runtime found. Java 1.4.2_03 or higher is required.Jan 3 17:10:26 ppups3 cacao: No suitable Java runtime found. Java 1.4.2_03 or higher is required.Cannot locate all the dependencies

# smcwebserver start/usr/sbin/smcwebserver: /usr/jdk/jdk1.5.0_04/bin/java: not found

Ces erreurs sont générées parce que les commandes de démarrage ne parviennent pas à trouver l'emplacement actuel des binaires Java. La propriété JAVA_HOME pointe toujours vers le répertoire où se trouve la version précédente de Java, mais cette version précédente a été supprimée au cours de la mise à niveau.

Pour corriger ce problème, modifiez le paramètre de JAVA_HOME dans les fichiers de configuration suivants pour utiliser le répertoire Java actuel :

/etc/webconsole/console/config.properties/etc/opt/SUNWcacao/cacao.properties

Étapes suivantes

Si vous disposez d'un système SPARC et si vous utilisez Sun Management Center pour surveiller le cluster, reportez-vous à la rubrique SPARC : Mise à niveau du module Sun Cluster pour Sun Management Center.

Pour installer ou terminer la mise à niveau de Sun Cluster Geographic Edition 3.2, reportez-vous au Sun Cluster Geographic Edition Installation Guide.

Dans le cas contraire, la mise à niveau du cluster est terminée.