Notes de version de Sun Cluster 3.2 pour SE Solaris

Problèmes liés à la documentation

Cette rubrique présente les erreurs ou les omissions de la documentation, de l'aide en ligne ou des pages de manuel de la version Sun Cluster 3.2.

Guide de concepts

Cette rubrique présente les erreurs et omissions du Sun Cluster Concepts Guide for Solaris OS .

x86 : Topologies Sun Cluster pour x86

Dans la rubrique Sun Cluster Topologies for x86 du Sun Cluster Concepts Guide for Solaris OS, l'énoncé suivant n'est plus valide dans la version Sun Cluster 3.2 : "Sun Cluster constitué de systèmes x86 prend en charge des clusters à deux nœuds."

L'énoncé correct est le suivant : "Une configuration Sun Cluster composée de systèmes x86 prend en charge jusqu'à huit nœuds dans un cluster exécutant Oracle RAC ou jusqu'à quatre nœuds dans un cluster n'exécutant pas Oracle RAC."

Guide d'installation du logiciel

Cette rubrique présente les erreurs et les omissions du Sun Cluster Software Guide d’installation pour le SE Solaris.

Préparation de mise à niveau manquante pour des clusters exécutant le logiciel Sun Cluster Geographic Edition

Si vous mettez à niveau un cluster qui exécute également le logiciel Sun Cluster Geographic Edition, d'autres étapes de préparation sont nécessaires avant de mettre à niveau le logiciel Sun Cluster. Ces étapes incluent l'arrêt de l'infrastructure Sun Cluster Geographic Edition. Reportez-vous alors au Chapitre 4, Upgrading the Sun Cluster Geographic Edition Software du Sun Cluster Geographic Edition Installation Guide dans le manuel Sun Cluster Geographic Edition Installation Guide . Ces procédures expliquent comment se reporter au guide d'installation du logiciel Sun Cluster pour le mettre à niveau.

Guide de planification et d'administration des services de données Sun Cluster

Cette rubrique présente les erreurs et les omissions du Sun Cluster Data Services Planning and Administration Guide for Solaris OS .

Prise en charge des services évolutifs dans les zones non globales

Dans Resource Type Properties du Sun Cluster Data Services Planning and Administration Guide for Solaris OS, la description de la propriété de ressource Failover ne fait pas état d'une instruction relative à la prise en charge des services évolutifs dans les zones non globales. Cette prise en charge s'applique aux ressources pour lesquelles la propriété Failover du type de ressource est définie sur FALSE et la propriété Scalable de la ressource est définie sur TRUE. Cette combinaison des paramètres de propriété indique un service évolutif qui utilise une ressource SharedAddress pour procéder à l'équilibrage de charge réseau. Dans la version Sun Cluster 3.2, vous pouvez configurer un service évolutif de ce type dans un groupe de ressources s'exécutant dans une zone non globale. Cependant, vous ne pouvez pas configurer un service évolutif s'exécutant dans plusieurs zones non globales sur le même nœud.

Guide de Sun Cluster Data Service pour MaxDB

Cette rubrique présente les erreurs et les omissions du Sun Cluster Data Service for MaxDB Guide for Solaris OS .

Modifications apportées à la prise en charge de Sun Cluster Data Service pour MaxDB dans des zones non globales sur les systèmes SPARC et x86

Sun Cluster Data Service pour MaxDB prend en charge les zones non globales sur les systèmes SPARC et x86. Les modifications suivantes doivent être apportées au guide de Sun Cluster Data Service pour MaxDB. Les étapes suivantes peuvent être effectuées sur un cluster configuré pour une exécution dans des zones globales. Si vous installez votre cluster pour une exécution dans des zones non globales, certaines des étapes indiquées ci-dessous peuvent être facultatives.

Guide de Sun Cluster Data Service pour SAP

Cette rubrique présente les erreurs et les omissions du Sun Cluster Data Service for SAP Guide for Solaris OS .

Modifications apportées à la prise en charge de SAP dans des zones non globales sur des systèmes SPARC et x86

Sun Cluster Data Service pour SAP prend en charge les zones non globales sur les systèmes SPARC et x86. Les modifications suivantes doivent être apportées au guide de Sun Cluster Data Service pour SAP. Les étapes suivantes peuvent être effectuées sur un cluster configuré pour une exécution dans des zones globales. Si vous installez votre cluster pour une exécution dans des zones non globales, certaines des étapes indiquées ci-dessous peuvent être facultatives.

Guide de Sun Cluster Data Service pour SAP liveCache

Cette rubrique présente les erreurs et les omissions du Sun Cluster Data Service for SAP liveCache Guide for Solaris OS .

Modifications apportées à la prise en charge de SAP liveCache dans des zones non globales sur des systèmes SPARC et x86

Sun Cluster Data Service pour SAP liveCache prend en charge les zones non globales sur les systèmes SPARC et x86. Les modifications suivantes doivent être apportées au guide de Sun Cluster Data Service pour SAP liveCache. Les étapes suivantes peuvent être effectuées sur un cluster configuré pour une exécution dans des zones globales. Si vous installez votre cluster pour une exécution dans des zones non globales, certaines des étapes indiquées ci-dessous peuvent être facultatives.

Guide de Sun Cluster Data Service pour SAP Web Application Server

Cette rubrique présente les erreurs et les omissions du Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS .

Prise en charge de SAP 7.0 pour Sun Cluster HA pour SAP Web Application Server (6461002)

Dans SAP 7.0 et NW2004SR1, lorsqu'une instance SAP est démarrée, le processus sapstartsrv est démarré par défaut. Le processus sapstartsrv n'est pas contrôlé par Sun Cluster HA pour SAP Web Application Server. Ainsi, lorsqu'une instance SAP est arrêtée ou échoue à cause de Sun Cluster HA pour SAP Web Application Server, le processus sapstartsrv n'est pas arrêté.

Pour ne pas démarrer le processus sapstartsrv au démarrage d'une instance SAP via Sun Cluster HA pour SAP Web Application, modifiez le script startsap. Renommez également le fichier /etc/rc3.d/S90sapinit en /etc/rc3.d/xxS90sapinit sur tous les nœuds Sun Cluster.

Modifications apportées à la prise en charge de SAP Web Application Server dans des zones non globales sur des systèmes SPARC et x86

Sun Cluster Data Service pour SAP Web Application Server prend en charge les zones non globales sur les systèmes SPARC et x86. Les modifications suivantes doivent être apportées au guide de Sun Cluster Data Service pour SAP Web Application Server. Les étapes suivantes peuvent être effectuées sur un cluster configuré pour une exécution dans des zones globales. Si vous installez votre cluster pour une exécution dans des zones non globales, certaines des étapes indiquées ci-dessous peuvent être facultatives.

Configuration de SAP Web Application Server dans des zones non globales pour une configuration HASP (6530281)

Suivez la procédure suivante pour configurer une ressource HAStoragePlus pour des zones non globales.


Remarque –

ProcedureConfiguration de SAP Web Application Server dans des zones non globales pour une configuration HAStoragePlus

  1. Sur un nœud du cluster, prenez le rôle de superutilisateur ou un rôle dôté de l'autorisation RBAC solaris.cluster.modify.

  2. Créez le groupe de ressources évolutif avec des zones non globales contenant la ressource HAStoragePlus.


       # clresourcegroup create \
         -p Maximum_primaries=m\
         -p Desired_primaries=n\
        [-n node-zone-list] hasp-resource-group
    
    -p Maximum_primaries=m

    Indique le nombre maximum de principaux actifs du groupe de ressources.

    -p Desired_primaries=n

    Indique le nombre de principaux actifs sur lesquels le groupe de ressources doit tenter un démarrage.

    -n node-zone-list

    Dans la liste de nœuds d'un groupe de ressources HAStoragePlus, indique la liste de noms de paires nodename :zonename comme liste de nœuds du groupe de ressources HAStoragePlus sur lesquelles les instances SAP peuvent être en ligne.

    hasp-resource-group

    Indique le nom du groupe de ressources évolutif à ajouter. Ce nom doit commencer par un caractère ASCII.

  3. Enregistrez le type de ressource de HAStoragePlus.


    # clresourcetype register HAStoragePlus
  4. Créez la ressource hasp HAStoragePlus et définissez les points de montage du système de fichiers SAP et les chemins d'accès aux périphériques globaux.


     # clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \
        -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \
        -p affinityon=false -p
    FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource
    
    -g hasp-resource-group

    Indique le nom du groupe de ressources.

    GlobalDevicePaths

    Contient les valeurs suivantes :

    • Nom de groupe de périphériques globaux, sap-dg, dsk/d5 par exemple.

    • Chemin d'accès aux périphériques globaux, /dev/global/dsk/d5s2, /dev/md/sap-dg/dsk/d6 par exemple.

    FilesystemMountPoints

    Contient les valeurs suivantes :

    • Points de montage de systèmes de fichiers locaux ou de cluster, /local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC par exemple.

    La ressource HAStoragePlus est créée à l'état actif.

  5. Enregistrez le type de ressource de l'application SAP.


    # clresourcetype register resource-type
    
    resource-type

    Indique le nom du type de ressource à ajouter. Pour plus d'informations, reportez-vous à Produits pris en charge.

  6. Créez un groupe de ressources SAP.


      # clresourcegroup create [-n node-zone-list] -p 
    RG_affinities=++hastorageplus-rg resource-group-1
    
    resource-group-1

    Indique le groupe de ressources de services SAP.

  7. Ajoutez la ressource d'application SAP à resource-group-1 et définissez sa dépendance à hastorageplus-1.


       # clresource create -g resource-group-1 -t SUNW.application \
         [-p "extension-property[{node-specifier}]"=value, ?] \
         -p Resource_dependencies=hastorageplus-1 resource
    
  8. Mettez en ligne le groupe de ressources de basculement.


    # clresourcegroup online resource-group-1
    

Guide d'administration système

Cette rubrique présente les erreurs et omissions du Sun Cluster System Administration Guide for Solaris OS .

Passage au méta-ensemble Solaris Volume Manager à partir de nœuds initialisés en mode non-cluster

ProcedurePassage au méta-ensemble Solaris Volume Manager à partir de nœuds initialisés en mode non-cluster

Suivez cette procédure pour exécuter une application externe au cluster à des fins de test.

  1. Déterminez si le périphérique de quorum est utilisé dans le méta-ensemble Solaris Volume Manager et s'il utilise des réservations scsi2 ou scsi3.


    # clquorum show
    
    1. Si le périphérique de quorum fait partie du méta-ensemble Solaris Volume Manager, ajoutez-en un nouveau n'en faisant pas partie que vous passerez ensuite en mode non-cluster.


      # clquorum add did
      
    2. Supprimez l'ancien périphérique de quorum.


      # clqorum remove did
      
    3. Si le périphérique de quorum utilise une réservation scsi2, purgez-la de l'ancien périphérique de quorum et vérifiez qu'il n'en existe pas d'autres.


      # /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2
      # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2
      
  2. Évacuez le nœud à initialiser en mode non-cluster.


    # clresourcegroup evacuate -n targetnode
    
  3. Mettez hors ligne le ou les groupes de ressources contenant des ressources HAStorage ou HAStoragePlus ainsi que des périphériques et systèmes de fichiers affectés par le méta-ensemble que vous souhaiterez passer en mode non-cluster.


    # clresourcegroup offline resourcegroupname
    
  4. Désactivez toutes les ressources du groupe de ressources que vous avez mis hors ligne.


    # clresource disable resourcename
    
  5. Basculez les groupes de ressources en mode non géré.


    # clresourcegroup unmanage resourcegroupname
    
  6. Mettez hors ligne le ou les groupes de périphériques correspondants.


    # cldevicegroup offline devicegroupname
    
  7. Désactivez le ou les groupes de périphériques.


    # cldevicegroup disable devicegroupname
    
  8. Initialisez le nœud passif en mode non-cluster.


    # reboot -x
    
  9. Vérifiez que le processus d'initialisation est terminé sur le nœud passif avant de poursuivre.

    • Solaris 9

      L'invite de connexion apparaît uniquement une fois le processus d'initialisation terminé. Aucune action n'est requise.

    • Solaris 10


      # svcs -x
      
  10. Déterminez s'il existe des réservations scsi3 sur les disques du ou des méta-ensembles. Exécutez les commandes suivantes sur tous les disques des méta-ensembles.


    # /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2
    
  11. En cas de réservations scsi3 sur les disques, purgez-les.


    # /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2
    
  12. Prenez le méta-ensemble sur le nœud évacué.


    # metaset -s name -C take -f
    
  13. Montez le ou les systèmes de fichiers contenant le périphérique défini sur le méta-ensemble.


    # mount device mountpoint
    
  14. Démarrez l'application et procédez au test souhaité. Une fois le test terminé, arrêtez l'application.

  15. Réinitialisez le nœud et attendez que le processus d'initialisation soit terminé.


    # reboot
    
  16. Mettez en ligne le ou les groupes de périphériques.


    # cldevicegroup online -e devicegroupname
    
  17. Démarrez le ou les groupes de ressources.


    # clresourcegroup online -eM  resourcegroupname 
    

Utilisation du filtrage IP Solaris avec Sun Cluster

Sun Cluster prend en charge le filtre IP Solaris avec les restrictions suivantes :

ProcedureConfiguration du filtrage IP Solaris

  1. Dans le fichier /etc/iu.ap, modifiez les entrées NIC publiques afin de répertorier clhbsndr pfil comme liste de modules.

    pfil doit être le dernier module de la liste.


    Remarque –

    Si vous disposez du même type d'adaptateur pour les réseaux privé et public, les modifications apportées au fichier /etc/iu.ap passeront pfil dans le réseau privé. Le module de transport du cluster supprimera toutefois automatiquement tous les modules indésirables pendant la création et pfil sera donc supprimé du réseau privé.


  2. Pour garantir le bon fonctionnement du filtre IP en mode non-cluster, mettez à jour le fichier /etc/ipf/pfil.ap.

    Les mises à jour du fichier /etc/iu.ap sont légèrement différentes. Pour en savoir plus, consultez la documentation relative au filtre IP.

  3. Réinitialisez tous les nœuds concernés.

    Vous pouvez initialiser les nœuds de manière progressive.

  4. Ajoutez des règles de filtre au fichier /etc/ipf/ipf.conf sur tous les nœuds concernés. Pour plus d'informations sur la syntaxe des règles de filtre IP, reportez-vous à la page de manuel ipf(4)

    N'oubliez pas les directives et exigences suivantes lors de l'ajout de règles de filtre aux nœuds Sun Cluster.

    • Sun Cluster bascule des adresses réseau d'un nœud à un autre. Aucun code ou procédure spécifique n'est requis lors du basculement.

    • Toutes les règles de filtrage faisant référence à des adresses IP de noms d'hôtes logiques et de ressources d'adresse partagée doivent être identiques sur tous les nœuds de cluster.

    • Les règles d'un nœud passif feront référence à une adresse IP inexistante. Cette règle fait partie de l'ensemble de règles actif du filtre IP et s'appliquera lorsque le nœud recevra l'adresse après un basculement.

    • Toutes les règles de filtrage doivent être identiques pour tous les NIC d'un même groupe IPMP. En d'autres termes, si une règle est spécifique à une interface, elle doit également exister pour toutes les autres interfaces du même groupe IPMP.

  5. Activez le service SMF ipfilter.


    # svcadm enable /network/ipfilter:default
    

Guide du développeur des services de données

Cette rubrique présente les erreurs et omissions du Sun Cluster Data Services Developer’s Guide for Solaris OS .

Prise en charge de certains services évolutifs dans les zones non globales

Dans Resource Type Properties du Sun Cluster Data Services Developer’s Guide for Solaris OS, la description de la propriété de ressource Failover ne fait pas état d'une instruction relative à la prise en charge des services évolutifs dans les zones non globales. Cette prise en charge s'applique aux ressources pour lesquelles la propriété Failover du type de ressource est définie sur FALSE et la propriété Scalable de la ressource est définie sur TRUE. Cette combinaison des paramètres de propriété indique un service évolutif qui utilise une ressource SharedAddress pour procéder à l'équilibrage de charge réseau. Dans la version Sun Cluster 3.2, vous pouvez configurer un service évolutif de ce type dans un groupe de ressources s'exécutant dans une zone non globale. Cependant, vous ne pouvez pas configurer un service évolutif s'exécutant dans plusieurs zones non globales sur le même nœud.

Modification du comportement des expirations de méthodes

La description de la modification du comportement des expirations de méthodes dans Sun Cluster 3.2 est manquante. Si un rappel de la méthode RGM expire, le processus est interrompu à l'aide du signal SIGABRT et non à l'aide du signal SIGTERM. Cela entraîne la génération d'un fichier core par tous les membres du groupe de processus.


Remarque –

Évitez d'écrire une méthode de service de données créant un groupe de processus. Si votre méthode de service de données n'a pas besoin de créer un tel groupe, développez un gestionnaire de signal pour les signaux SIGTERM et SIGABRT. Développez les gestionnaires de signaux pour transférer le signal SIGTERM ou SIGABRT vers le groupe de processus enfant avant que le gestionnaire de signal ne termine le processus parent. Cela augmente la probabilité que tous les processus générés de façon dynamique par la méthode seront correctement terminés.


CRNP s'exécute uniquement dans la zone globale

Chapitre 12, Cluster Reconfiguration Notification Protocol du Sun Cluster Data Services Developer’s Guide for Solaris OS.

Instruction confuse sur le groupe de logiciels Solaris

Dans Setting Up the Development Environment for Writing a Data Service du Sun Cluster Data Services Developer’s Guide for Solaris OS, une remarque indique que le développeur ou la distribution complète du groupe de logiciels Solaris sont requis. Cette instruction concerne l'ordinateur de développement, mais comme elle est placée après une instruction sur le test du service de données sur un cluster, elle risque d'être mal interprétée comme une exigence relative au cluster sur lequel s'exécute le service de données.

Guide de l'utilisateur de Quorum Server

Cette section présente les erreurs et les omissions du Sun Cluster Quorum Server User’s Guide.

Plates-formes logicielles et matérielles prises en charge

Les exigences et les directives suivantes portant sur l'installation manquent ou sont confuses :

Pages Man

Cette rubrique présente les erreurs, omissions et ajouts dans les pages de manuel de Sun Cluster.

ccp(1M)

Le synopsis révisé et les rubriques d'options ajoutées suivants de la page de manuel ccp(1M) présentent l'ajout de la prise en charge de shell sécurisé aux utilitaires du panneau de contrôle du cluster (CCP) :

SYNOPSIS


$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename}

OPTIONS

Les options suivantes sont prises en charge :

-l username

Indique le nom d'utilisateur pour la connexion ssh. Cette option est transmise à l'utilitaire cconsole, crlogin ou cssh lorsqu'il est démarré à partir du CCP. L'utilitaire ctelnet ignore cette option.

Si l'option -l n'est pas spécifiée, le nom d'utilisateur à l'origine du démarrage du CCP s'applique.

-p ssh-port

Indique le numéro de port de shell sécurisé à utiliser. Cette option est transmise à l'utilitaire cssh lorsqu'il est démarré à partir du CCP. Les utilitaires cconsole, crlogin et ctelnet ignorent cette option.

Si l'option -p n'est pas spécifiée, le numéro de port par défaut, 22, est utilisé pour les connexions sécurisées.

-s

Indique l'utilisation de connexions de shell sécurisé pour les consoles de nœuds au lieu de connexions telnet. Cette option est transmise à l'utilitaire cconsole lorsqu'il est démarré à partir du CCP. Les utilitaires crlogin, cssh et ctelnet ignorent cette option.

Si l'option -s n'est pas spécifiée, l'utilitaire cconsole utilise des connexions telnet avec les consoles.

Pour remplacer l'option -s, décochez Utiliser SSH dans le menu Options de l'interface graphique utilisateur cconsole.

cconsole(1M), crlogin(1M), cssh(1M) et ctelnet(1M)

Le synopsis révisé et les rubriques d'options ajoutées suivants des pages de manuel cconsole, crlogin, cssh et ctelnet présentent l'ajout de la prise en charge de shell sécurisé aux utilitaires du panneau de contrôle du cluster :

SYNOPSIS


$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…]
$CLUSTER_HOME/bin/ctelnet [clustername… | nodename…]

DESCRIPTION

cssh

Cet utilitaire établit des connexions de shell sécurisé directement avec les nœuds de cluster.

OPTIONS

-l username

Indique le nom d'utilisateur ssh pour les connexions à distance. Cette option est valide avec les commandes cconsole, crlogin et cssh.

La valeur d'argument est mémorisée afin que les clusters et nœuds spécifiés ultérieurement utilisent le même nom d'utilisateur lors des connexions.

Si l'option -l n'est pas spécifiée, le nom d'utilisateur à l'origine de la commande s'applique.

-p ssh-port

Indique le numéro de port de shell sécurisé à utiliser. Cette option est valide avec la commande cssh.

Si l'option -p n'est pas spécifiée, le numéro de port par défaut, 22, est utilisé pour les connexions sécurisées.

-s

Indique l'utilisation de connexions de shell sécurisé au lieu de connexions telnet pour les consoles de nœuds. Cette option est valide avec la commande cconsole.

Si l'option -s n'est pas spécifiée, l'utilitaire utilise des connexions telnet avec les consoles.

Pour remplacer l'option -s via l'interface utilisateur graphique cconsole, décochez Utiliser SSH dans le menu Options.

clnode(1CL)

clresource(1CL)

clresourcegroup(1CL)

r_properties(5)

rt_properties(5)

La description de la propriété du type de ressource Failover contient une instruction incorrecte relative à la prise en charge des services évolutifs dans des zones non globales dans Sun Cluster 3.2. Cette prise en charge s'applique aux ressources pour lesquelles la propriété Failover du type de ressource est définie sur FALSE et la propriété Scalable de la ressource est définie sur TRUE.

serialports(4)

Les informations suivantes sont ajoutées à la rubrique Description de la page de manuel serialport(4) :

Pour établir des connexions de shell sécurisé aux consoles de nœuds, indiquez dans le fichier /etc/serialports le nom du périphérique d'accès à la console et le numéro de port de shell sécurisé de chaque nœud. Si vous utilisez la configuration de shell sécurisé par défaut sur le périphérique d'accès à la console, indiquez le numéro de port 22.

SUNW.Event(5)

L'instruction selon laquelle, sur SE Solaris 10, le protocole CRNP s'exécute uniquement dans la zone globale, manque dans la page de manuel SUNW.Event(5).