JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Notes de version d'Oracle Solaris Cluster 3.3 3/13     Oracle Solaris Cluster 3.3 3/13 (Français)
search filter icon
search icon

Informations document

Préface

Notes de version d'Oracle Solaris Cluster 3.3 3/13

Nouveautés du logiciel Oracle Solaris Cluster 3.3 3/13

Prise en charge d'Oracle 12c

Qualification de VxVM et de VxFS

Nouveaux assistants clsetup pour la création d'un cluster de zones

Possibilité de définir des dépendances de ressources distinctes pour chaque noeud

Prise en charge de la reconfiguration dynamique de la cage du noyau

Amélioration de la structure de sécurité des clusters

Détection des défaillances et réponse plus rapides par les services de surveillance du stockage

Nouvel assistant clsetup pour la configuration du service de données Oracle PeopleSoft Application Server

Nouvel assistant clsetup pour la configuration du service de données Oracle WebLogic Server

Nouveau service de données pour Oracle External Proxy

Nouveau service de données pour SAP NetWeaver

Nouveau service de données pour Oracle PeopleSoft Enterprise Process Scheduler

Nouveau service de données pour Oracle Web Tier

Prise en charge de la réplication de données Sun ZFS Storage Appliance avec Geographic Edition

Restrictions

Oracle ACFS en tant que système de fichiers de cluster

Pages de topologie dans Oracle Solaris Cluster Manager

Commandes modifiées dans cette version

Problèmes de compatibilité

Oracle ASM avec volumes logiques mis en miroir Solaris Volume Manager

La ressource de proxy ACFS se déconnecte pendant l'installation de fichiers binaires Oracle (16581850)

Graves erreurs de noeuds de cluster en cas de transport Tavor InfiniBand (IB) : mutex_enter: bad mutex, lp (16372022)

La mise à niveau Solaris vers Oracle Solaris 10 8/11 remplace le contenu de hostname.adp (15882549)

Interface graphique de Solaris Volume Manager

Informations d'accessibilité

Produits pris en charge

Services de données

Systèmes de fichiers

Mémoire requise

Système d'exploitation Oracle Solaris

Oracle VM Server for SPARC

Availability Suite

Gestionnaires de volumes

Fonctionnalités non prises en charge dans cette version

Sun Management Center

Périphériques NAS pour solution réseau

Protocole SDP (Socket Direct Protocol)

Localisation du produit

Problèmes et bogues connus

Administration

Impossible de définir la taille de la MTU des trames géantes pour l'interface clprivnet (16618736)

La vérification S6708502 de l'utilitaire de vérification de cluster indique que le processus en temps réel ora_dism n'est pas pris en charge (16365116)

Pas de basculement de la ressource de serveur de BD en cas d'échec du réseau public avec le listener SCAN (16231523)

Les systèmes de fichiers de cluster ne prennent pas en charge les attributs étendus (15790565)

Pas de basculement d'un groupe de ressources en cas d'échec de l'interface publique lorsque la propriété Failover_mode est définie sur SOFT (15711034)

Impossible d'enregistrer le type de ressource SUNW.scalable_acfs_proxy dans un cluster de zones (15700050)

Les sous-commandes clzonecluster boot, reboot et halt échouent si l'un des noeuds du cluster ne se trouve pas dans le cluster (15812235)

L'utilisation de la commande chmod pour définir l'autorisation setuid entraîne le renvoi d'une erreur dans une zone non globale sur le serveur secondaire PxFS (15697690)

Impossible de créer une ressource depuis un fichier de configuration avec des propriétés d'extension non réglables (15658184)

La désactivation de la séparation de périphérique quand le cluster subit une charge provoque un conflit de réservation (15608862)

La détection automatique ne fonctionne pas sur les LDoms avec E/S hybrides (15581535)

EMC SRDF et Hitachi TrueCopy doivent rejeter la commutation lorsque le statut d'un groupe de périphériques répliqué entraîne l'échec de la commutation et du retour (15538295)

La suppression de noeuds de la configuration du cluster peut entraîner de graves erreurs de noeud (15500647)

Contrôles de validation supplémentaires nécessaires lors de la combinaison de plusieurs DID (15423531)

Services de données

Ressource sun.storage_proxy.type dans l'état hors ligne après l'exécution de la commande uadmin 5 1 (16910145)

Configuration active-de secours non pris en charge pour HA pour TimesTen (16861602)

La commande clzonecluster halt zonecluster suivie de clzonecluster boot zonecluster entraîne l'échec de l'initialisation de noeuds dans un cluster de zones (16398199)

Une ressource LDom désactivée maintient un LDom dans un état de liaison (16323723)

Pas de remontage automatique d'un système de fichiers ZFS démonté manuellement (16319552)

L'agent Oracle HTTP Server (OHS) appelle /bin/grep -q, qui est une option non admise pour cette version grep (16270576)

Des erreurs se produisent lors de la suppression d'une ressource HA LDom (16229698)

L'assistant WebLogic Server clsetup ne crée pas de ressource pour un système de fichiers de basculement dans une zone de cluster de zones (15943191)

L'assistant ne parvient pas à créer le groupe de ressources rac-framework du cluster de zones si ce dernier comporte moins de noeuds que les noeuds de la zone globale (15825830)

Le patch Samba Oracle Solaris 10 119757-20 ou 119758-20 a un impact sur le service de données HA-Samba (15757158)

En cas de définition de Debug_level=1, pas-rg bascule vers le noeud 2 et ne peut plus démarrer sur le noeud 1 (15803844)

Une ressource HAStoragePlus configurée dans un groupe de ressources évolutif avec système de fichiers de cluster reste en permanence à l'état Starting (15649193)

Les applications évolutives ne sont pas isolées entre les clusters de zones (15611122)

L'exécution simultanée de la commande clnas add ou de la commande clnas remove sur plusieurs noeuds peut engendrer des problèmes (15533979)

La commande clresourcegroup add-node déclenche un état Faulted (défectueux) pour une ressource HAStoragePlus (15391480)

Echec de l'assistant RAC avec le message "ERREUR : Oracle ASM n'est pas installé ou l'installation n'est pas valide !" (15814020)

Geographic Edition

La reprise du groupe de protection Geographic Edition Hitachi TrueCopy échoue lorsque le cluster principal perd l'accès au stockage (16013386)

Geographic Edition désactive les ressources ASM dans le mauvais ordre, ce qui entraîne l'affichage de messages d'erreur (16004984)

Un noeud de cluster n'a pas accès aux projets ZFS Storage Appliance ou aux LUN iSCSI (15924240)

Envoi de plusieurs notifications par e-mail depuis le cluster global lorsque des clusters de zones sont utilisés (15746425)

L'état DR est en permanence signalé comme unknown sur un partenaire (15808054)

La création et la validation du groupe de protection ZFS Storage Appliance échouent si la réplication du projet est arrêtée par le biais de l'interface utilisateur du navigateur (15797609)

Installation

L'installation centralisée avec l'utilitaire scinstall ne parvient pas à configurer le cluster lorsque l'authentification DES est activée et que les noms de noeuds sont indiqués sous la forme de noms d'hôte complets (16228318)

L'assistant de cluster de zones n'offre pas de méthode de saisie de données sur les noeuds à l'aide du SE Oracle Solaris 10 (15874818)

Après exécution de la commande scinstall -u les zones 'installées' restent dans l'état 'monté' (15817301)

Le programme d'installation supprime le package existant correspondant à la base de données JavaDB de l'agent Ops Center (15646335)

Localisation

Le résultat de la vérification de la configuration système requise est incorrect (12185261)

Exécution

La commande clzonecluster cancel peut provoquer une erreur (15950187)

sc_delegated_restarter ne prend pas en compte les variables d'environnement définies dans le manifeste (15795184)

Impossible de réactiver l'interface de transport après la désactivation avec ifconfig unplumb interface (15770198)

Echec de basculement de nom d'hôte logique causé par getnetmaskbyaddr() (15733435)

Patchs et niveaux de microprogramme requis

Application d'un patch de base Oracle Solaris Cluster 3.3 3/13

Application du patch de base Oracle Solaris Cluster 3.3 3/13

Suppression d'un patch de base Oracle Solaris Cluster 3.3 3/13

Suppression d'un patch de base Oracle Solaris Cluster 3.3 3/13

Outils de gestion des patchs

Patch pour la prise en charge du cluster pour la baie Sun StorageTek 2530

My Oracle Support

Ensemble de documentation Oracle Solaris Cluster 3.3 3/13

Addendum de la documentation

Guide d'installation du logiciel

Guide HA pour Oracle

Guide RAC HA pour Oracle

HA for Oracle Web Tier Guide

Pages de manuel

Pages de manuel multiples

Problèmes et bogues connus

Les problèmes et bogues connus suivants ont une incidence sur le fonctionnement de la version d'Oracle Solaris Cluster 3.3 3/13. Pour savoir si un correctif a été mis à disposition à une date ultérieure, contactez votre correspondant du support Oracle. Les problèmes et les bogues sont regroupés dans les catégories suivantes :

Administration

Impossible de définir la taille de la MTU des trames géantes pour l'interface clprivnet (16618736)

Résumé du problème : La MTU de l'interface clprivnet du cluster est toujours définie sur la valeur par défaut de 1500 et ne correspond pas à la MTU des interconnexions privées sous-jacentes. Vous ne pouvez donc pas paramétrer la taille de la MTU des trames géantes pour l'interface clprivnet.

Solution : Il n'y a pas de solution de contournement. Pour savoir si un correctif a été mis à disposition à une date ultérieure, contactez votre correspondant du support Oracle.

La vérification S6708502 de l'utilitaire de vérification de cluster indique que le processus en temps réel ora_dism n'est pas pris en charge (16365116)

Résumé du problème : L'utilitaire de vérification de cluster est susceptible de signaler une violation de la vérification S6708502, ce qui indique que le processus en temps réel ora_dism n'est pas pris en charge pour Oracle Solaris Cluster.

Solution : Ne tenez pas compte des violations de vérification concernant ce processus particulier. Ce processus en temps réel est une nouveauté pour Oracle RAC 12c et est autorisé pour Oracle Solaris Cluster.

Pas de basculement de la ressource de serveur de BD en cas d'échec du réseau public avec le listener SCAN (16231523)

Résumé du problème : Lorsque la base de données HA-Oracle est configurée pour utiliser le listener SCAN Grid Infrastructure, la ressource de base de données HA-Oracle ne bascule en cas d'échec du réseau public.

Solution : Lorsque vous utilisez le listener SCAN Oracle Grid Infrastructure avec une base de données HA-Oracle, ajoutez un hôte logique possédant une adresse IP appartenant au même sous-réseau que le listener SCAN au groupe de ressources de base de données HA-Oracle.

Les systèmes de fichiers de cluster ne prennent pas en charge les attributs étendus (15790565)

Résumé du problème : Les attributs étendus ne sont pas actuellement pris en charge par les systèmes de fichiers de cluster. Lorsqu'un utilisateur monte un système de fichiers de cluster avec l'option de montage xattr, le comportement est le suivant :

Un programme accédant aux attributs étendus des fichiers dans un système de fichiers de cluster risque donc de ne pas obtenir les résultats escomptés.

Solution : Montez les systèmes de fichiers de cluster à l'aide de l'option de montage noxattr.

Pas de basculement d'un groupe de ressources en cas d'échec de l'interface publique lorsque la propriété Failover_mode est définie sur SOFT (15711034)

Résumé du problème : Si un service de données de basculement, tel que HA pour Oracle, est configuré avec la ressource ScalMountpoint permettant le sondage et la détection des échecs d'accès au stockage NAS, et si la liaison à l'interface réseau est interrompue, par exemple en raison de la déconnexion d'un câble, la sonde de surveillance se bloque. Si la propriété Failover_mode de la ressource du service de données est définie sur SOFT, le statut passe à échec-arrêt et la ressource ne bascule pas. Le message d'erreur affiché est semblable au suivant :

SC[SUNW.ScalMountPoint:3,scalmnt-rg,scal-oradata-11g-rs,/usr/cluster/lib/rgm 
     /rt/scal_mountpoint/scal_mountpoint_probe]: 
Probing thread for mountpoint /oradata/11g is hanging for timeout period 
     300 seconds

Solution : Modifiez la propriété Failover_mode de la ressource de service de données et définissez-la sur HARD.

# clresource set -p Failover_mode=HARD ora-server-rs
# clresource show -v ora-server-rs | grep Failover_mode
   Failover_mode:  HARD 

Impossible d'enregistrer le type de ressource SUNW.scalable_acfs_proxy dans un cluster de zones (15700050)

Résumé du problème : Au lieu d'un lien symbolique vers le fichier, l'implémentation actuelle requiert la présence d'un fichier RTR dans /usr/cluster/lib/rgm/rtreg.

Solution : Exécutez les commandes suivantes en tant que superutilisateur sur l'un des noeuds du cluster global.

# cp /opt/SUNWscor/oracle_asm/etc/SUNW.scalable_acfs_proxy /usr/cluster/lib/rgm/rtreg/
# clrt register -Z zoneclustername SUNW.scalable_acfs_proxy
# rm /usr/cluster/lib/rgm/rtreg/SUNW.scalable_acfs_proxy

Les sous-commandes clzonecluster boot, reboot et halt échouent si l'un des noeuds du cluster ne se trouve pas dans le cluster (15812235)

Résumé du problème : Les sous-commandes clzonecluster boot, reboot et halt échouent même si l'un des noeuds du cluster est introuvable dans le cluster. Un message d'erreur semblable au suivant s'affiche :

root@pnode1:~# clzc reboot zoneclustername 
clzc:  (C827595) "pnode2" is not in cluster mode.
clzc:  (C493113) No such object.

root@pnode1:~# clzc halt zoneclustername
clzc:  (C827595) "pnode2" is not in cluster mode.
clzc:  (C493113) No such object.

Les sous-commandes clzonecluster boot, reboot et halt devraient ignorer les noeuds en mode non cluster au lieu d'échouer.

Solution : Utilisez l'option suivante avec les commandes clzonecluster boot ou clzonecluster halt pour spécifier la liste de noeuds concernés :

-n nodename[,…]

L'option -n permet d'appliquer les sous-commandes au sous-ensemble de noeuds spécifié. Si, par exemple, dans un cluster à trois noeuds comprenant les noeuds pnode1, pnode2 et pnode3, le noeud pnode2 est arrêté, vous pouvez exécuter les sous-commandes clzonecluster suivantes pour exclure le noeud arrêté :

clzonecluster halt -n pnode1,pnode3 zoneclustername
clzonecluster boot -n pnode1,pnode3 zoneclustername
clzonecluster reboot -n pnode1,pnode3 zoneclustername

L'utilisation de la commande chmod pour définir l'autorisation setuid entraîne le renvoi d'une erreur dans une zone non globale sur le serveur secondaire PxFS (15697690)

Résumé du problème : Il peut arriver que la commande chmod ne parvienne pas à modifier les autorisations setuid sur un fichier dans un système de fichiers de cluster. Si la commande chmod est exécutée dans une zone non globale non située sur le serveur principal PxFS, la commande chmod ne parvient pas à modifier l'autorisation setuid.

Par exemple :

# chmod 4755 /global/oracle/test-file
chmod: WARNING: can't change /global/oracle/test-file

Solution : Effectuez l'une des opérations suivantes :

Impossible de créer une ressource depuis un fichier de configuration avec des propriétés d'extension non réglables (15658184)

Résumé du problème : Quand vous utilisez un fichier de configuration XML pour créer des ressources, si des ressources ont des propriétés d'extension non réglables, c.-à-d. que l'attribut de propriété de ressource Tunable est défini sur None, la commande ne parvient pas à créer la ressource.

Solution : Modifiez le fichier de configuration XML en supprimant les propriétés d'extension non réglables de la ressource.

La désactivation de la séparation de périphérique quand le cluster subit une charge provoque un conflit de réservation (15608862)

Résumé du problème : La désactivation de la séparation pour un périphérique partagé avec une charge d'E/S active peut entraîner un grave conflit de réservation pour un des noeuds connectés au périphérique.

Solution : Arrêtez progressivement les E/S vers un périphérique avant de désactiver la séparation pour ce dernier.

La détection automatique ne fonctionne pas sur les LDoms avec E/S hybrides (15581535)

Résumé du problème : Lors de la configuration du cluster sur des domaines logiques avec E/S hybrides, la détection automatique ne signale aucun chemin pour l'interconnexion de cluster.

Solution : Lorsque vous exécutez l'utilitaire scinstall interactif, choisissez de configurer le noeud de cautionnement et les autres noeuds au cours d'opérations distinctes plutôt que de configurer tous les noeuds en une seule opération. Lorsque l'utilitaire vous invite à opter ou non pour la détection automatique par la question "Do you want to use autodiscovery?", répondez "no". Vous pouvez ensuite sélectionner des adaptateurs de transport dans la liste fournie par l'utilitaire scinstall.

EMC SRDF et Hitachi TrueCopy doivent rejeter la commutation lorsque le statut d'un groupe de périphériques répliqué entraîne l'échec de la commutation et du retour (15538295)

Résumé du problème : Si un groupe de périphériques Hitachi TrueCopy dont la paire de répliques est dans l'état COPY ou si un groupe de périphériques EMC SRDF dont la paire de répliques est scindée tente de commuter le groupe de périphériques vers un autre noeud, la commutation échoue. En outre, le groupe de périphériques ne peut pas retourner en ligne sur le noeud d'origine tant que la paire de répliques n'a pas retrouvé son état couplé.

Solution : Vérifiez que les répliques TrueCopy ne sont pas dans l'état COPY ou que les répliques SRDF ne sont pas scindées avant de tenter de basculer le groupe de périphériques globaux Oracle Solaris Cluster vers un autre noeud de cluster.

La suppression de noeuds de la configuration du cluster peut entraîner de graves erreurs de noeud (15500647)

Résumé du problème : Le passage d'une configuration en cluster à trois noeuds à un cluster à deux noeuds peut entraîner la perte complète du cluster si l'un des noeuds restants quitte le cluster ou est supprimé de la configuration en cluster.

Solution : Immédiatement après la suppression d'un noeud d'une configuration en cluster à trois noeuds, exécutez la commande cldevice clear sur l'un des noeuds restants du cluster.

Contrôles de validation supplémentaires nécessaires lors de la combinaison de plusieurs DID (15423531)

Résumé du problème : Les commandes scdidadm et cldevice ne parviennent pas à vérifier si les périphériques SRDF répliqués faisant l'objet d'une combinaison en un périphérique DID unique sont effectivement des répliques l'un de l'autre et s'ils appartiennent au groupe de réplication spécifié.

Solution : Soyez attentif lorsque vous combinez des périphériques à utiliser avec SRDF. Assurez-vous que les instances de périphériques DID spécifiées sont des répliques l'une de l'autre et qu'elles appartiennent au groupe de réplication indiqué.

Services de données

Ressource sun.storage_proxy.type dans l'état hors ligne après l'exécution de la commande uadmin 5 1 (16910145)

Résumé du problème : Au cours d'un arrêt inapproprié d'un noeud de cluster, par exemple une grave erreur de noeud, la ressource sun.storage-proxy-resource Clusterware Oracle de type sun.storage_proxy.type est susceptible de rester hors ligne lors de l'initialisation du noeud. Cela maintient l'état hors ligne de la ressource de proxy du serveur RAC Oracle Solaris Cluster.

Solution : Effectuez les opérations suivantes :

  1. Lancez la ressource de proxy de stockage ACFS manuellement.

    # crsctl stop res sun.storage-proxy-resource -n nodename
    # crsctl start res sun.storage-proxy-resource -n nodename
  2. Mettez la ressource de serveur de proxy Oracle Solaris Cluster RAC en ligne.

    # clresourcegroup online rac-server-proxy-resource-group

Configuration active-de secours non pris en charge pour HA pour TimesTen (16861602)

Résumé du problème : La configuration active-de secours TimesTen nécessite l'intégration de méthodes Oracle Solaris Cluster dans l'utilitaire ttCWadmin TimesTen. Cette intégration n'a pas encore été effectuée, bien qu'elle soit décrite dans le manuel Oracle Solaris Cluster Data Service for Oracle TimesTen Guide. Par conséquent, vous ne devez pas utiliser la configuration active-de secours TimesTen avec Oracle Solaris Cluster HA pour TimesTen ni l'utilitaire ttCWadmin TimesTen sur Oracle Solaris Cluster.

Le service de données TimesTen d'Oracle Solaris Cluster est fourni avec un ensemble de types de ressources. La plupart de ces types de ressources sont destinés à être utilisés avec des configurations actives-de secours TimesTen ; vous devez uniquement utiliser le type de ressource ORCL.TimesTen_server pour vos configurations TimesTen hautement disponibles avec Oracle Solaris Cluster.

Solution : N'utilisez pas la configuration active-de secours TimesTen.

La commande clzonecluster halt zonecluster suivie de clzonecluster boot zonecluster entraîne l'échec de l'initialisation de noeuds dans un cluster de zones (16398199)

Résumé du problème : Si vous exécutez la commande clzonecluster halt zonecluster suivie de la commande clzonecluster boot zonecluster, un ou plusieurs noeuds ne parviennent pas à s'initialiser et l'erreur suivante s'affiche :

root@node1:/# clzonecluster boot zc1
Waiting for zone boot commands to complete on all the nodes of the
     zone cluster "zc1"...
clzc:  (C215301) Command execution failed on node node2.
zoneadm: zone 'zc1': These file-systems are mounted on subdirectories
     of /gpool/zones/zone1/root:
zoneadm: zone 'zc1':   /gpool/zones/zone1/root/u01
zoneadm: zone 'zc1': call to zoneadmd failed

Le ou les noeuds de cluster de zones ne s'initialisent pas et la commande clzonecluster status signale que le ou les noeuds sont hors ligne.

Solution : Démontez le système de fichiers dans la zone globale du ou des noeuds hors ligne : /usr/sbin/umount/gpool/zones/zone1/root/u01 (dans l'exemple ci-dessus) et exécutez la commande suivante dans la zone globale de n'importe quel noeud du cluster de zones : /usr/cluster/bin/clzonecluster boot -n offline-node zonecluster. Vérifiez que le ou les noeuds hors ligne sont désormais en ligne en exécutant la commande /usr/cluster/bin/clzonecluster status.

Une ressource LDom désactivée maintient un LDom dans un état de liaison (16323723)

Résumé du problème : Lorsque la ressource HA pour Oracle VM Server for SPARC (HA pour Logical Domains) est désactivée au cours d'opérations de maintenance manuelle, l'exportation zpool échoue. Cela est dû au fait que l'état de liaison du domaine logique maintient dans un état occupé le zpool ZFS qui dépend de la ressource ZFS de basculement. Les commutations et les basculements ne sont pas affectés.

Solution : Effectuez les opérations suivantes :

  1. Libérez des ressources depuis le domaine logique.

    # ldm unbind-dom ldom
  2. Effacez la ressource HASP qui se trouve dans un état STOP_FAILED.

    Pour plus d'informations, reportez-vous à la section Clearing the STOP_FAILED Error Flag on Resources du manuel Oracle Solaris Cluster Data Services Planning and Administration Guide.

Pas de remontage automatique d'un système de fichiers ZFS démonté manuellement (16319552)

Résumé du problème : La sonde HAStoragePlus Solaris ne remonte pas automatiquement un système de fichiers ZFS Solaris ayant été démonté.

Solution : Fournissez un point de montage au jeu de données, suite à quoi tout système de fichiers démonté manuellement est automatiquement remonté par la sonde HAStoragePlus. Par exemple :

# zfs list
NAME           USED  AVAIL  REFER  MOUNTPOINT
pool-1         414K   417G    32K  none
pool-1/test1  31.5K   417G  31.5K  /testmount1
pool-1/test2  31.5K   417G  31.5K  /testmount2

Si un point de montage est attribué à pool-1, tous les systèmes de fichiers démontés manuellement sont automatiquement remontés par la sonde HAStoragePlus.

# zfs set -p mountpoint=/pool-1 pool-1
# zfs list
NAME           USED  AVAIL  REFER  MOUNTPOINT
pool-1         414K   417G    32K  /pool-1
pool-1/test1  31.5K   417G  31.5K  /testmount1
pool-1/test2  31.5K   417G  31.5K  /testmount2

L'agent Oracle HTTP Server (OHS) appelle /bin/grep -q, qui est une option non admise pour cette version grep (16270576)

Résumé du problème : Lorsque vous arrêtez le service de données HA-OHS, le message /bin/grep: option non admise -q s'affiche même si la ressource est correctement mise hors ligne.

Solution : Assurez-vous que les processus OHS ne sont pas en cours d'exécution avant de placer l'application OHS sous le contrôle du cluster. Si les processus ne sont pas en cours d'exécution hors du contrôle du cluster, vous pouvez ignorer ce message.

Des erreurs se produisent lors de la suppression d'une ressource HA LDom (16229698)

Résumé du problème : Des messages d'erreur liés à la suppression d'une entrée CCR (configuration de domaine) apparaissent lors de la suppression de la ressource.

Solution : Ces messages d'erreur sont sans incidence et peuvent être ignorés.

L'assistant WebLogic Server clsetup ne crée pas de ressource pour un système de fichiers de basculement dans une zone de cluster de zones (15943191)

Résumé du problème : Si l'application WebLogic Server est configurée sur un système de fichiers de basculement, l'assistant ne crée pas de ressource. De même, si les instances de WebLogic Server sont configurées pour écouter sur "toutes les adresses IP", l'assistant ne crée pas non plus de ressource.

Solution : Si l'application WebLogic Server est configurée sur un système de fichiers de basculement et que l'assistant ne crée pas de ressource, créez manuellement la ressource HA-WLS pour le système de fichiers de basculement. Si les instances de WebLogic Server sont configurées pour écouter sur "toutes les adresses IP" et que l'assistant ne crée pas de ressource, configurez les instances de manière à ce qu'elles n'écoutent que sur les hôtes logiques, comme recommandé dans la documentation, ou créez manuellement la ressource HA-WLS.

L'assistant ne parvient pas à créer le groupe de ressources rac-framework du cluster de zones si ce dernier comporte moins de noeuds que les noeuds de la zone globale (15825830)

Résumé du problème : La configuration de la structure RAC à l'aide de l'assistant de service de données échoue dans un cluster de zones si l'assistant est exécuté à partir d'un noeud qui ne fait pas partie du cluster de zones.

Solution : Si vous configurez le service de données dans un cluster de zones, exécutez l'assistant à partir de l'un des noeuds de cluster qui héberge le cluster de zones.

Le patch Samba Oracle Solaris 10 119757-20 ou 119758-20 a un impact sur le service de données HA-Samba (15757158)

Résumé du problème : Une fois que vous avez appliqué le patch Samba 119757-20 (SPARC) ou 119758-20 (x86), les emplacements des fichiers binaires passent de /usr/sfw/bin à /usr/bin et de /usr/sfw/lib à /usr/lib/samba. Ces modifications rompent le service de données Oracle Solaris Cluster pour Samba.

Solution : Si les patchs énumérés ci-dessus ont été installés, la ressource du service de données Oracle Solaris Cluster pour Samba doit être enregistrée une nouvelle fois (vous devez la supprimer et l'enregistrer à nouveau). Le fichier /opt/SUNWscsmb/util/samba_config doit spécifier les nouveaux emplacements des fichiers binaires comme décrit ci-dessus. Une fois le fichier samba_config modifié, vous devez exécuter le fichier /opt/SUNWscsmb/util/samba_register pour enregistrer à nouveau la ressource.

En cas de définition de Debug_level=1, pas-rg bascule vers le noeud 2 et ne peut plus démarrer sur le noeud 1 (15803844)

Résumé du problème : Si vous définissez la propriété Debug_level sur 1, le démarrage d'une ressource d'instance de dialogue n'est possible sur aucun noeud.

Solution : Utilisez Debug_level=2, qui est un sur-ensemble de Debug_level=1.

Une ressource HAStoragePlus configurée dans un groupe de ressources évolutif avec système de fichiers de cluster reste en permanence à l'état Starting (15649193)

Résumé du problème : Lorsque l'entrée d'un système de fichiers de cluster dans le fichier /etc/vfstab présente une valeur de montage à l'initialisation de no et que le système de fichiers de cluster est configuré dans une ressource SUNW.HAStoragePlus appartenant à un groupe de ressources évolutif, la ressource SUNW.HAStoragePlus ne parvient pas à se mettre en ligne. La ressource reste dans l'état Starting jusqu'à ce que prenet_start_method ait expiré.

Solution : Dans l'entrée du système de fichiers de cluster dans le fichier /etc/vfstab, définissez la valeur de montage à l'initialisation sur yes.

Les applications évolutives ne sont pas isolées entre les clusters de zones (15611122)

Résumé du problème : Si des applications évolutives configurées pour être exécutées dans différents clusters de zones se lient à INADDR_ANY et utilisent le même port, alors les services évolutifs ne peuvent pas opérer de distinctions entre les instances de ces applications exécutées dans différents clusters de zones.

Solution : Ne configurez pas les applications évolutives de manière à ce qu'elles se lient à INADDR_ANY en tant qu'adresse IP locale, ni de manière à ce qu'elles se lient à un port qui n'est pas en conflit avec une autre application évolutive.

L'exécution simultanée de la commande clnas add ou de la commande clnas remove sur plusieurs noeuds peut engendrer des problèmes (15533979)

Lors de l'ajout ou de la suppression d'un périphérique NAS, l'exécution simultanée de la commande clnas add ou de la commande clnas remove sur plusieurs noeuds peut endommager le fichier de configuration NAS.

Solution : Exécutez la commande clnas add ou la commande clnas remove sur un noeud à la fois.

La commande clresourcegroup add-node déclenche un état Faulted (défectueux) pour une ressource HAStoragePlus (15391480)

Résumé du problème : Lorsqu'une zone non globale marquée native est ajoutée à la liste de noeuds d'un groupe de ressources contenant une ressource HAStoragePlus avec des pools ZFS configurés, l'état de la ressource HAStoragePlus peut devenir Faulted. Ce problème survient seulement lorsque le noeud physique qui héberge la zone native fait partie de la liste de noeuds du groupe de ressources.

Solution : Redémarrez le groupe de ressources contenant la ressource HAStoragePlus défectueuse.

# clresourcegroup restart faulted-resourcegroup

Echec de l'assistant RAC avec le message "ERREUR : Oracle ASM n'est pas installé ou l'installation n'est pas valide !" (15814020)

Résumé du problème : L'assistant de configuration Oracle RAC échoue avec le message ERREUR : Oracle ASM n'est pas installé ou l'installation n'est pas valide !.

Solution : Assurez-vous que l'entrée “ASM” apparaît en première position dans le fichier /var/opt/oracle/oratab, comme indiqué ci-dessous :

root@phys-schost-1:~# more /var/opt/oracle/oratab
…
+ASM1:/u01/app/11.2.0/grid:N            # line added by Agent
MOON:/oracle/ora_base/home:N

Geographic Edition

La reprise du groupe de protection Geographic Edition Hitachi TrueCopy échoue lorsque le cluster principal perd l'accès au stockage (16013386)

Résumé du problème : L'opération de reprise échoue lorsque le cluster principal perd l'accès au périphérique de stockage.

Solution : Arrêtez le cluster principal qui a perdu l'accès au stockage.

Geographic Edition désactive les ressources ASM dans le mauvais ordre, ce qui entraîne l'affichage de messages d'erreur (16004984)

Résumé du problème : Lorsque Geographic Edition bascule un groupe de protection et lui assigne le rôle secondaire, il annule de façon incorrecte la gestion des groupes de périphériques ASM. Si le cluster est ensuite redémarré et que les LUN sont en lecture-écriture, ces groupes de périphériques sont réactivés de manière incorrecte. Lorsque Geographic Edition est redémarré, les écritures sur ces LUN sont désactivées et l'utilisateur risque de voir s'afficher plusieurs erreurs fatales d'écriture sur la console du système. Ces erreurs n'indiquent pas un problème sérieux et peuvent être ignorées. Geographic Edition fonctionnera correctement.

Solution : Ignorez les messages.

Un noeud de cluster n'a pas accès aux projets ZFS Storage Appliance ou aux LUN iSCSI (15924240)

Résumé du problème : Si un noeud quitte le cluster lorsque le site est le site principal, les projets ou les LUN iSCSI sont séparés. Toutefois, après une commutation ou une reprise, lorsque le noeud rejoint le nouveau site secondaire, la séparation des projets ou des LUN iSCSI n'est pas annulée et les applications se trouvant sur le noeud concerné ne peuvent pas accéder au système de fichiers après son passage sur le site principal.

Solution : Réinitialisez le noeud.

Envoi de plusieurs notifications par e-mail depuis le cluster global lorsque des clusters de zones sont utilisés (15746425)

Résumé du problème : Si Oracle Solaris Cluster Geographic Edition est configuré dans un cluster de zones, des e-mails de notification sont envoyés à la fois depuis le cluster de zones et depuis le cluster global en cas de perte de connexion à des clusters partenaires. Les e-mails ne devraient être envoyés que depuis le cluster de zones.

Solution : Il s'agit d'un effet secondaire de la gestion des événements du cluster. Il ne porte pas à conséquence et les doublons d'e-mail peuvent être ignorés.

L'état DR est en permanence signalé comme unknown sur un partenaire (15808054)

Résumé du problème : L'état DR est signalé comme unknown bien que les ressources DR signalent correctement l'état de réplication.

Solution : Exécutez la commande geopg validate protection-group pour forcer une notification d'état de groupe de ressources sur le groupe de protection.

La création et la validation du groupe de protection ZFS Storage Appliance échouent si la réplication du projet est arrêtée par le biais de l'interface utilisateur du navigateur (15797609)

Résumé du problème : Si vous arrêtez la réplication par le biais de l'interface utilisateur du navigateur, le groupe de protection est placé dans un état d'erreur de configuration lorsque la validation du groupe de protection échoue.

Solution : Dans l'interface utilisateur du navigateur, effectuez les opérations suivantes pour arrêter la réplication :

  1. Sous l'onglet Shares, sélectionnez le projet en cours de réplication.

  2. Cliquez sur l'onglet Replication et sélectionnez l'option Scheduled.

  3. Attendez que le statut passe à manual, puis cliquez sur le bouton Enable/Disable.

Installation

L'installation centralisée avec l'utilitaire scinstall ne parvient pas à configurer le cluster lorsque l'authentification DES est activée et que les noms de noeuds sont indiqués sous la forme de noms d'hôte complets (16228318)

Résumé du problème : Lorsque vous avez recours à l'installation centralisée, l'utilitaire scinstall ne parvient pas à configurer le cluster lorsque l'authentification DES est activée et que les noeuds sont spécifiés sous la forme de noms d'hôte complets. Un message d'erreur semblable au suivant s'affiche :

Updating file ("ntp.conf.cluster) on node <FQ-host-name) ... failed
scinstall: Failed to configure ("ntp.conf.cluster") on node <FQ-host-name>
scinstall: scinstall did NOT complete successfully!

Solution : Exécutez à nouveau l'utilitaire scinstall et sélectionnez l'option permettant la configuration d'un noeud à la fois. Indiquez le nom du noeud sans le nom du domaine. Si vous configurez un cluster à deux noeuds, la configuration de quorum échoue et le mode d'installation n'est pas réinitialisé. Dans ce cas, réinitialisez manuellement le mode d'installation, une fois que les noeuds se sont initialisés en mode cluster.

L'assistant de cluster de zones n'offre pas de méthode de saisie de données sur les noeuds à l'aide du SE Oracle Solaris 10 (15874818)

Résumé du problème : Un cluster de zones peut être dans l'état Ready-Offline lors de son initialisation en raison d'une configuration Oracle Solaris incomplète dans les zones du cluster de zones. Les zones du cluster de zones sont en mode de configuration système interactif pour attendre la saisie. Cela se produit lorsqu'il n'y a pas de fichier de configuration système (/etc/sysidcfg) ou que le fichier ne contient pas toutes les propriétés de configuration système requises dans la zone globale sur le noeud de cluster.

Solution : Avant d'installer un cluster de zones, créez le fichier /etc/sysidcfg et définissez toutes les propriétés de configuration système requises sur tous les noeuds du cluster. Les propriétés de configuration dans le fichier sont utilisées pour réaliser automatiquement la configuration du système Oracle Solaris lors de la première initialisation du cluster de zones. La liste des propriétés de configuration système Oracle Solaris requises peut varier selon la version du SE Oracle Solaris. Pour plus d'informations, reportez-vous au manuel Administration d’Oracle Solaris : Administration de base. Après l'installation et l'initialisation du cluster, vous pouvez également utiliser zlogin -C zone pour vous connecter sur tous les noeuds du cluster de zones afin de terminer manuellement la configuration du système Oracle Solaris.

Après exécution de la commande scinstall -u les zones 'installées' restent dans l'état 'monté' (15817301)

Résumé du problème : Après l'exécution de la commande scinstall -u, les zones 'installées' restent dans l'état 'monté'. Cet état est problématique pour la mise à niveau directe lorsque le système est réinitialisé car il ne corrige pas les chemins des zones de l'environnement d'initialisation de rechange.

Solution : Effectuez les opérations suivantes :

  1. Exécutez la commande svcadm disable zones.

    Toutes les zones en cours d'exécution doivent maintenant se trouver dans l'état monté. Le service peut se trouver dans un état de maintenance après 100 secondes, mais cela ne constitue pas un problème.

  2. Exécutez la commande zoneadm —z zonename unmount pour toutes les zones.

  3. Saisissez init 6.

Le programme d'installation supprime le package existant correspondant à la base de données JavaDB de l'agent Ops Center (15646335)

Résumé du problème : L'agent Oracle Enterprise Manager Ops Center pour Oracle Solaris 10 utilise le logiciel JavaDB pour sa base de données de configuration. Lors de l'installation du logiciel Oracle Solaris Cluster à l'aide de l'utilitaire installer, le package logiciel JavaDB est réinstallé, ce qui entraîne la suppression d'une base de données de configuration de l'agent existante.

L'agent Ops Center émet les messages d'erreur suivants suite à la suppression du package :

java.sql.SQLException: Database '/var/opt/sun/xvm/agentdb' not found.
at org.apache.derby.impl.jdbc.SQLExceptionFactory40.getSQLException(Unknown Source)
at org.apache.derby.impl.jdbc.Util.newEmbedSQLException(Unknown Source)
at org.apache.derby.impl.jdbc.Util.newEmbedSQLException(Unknown Source)

L'agent est endommagé et vous devez annuler sa configuration ou le configurer.

Solution : A partir du média Oracle Solaris Cluster, installez manuellement les packages JavaDB supplémentaires suivants sur tous les noeuds du cluster :

Les packages de base de données JavaDB existants ne sont pas supprimés suite à l'exécution de l'utilitaire installer.

Localisation

Le résultat de la vérification de la configuration système requise est incorrect (12185261)

Résumé du problème : En cas d'installation du logiciel Oracle Solaris Cluster à l'aide de l'utilitaire installer dans les environnements linguistiques chinois simplifié et chinois traditionnel, le logiciel qui vérifie la configuration système requise signale que l'espace de swap est de 0 Mo.

Solution : Ignorez ces informations. Dans ces environnements linguistiques, vous pouvez exécuter la commande suivante pour déterminer les valeurs correctes de l'espace de swap :

# df -h | grep swap

Exécution

La commande clzonecluster cancel peut provoquer une erreur (15950187)

Résumé du problème : La configuration interactive clzonecluster (ouverte par la commande clzonecluster configure zcname ) peut tomber en panne dans certaines circonstances lorsque la sous-commande cancel est exécutée. Le message d'erreur Erreur lors de l'exécution de la commande de configuration de zones s'affiche.

Solution : Vous pouvez ignorer ce problème en toute sécurité. Ce problème entraîne uniquement la perte de données de configuration non enregistrées. Pour éviter une panne de l'utilitaire de configuration, n'utilisez pas la commande cancel.

sc_delegated_restarter ne prend pas en compte les variables d'environnement définies dans le manifeste (15795184)

Résumé du problème : Les variables d'environnement spécifiées dans le manifeste du service ne sont pas reconnues lorsque le service est placé sous le contrôle d'une ressource de type SUNW.Proxy_SMF_failover.

Solution : Modifiez les méthodes de service pour définir les variables directement.

Impossible de réactiver l'interface de transport après la désactivation avec ifconfig unplumb interface (15770198)

Résumé du problème : Les chemins de transport du cluster passent en mode hors ligne en cas d'utilisation involontaire de la commande ifconfig unplumb sur l'interface de transport privée.

Solution : Désactivez et réactivez le câble auquel l'interface désactivée est connectée.

  1. Déterminez le câble auquel l'interface est connectée.

    # /usr/cluster/bin/clinterconnect show | grep Cable
  2. Désactivez le câble de cette interface sur ce noeud.

    # /usr/cluster/bin/clinterconnect disable cable
  3. Réactivez le câble pour mettre en ligne le chemin.

    # /usr/cluster/bin/clinterconnect enable cable

Echec de basculement de nom d'hôte logique causé par getnetmaskbyaddr() (15733435)

Résumé du problème : Le basculement de nom d'hôte logique nécessite l'obtention du masque réseau du réseau si nis/ldap est activé pour le service de noms netmasks. Cet appel à getnetmaskbyaddr() se bloque pendant un certain temps à cause de CR 7051511, et le blocage peut se prolonger suffisamment pour que le RGM (Resource Group Manager, gestionnaire de groupes de ressources) place la ressource dans l'état FAILED. Cela se produit même si les entrées de masque réseau correctes se trouvent dans les fichiers locaux /etc/netmasks. Ce problème affecte uniquement les clusters à multiconnexion, tels que les noeuds de cluster qui résident sur des sous-réseaux multiples.

Solution : Configurez le fichier /etc/nsswitch.conf, qui est géré par un service SMF, afin de n'utiliser que files pour les recherches netmasks.

# /usr/sbin/svccfg -s svc:/system/name-service/switch setprop config/netmask = astring:\"files\"
# /usr/sbin/svcadm refresh svc:/system/name-service/switch