JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Notes de version d'Oracle Solaris Cluster 4.1     Oracle Solaris Cluster 4.1 (Français)
search filter icon
search icon

Informations document

Préface

1.  Notes de version d'Oracle Solaris Cluster 4.1

Nouveautés du logiciel

Prise en charge du système d'exploitation Oracle Solaris 11.2

Nouveaux assistants clsetup pour la création d'un cluster de zones

Prise en charge des clusters de zones marquées solaris10

Prise en charge des clusters de zones en mode IP exclusif

Prise en charge de Trusted Extensions avec les clusters de zones

Possibilité de définir des dépendances de ressources distinctes pour chaque noeud

Prise en charge de la reconfiguration dynamique (DR) de la cage du noyau

Amélioration de la structure de sécurité des clusters

Prise en charge du protocole SDP via l'interconnexion de cluster

Détection des défaillances et réponse plus rapides par les services de surveillance du stockage

Pools de stockage ZFS

Nouvel assistant clsetup pour la configuration du service de données Oracle PeopleSoft Application Server

Nouvel assistant clsetup pour la configuration du service de données Oracle WebLogic Server

Prise en charge de services de données MySQL et MySQL Cluster

Nouveau service de données pour PostgreSQL

Nouveau service de données pour Samba

Nouveau service de données pour SAP liveCache

Nouveau service de données pour SAP MaxDB

Nouveau service de données pour Siebel 8.2.2

Nouveau service de données pour Sybase ASE

Nouveau service de données pour Oracle Traffic Director

Nouveau service de données pour Oracle TimesTen

Nouveau manuel pour le service de données SAP NetWeaver

Nouveau service de données pour Oracle External Proxy

Nouveau service de données pour Oracle PeopleSoft Enterprise Process Scheduler

Nouveau service de données pour Oracle Web Tier

Prise en charge du service de données Oracle E-Business 12.1.1

Prise en charge de la réplication de données Sun ZFS Storage Appliance avec Geographic Edition

Prise en charge d'EMC Symmetrix Remote Data Facility avec Geographic Edition

Prise en charge de la réplication MySQL avec Geographic Edition

Nouvelles pages de manuel pour les commandes de maintenance avancées ccradm et dcs_config

Prise en charge sélectionnée pour les zones non globales

Ce qui n'est pas inclus dans le logiciel Oracle Solaris Cluster 4.1

Restrictions

Ensembles de disques de Solaris Volume Manager dans un cluster de zones

Commandes modifiées dans cette version

Problèmes de compatibilité

Un hôte logique ne bascule pas avec une panne du réseau public (16979921)

Oracle ASM avec volumes logiques mis en miroir Solaris Volume Manager

Dumps noyau osysmond dans zone marquée S10 pendant root.sh de GI et démarrage de CRS (14456069)

Oracle Clusterware ne parvient pas à créer tous les SID pour la ressource ora.asm (12680224)

L'installation de la SRU Oracle Solaris 11 risque d'échouer en raison d'une commande pkg obsolète

Impossible de n'installer que les patchs sur le cluster de zones marquées solaris10 à l'aide de clzonecluster install-cluster (7200532)

L'ajout d'un adaptateur principal à un groupe IPMP retire la configuration DNS (7198718)

Un problème de SAP JAVA affecte l'aptitude de HA pour SAP NetWeaver à basculer en cas d'indisponibilité non planifiée (7191360)

La zone ne s'initialise pas si pkg:/system/resource-mgmt/resource-cap n'est pas installé et que capped-memory est configuré (7087700)

Les configurations en cluster ZFS Storage Appliance actif:actif ne sont pas prises en charge avec Geographic Edition (6770212)

Informations d'accessibilité

Produits pris en charge

Réplication de données

Service de données

Systèmes de fichiers

Configuration logicielle requise pour Geographic Edition

Mémoire requise

Système d'exploitation Oracle Solaris

Oracle VM Server for SPARC

Logiciel de gestion de volumes

Localisation du produit

Problèmes et bogues connus

Administration

L'exécution d'une commande clzc reboot dans le cluster de zones en mode IP exclusif marqué solaris10 entraîne une erreur grave des noeuds de la zone globale (16941521)

La commande /usr/sbin/shutdown dans une zone d'un cluster de zones en mode IP exclusif peut provoquer l'arrêt d'autres zones actives du cluster de zones (16963753)

Le service SMF svc_private_network:default entre en maintenance dans un cluster de zones en mode IP exclusif marqué solaris10 (16716992)

Impossible de définir la taille de la MTU des trames géantes pour l'interface clprivnet (16618736)

Pas de basculement de la ressource de serveur de BD en cas d'échec du réseau public avec le listener SCAN (16231523)

Les assistants de configuration de services de données ne prennent pas en charge les ressources de stockage et les groupes de ressources HAStoragePlus évolutives (7202824)

Le retrait d'un noeud d'un cluster de zones en mode IP exclusif entraîne une erreur grave des noeuds du cluster (7199744)

Des ressources privnet inexistantes empêchent l'initialisation de clusters de zones malgré la présence de ressources privnet valides (7199431)

La commande clzonecluster omet de vérifier que defrouter ne peut pas être spécifié sans allowed-addr, CCR présente un échec de configuration (7199135)

Les sous-commandes clzonecluster, boot, reboot et halt échouent si l'un des noeuds du cluster ne se trouve pas dans le cluster (7193998)

Le système de fichiers de cluster ne prend pas en charge les attributs étendus (7167470)

L'utilisation de la commande chmod pour définir l'autorisation setuid entraîne le renvoi d'une erreur dans une zone non globale sur le serveur secondaire PxFS (7020380)

Impossible de créer une ressource depuis un fichier de configuration avec des propriétés d'extension non réglables (6971632)

La désactivation de la séparation de périphérique quand le cluster subit une charge provoque un conflit de réservation (6908466)

EMC SRDF rejette la commutation lorsque le statut d'un groupe de périphériques répliqué entraîne l'échec de la commutation et du retour (6798901)

La suppression de noeuds d'une configuration de cluster peut entraîner de graves erreurs de noeud (6735924)

Contrôles de validation supplémentaires nécessaires lors de la combinaison de plusieurs DID (6605101)

Services de données

Configuration active-de secours non pris en charge pour HA pour TimesTen (16861602)

Echec de la mise à jour de propriétés d'une ressource SUNW.ScalMountPoint configurée avec NAS pour un cluster de zones (7203506)

Un système de fichiers global configuré dans une ressource HAStoragePlus évolutive du cluster de zones n'est pas accessible (7197623)

Echec de l'assistant RAC avec le message "ERREUR : Oracle ASM n'est pas installé ou l'installation n'est pas valide !" (7196184)

L'assistant clsetup échoue lors de la configuration du domaine WebLogic Server dans les zones/le cluster de zones lorsque Weblogic Server est installé sur NFS (7196102)

En présence d'un grand nombre de ressources GDS non compatibles réseau, certaines ne redémarrent pas et restent hors ligne (7189659)

Fuite de descripteur de fichier SUNW.Proxy_SMF_failover sc_delegated_restarter (7189211)

En cas de définition de Debug_level=1, pas-rg bascule vers le noeud 2 et ne peut plus démarrer sur le noeud 1 (7184102)

Les applications évolutives ne sont pas isolées entre les clusters de zones (6911363)

Problème possible lors de l'exécution simultanée de clnas add ou clnas remove sur plusieurs noeuds (6791618)

Environnement développeur

La commande clresource show -p renvoie des informations erronées (7200960)

Geographic Edition

Un noeud de cluster n'a pas accès aux projets Sun ZFS Storage Appliance ou aux LUN iSCSI (15924240)

L'état DR est en permanence signalé comme unknown sur un partenaire (7189050)

La reprise sur le site secondaire échoue en raison de l'échec de fs umount sur le site principal (7182720)

La création et la validation du groupe de protection ZFS Storage Appliance échouent si la réplication du projet est arrêtée par le biais de l'interface utilisateur du navigateur (7176292)

Envoi de plusieurs notifications par e-mail depuis le cluster global lorsque des clusters de zones sont utilisés (7098290)

Installation

Impossible d'installer des agents Data Service sur une zone marquée solaris10 3.3 5/11 existante sans indiquer les options de patch (7197399)

clzonecluster ne signale pas d'erreur lorsque install est utilisé à la place de install-cluster pour les zones marquées solaris10 (7190439)

La création des ressources proxy d'instance ASM échoue lorsqu'un nom d'hôte contient des caractères majuscules (7190067)

L'assistant ne détecte pas le SID ASM (7190064)

La création des ressources proxy RAC échoue lorsque le nom d'hôte du noeud de cluster contient des caractères majuscules (7189565)

Détermination difficile des noms de services de données dans le cadre d'une installation de service de données non interactive de zones marquées solaris10 (7184714)

cacao ne peut pas communiquer sur les ordinateurs exécutant Trusted Extensions (7183625)

La commande clnode remove -F nodename ne parvient pas à supprimer le noeud nodename des groupes de périphériques de Solaris Volume Manager (6471834)

La détection automatique doit détecter un seul chemin d'interconnexion pour chaque adaptateur (6299097)

Exécution

Le basculement de noms d'hôtes logiques est susceptible de générer des doublons d'adresses et d'entraîner une interruption de service (7201091)

sc_delegated_restarter ne prend pas en compte les variables d'environnement définies dans le manifeste (7173159)

Impossible de réactiver l'interface de transport après sa désactivation à l'aide de ipadm disable-if -t interface (7141828)

Echec de basculement de nom d'hôte logique causé par getnetmaskbyaddr() (7075347)

Mise à niveau

x86: scinstall -u update échoue parfois à mettre à niveau les packages du cluster sur un noeud x86 (7201491)

Mises à jour du logiciel

Outils de gestion des patchs

My Oracle Support

Ensemble de documentation Oracle Solaris Cluster 4.1

Problèmes affectant la documentation

Guide de mise à niveau

Guide HA pour Oracle

Guide RAC HA pour Oracle

Guide HA pour Oracle Solaris Zones

Solaris Volume Manager

Guide Geographic Edition relatif à la réplication de données pour Oracle Solaris Availability Suite

Pages de manuel

clzonecluster(1CL)

ORCL.sapcenter(5)

ORCL.saprepenq(5)

ORCL.saprepenq_preempt(5)

ORCL.sapstartsrv(5)

scdpmd.conf(4)

scha_check_app_user(1HA)

SUNW.HAStoragePlus(5)

SUNW.ScalDeviceGroup(5)

SUNW.ScalMountPoint(5)

A.  Page de manuel ORCL.otd(5)

Problèmes et bogues connus

Les problèmes et bogues présentés ci-après affectent le fonctionnement de la version actuelle des logiciels Oracle Solaris Cluster et Oracle Solaris Cluster Geographic Edition 4.1. Les problèmes et les bogues sont regroupés dans les catégories suivantes :

Pour savoir si un correctif a été mis à disposition, contactez votre correspondant du support Oracle.

Administration

L'exécution d'une commande clzc reboot dans le cluster de zones en mode IP exclusif marqué solaris10 entraîne une erreur grave des noeuds de la zone globale (16941521)

Résumé du problème : Une réinitialisation ou un arrêt d'un noeud d'un cluster de zones en mode IP exclusif marqué solaris10 peut provoquer une erreur grave des noeuds de la zone globale. Ceci survient lorsque les noeuds du cluster de zones utilisent le réseau de base comme interface réseau (publique) principale et que cette interface réseau de base comporte des cartes VNIC configurées pour d'autres noeuds de cluster de zones du même cluster.

Solution : Créez et utilisez les cartes VNIC comme interfaces réseau principales pour les clusters de zones en mode IP exclusif.

La commande /usr/sbin/shutdown dans une zone d'un cluster de zones en mode IP exclusif peut provoquer l'arrêt d'autres zones actives du cluster de zones (16963753)

Résumé du problème : Si vous exécutez la commande /usr/sbin/shutdown dans une zone d'un cluster de zones en mode IP exclusif pour arrêter ou réinitialiser la zone, toutes les autres zones du cluster de zones qui sont actives et en cours d'exécution peuvent être arrêtées par le logiciel de cluster.

Solution : N'utilisez pas la commande /usr/sbin/shutdown à l'intérieur d'une zone d'un cluster de zones en mode IP exclusif pour arrêter ou réinitialiser la zone. Utilisez plutôt la commande /usr/cluster/bin/clzonecluster dans la zone globale pour arrêter ou réinitialiser une zone d'un cluster de zones en mode IP exclusif. La commande /usr/cluster/bin/clzonecluster est la commande appropriée pour arrêter ou réinitialiser une zone dans un cluster de zones, quel que soit son type. Si vous rencontrez ce problème, utilisez la commande /usr/cluster/bin/clzonecluster pour initialiser les zones qui ont été arrêtées par le logiciel de cluster.

Le service SMF svc_private_network:default entre en maintenance dans un cluster de zones en mode IP exclusif marqué solaris10 (16716992)

Résumé du problème : Lorsque vous effectuez une identification du système dans une zone d'un cluster de zones en mode IP exclusif marqué solaris10, le service SMF svc_private_network:default entre en maintenance dans cette zone. Lors des réinitialisations ultérieures de la zone, le problème ne survient pas.

Solution : Après avoir effectué la configuration de l'identification du système dans une zone d'un cluster de zones en mode IP exclusif marqué solaris10, réinitialisez cette zone.

Impossible de définir la taille de la MTU des trames géantes pour l'interface clprivnet (16618736)

Résumé du problème : La MTU de l'interface clprivnet du cluster est toujours définie sur la valeur par défaut de 1500 et ne correspond pas à la MTU des interconnexions privées sous-jacentes. Vous ne pouvez donc pas paramétrer la taille de la MTU des trames géantes pour l'interface clprivnet.

Solution : Il n'y a pas de solution de contournement.

Pas de basculement de la ressource de serveur de BD en cas d'échec du réseau public avec le listener SCAN (16231523)

Résumé du problème : Lorsque la base de données HA-Oracle est configurée pour utiliser le listener SCAN Grid Infrastructure, la ressource de base de données HA-Oracle ne bascule en cas d'échec du réseau public.

Solution : Lorsque vous utilisez le listener SCAN Oracle Grid Infrastructure avec une base de données HA-Oracle, ajoutez un hôte logique possédant une adresse IP appartenant au même sous-réseau que le listener SCAN au groupe de ressources de base de données HA-Oracle.

Les assistants de configuration de services de données ne prennent pas en charge les ressources de stockage et les groupes de ressources HAStoragePlus évolutives (7202824)

Résumé du problème : Les assistants de configuration de services de données existants ne prennent pas en charge la configuration des ressources et des groupes de ressources HAStoragePlus évolutives. En outre, les assistants ne sont pas non plus en mesure de détecter les ressources et groupes de ressources HAStoragePlus évolutives existants.

Par exemple, lors de la configuration de HA pour WebLogic Server en mode multi-instance, l'assistant affiche Aucune ressource de stockage hautement disponible n'est sélectionnable., même s'il existe des ressources et groupes de ressources HAStoragePlus évolutives sur le cluster.

Solution : Configurez de la manière suivante les services de données qui utilisent des ressources et des groupes de ressources HAStoragePlus évolutives :

  1. Ayez recours aux commandes clresourcegroup et clresource pour configurer les ressources et groupes de ressources HAStoragePlus en mode évolutif.

  2. Utilisez l'assistant clsetup pour configurer les services de données comme s'ils se trouvaient sur des systèmes de fichiers locaux, c'est-à-dire comme si aucune ressource de stockage n'était impliquée.

  3. Servez-vous de l'interface de ligne de commande (CLI) pour créer une dépendance de redémarrage hors ligne aux ressources HAStoragePlus évolutives que vous avez configurées au cours de l'étape 1, et une affinité positive forte sur les groupes de ressources HAStoragePlus évolutives.

Le retrait d'un noeud d'un cluster de zones en mode IP exclusif entraîne une erreur grave des noeuds du cluster (7199744)

Résumé du problème : Lorsqu'un noeud d'un cluster de zones est retiré d'un cluster de zones en mode IP exclusif, les noeuds de cluster global qui hébergent le cluster de zones en mode IP exclusif subissent une erreur grave. Ce problème ne se pose que lorsque cluster global comporte des interconnexions InfiniBand.

Solution : Arrêtez le cluster de zones en mode IP exclusif avant de retirer le noeud du cluster de zones.

Des ressources privnet inexistantes empêchent l'initialisation de clusters de zones malgré la présence de ressources privnet valides (7199431)

Résumé du problème : Si des liaisons réseau non valides ou inexistantes sont définies en tant que ressources privnet dans une configuration de cluster de zones en mode IP exclusif (ip-type=exclusive), le noeud du cluster de zones ne parvient pas à rejoindre le cluster de zones malgré la présence de ressources privnet valides.

Solution : Retirez la ressource privnet non valide de la configuration du cluster de zones, puis réinitialisez le noeud du cluster de zones.

# clzonecluster reboot -n nodename zone-cluster

Sinon, vous pouvez aussi créer la liaison réseau manquante correspondant à la ressource privnet non valide, puis réinitialiser la zone. Reportez-vous à la page de manuel dladm(1M) pour plus d'informations.

La commande clzonecluster omet de vérifier que defrouter ne peut pas être spécifié sans allowed-addr, CCR présente un échec de configuration (7199135)

Résumé du problème : Dans un cluster de zones en mode IP exclusif, si vous configurez une ressource net dans l'étendue du noeud en spécifiant la propriété defrouter, mais sans spécifier la propriété allowed-address, le logiciel Oracle Solaris s'arrête et signale une erreur. Pour un cluster de zones en mode IP exclusif, Oracle Solaris exige que la propriété allowed-address soit toujours spécifiée si la propriété defrouter est indiquée. Si ce n'est pas le cas, le logiciel Oracle Solaris renvoie le message d'erreur approprié, mais le CCR (Cluster Configuration Repository, référentiel de configuration du cluster) a déjà été complété avec les informations relatives au cluster de zones. A la suite de cette action, le cluster de zones présente l'état Unknown.

Solution : Renseignez la propriété allowed-address du cluster de zones.

Les sous-commandes clzonecluster, boot, reboot et halt échouent si l'un des noeuds du cluster ne se trouve pas dans le cluster (7193998)

Résumé du problème : Les sous-commandes clzonecluster boot, reboot et halt échouent même si l'un des noeuds du cluster est introuvable dans le cluster. Un message d'erreur semblable au suivant s'affiche :

root@pnode1:~# clzc reboot zoneclustername 
clzc:  (C827595) "pnode2" is not in cluster mode.
clzc:  (C493113) No such object.

root@pnode1:~# clzc halt zoneclustername
clzc:  (C827595) "pnode2" is not in cluster mode.
clzc:  (C493113) No such object.

Les sous-commandes clzonecluster boot, reboot et halt devraient ignorer les noeuds en mode non cluster au lieu d'échouer.

Solution : Utilisez l'option suivante avec les commandes clzonecluster boot ou clzonecluster halt pour spécifier la liste de noeuds concernés :

-n nodename[,…]

L'option -n permet d'appliquer les sous-commandes au sous-ensemble de noeuds spécifié. Si, par exemple, dans un cluster à trois noeuds comprenant les noeuds pnode1, pnode2 et pnode3, le noeud pnode2 est arrêté, vous pouvez exécuter les sous-commandes clzonecluster suivantes pour exclure le noeud arrêté :

clzonecluster halt -n pnode1,pnode3 zoneclustername
clzonecluster boot -n pnode1,pnode3 zoneclustername
clzonecluster reboot -n pnode1,pnode3 zoneclustername

Le système de fichiers de cluster ne prend pas en charge les attributs étendus (7167470)

Résumé du problème : Les attributs étendus ne sont pas actuellement pris en charge par les systèmes de fichiers de cluster. Lorsqu'un utilisateur monte un système de fichiers de cluster avec l'option de montage xattr, le comportement est le suivant :

Un programme accédant aux attributs étendus des fichiers dans un système de fichiers de cluster risque donc de ne pas produire les résultats escomptés.

Solution : Montez un système de fichiers de cluster à l'aide de l'option de montage noxattr.

L'utilisation de la commande chmod pour définir l'autorisation setuid entraîne le renvoi d'une erreur dans une zone non globale sur le serveur secondaire PxFS (7020380)

Résumé du problème : Il peut arriver que la commande chmod ne parvienne pas à modifier les autorisations setuid sur un fichier dans un système de fichiers de cluster. Si la commande chmod est exécutée dans une zone non globale non située sur le serveur principal PxFS, la commande chmod ne parvient pas à modifier l'autorisation setuid.

Par exemple :

# chmod 4755 /global/oracle/test-file
chmod: WARNING: can't change /global/oracle/test-file

Solution : Effectuez l'une des opérations suivantes :

Impossible de créer une ressource depuis un fichier de configuration avec des propriétés d'extension non réglables (6971632)

Résumé du problème : Quand vous utilisez un fichier de configuration XML pour créer des ressources, si des ressources ont des propriétés d'extension non réglables, c.-à-d. que l'attribut de propriété de ressource Tunable est défini sur None, la commande ne parvient pas à créer la ressource.

Solution : Modifiez le fichier de configuration XML en supprimant les propriétés d'extension non réglables de la ressource.

La désactivation de la séparation de périphérique quand le cluster subit une charge provoque un conflit de réservation (6908466)

Résumé du problème : La désactivation de la séparation pour un périphérique partagé avec une charge d'E/S active peut entraîner un grave conflit de réservation pour un des noeuds connectés au périphérique.

Solution : Arrêtez progressivement les E/S vers un périphérique avant de désactiver la séparation pour ce dernier.

EMC SRDF rejette la commutation lorsque le statut d'un groupe de périphériques répliqué entraîne l'échec de la commutation et du retour (6798901)

Résumé du problème : Si un groupe de périphériques EMC SRDF dont la paire de répliques est scindée tente de commuter le groupe de périphériques vers un autre noeud, la commutation échoue. En outre, le groupe de périphériques ne peut pas retourner en ligne sur le noeud d'origine tant que la paire de répliques n'a pas retrouvé son état couplé.

Solution : Assurez-vous que les répliques SRDF ne sont pas scindées avant d'essayer de commuter le groupe de périphériques globaux Oracle Solaris Cluster vers un autre noeud du cluster.

La suppression de noeuds d'une configuration de cluster peut entraîner de graves erreurs de noeud (6735924)

Résumé du problème : Le passage d'une configuration en cluster à trois noeuds à un cluster à deux noeuds peut entraîner la perte complète du cluster si l'un des noeuds restants quitte le cluster ou est supprimé de la configuration en cluster.

Solution : Immédiatement après la suppression d'un noeud d'une configuration en cluster à trois noeuds, exécutez la commande cldevice clear sur l'un des noeuds restants du cluster.

Contrôles de validation supplémentaires nécessaires lors de la combinaison de plusieurs DID (6605101)

Résumé du problème : La commande cldevice ne parvient pas à vérifier si les périphériques SRDF répliqués faisant l'objet d'une combinaison en un périphérique DID unique sont effectivement des répliques l'un de l'autre et s'ils appartiennent au groupe de réplication spécifié.

Solution : Soyez attentif lorsque vous combinez des périphériques à utiliser avec SRDF. Assurez-vous que les instances de périphériques DID spécifiées sont des répliques l'une de l'autre et qu'elles appartiennent au groupe de réplication indiqué.

Services de données

Configuration active-de secours non pris en charge pour HA pour TimesTen (16861602)

Résumé du problème : La configuration active-de secours de la base de données TimesTen requiert l'intégration des méthodes d' Oracle Solaris Cluster dans l'utilitaire ttCWadmin de TimesTen. Cette intégration n'a pas encore été effectuée, bien qu'elle soit décrite dans le manuel Oracle Solaris Cluster Data Service for Oracle TimesTen Guide. Par conséquent, n'utilisez pas la configuration active-de secours de TimesTen avec Oracle Solaris Cluster HA for TimesTen et n'utilisez pas l'utilitaire ttCWadmin de TimesTen sur Oracle Solaris Cluster.

Le service de données TimesTen d'Oracle Solaris Cluster est fourni avec un ensemble de types de ressources. La plupart de ces types de ressources sont destinés à être utilisés avec des configurations actives-de secours TimesTen ; vous devez uniquement utiliser le type de ressource ORCL.TimesTen_server pour vos configurations TimesTen hautement disponibles avec Oracle Solaris Cluster.

Solution : N'utilisez pas la configuration active-de secours de la base de données TimesTen.

Echec de la mise à jour de propriétés d'une ressource SUNW.ScalMountPoint configurée avec NAS pour un cluster de zones (7203506)

Résumé du problème : La mise à jour de n'importe quelle propriété d'une ressource SUNW.ScalMountPoint configurée avec un système de fichiers NAS pour un cluster de zones est susceptible d'échouer avec un message d'erreur similaire au suivant :

clrs:   hostname:zone-cluster : Bad address

Solution : Supprimez la ressource à l'aide de la commande clresource, puis recréez-la avec toutes les propriétés requises.





Un système de fichiers global configuré dans une ressource HAStoragePlus évolutive du cluster de zones n'est pas accessible (7197623)

Résumé du problème : Considérez par exemple un système de fichiers de cluster comportant l'entrée suivante dans le fichier /etc/vfstab du cluster global et dont la valeur de montage à l'initialisation (mount-at-boot) est no :

# cat /etc/vfstab
/dev/md/datadg/dsk/d0   /dev/md/datadg/rdsk/d0 /global/fs-data ufs   5  no   logging,global

Lorsqu'une ressource HAStoragePlus est créée dans un groupe de ressources évolutives d'un cluster de zones et que la valeur de montage à l'initialisation du système de fichiers de cluster est définie sur no, les données du système de fichiers de cluster peuvent ne pas être visibles par le bais du point de montage du noeud du cluster de zones.

Solution : Procédez comme suit pour éviter ce problème :

  1. A partir d'un noeud de cluster global, placez hors ligne le groupe de ressources évolutives du cluster de zones qui contient HAStoragePlus.

    # clresourcegroup offline -Z zonecluster scalable-resource-group
  2. Dans le fichier /etc/vfstab sur chaque noeud du cluster global, modifiez la valeur de montage à l'initialisation du système de fichiers de cluster et définissez-la sur yes.

    /dev/md/datadg/dsk/d0   /dev/md/datadg/rdsk/d0 /global/fs-data ufs   5  yes   logging,global
  3. A partir d'un noeud du cluster global, replacez en ligne le groupe de ressources évolutives du cluster de zones qui contient HAStoragePlus.

    # clresourcegroup online -Z zonecluster scalable-resource-group

Echec de l'assistant RAC avec le message "ERREUR : Oracle ASM n'est pas installé ou l'installation n'est pas valide !" (7196184)

Résumé du problème : L'assistant de configuration Oracle RAC échoue avec le message ERREUR : Oracle ASM n'est pas installé ou l'installation n'est pas valide !.

Solution : Assurez-vous que l'entrée “ASM” apparaît en première position dans le fichier /var/opt/oracle/oratab, comme indiqué ci-dessous :

root@phys-schost-1:~# more /var/opt/oracle/oratab
…
+ASM1:/u01/app/11.2.0/grid:N            # line added by Agent
MOON:/oracle/ora_base/home:N

L'assistant clsetup échoue lors de la configuration du domaine WebLogic Server dans les zones/le cluster de zones lorsque Weblogic Server est installé sur NFS (7196102)

Résumé du problème : La configuration de la ressource HA-WebLogic Server à l'aide de l'assistant clsetup à l'intérieur d'une zone/d'un cluster de zones échoue si WebLogic Server est installé sur un point de montage NFS.

Ce problème ne survient pas si le stockage NFS est situé dans le cluster global ou si un type de stockage autre que NFS est utilisé.

Condition pour que ce problème se produise : le stockage NFS est monté alors que WebLogic Server est installé à l'intérieur des zones et WebLogic Server est configuré à l'aide de l'assistant clsetup.

Message d'erreur : ERREUR : le chemin spécifié n'est pas un emplacement de domaine WebLogic Server valide. Un message similaire s'affichera pour l'emplacement du répertoire personnel, le script de démarrage et le fichier d'environnement

Enfin, la détection des serveurs d'administration/gérés/RPS échoue.

Not able to find the WebLogic Administration Server Instance. 
Make sure the provided WebLogic Domain Location (<DOMAIN_LOCATION_PROVIDED>) 
is the valid one.

No Reverse Proxy Server Instances found. You can't proceed further.

No Managed Server instances found. You can't proceed further.

Solution : Configurez manuellement la ressource WebLogic Server.

En présence d'un grand nombre de ressources GDS non compatibles réseau, certaines ne redémarrent pas et restent hors ligne (7189659)

Résumé du problème : Ce problème affecte les données GDS (Generic Data Service) qui remplissent toutes les conditions suivantes :

Si les ressources ne parviennent pas à démarrer, GDS continuera à les redémarrer indéfiniment. Il existe un problème entraînant l'affichage de l'erreur Restart operation failed: cluster is reconfiguring. Dans ce cas, la ressource GDS n'est pas automatiquement redémarrée.

Solution : Désactivez et réactivez manuellement les ressources GDS concernées.

Fuite de descripteur de fichier SUNW.Proxy_SMF_failover sc_delegated_restarter (7189211)

Résumé du problème : Chaque fois que la ressource proxy SMF SUNW.Proxy_SMF_failover est désactivée ou activée, le nombre de descripteurs de fichier augmente de 1. Des commutations répétées peuvent accroître le nombre de descripteurs de fichier jusqu'au seuil maximal de 256, auquel cas la ressource ne peut plus être mise en ligne.

Solution : Désactivez et réactivez le service SMF sc_restarter.

# svcadm disable sc_restarter
# svcadm enable sc_restarter

En cas de définition de Debug_level=1, pas-rg bascule vers le noeud 2 et ne peut plus démarrer sur le noeud 1 (7184102)

Résumé du problème : Si vous définissez la propriété Debug_level sur 1, le démarrage d'une ressource d'instance de dialogue n'est possible sur aucun noeud.

Solution : Utilisez Debug_level=2, qui est un sur-ensemble de Debug_level=1.

Les applications évolutives ne sont pas isolées entre les clusters de zones (6911363)

Résumé du problème : Si des applications évolutives configurées pour être exécutées dans différents clusters de zones se lient à INADDR_ANY et utilisent le même port, alors les services évolutifs ne peuvent pas opérer de distinctions entre les instances de ces applications exécutées dans différents clusters de zones.

Solution : Ne configurez pas les applications évolutives de manière à ce qu'elles se lient à INADDR_ANY en tant qu'adresse IP locale, ni de manière à ce qu'elles se lient à un port qui n'est pas en conflit avec une autre application évolutive.

Problème possible lors de l'exécution simultanée de clnas add ou clnas remove sur plusieurs noeuds (6791618)

Résumé du problème : Lors de l'ajout ou de la suppression d'un périphérique NAS, l'exécution simultanée de la commande clnas add ou de la commande clnas remove sur plusieurs noeuds peut endommager le fichier de configuration NAS.

Solution : Exécutez la commande clnas add ou clnas remove sur un noeud à la fois.

Environnement développeur

La commande clresource show -p renvoie des informations erronées (7200960)

Résumé du problème : Dans une zone non globale marquée solaris10, la commande clresource show -p property renvoie des informations erronées.

Solution : Ce bogue est dû à la présence de fichiers binaires antérieurs à Oracle Solaris Cluster 4.1 dans la zone marquée solaris10. Exécutez la commande suivante à partir de la zone globale pour obtenir les informations correctes sur les ressources des zones non globales locales :

# clresource show -p property -Z zone-name

Geographic Edition

Un noeud de cluster n'a pas accès aux projets Sun ZFS Storage Appliance ou aux LUN iSCSI (15924240)

Résumé du problème : Si un noeud quitte le cluster lorsque le site est le site principal, les projets ou les LUN iSCSI sont séparés. Toutefois, après une commutation ou une reprise, lorsque le noeud rejoint le nouveau site secondaire, la séparation des projets ou des LUN iSCSI n'est pas annulée et les applications se trouvant sur le noeud concerné ne peuvent pas accéder au système de fichiers après son passage sur le site principal.

Solution : Réinitialisez le noeud.

L'état DR est en permanence signalé comme unknown sur un partenaire (7189050)

Résumé du problème : L'état DR est signalé comme unknown bien que les ressources DR signalent correctement l'état de réplication.

Solution : Exécutez la commande geopg validate protection-group pour forcer une notification d'état de groupe de ressources sur le groupe de protection.

La reprise sur le site secondaire échoue en raison de l'échec de fs umount sur le site principal (7182720)

Résumé du problème : La reprise d'un groupe de protection échoue si l'opération umount du système de fichiers échoue sur le site principal.

Solution : Effectuez les opérations suivantes :

  1. Exécutez la commande fuser -cu file-system.

  2. Recherchez des ID de processus ne correspondant pas à des applications, tels que cd, sur le site principal.

  3. Terminez ces processus avant d'effectuer une opération de reprise.

La création et la validation du groupe de protection ZFS Storage Appliance échouent si la réplication du projet est arrêtée par le biais de l'interface utilisateur du navigateur (7176292)

Résumé du problème : Si vous arrêtez la réplication par le biais de l'interface utilisateur du navigateur, le groupe de protection est placé dans un état d'erreur de configuration lorsque la validation du groupe de protection échoue.

Solution : Dans l'interface utilisateur du navigateur, effectuez les opérations suivantes pour arrêter la réplication :

  1. Sous l'onglet Shares, sélectionnez le projet en cours de réplication.

  2. Cliquez sur l'onglet Replication et sélectionnez l'option Scheduled.

  3. Attendez que le statut passe à manual, puis cliquez sur le bouton Enable/Disable.

Envoi de plusieurs notifications par e-mail depuis le cluster global lorsque des clusters de zones sont utilisés (7098290)

Résumé du problème : Si Oracle Solaris Cluster Geographic Edition est configuré dans un cluster de zones, des e-mails de notification sont envoyés à la fois depuis le cluster de zones et depuis le cluster global en cas de perte de connexion à des clusters partenaires. Ces e-mails ne devraient être envoyés que depuis le cluster de zones.

Solution : Il s'agit d'un effet secondaire de la gestion des événements du cluster. Il ne porte pas à conséquence et les doublons d'e-mail peuvent être ignorés.

Installation

Impossible d'installer des agents Data Service sur une zone marquée solaris10 3.3 5/11 existante sans indiquer les options de patch (7197399)

Résumé du problème : Lors de l'installation d'agents dans une zone non globale marquée solaris10 à partir d'un DVD Oracle Solaris Cluster 3.3 ou 3.3 5/11, la commande clzoncecluster install-cluster échoue si vous n'indiquez pas les patchs prenant en charge les zones marquées solaris10.

Solution : Effectuez les opérations suivantes pour installer des agents à partir d'un DVD Oracle Solaris Cluster 3.3 ou 3.3 5/11 vers une zone marquée solaris10 :

  1. Réinitialisez le cluster de zones en mode hors ligne.

    # clzonecluster reboot -o zonecluster
  2. Exécutez la commande clzonecluster install-cluster, en indiquant les informations relatives au patch prenant en charge les zones marquées solaris10.

    # clzonecluster install-cluster -d dvd -p patchdir=patchdir[,patchlistfile=patchlistfile] \
    -n node[,…]] zonecluster
  3. Une fois l'installation terminée, réinitialisez le cluster de zones pour le mettre en ligne.

    # clzonecluster reboot zonecluster

clzonecluster ne signale pas d'erreur lorsque install est utilisé à la place de install-cluster pour les zones marquées solaris10 (7190439)

Résumé du problème : Lorsque la commande clzonecluster install est utilisée pour effectuer l'installation à partir d'un DVD Oracle Solaris Cluster, aucun message n'est imprimé, alors que rien n'est installé sur les noeuds.

Solution : Pour installer la version Oracle Solaris Cluster dans une zone marquée solaris10, n'utilisez pas la commande clzonecluster install, qui sert à installer l'image Oracle Solaris 10. Utilisez à sa place la commande clzonecluster install-cluster.

La création des ressources proxy d'instance ASM échoue lorsqu'un nom d'hôte contient des caractères majuscules (7190067)

Résumé du problème : L'utilisation de caractères majuscules dans le nom d'hôte d'un noeud de cluster entraîne l'échec de la création des ressources proxy d'instance ASM.

Solution : N'utilisez que des minuscules dans les noms d'hôte de noeud de cluster lorsque vous installez le logiciel Oracle Solaris Cluster.

L'assistant ne détecte pas le SID ASM (7190064)

Résumé du problème : Lorsque vous configurez la base de données HA pour Oracle ou HA pour Oracle RAC à l'aide de l'utilitaire clsetup, l'écran de l'identificateur du système Oracle ASM ne parvient pas à détecter ou configurer le SID Oracle ASM lorsqu'un nom d'hôte de noeud de cluster est configuré avec des caractères majuscules.

Solution : N'utilisez que des minuscules dans les noms d'hôte de noeud de cluster lorsque vous installez le logiciel Oracle Solaris Cluster.

La création des ressources proxy RAC échoue lorsque le nom d'hôte du noeud de cluster contient des caractères majuscules (7189565)

Résumé du problème : L'utilisation de caractères majuscules dans le nom d'hôte d'un noeud de cluster entraîne l'échec de la création des ressources proxy de base de données RAC.

Solution : N'utilisez que des minuscules dans les noms d'hôte de noeud de cluster lorsque vous installez le logiciel Oracle Solaris Cluster.

Détermination difficile des noms de services de données dans le cadre d'une installation de service de données non interactive de zones marquées solaris10 (7184714)

Résumé du problème : Il est difficile de savoir quels noms d'agents spécifier lorsque la commande clzonecluster install-cluster est utilisée pour installer des agents avec l'option -s.

Solution : Lorsque vous créez un cluster de zones marquées solaris10 à l'aide de la commande clzonecluster install-cluster -d dvd -s {all | software-component [,…]} options zone-cluster, vous pouvez indiquer les composants de cluster suivants avec l'option -s :

cacao ne peut pas communiquer sur les ordinateurs exécutant Trusted Extensions (7183625)

Résumé du problème : Si la fonctionnalité Trusted Extensions du logiciel Oracle Solaris est activée avant l'installation et la configuration du logicielOracle Solaris Cluster, les procédures de configuration d'Oracle Solaris Cluster ne sont pas en mesure de copier les clés de sécurité du conteneur d'agent commun d'un noeud vers les autres noeuds du cluster. Les copies des clés de sécurité doivent être identiques sur tous les noeuds du cluster pour que le conteneur puisse fonctionner correctement sur les noeuds du cluster.

Solution : Copiez manuellement les clés de sécurité d'un noeud du cluster global vers tous les autres noeuds du cluster global.

  1. Sur chaque noeud, arrêtez l'agent de fichier de sécurité.

    phys-schost# /usr/sbin/cacaoadm stop
  2. Accédez au répertoire /etc/cacao/instances/default/ sur un noeud.

    phys-schost-1# cd /etc/cacao/instances/default/
  3. Créez un fichier tar du répertoire /etc/cacao/instances/default/.

    phys-schost-1# tar cf /tmp/SECURITY.tar security
  4. Copiez le fichier /tmp/SECURITY.tar vers chacun des autres noeuds du cluster.

  5. Extrayez les fichiers de sécurité sur chaque noeud sur lequel vous avez copié le fichier /tmp/SECURITY.tar.

    Tous les fichiers de sécurité qui existent déjà dans le répertoire /etc/cacao/instances/default/ sont remplacés.

    phys-schost-2# cd /etc/cacao/instances/default/
    phys-schost-2# tar xf /tmp/SECURITY.tar
  6. Supprimez le fichier /tmp/SECURITY.tar de chaque noeud du cluster.


    Remarque - Vous devez supprimer chaque copie du fichier tar afin d'éviter tout risque de sécurité.


    phys-schost-1# rm /tmp/SECURITY.tar
    phys-schost-2# rm /tmp/SECURITY.tar
  7. Sur chaque noeud, redémarrez l'agent de fichier de sécurité.

    phys-schost# /usr/sbin/cacaoadm start

La commande clnode remove -F nodename ne parvient pas à supprimer le noeud nodename des groupes de périphériques de Solaris Volume Manager (6471834)

Résumé du problème : Quand un noeud est retiré du cluster à l'aide de la commande clnode remove -F nodename, une entrée périmée correspondant au noeud retiré peut subsister dans les groupes de périphériques de Solaris Volume Manager.

Solution : Supprimez le noeud du groupe de périphériques de Solaris Volume Manager à l'aide de la commande metaset avant d'exécuter la commande clnode remove -F nodename.

Si vous avez exécuté la commande clnode remove -F nodename avant de supprimer le noeud du groupe de périphériques Solaris Volume Manager, exécutez la commande metaset depuis un noeud de cluster actif pour supprimer l'entrée de noeud périmée du groupe de périphériques Solaris Volume Manager. Ensuite, exécutez la commande clnode clear -F nodename pour retirer toute trace du noeud de cluster.

La détection automatique doit détecter un seul chemin d'interconnexion pour chaque adaptateur (6299097)

Résumé du problème : S'il existe des chemins redondants dans le matériel réseau entre les adaptateurs d'interconnexion, il est possible que l'utilitaire scinstall ne parvienne pas à configurer le chemin d'interconnexion entre eux.

Solution : Si la détection automatique détecte plusieurs chemins d'interconnexion, spécifiez manuellement les paires d'adaptateurs pour chaque chemin.

Exécution

Le basculement de noms d'hôtes logiques est susceptible de générer des doublons d'adresses et d'entraîner une interruption de service (7201091)

Résumé du problème : Pour un cluster de zones en mode IP partagé (ip-type=shared), si la zone non globale sous-jacente d'un noeud de cluster de zones est arrêté à l'aide de la commande uadmin 1 0 ou de la commande uadmin 2 0, le basculement résultant des ressources LogicalHostname peut entraîner la configuration de doublons d'adresses IP sur un nouveau noeud principal. L'indicateur DUPLICATE est associé au doublon d'adresse pendant cinq minutes, et l'adresse ne peut pas être utilisée par l'application pendant cette période. Reportez-vous à la page de manuel ifconfig(1M) pour plus d'informations sur l'indicateur DUPLICATE.

Solution : Utilisez l'une des méthodes suivantes :

sc_delegated_restarter ne prend pas en compte les variables d'environnement définies dans le manifeste (7173159)

Résumé du problème : Les variables d'environnement spécifiées dans le manifeste du service ne sont pas reconnues lorsque le service est placé sous le contrôle d'une ressource de type SUNW.Proxy_SMF_failover.

Solution : Il n'y a aucune solution.

Impossible de réactiver l'interface de transport après sa désactivation à l'aide de ipadm disable-if -t interface (7141828)

Résumé du problème : Les chemins de transport du cluster passent en mode hors ligne en cas d'utilisation involontaire de la commande ipadm disable-if sur l'interface de transport privée.

Solution : Désactivez et réactivez le câble auquel l'interface désactivée est connectée.

  1. Déterminez le câble auquel l'interface est connectée.

    # /usr/cluster/bin/clinterconnect show | grep Cable
  2. Désactivez le câble de cette interface sur ce noeud.

    # /usr/cluster/bin/clinterconnect disable cable
  3. Réactivez le câble pour mettre en ligne le chemin.

    # /usr/cluster/bin/clinterconnect enable cable

Echec de basculement de nom d'hôte logique causé par getnetmaskbyaddr() (7075347)

Résumé du problème : Le basculement de nom d'hôte logique nécessite l'obtention du masque du réseau si nis est activé pour le service de noms netmasks. Cet appel à getnetmaskbyaddr() se bloque pendant un certain temps à cause de CR 7051511, et le blocage peut se prolonger suffisamment pour que le RGM (Resource Group Manager, gestionnaire de groupes de ressources) place la ressource dans l'état FAILED. Cela se produit même si les entrées de masque de réseau correctes se trouvent dans les fichiers locaux /etc/netmasks. Ce problème affecte uniquement les clusters à multiconnexion, tels que les noeuds de cluster qui résident sur des sous-réseaux multiples.

Solution : Configurez le fichier /etc/nsswitch.conf, qui est géré par un service SMF, afin de n'utiliser que files pour les recherches netmasks.

# /usr/sbin/svccfg -s svc:/system/name-service/switch setprop config/netmask = astring:\"files\"
# /usr/sbin/svcadm refresh svc:/system/name-service/switch

Mise à niveau

x86: scinstall -u update échoue parfois à mettre à niveau les packages du cluster sur un noeud x86 (7201491)

Résumé du problème : Il arrive que la mise à niveau des packages du cluster à l'aide de la commande scinstall -u update échoue sur un noeud de cluster x86. Les messages d'erreur suivants s'affichent :

root@phys-schost-1:~# scinstall -u update

Calling "scinstall -u preupgrade"

Renamed "/.alt.s11u1_24a-2/etc/cluster/ccr" to "/.alt.s11u1_24a-2/etc/cluster/ccr.upgrade".
Log file - /.alt.s11u1_24a-2/var/cluster/logs/install/scinstall.upgrade.log.12037

** Upgrading software **
Startup: Linked image publisher check ... Done
Startup: Refreshing catalog 'aie' ... Done
Startup: Refreshing catalog 'solaris' ... Done
Startup: Refreshing catalog 'ha-cluster' ... Done
Startup: Refreshing catalog 'firstboot' ... Done
Startup: Checking that pkg(5) is up to date ... Done
Planning: Solver setup ... Done
Planning: Running solver ... Done
Planning: Finding local manifests ... Done
Planning: Fetching manifests:  0/26  0% complete
Planning: Fetching manifests: 26/26  100% complete
Planning: Package planning ... Done
Planning: Merging actions ... Done
Planning: Checking for conflicting actions ... Done
Planning: Consolidating action changes ... Done
Planning: Evaluating mediators ... Done
Planning: Planning completed in 16.30 seconds
Packages to update: 26

Planning: Linked images: 0/1 done; 1 working: zone:OtherNetZC
pkg: update failed (linked image exception(s)):

A 'update' operation failed for child 'zone:OtherNetZC' with an unexpected
return value of 1 and generated the following output:
pkg: 3/4 catalogs successfully updated:
 
Framework stall:
URL: 'http://bea100.us.oracle.com:24936/versions/0/' 

Solution : Avant d'exécuter la commande scinstall -u update, exécutez pkg refresh --full.