Ignorer les liens de navigation | |
Quitter l'aperu | |
Notes de version d'Oracle Solaris Cluster 4.0 Oracle Solaris Cluster 4.0 (Français) |
Notes de version d'Oracle Solaris Cluster 4.0
Prise en charge du programme d'installation automatisée
Nouveaux noms de packages Cluster
Système de fichiers racine par défaut d'Oracle Solaris ZFS
Prise en charge sélectionnée pour les zones non globales
HA pour Oracle avec réplication Oracle Data Guard
Ce qui n'est pas inclus dans le logiciel Oracle Solaris Cluster 4.0
Commandes modifiées dans cette version
Oracle Clusterware ne parvient pas à créer tous les SID pour la ressource ora.asm (12680224)
L'ajout de disque DID n'accepte pas de caractère générique pour *dsk (7081090)
Configuration requise du logiciel Oracle Solaris Cluster Geographic Edition
Système d'exploitation Oracle Solaris
Logiciel de gestion de volumes
x86 : La commande clzonecluster export échoue (7066586)
Cluster.CCR: libpnm system error: Failed to resolve pnm proxy pnm_server.2.zonename (6942090)
Erreur 'Unable to Determine Oracle CRS Version' après l'application du patch 145333-09 (7090390)
Les applications évolutives ne sont pas isolées entre les clusters de zones (6911363)
scinstall tente de créer un groupe IPMP ou une interface de secours (7095759)
Echec de basculement de nom d'hôte logique causé par getnetmaskbyaddr() (7075347)
ssm_start échoue en raison d'une défaillance d'un IPMP non associé (6938555)
Ensemble de documentation Oracle Solaris Cluster 4.0
Procédure HA for Zones insérée dans le manuel relatif aux services de données
Pages de manuel de la section 3HA
Les problèmes et bogues présentés ci-après affectent le fonctionnement de la version actuelle des logiciels Oracle Solaris Cluster et Oracle Solaris Cluster Geographic Edition 4.0. Les problèmes et les bogues sont regroupés dans les catégories suivantes :
Contactez les services de support d'Oracle pour savoir si un correctif de code existe.
Résumé du problème : La commande suivante peut échouer sur les machines x86.
# clzonecluster export zonename usage: export [-f output-file]
Solution : Utilisez la commande suivante à la place :
# zonecfg -z zone-cluster-name export
Résumé du problème : La commande chmod exécutée depuis une zone non globale peut échouer sur un système de fichiers de cluster. L'opération chmod réussit depuis une zone non globale sur un noeud où se trouve le PxFS principal mais échoue depuis une zone non globale sur un noeud où se trouve le PxFS secondaire. Par exemple :
# chmod 4755 /global/oracle/test-file
Solution : Effectuez l'une des opérations suivantes :
Effectuez l'opération sur un noeud du cluster global qui accède au système de fichiers de cluster.
Effectuez l'opération sur une zone non globale qui exécute le noeud principal PxFS qui a un montage loopback vers le système de fichiers de cluster.
Faites passer le noeud principal PxFS sur le noeud du cluster global où la zone non globale qui connaît l'erreur s'exécute.
Résumé du problème : Quand vous utilisez un fichier de configuration XML pour créer des ressources, si des ressources ont des propriétés d'extension non réglables, c.-à-d. que l'attribut de propriété de ressource Tunable est défini sur None, la commande ne parvient pas à créer la ressource.
Solution : Modifiez le fichier de configuration XML en supprimant les propriétés d'extension non réglables de la ressource.
Résumé du problème : En cas d'utilisation de zones non globales marquées solaris10 avec une IP exclusive sur un hôte Oracle Solaris Cluster, la commande clnode status avec l'option -m ou -v donne une erreur dans le fichier /var/adm/messages similaire à la suivante :
Cluster.CCR: [ID 544775 daemon.error] libpnm system error: Failed to resolve pnm proxy zonename
Cette erreur n'affecte pas l'exécution de la zone non globale ou du cluster. La zone marquée solaris10 n'a pas besoin d'être sous le contrôle du cluster pour que les erreurs se produisent.
Le problème ne se produit que sur les zones marquées solaris10 avec IP exclusive. L'erreur ne se produit pas si les conditions suivantes sont remplies :
La zone est marquée solaris et utilise une IP exclusive.
La zone est marquée solaris10 et utilise une IP partagée.
La zone est marquée solaris et utilise une IP partagée.
Solution : Il n'y a aucune solution. Les messages d'erreur n'affectent pas l'exécution de la zone non globale ou du cluster global.
Résumé du problème : Lorsqu'un nouveau périphérique de stockage est ajouté à un cluster et configuré avec trois chemins DID ou plus, le noeud sur lequel la commande cldevice populate est exécutée peut ne pas parvenir à enregistrer sa clé PGR sur le périphérique.
Solution : Exécutez la commande cldevice populate sur tous les noeuds du cluster ou exécutez la commande cldevice populate à deux reprises à partir du même noeud.
Récapitulatif public : la désactivation de la séparation pour un périphérique partagé avec une charge d'E/S active peut entraîner un grave conflit de réservation pour un des noeuds connectés au périphérique.
Solution : Arrêter progressivement les E/S vers un périphérique avec de désactiver la séparation pour ce dernier.
Résumé du problème : Le passage d'une configuration en cluster à trois noeuds à un cluster à deux noeuds peut entraîner la perte complète du cluster si l'un des noeuds restants quitte le cluster ou est supprimé de la configuration en cluster.
Solution : Immédiatement après la suppression d'un noeud d'une configuration en cluster à trois noeuds, exécutez la commande cldevice clear sur l'un des noeuds restants du cluster.
Résumé du problème : Si une ressource NFS est créée pour un point de montage ZFS et que le préfixe de point de montage correspond à une entrée de système de fichiers UFS du fichier vfstab, l'HA pour le service de données NFS ne passe pas la validation si le système de fichiers UFS n'est pas monté sur le noeud.
Solution : Montez le système de fichiers UFS sur le noeud où la ressource HAStoragePlus concernant le système de fichiers ZFS est en ligne. Cette opération n'est nécessaire que si la ressource est créée ou mise à jour. Dans les autres cas, il n'est pas nécessaire de monter le système de fichiers UFS avant de mettre le groupe de ressources hors ligne ou en ligne, et pour que le groupe puisse être passé sur n'importe quel noeud à volonté.
Résumé du problème : Le code d'Oracle Solaris Cluster est incapable de déterminer la version d'Oracle CRS quand l'utilisateur su utilise le shell csh.
Solution : Un utilisateur qui possède ${CRS_HOME}/bin/srvctl ne doit pas utiliser le shell csh.
Résumé du problème : La valeur STOP_TIMEOUT dans le service de données HA pour Oracle VM Server for SPARC est trop basse pour terminer la migration des domaines invités.
Solution : Augmentez la valeur STOP_TIMEOUT au moins jusqu'à 900 ou l'intervalle de temps de migration multiplié par 4.
Résumé du problème : Si des applications évolutives configurées pour être exécutées dans différents clusters de zones se lient à INADDR_ANY et utilisent le même port, alors les services évolutifs ne peuvent pas opérer de distinctions entre les instances de ces applications exécutées dans différents clusters de zones.
Solution : Ne configurez pas les applications évolutives pour qu'elles se lient à INADDR_ANY en tant qu'adresse IP locale, ou pour qu'elles se lient à un port qui n'est pas en conflit avec une autre application évolutive.
Résumé du problème : Lors de l'ajout ou de la suppression d'un périphérique NAS, l'exécution simultanée de la commande clnas add ou clnas remove sur plusieurs noeuds peut corrompre le fichier de configuration NAS.
Solution : Exécutez la commande clnas add ou clnas remove sur un noeud à la fois.
Résumé du problème : La commande cluster check utilise les services de conteneur d'agent commun (CAC) pour la communication entre les noeuds et nécessite l'exécution de CAC. Si un administrateur effectue la vérification S6979686 quand le noeud n'est pas membre d'un cluster et que les services CAC ne sont pas en cours d'exécution, le message suivant s'affiche :
Insufficient Data: 1; /usr/sbin/cacaoadm status: Unable to check SMF status
Solution : Cette erreur peut être ignorée. Sélectionnez l'option ignore the error and continue pour continuer lors de l'installation du logiciel Oracle Solaris Cluster.
Résumé du problème : Si vous avez désinstallé, puis réinstallé et configuré Oracle Solaris Cluster sur le même environnement d'initialisation, le cluster démarre mais certains services de cluster peuvent manquer. Exécutez la commande svcs -x et vérifiez les services débutant avec svc:/system/cluster.
# svcs -x svc:/system/cluster/rgm-starter:default (Resource Group Manager Daemon) State: offline since Fri Oct 28 18:30:36 2011 Reason: Dependency svc:/system/cluster/rpc-fed:default is absent. See: http://sun.com/msg/SMF-8000-E2 Impact: 5 dependent services are not running. (Use -v for list.)
Solution : Utilisez la commande suivante pour ajouter le service absent. L'exemple suivant illustre l'ajout du service svc:/system/cluster/rpc-fed:default :
# service=svc:/system/cluster/rpc-fed:default # svccfg -s ${service%:*} add ${service##*:} # svccfg -s ${service} addpg general framework # svccfg -s ${service} delcust -M # svcadm enable ${service}
Ensuite, relancez la commande svcs -x pour vérifier les autres services de cluster manquants.
Résumé du problème : Si les noeuds de cluster possèdent des groupes IPMP créés avec une configuration active-en veille avant que la configuration d'Oracle Solaris Cluster ne soit effectuée, la commande scinstall échoue avec les messages d'erreur suivants pendant la configuration d'Oracle Solaris Cluster :
Configuring IP multipathing groups ...failed scinstall: Failed to retrieve the broadcast value for this adapter
Si l'adaptateur de veille n'a pas de valeur de diffusion, la commande scinstall imprime le message d'erreur ci-dessus et ne continue pas la création de groupe. La commande scinstall continue cependant sans autre problème.
Solution : Aucune solution n'est nécessaire et le message peut être ignoré sans risque.
Résumé du problème : Quand un noeud est retiré du cluster à l'aide de la commande clnode remove -F nodename, une entrée périmée pour le noeud supprimé peut rester dans les groupes de périphériques de Solaris Volume Manager.
Solution : Supprimez le noeud du groupe de périphériques de Solaris Volume Manager à l'aide de la commande metaset avant d'exécuter la commande clnode remove -F nodename.
Si vous avez exécuté la commande clnode remove -F nodename avant de supprimer le noeud du groupe de périphériques Solaris Volume Manager, exécutez la commande metaset depuis un noeud de cluster actif pour supprimer l'entrée de noeud périmée du groupe de périphériques Solaris Volume Manager. Ensuite, exécutez la commande clnode clear -F nodename pour supprimer toutes les traces du noeud du cluster.
Résumé du problème : S'il existe des chemins redondants dans le matériel réseau entre les adaptateurs d'interconnexion, il est possible que l'utilitaire scinstall ne parvienne pas à configurer le chemin d'interconnexion entre eux.
Solution : Si la détection automatique détecte plusieurs chemins d'interconnexion, spécifiez manuellement les pairs d'adaptateurs pour chaque chemin.
Résumé du problème : Le basculement de nom d'hôte logique nécessite l'obtention du masque réseau du réseau si nis est activé pour le service de noms netmasks. Cet appel à getnetmaskbyaddr() se bloque pendant un moment à cause de CR 7051511, ce qui peut durer assez longtemps pour que le RGM (Resource Group Manager, gestionnaire de groupes de ressources) mette la ressource en état FAILED. Cela se produit même si les entrées de masque réseau correctes se trouvent dans les fichiers locaux /etc/netmasks. Ce problème affecte uniquement les clusters à multiconnexion, tels que les noeuds de cluster qui résident sur des sous-réseaux multiples.
Solution : Configurez le fichier /etc/nsswitch.conf, qui est géré par un service SMF, afin de n'utiliser que files pour les recherches netmasks.
# /usr/sbin/svccfg -s svc:/system/name-service/switch setprop config/netmask = astring:\"files\" # /usr/sbin/svcadm refresh svc:/system/name-service/switch
Résumé du problème : Une ressource évolutive qui dépend d'une ressource SUNW.SharedAddress n'est pas mise en ligne en raison d'une défaillance d'un groupe IPMP situé sur un sous-réseau qui n'est pas utilisé par la ressource d'adresse partagée. Des messages semblables à celui-ci s'affichent dans le syslog des noeuds du cluster :
Mar 22 12:37:51 schost1 SC SUNW.gds:5,Traffic_voip373,Scal_service_voip373,SSM_START: ID 639855 daemon.error IPMP group sc_ipmp1 has status DOWN. Assuming this node cannot respond to client requests.
Solution : Réparez le groupe IPMP défaillant et redémarrez la ressource évolutive défaillante.