Ignorer les liens de navigation | |
Quitter l'aperu | |
Notes de version d'Oracle Solaris Cluster 4.1 Oracle Solaris Cluster 4.1 (Français) |
1. Notes de version d'Oracle Solaris Cluster 4.1
Prise en charge du système d'exploitation Oracle Solaris 11.2
Nouveaux assistants clsetup pour la création d'un cluster de zones
Prise en charge des clusters de zones marquées solaris10
Prise en charge des clusters de zones en mode IP exclusif
Prise en charge de Trusted Extensions avec les clusters de zones
Possibilité de définir des dépendances de ressources distinctes pour chaque noeud
Prise en charge de la reconfiguration dynamique (DR) de la cage du noyau
Amélioration de la structure de sécurité des clusters
Prise en charge du protocole SDP via l'interconnexion de cluster
Détection des défaillances et réponse plus rapides par les services de surveillance du stockage
Nouvel assistant clsetup pour la configuration du service de données Oracle WebLogic Server
Prise en charge de services de données MySQL et MySQL Cluster
Nouveau service de données pour PostgreSQL
Nouveau service de données pour Samba
Nouveau service de données pour SAP liveCache
Nouveau service de données pour SAP MaxDB
Nouveau service de données pour Siebel 8.2.2
Nouveau service de données pour Sybase ASE
Nouveau service de données pour Oracle Traffic Director
Nouveau service de données pour Oracle TimesTen
Nouveau manuel pour le service de données SAP NetWeaver
Nouveau service de données pour Oracle External Proxy
Nouveau service de données pour Oracle PeopleSoft Enterprise Process Scheduler
Nouveau service de données pour Oracle Web Tier
Prise en charge du service de données Oracle E-Business 12.1.1
Prise en charge de la réplication de données Sun ZFS Storage Appliance avec Geographic Edition
Prise en charge d'EMC Symmetrix Remote Data Facility avec Geographic Edition
Prise en charge de la réplication MySQL avec Geographic Edition
Nouvelles pages de manuel pour les commandes de maintenance avancées ccradm et dcs_config
Prise en charge sélectionnée pour les zones non globales
Ce qui n'est pas inclus dans le logiciel Oracle Solaris Cluster 4.1
Ensembles de disques de Solaris Volume Manager dans un cluster de zones
Commandes modifiées dans cette version
Un hôte logique ne bascule pas avec une panne du réseau public (16979921)
Oracle ASM avec volumes logiques mis en miroir Solaris Volume Manager
Dumps noyau osysmond dans zone marquée S10 pendant root.sh de GI et démarrage de CRS (14456069)
Oracle Clusterware ne parvient pas à créer tous les SID pour la ressource ora.asm (12680224)
L'installation de la SRU Oracle Solaris 11 risque d'échouer en raison d'une commande pkg obsolète
L'ajout d'un adaptateur principal à un groupe IPMP retire la configuration DNS (7198718)
Configuration logicielle requise pour Geographic Edition
Système d'exploitation Oracle Solaris
Logiciel de gestion de volumes
Impossible de définir la taille de la MTU des trames géantes pour l'interface clprivnet (16618736)
Le système de fichiers de cluster ne prend pas en charge les attributs étendus (7167470)
Configuration active-de secours non pris en charge pour HA pour TimesTen (16861602)
Fuite de descripteur de fichier SUNW.Proxy_SMF_failover sc_delegated_restarter (7189211)
Les applications évolutives ne sont pas isolées entre les clusters de zones (6911363)
La commande clresource show -p renvoie des informations erronées (7200960)
Un noeud de cluster n'a pas accès aux projets Sun ZFS Storage Appliance ou aux LUN iSCSI (15924240)
L'état DR est en permanence signalé comme unknown sur un partenaire (7189050)
L'assistant ne détecte pas le SID ASM (7190064)
cacao ne peut pas communiquer sur les ordinateurs exécutant Trusted Extensions (7183625)
Echec de basculement de nom d'hôte logique causé par getnetmaskbyaddr() (7075347)
Ensemble de documentation Oracle Solaris Cluster 4.1
Problèmes affectant la documentation
Guide HA pour Oracle Solaris Zones
Guide Geographic Edition relatif à la réplication de données pour Oracle Solaris Availability Suite
Les problèmes et bogues présentés ci-après affectent le fonctionnement de la version actuelle des logiciels Oracle Solaris Cluster et Oracle Solaris Cluster Geographic Edition 4.1. Les problèmes et les bogues sont regroupés dans les catégories suivantes :
Pour savoir si un correctif a été mis à disposition, contactez votre correspondant du support Oracle.
Résumé du problème : Une réinitialisation ou un arrêt d'un noeud d'un cluster de zones en mode IP exclusif marqué solaris10 peut provoquer une erreur grave des noeuds de la zone globale. Ceci survient lorsque les noeuds du cluster de zones utilisent le réseau de base comme interface réseau (publique) principale et que cette interface réseau de base comporte des cartes VNIC configurées pour d'autres noeuds de cluster de zones du même cluster.
Solution : Créez et utilisez les cartes VNIC comme interfaces réseau principales pour les clusters de zones en mode IP exclusif.
Résumé du problème : Si vous exécutez la commande /usr/sbin/shutdown dans une zone d'un cluster de zones en mode IP exclusif pour arrêter ou réinitialiser la zone, toutes les autres zones du cluster de zones qui sont actives et en cours d'exécution peuvent être arrêtées par le logiciel de cluster.
Solution : N'utilisez pas la commande /usr/sbin/shutdown à l'intérieur d'une zone d'un cluster de zones en mode IP exclusif pour arrêter ou réinitialiser la zone. Utilisez plutôt la commande /usr/cluster/bin/clzonecluster dans la zone globale pour arrêter ou réinitialiser une zone d'un cluster de zones en mode IP exclusif. La commande /usr/cluster/bin/clzonecluster est la commande appropriée pour arrêter ou réinitialiser une zone dans un cluster de zones, quel que soit son type. Si vous rencontrez ce problème, utilisez la commande /usr/cluster/bin/clzonecluster pour initialiser les zones qui ont été arrêtées par le logiciel de cluster.
Résumé du problème : Lorsque vous effectuez une identification du système dans une zone d'un cluster de zones en mode IP exclusif marqué solaris10, le service SMF svc_private_network:default entre en maintenance dans cette zone. Lors des réinitialisations ultérieures de la zone, le problème ne survient pas.
Solution : Après avoir effectué la configuration de l'identification du système dans une zone d'un cluster de zones en mode IP exclusif marqué solaris10, réinitialisez cette zone.
Résumé du problème : La MTU de l'interface clprivnet du cluster est toujours définie sur la valeur par défaut de 1500 et ne correspond pas à la MTU des interconnexions privées sous-jacentes. Vous ne pouvez donc pas paramétrer la taille de la MTU des trames géantes pour l'interface clprivnet.
Solution : Il n'y a pas de solution de contournement.
Résumé du problème : Lorsque la base de données HA-Oracle est configurée pour utiliser le listener SCAN Grid Infrastructure, la ressource de base de données HA-Oracle ne bascule en cas d'échec du réseau public.
Solution : Lorsque vous utilisez le listener SCAN Oracle Grid Infrastructure avec une base de données HA-Oracle, ajoutez un hôte logique possédant une adresse IP appartenant au même sous-réseau que le listener SCAN au groupe de ressources de base de données HA-Oracle.
Résumé du problème : Les assistants de configuration de services de données existants ne prennent pas en charge la configuration des ressources et des groupes de ressources HAStoragePlus évolutives. En outre, les assistants ne sont pas non plus en mesure de détecter les ressources et groupes de ressources HAStoragePlus évolutives existants.
Par exemple, lors de la configuration de HA pour WebLogic Server en mode multi-instance, l'assistant affiche Aucune ressource de stockage hautement disponible n'est sélectionnable., même s'il existe des ressources et groupes de ressources HAStoragePlus évolutives sur le cluster.
Solution : Configurez de la manière suivante les services de données qui utilisent des ressources et des groupes de ressources HAStoragePlus évolutives :
Ayez recours aux commandes clresourcegroup et clresource pour configurer les ressources et groupes de ressources HAStoragePlus en mode évolutif.
Utilisez l'assistant clsetup pour configurer les services de données comme s'ils se trouvaient sur des systèmes de fichiers locaux, c'est-à-dire comme si aucune ressource de stockage n'était impliquée.
Servez-vous de l'interface de ligne de commande (CLI) pour créer une dépendance de redémarrage hors ligne aux ressources HAStoragePlus évolutives que vous avez configurées au cours de l'étape 1, et une affinité positive forte sur les groupes de ressources HAStoragePlus évolutives.
Résumé du problème : Lorsqu'un noeud d'un cluster de zones est retiré d'un cluster de zones en mode IP exclusif, les noeuds de cluster global qui hébergent le cluster de zones en mode IP exclusif subissent une erreur grave. Ce problème ne se pose que lorsque cluster global comporte des interconnexions InfiniBand.
Solution : Arrêtez le cluster de zones en mode IP exclusif avant de retirer le noeud du cluster de zones.
Résumé du problème : Si des liaisons réseau non valides ou inexistantes sont définies en tant que ressources privnet dans une configuration de cluster de zones en mode IP exclusif (ip-type=exclusive), le noeud du cluster de zones ne parvient pas à rejoindre le cluster de zones malgré la présence de ressources privnet valides.
Solution : Retirez la ressource privnet non valide de la configuration du cluster de zones, puis réinitialisez le noeud du cluster de zones.
# clzonecluster reboot -n nodename zone-cluster
Sinon, vous pouvez aussi créer la liaison réseau manquante correspondant à la ressource privnet non valide, puis réinitialiser la zone. Reportez-vous à la page de manuel dladm(1M) pour plus d'informations.
Résumé du problème : Dans un cluster de zones en mode IP exclusif, si vous configurez une ressource net dans l'étendue du noeud en spécifiant la propriété defrouter, mais sans spécifier la propriété allowed-address, le logiciel Oracle Solaris s'arrête et signale une erreur. Pour un cluster de zones en mode IP exclusif, Oracle Solaris exige que la propriété allowed-address soit toujours spécifiée si la propriété defrouter est indiquée. Si ce n'est pas le cas, le logiciel Oracle Solaris renvoie le message d'erreur approprié, mais le CCR (Cluster Configuration Repository, référentiel de configuration du cluster) a déjà été complété avec les informations relatives au cluster de zones. A la suite de cette action, le cluster de zones présente l'état Unknown.
Solution : Renseignez la propriété allowed-address du cluster de zones.
Résumé du problème : Les sous-commandes clzonecluster boot, reboot et halt échouent même si l'un des noeuds du cluster est introuvable dans le cluster. Un message d'erreur semblable au suivant s'affiche :
root@pnode1:~# clzc reboot zoneclustername clzc: (C827595) "pnode2" is not in cluster mode. clzc: (C493113) No such object. root@pnode1:~# clzc halt zoneclustername clzc: (C827595) "pnode2" is not in cluster mode. clzc: (C493113) No such object.
Les sous-commandes clzonecluster boot, reboot et halt devraient ignorer les noeuds en mode non cluster au lieu d'échouer.
Solution : Utilisez l'option suivante avec les commandes clzonecluster boot ou clzonecluster halt pour spécifier la liste de noeuds concernés :
-n nodename[,…]
L'option -n permet d'appliquer les sous-commandes au sous-ensemble de noeuds spécifié. Si, par exemple, dans un cluster à trois noeuds comprenant les noeuds pnode1, pnode2 et pnode3, le noeud pnode2 est arrêté, vous pouvez exécuter les sous-commandes clzonecluster suivantes pour exclure le noeud arrêté :
clzonecluster halt -n pnode1,pnode3 zoneclustername clzonecluster boot -n pnode1,pnode3 zoneclustername clzonecluster reboot -n pnode1,pnode3 zoneclustername
Résumé du problème : Les attributs étendus ne sont pas actuellement pris en charge par les systèmes de fichiers de cluster. Lorsqu'un utilisateur monte un système de fichiers de cluster avec l'option de montage xattr, le comportement est le suivant :
Les opérations liées aux attributs étendus effectuées sur des fichiers isolés échouent sur une erreur ENOENT.
Les opérations liées aux attributs étendus effectuées sur un répertoire se déroulent comme des opérations normales appliquées au répertoire lui-même.
Un programme accédant aux attributs étendus des fichiers dans un système de fichiers de cluster risque donc de ne pas produire les résultats escomptés.
Solution : Montez un système de fichiers de cluster à l'aide de l'option de montage noxattr.
Résumé du problème : Il peut arriver que la commande chmod ne parvienne pas à modifier les autorisations setuid sur un fichier dans un système de fichiers de cluster. Si la commande chmod est exécutée dans une zone non globale non située sur le serveur principal PxFS, la commande chmod ne parvient pas à modifier l'autorisation setuid.
Par exemple :
# chmod 4755 /global/oracle/test-file chmod: WARNING: can't change /global/oracle/test-file
Solution : Effectuez l'une des opérations suivantes :
Effectuez l'opération sur un noeud du cluster global qui accède au système de fichiers de cluster.
Effectuez l'opération sur n'importe quelle zone non globale s'exécutant sur le noeud principal PxFS qui présente un montage loopback vers le système de fichiers de cluster.
Faites passer le noeud principal PxFS sur le noeud du cluster global où la zone non globale qui connaît l'erreur s'exécute.
Résumé du problème : Quand vous utilisez un fichier de configuration XML pour créer des ressources, si des ressources ont des propriétés d'extension non réglables, c.-à-d. que l'attribut de propriété de ressource Tunable est défini sur None, la commande ne parvient pas à créer la ressource.
Solution : Modifiez le fichier de configuration XML en supprimant les propriétés d'extension non réglables de la ressource.
Résumé du problème : La désactivation de la séparation pour un périphérique partagé avec une charge d'E/S active peut entraîner un grave conflit de réservation pour un des noeuds connectés au périphérique.
Solution : Arrêtez progressivement les E/S vers un périphérique avant de désactiver la séparation pour ce dernier.
Résumé du problème : Si un groupe de périphériques EMC SRDF dont la paire de répliques est scindée tente de commuter le groupe de périphériques vers un autre noeud, la commutation échoue. En outre, le groupe de périphériques ne peut pas retourner en ligne sur le noeud d'origine tant que la paire de répliques n'a pas retrouvé son état couplé.
Solution : Assurez-vous que les répliques SRDF ne sont pas scindées avant d'essayer de commuter le groupe de périphériques globaux Oracle Solaris Cluster vers un autre noeud du cluster.
Résumé du problème : Le passage d'une configuration en cluster à trois noeuds à un cluster à deux noeuds peut entraîner la perte complète du cluster si l'un des noeuds restants quitte le cluster ou est supprimé de la configuration en cluster.
Solution : Immédiatement après la suppression d'un noeud d'une configuration en cluster à trois noeuds, exécutez la commande cldevice clear sur l'un des noeuds restants du cluster.
Résumé du problème : La commande cldevice ne parvient pas à vérifier si les périphériques SRDF répliqués faisant l'objet d'une combinaison en un périphérique DID unique sont effectivement des répliques l'un de l'autre et s'ils appartiennent au groupe de réplication spécifié.
Solution : Soyez attentif lorsque vous combinez des périphériques à utiliser avec SRDF. Assurez-vous que les instances de périphériques DID spécifiées sont des répliques l'une de l'autre et qu'elles appartiennent au groupe de réplication indiqué.
Résumé du problème : La configuration active-de secours de la base de données TimesTen requiert l'intégration des méthodes d' Oracle Solaris Cluster dans l'utilitaire ttCWadmin de TimesTen. Cette intégration n'a pas encore été effectuée, bien qu'elle soit décrite dans le manuel Oracle Solaris Cluster Data Service for Oracle TimesTen Guide. Par conséquent, n'utilisez pas la configuration active-de secours de TimesTen avec Oracle Solaris Cluster HA for TimesTen et n'utilisez pas l'utilitaire ttCWadmin de TimesTen sur Oracle Solaris Cluster.
Le service de données TimesTen d'Oracle Solaris Cluster est fourni avec un ensemble de types de ressources. La plupart de ces types de ressources sont destinés à être utilisés avec des configurations actives-de secours TimesTen ; vous devez uniquement utiliser le type de ressource ORCL.TimesTen_server pour vos configurations TimesTen hautement disponibles avec Oracle Solaris Cluster.
Solution : N'utilisez pas la configuration active-de secours de la base de données TimesTen.
Résumé du problème : La mise à jour de n'importe quelle propriété d'une ressource SUNW.ScalMountPoint configurée avec un système de fichiers NAS pour un cluster de zones est susceptible d'échouer avec un message d'erreur similaire au suivant :
clrs: hostname:zone-cluster : Bad address
Solution : Supprimez la ressource à l'aide de la commande clresource, puis recréez-la avec toutes les propriétés requises.
Résumé du problème : Considérez par exemple un système de fichiers de cluster comportant l'entrée suivante dans le fichier /etc/vfstab du cluster global et dont la valeur de montage à l'initialisation (mount-at-boot) est no :
# cat /etc/vfstab /dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs-data ufs 5 no logging,global
Lorsqu'une ressource HAStoragePlus est créée dans un groupe de ressources évolutives d'un cluster de zones et que la valeur de montage à l'initialisation du système de fichiers de cluster est définie sur no, les données du système de fichiers de cluster peuvent ne pas être visibles par le bais du point de montage du noeud du cluster de zones.
Solution : Procédez comme suit pour éviter ce problème :
A partir d'un noeud de cluster global, placez hors ligne le groupe de ressources évolutives du cluster de zones qui contient HAStoragePlus.
# clresourcegroup offline -Z zonecluster scalable-resource-group
Dans le fichier /etc/vfstab sur chaque noeud du cluster global, modifiez la valeur de montage à l'initialisation du système de fichiers de cluster et définissez-la sur yes.
/dev/md/datadg/dsk/d0 /dev/md/datadg/rdsk/d0 /global/fs-data ufs 5 yes logging,global
A partir d'un noeud du cluster global, replacez en ligne le groupe de ressources évolutives du cluster de zones qui contient HAStoragePlus.
# clresourcegroup online -Z zonecluster scalable-resource-group
Résumé du problème : L'assistant de configuration Oracle RAC échoue avec le message ERREUR : Oracle ASM n'est pas installé ou l'installation n'est pas valide !.
Solution : Assurez-vous que l'entrée “ASM” apparaît en première position dans le fichier /var/opt/oracle/oratab, comme indiqué ci-dessous :
root@phys-schost-1:~# more /var/opt/oracle/oratab … +ASM1:/u01/app/11.2.0/grid:N # line added by Agent MOON:/oracle/ora_base/home:N
Résumé du problème : La configuration de la ressource HA-WebLogic Server à l'aide de l'assistant clsetup à l'intérieur d'une zone/d'un cluster de zones échoue si WebLogic Server est installé sur un point de montage NFS.
Ce problème ne survient pas si le stockage NFS est situé dans le cluster global ou si un type de stockage autre que NFS est utilisé.
Condition pour que ce problème se produise : le stockage NFS est monté alors que WebLogic Server est installé à l'intérieur des zones et WebLogic Server est configuré à l'aide de l'assistant clsetup.
Message d'erreur : ERREUR : le chemin spécifié n'est pas un emplacement de domaine WebLogic Server valide. Un message similaire s'affichera pour l'emplacement du répertoire personnel, le script de démarrage et le fichier d'environnement
Enfin, la détection des serveurs d'administration/gérés/RPS échoue.
Not able to find the WebLogic Administration Server Instance. Make sure the provided WebLogic Domain Location (<DOMAIN_LOCATION_PROVIDED>) is the valid one. No Reverse Proxy Server Instances found. You can't proceed further. No Managed Server instances found. You can't proceed further.
Solution : Configurez manuellement la ressource WebLogic Server.
Résumé du problème : Ce problème affecte les données GDS (Generic Data Service) qui remplissent toutes les conditions suivantes :
Aucun script de sonde personnalisé n'est configuré
La propriété network_aware est définie sur FALSE.
La propriété Retry_count est définie sur -1.
Si les ressources ne parviennent pas à démarrer, GDS continuera à les redémarrer indéfiniment. Il existe un problème entraînant l'affichage de l'erreur Restart operation failed: cluster is reconfiguring. Dans ce cas, la ressource GDS n'est pas automatiquement redémarrée.
Solution : Désactivez et réactivez manuellement les ressources GDS concernées.
Résumé du problème : Chaque fois que la ressource proxy SMF SUNW.Proxy_SMF_failover est désactivée ou activée, le nombre de descripteurs de fichier augmente de 1. Des commutations répétées peuvent accroître le nombre de descripteurs de fichier jusqu'au seuil maximal de 256, auquel cas la ressource ne peut plus être mise en ligne.
Solution : Désactivez et réactivez le service SMF sc_restarter.
# svcadm disable sc_restarter # svcadm enable sc_restarter
Résumé du problème : Si vous définissez la propriété Debug_level sur 1, le démarrage d'une ressource d'instance de dialogue n'est possible sur aucun noeud.
Solution : Utilisez Debug_level=2, qui est un sur-ensemble de Debug_level=1.
Résumé du problème : Si des applications évolutives configurées pour être exécutées dans différents clusters de zones se lient à INADDR_ANY et utilisent le même port, alors les services évolutifs ne peuvent pas opérer de distinctions entre les instances de ces applications exécutées dans différents clusters de zones.
Solution : Ne configurez pas les applications évolutives de manière à ce qu'elles se lient à INADDR_ANY en tant qu'adresse IP locale, ni de manière à ce qu'elles se lient à un port qui n'est pas en conflit avec une autre application évolutive.
Résumé du problème : Lors de l'ajout ou de la suppression d'un périphérique NAS, l'exécution simultanée de la commande clnas add ou de la commande clnas remove sur plusieurs noeuds peut endommager le fichier de configuration NAS.
Solution : Exécutez la commande clnas add ou clnas remove sur un noeud à la fois.
Résumé du problème : Dans une zone non globale marquée solaris10, la commande clresource show -p property renvoie des informations erronées.
Solution : Ce bogue est dû à la présence de fichiers binaires antérieurs à Oracle Solaris Cluster 4.1 dans la zone marquée solaris10. Exécutez la commande suivante à partir de la zone globale pour obtenir les informations correctes sur les ressources des zones non globales locales :
# clresource show -p property -Z zone-name
Résumé du problème : Si un noeud quitte le cluster lorsque le site est le site principal, les projets ou les LUN iSCSI sont séparés. Toutefois, après une commutation ou une reprise, lorsque le noeud rejoint le nouveau site secondaire, la séparation des projets ou des LUN iSCSI n'est pas annulée et les applications se trouvant sur le noeud concerné ne peuvent pas accéder au système de fichiers après son passage sur le site principal.
Solution : Réinitialisez le noeud.
Résumé du problème : L'état DR est signalé comme unknown bien que les ressources DR signalent correctement l'état de réplication.
Solution : Exécutez la commande geopg validate protection-group pour forcer une notification d'état de groupe de ressources sur le groupe de protection.
Résumé du problème : La reprise d'un groupe de protection échoue si l'opération umount du système de fichiers échoue sur le site principal.
Solution : Effectuez les opérations suivantes :
Exécutez la commande fuser -cu file-system.
Recherchez des ID de processus ne correspondant pas à des applications, tels que cd, sur le site principal.
Terminez ces processus avant d'effectuer une opération de reprise.
Résumé du problème : Si vous arrêtez la réplication par le biais de l'interface utilisateur du navigateur, le groupe de protection est placé dans un état d'erreur de configuration lorsque la validation du groupe de protection échoue.
Solution : Dans l'interface utilisateur du navigateur, effectuez les opérations suivantes pour arrêter la réplication :
Sous l'onglet Shares, sélectionnez le projet en cours de réplication.
Cliquez sur l'onglet Replication et sélectionnez l'option Scheduled.
Attendez que le statut passe à manual, puis cliquez sur le bouton Enable/Disable.
Résumé du problème : Si Oracle Solaris Cluster Geographic Edition est configuré dans un cluster de zones, des e-mails de notification sont envoyés à la fois depuis le cluster de zones et depuis le cluster global en cas de perte de connexion à des clusters partenaires. Ces e-mails ne devraient être envoyés que depuis le cluster de zones.
Solution : Il s'agit d'un effet secondaire de la gestion des événements du cluster. Il ne porte pas à conséquence et les doublons d'e-mail peuvent être ignorés.
Résumé du problème : Lors de l'installation d'agents dans une zone non globale marquée solaris10 à partir d'un DVD Oracle Solaris Cluster 3.3 ou 3.3 5/11, la commande clzoncecluster install-cluster échoue si vous n'indiquez pas les patchs prenant en charge les zones marquées solaris10.
Solution : Effectuez les opérations suivantes pour installer des agents à partir d'un DVD Oracle Solaris Cluster 3.3 ou 3.3 5/11 vers une zone marquée solaris10 :
Réinitialisez le cluster de zones en mode hors ligne.
# clzonecluster reboot -o zonecluster
Exécutez la commande clzonecluster install-cluster, en indiquant les informations relatives au patch prenant en charge les zones marquées solaris10.
# clzonecluster install-cluster -d dvd -p patchdir=patchdir[,patchlistfile=patchlistfile] \ -n node[,…]] zonecluster
Une fois l'installation terminée, réinitialisez le cluster de zones pour le mettre en ligne.
# clzonecluster reboot zonecluster
Résumé du problème : Lorsque la commande clzonecluster install est utilisée pour effectuer l'installation à partir d'un DVD Oracle Solaris Cluster, aucun message n'est imprimé, alors que rien n'est installé sur les noeuds.
Solution : Pour installer la version Oracle Solaris Cluster dans une zone marquée solaris10, n'utilisez pas la commande clzonecluster install, qui sert à installer l'image Oracle Solaris 10. Utilisez à sa place la commande clzonecluster install-cluster.
Résumé du problème : L'utilisation de caractères majuscules dans le nom d'hôte d'un noeud de cluster entraîne l'échec de la création des ressources proxy d'instance ASM.
Solution : N'utilisez que des minuscules dans les noms d'hôte de noeud de cluster lorsque vous installez le logiciel Oracle Solaris Cluster.
Résumé du problème : Lorsque vous configurez la base de données HA pour Oracle ou HA pour Oracle RAC à l'aide de l'utilitaire clsetup, l'écran de l'identificateur du système Oracle ASM ne parvient pas à détecter ou configurer le SID Oracle ASM lorsqu'un nom d'hôte de noeud de cluster est configuré avec des caractères majuscules.
Solution : N'utilisez que des minuscules dans les noms d'hôte de noeud de cluster lorsque vous installez le logiciel Oracle Solaris Cluster.
Résumé du problème : L'utilisation de caractères majuscules dans le nom d'hôte d'un noeud de cluster entraîne l'échec de la création des ressources proxy de base de données RAC.
Solution : N'utilisez que des minuscules dans les noms d'hôte de noeud de cluster lorsque vous installez le logiciel Oracle Solaris Cluster.
Résumé du problème : Il est difficile de savoir quels noms d'agents spécifier lorsque la commande clzonecluster install-cluster est utilisée pour installer des agents avec l'option -s.
Solution : Lorsque vous créez un cluster de zones marquées solaris10 à l'aide de la commande clzonecluster install-cluster -d dvd -s {all | software-component [,…]} options zone-cluster, vous pouvez indiquer les composants de cluster suivants avec l'option -s :
geo
9ias
apache
container
dhcp
dns
ebs (SPARC uniquement)
hadb
ids
iws
kerberos
livecache
mqi
mqs
mys
n1ge
n1sps
nfs
obiee (SPARC uniquement)
oep
ohs
opmn
oracle
pax (SPARC uniquement)
PeopleSoft (SPARC uniquement)
PostgreSQL
rac
s1as
s1mq
saa (SPARC uniquement)
sag (SPARC uniquement)
sap
sapdb
sapnetw
sapwebas
siebel (SPARC uniquement)
smb
sybase
TimesTen
tomcat
wls
xvm (SPARC uniquement)
Résumé du problème : Si la fonctionnalité Trusted Extensions du logiciel Oracle Solaris est activée avant l'installation et la configuration du logicielOracle Solaris Cluster, les procédures de configuration d'Oracle Solaris Cluster ne sont pas en mesure de copier les clés de sécurité du conteneur d'agent commun d'un noeud vers les autres noeuds du cluster. Les copies des clés de sécurité doivent être identiques sur tous les noeuds du cluster pour que le conteneur puisse fonctionner correctement sur les noeuds du cluster.
Solution : Copiez manuellement les clés de sécurité d'un noeud du cluster global vers tous les autres noeuds du cluster global.
Sur chaque noeud, arrêtez l'agent de fichier de sécurité.
phys-schost# /usr/sbin/cacaoadm stop
Accédez au répertoire /etc/cacao/instances/default/ sur un noeud.
phys-schost-1# cd /etc/cacao/instances/default/
Créez un fichier tar du répertoire /etc/cacao/instances/default/.
phys-schost-1# tar cf /tmp/SECURITY.tar security
Copiez le fichier /tmp/SECURITY.tar vers chacun des autres noeuds du cluster.
Extrayez les fichiers de sécurité sur chaque noeud sur lequel vous avez copié le fichier /tmp/SECURITY.tar.
Tous les fichiers de sécurité qui existent déjà dans le répertoire /etc/cacao/instances/default/ sont remplacés.
phys-schost-2# cd /etc/cacao/instances/default/ phys-schost-2# tar xf /tmp/SECURITY.tar
Supprimez le fichier /tmp/SECURITY.tar de chaque noeud du cluster.
Remarque - Vous devez supprimer chaque copie du fichier tar afin d'éviter tout risque de sécurité.
phys-schost-1# rm /tmp/SECURITY.tar phys-schost-2# rm /tmp/SECURITY.tar
Sur chaque noeud, redémarrez l'agent de fichier de sécurité.
phys-schost# /usr/sbin/cacaoadm start
Résumé du problème : Quand un noeud est retiré du cluster à l'aide de la commande clnode remove -F nodename, une entrée périmée correspondant au noeud retiré peut subsister dans les groupes de périphériques de Solaris Volume Manager.
Solution : Supprimez le noeud du groupe de périphériques de Solaris Volume Manager à l'aide de la commande metaset avant d'exécuter la commande clnode remove -F nodename.
Si vous avez exécuté la commande clnode remove -F nodename avant de supprimer le noeud du groupe de périphériques Solaris Volume Manager, exécutez la commande metaset depuis un noeud de cluster actif pour supprimer l'entrée de noeud périmée du groupe de périphériques Solaris Volume Manager. Ensuite, exécutez la commande clnode clear -F nodename pour retirer toute trace du noeud de cluster.
Résumé du problème : S'il existe des chemins redondants dans le matériel réseau entre les adaptateurs d'interconnexion, il est possible que l'utilitaire scinstall ne parvienne pas à configurer le chemin d'interconnexion entre eux.
Solution : Si la détection automatique détecte plusieurs chemins d'interconnexion, spécifiez manuellement les paires d'adaptateurs pour chaque chemin.
Résumé du problème : Pour un cluster de zones en mode IP partagé (ip-type=shared), si la zone non globale sous-jacente d'un noeud de cluster de zones est arrêté à l'aide de la commande uadmin 1 0 ou de la commande uadmin 2 0, le basculement résultant des ressources LogicalHostname peut entraîner la configuration de doublons d'adresses IP sur un nouveau noeud principal. L'indicateur DUPLICATE est associé au doublon d'adresse pendant cinq minutes, et l'adresse ne peut pas être utilisée par l'application pendant cette période. Reportez-vous à la page de manuel ifconfig(1M) pour plus d'informations sur l'indicateur DUPLICATE.
Solution : Utilisez l'une des méthodes suivantes :
Arrêtez correctement le noeud du cluster de zones depuis la zone globale.
# /usr/cluster/bin/clzonecluster -n nodename halt zone-cluster
Avant d'effectuer toute opération d'arrêt depuis le noeud du cluster de zones, évacuez tous les groupes de ressources du noeud du cluster de zones.
# /usr/cluster/bin/clresourcegroup evacuate -n zone-cluster-node +
Résumé du problème : Les variables d'environnement spécifiées dans le manifeste du service ne sont pas reconnues lorsque le service est placé sous le contrôle d'une ressource de type SUNW.Proxy_SMF_failover.
Solution : Il n'y a aucune solution.
Résumé du problème : Les chemins de transport du cluster passent en mode hors ligne en cas d'utilisation involontaire de la commande ipadm disable-if sur l'interface de transport privée.
Solution : Désactivez et réactivez le câble auquel l'interface désactivée est connectée.
Déterminez le câble auquel l'interface est connectée.
# /usr/cluster/bin/clinterconnect show | grep Cable
Désactivez le câble de cette interface sur ce noeud.
# /usr/cluster/bin/clinterconnect disable cable
Réactivez le câble pour mettre en ligne le chemin.
# /usr/cluster/bin/clinterconnect enable cable
Résumé du problème : Le basculement de nom d'hôte logique nécessite l'obtention du masque du réseau si nis est activé pour le service de noms netmasks. Cet appel à getnetmaskbyaddr() se bloque pendant un certain temps à cause de CR 7051511, et le blocage peut se prolonger suffisamment pour que le RGM (Resource Group Manager, gestionnaire de groupes de ressources) place la ressource dans l'état FAILED. Cela se produit même si les entrées de masque de réseau correctes se trouvent dans les fichiers locaux /etc/netmasks. Ce problème affecte uniquement les clusters à multiconnexion, tels que les noeuds de cluster qui résident sur des sous-réseaux multiples.
Solution : Configurez le fichier /etc/nsswitch.conf, qui est géré par un service SMF, afin de n'utiliser que files pour les recherches netmasks.
# /usr/sbin/svccfg -s svc:/system/name-service/switch setprop config/netmask = astring:\"files\" # /usr/sbin/svcadm refresh svc:/system/name-service/switch
Résumé du problème : Il arrive que la mise à niveau des packages du cluster à l'aide de la commande scinstall -u update échoue sur un noeud de cluster x86. Les messages d'erreur suivants s'affichent :
root@phys-schost-1:~# scinstall -u update Calling "scinstall -u preupgrade" Renamed "/.alt.s11u1_24a-2/etc/cluster/ccr" to "/.alt.s11u1_24a-2/etc/cluster/ccr.upgrade". Log file - /.alt.s11u1_24a-2/var/cluster/logs/install/scinstall.upgrade.log.12037 ** Upgrading software ** Startup: Linked image publisher check ... Done Startup: Refreshing catalog 'aie' ... Done Startup: Refreshing catalog 'solaris' ... Done Startup: Refreshing catalog 'ha-cluster' ... Done Startup: Refreshing catalog 'firstboot' ... Done Startup: Checking that pkg(5) is up to date ... Done Planning: Solver setup ... Done Planning: Running solver ... Done Planning: Finding local manifests ... Done Planning: Fetching manifests: 0/26 0% complete Planning: Fetching manifests: 26/26 100% complete Planning: Package planning ... Done Planning: Merging actions ... Done Planning: Checking for conflicting actions ... Done Planning: Consolidating action changes ... Done Planning: Evaluating mediators ... Done Planning: Planning completed in 16.30 seconds Packages to update: 26 Planning: Linked images: 0/1 done; 1 working: zone:OtherNetZC pkg: update failed (linked image exception(s)): A 'update' operation failed for child 'zone:OtherNetZC' with an unexpected return value of 1 and generated the following output: pkg: 3/4 catalogs successfully updated: Framework stall: URL: 'http://bea100.us.oracle.com:24936/versions/0/'
Solution : Avant d'exécuter la commande scinstall -u update, exécutez pkg refresh --full.