Ignorer les liens de navigation | |
Quitter l'aperu | |
Notes de version d'Oracle Solaris Cluster 3.3 5/11 Oracle Solaris Cluster (Français) |
Notes de version d'Oracle Solaris Cluster 3.3 5/11
Nouveautés du logiciel Oracle Solaris Cluster 3.3 5/11
Améliorations apportées à la commande cluster check en tant qu'outil de validation de cluster
Prise en charge de la séparation pour Sun ZFS Storage Appliance en tant que périphérique NAS
Prise en charge d'Oracle ACFS comme système de fichiers du cluster
Prise en charge par le cluster de zones des montages en loopback avec HAStoragePlus utilisant ZFS
Prise en charge par l'assistant de configuration d'Oracle 11g version 2 avec HA-Oracle et Oracle RAC
Prise en charge des clusters de zones sans adresse IP
Prise en charge de SWIFTAlliance Access 7.0 et SWIFTAlliance Gateway 7.0
Oracle ACFS en tant que système de fichiers d'un cluster
Abandon de la prise en charge de la fonction de cluster de Veritas Volume Manager
Commandes modifiées dans cette version
Modifications des noms de produits
Le nud ne parvient pas à démarrer Oracle Clusterware après une erreur grave (uadmin 5 1) (11828322)
Impossible de démarrer Oracle ACFS en présence d'Oracle ASM dans une zone non globale (11707611)
Système d'exploitation Oracle Solaris
Sun StorageTek Availability Suite
Échec de SPARC T3-4 d'Oracle lors du redémarrage (6993321)
Interruption du code de la propriété global_fencing si la valeur devient prefer3 (6879360)
La détection automatique ne fonctionne pas sur LDoms avec des E/S hybrides (6870171)
Exécution impossible de Solaris Cluster Manager dans un cluster à 16 nuds (6594485)
Apache Tomcat ne démarre pas en raison de l'absence d'un script (7022690)
Les applications évolutives ne sont pas isolées entre les clusters de zones (6911363)
Environnement de développement
GDS renvoie un état de sortie incorrect en méthode STOP pour les services non PMF (6831988)
Le résultat de la vérification de la configuration système requise est incorrect (6495984)
Échec de ssm_start en raison d'une défaillance d'un IPMP non associé (6938555)
Patchs et niveaux des microprogrammes requis
Application d'un patch de noyau Oracle Solaris Cluster 3.3 5/11
Application du patch de noyau Oracle Solaris Cluster 3.3 5/11
Suppression d'un patch de noyau Oracle Solaris Cluster 3.3 5/11
Procédure de suppression d'un patch de noyau Oracle Solaris Cluster 3.3 5/11
Patch de prise en charge de cluster pour baie de disques Sun StorageTek 2530
Cette section contient les informations suivantes sur les problèmes de compatibilité d'Oracle Solaris Cluster avec d'autres produits :
Le nud ne parvient pas à démarrer Oracle Clusterware après une erreur grave (uadmin 5 1) (11828322)
Impossible de démarrer Oracle ACFS en présence d'Oracle ASM dans une zone non globale (11707611)
Consultez également les informations suivantes :
Les autres problèmes de compatibilité de la structure Oracle Solaris Cluster sont documentés dans le Chapitre 1, Planification de la configuration de Oracle Solaris Cluster du Guide d’installation du logiciel Oracle Solaris Cluster.
Les autres problèmes de mise à niveau d'Oracle Solaris Cluster sont documentés dans la section Upgrade Requirements and Software Support Guidelines du Oracle Solaris Cluster Upgrade Guide.
Pour obtenir des informations sur tout autre problème connu ou toute restriction, reportez-vous à la section Problèmes et bogues connus.
Résumé du problème : ce problème survient en cas d'appel de la commande rename(2) afin de renommer un sous-répertoire d'un système de fichiers Oracle ACFS d'après son répertoire parent, celui-ci étant un sous-répertoire situé sous le point de montage du système de fichiers Oracle ACFS. Il peut s'agir, par exemple, d'un système de fichiers Oracle ACFS monté à l'emplacement /xxx, avec un répertoire nommé /xxx/dir1 et un répertoire enfant nommé /xxx/dir1/dir2. L'appel de rename(2) en utilisant /xxx/dir1/dir2 avec les arguments /xxx/dir1 génère une erreur.
Solution : aucune. Vous ne devez pas renommer un répertoire Oracle ACFS d'après le nom de son répertoire parent.
Résumé du problème : ce problème se produit dans une configuration Oracle Solaris Cluster à deux nœuds qui exécute une instance unique d'Oracle Database sur Oracle ASM en cluster avec l'emplacement DB_HOME situé sur Oracle ACFS. À la suite d'une erreur grave sur l'un des nœuds, le nœud démarre correctement mais pas CRS.
# crsctl check crs CRS-4638: Oracle High Availability Services is online CRS-4535: Cannot communicate with Cluster Ready Services CRS-4529: Cluster Synchronization Services is online CRS-4533: Event Manager is online # crsctl start crs CRS-4640: Oracle High Availability Services is already active CRS-4000: Command Start failed, or completed with errors.
Solution : redémarrez le nœud à nouveau.
Résumé du problème : Oracle ACFS dans Oracle 11g version 2 Grid Infrastructure fournit un appel système fcntl local sur le nœud uniquement. Dans une configuration Oracle Solaris Cluster, les applications configurées comme étant évolutives risquent d'être actives dans plusieurs nœuds du cluster. Une application évolutive peut envoyer des demandes d'écriture au système de fichiers sous-jacent depuis plusieurs nœuds en même temps. Selon leur implémentation, les applications ayant une dépendance sur l'appel système fcntl() clusterisé ne peuvent pas être configurées en tant que ressources évolutives. Pour prendre en charge des applications évolutives sur Oracle ACFS dans une configuration Oracle Solaris Cluster, Oracle ACFS doit prendre en charge l'appel système fcntl clusterisé.
Solution : actuellement, il n'existe pas de solution. Vous ne devez pas configurer d'applications évolutives sur Oracle ACFS dans une configuration Oracle Solaris Cluster.
Résumé du problème : ce problème se produit lorsqu'une configuration dotée d'Oracle 11 g version 2 Grid Infrastructure s'exécute dans la zone globale et qu'Oracle 10g version 2 ASM s'exécute dans une zone non globale. Un système de fichiers Oracle ACFS polyvalent est créé dans la zone globale, le chemin mountpath étant défini sous le chemin racine de la zone non globale. L'utilisateur admin Oracle ASM dans la zone globale est différent de l'utilisateur Oracle ASM dans la zone non globale. L'ID de l'utilisateur admin Oracle ASM dans la zone non globale n'existe pas dans la zone globale.
Après le redémarrage du nœud de cluster global, la tentative de démarrage du système de fichiers Oracle ACFS échoue sur des messages qui s'apparentent aux messages suivants :
phys-schost# /u01/app/11.2.0/grid/bin/srvctl start filesystem -d /dev/asm/dummy-27 -n phys-schost PRCR-1013 : Failed to start resource ora.dbhome.dummy.acfs PRCR-1064 : Failed to start resource ora.dbhome.dummy.acfs on node phys-schost CRS-5016: Process "/u01/app/11.2.0/grid/bin/acfssinglefsmount" spawned by agent "/u01/app/11.2.0/grid/bin/orarootagent.bin" for action "start" failed: details at "(:CLSN00010:)" in "/u01/app/11.2.0/grid/log/phys-schost/agent/crsd/orarootagent_root/orarootagent_ro ot.log" CRS-2674: Start of 'ora.dbhome.dummy.acfs' on 'phys-schost' failed
Le fichier orarootagent_root.log contient des messages qui s'apparentent au message suivant :
2011-02-01 16:15:53.417: [ora.dbhome.dummy.acfs][8] {2:53487:190} [start] (:CLSN00010:)su: Unknown id: 303
L'ID utilisateur 303 identifié comme inconnu correspond à l'ID de l'utilisateur admin Oracle ASM dans la zone non globale.
Solution : utilisez le même ID utilisateur pour l'utilisateur admin Oracle ASM à la fois dans la zone globale et la zone non globale.
Résumé du problème : la configuration d'une ressource ScalMountPoint pour un système de fichiers Sun ZFS Appliance échoue si le système de fichiers n'est pas défini pour hériter de ses propriétés NFS à partir de son projet parent.
Vérifiez que Inherit from project est sélectionné pour le système de fichiers lorsque vous configurez la ressource ScalMountPoint. Pour vérifier ce paramètre, modifiez le système de fichiers dans l'interface graphique de ZFS Appliance et accédez à l'onglet des protocoles.
Une fois que vous avez configuré la ressource ScalMountPoint, vous pouvez éventuellement désélectionner Inherit from project pour désactiver la séparation.
Résumé du problème : dans SAP 7.11, le programme startsap ne parvient pas à démarrer l'instance d'application si le programme startsrv n'est pas en cours d'exécution.
Solution : utilisez les entrées suivantes dans le script de wrapper pour démarrer l'instance d'application, en y appliquant les informations de votre système, telles que le numéro d'instance, le SID, etc.
ps -e -o args|grep sapstartsrv|grep DVEB if (( ${?} != 0 )) then /usr/sap/FIT/DVEBMGS03/exe/sapstartsrv pf=/usr/sap/FIT/SYS/profile/FIT_DVEBMGS03_lzkosi2c -D fi
Résumé du problème : lorsque Sun ZFS Storage Appliance (anciennement Sun Storage 7000 Unified Storage Systems) d'Oracle est utilisé via Fibre Channel ou iSCSI en tant que périphérique de quorum avec la fonction de séparation activée, Oracle Solaris Cluster l'utilise en tant que périphérique de quorum SCSI. Dans une configuration de ce type, certaines actions SCSI demandées par le logiciel Oracle Solaris Cluster peuvent ne pas être traitées correctement. En outre, le délai par défaut de 25 secondes accordé à la reconfiguration du cluster pour l'achèvement des opérations de quorum n'est peut-être pas suffisant pour ce type de configuration du quorum.
Si des messages sur les nœuds du cluster s'affichent indiquant qu'un périphérique de quorum Sun ZFS Storage Appliance de ce type est inaccessible, ou si des messages de panne des nœuds du cluster s'affichent indiquant CMM: Unable to acquire the quorum device, il est possible que le périphérique de quorum ou son chemin d'accès pose problème.
Solution : vérifiez que le périphérique de quorum et son chemin d'accès fonctionnent correctement. Si le problème persiste, appliquez le microprogramme de Sun ZFS Storage Appliance Firmware version 2010Q3.3 pour résoudre le problème.
S'il existe une raison de ne pas installer ce microprogramme ou si vous recherchez simplement une solution provisoire, utilisez l'une des options suivantes :
Utilisez un autre périphérique de quorum.
Supprimez le périphérique de quorum de la configuration, désactivez la fonction de séparation pour le périphérique et configurez à nouveau le périphérique comme un périphérique de quorum. Le périphérique utilisera le quorum logiciel.
Remarque - Un périphérique de quorum logiciel ne garantit pas le même niveau de protection que la séparation SCSI. Évitez de configurer un disque de données en tant que périphérique de quorum logiciel.
Attribuez une valeur plus élevée au délai d'attente du quorum, comme indiqué dans la procédure suivante.
Remarque - Pour Oracle Real Application Clusters (Oracle RAC), ne modifiez pas le délai d'attente par défaut du quorum fixé à 25 secondes. Dans certains scénarios split-brain, un délai d'attente supérieur pourrait entraîner l'échec du basculement d'Oracle RAC VIP en raison du dépassement du délai d'attente par la ressource VIP. Si le périphérique de quorum utilisé ne respecte pas le délai d'attente par défaut de 25 secondes, utilisez un autre périphérique de quorum.
Connectez-vous en tant que superutilisateur.
Sur chaque nœud du cluster, modifiez le fichier /etc/system en tant que superutilisateur pour définir une valeur de délai d'attente plus élevée.
L'exemple suivant montre comment fixer le délai d'attente à 700 secondes.
phys-schost# vi /etc/system ... set cl_haci:qd_acquisition_timer=700
À partir d'un nœud, fermez le cluster.
phys-schost-1# cluster shutdown -g0 -y
Réinitialisez de nouveau chaque nœud dans le cluster.
Les modifications apportées au fichier /etc/system sont initialisées après le redémarrage.
Pour un cluster global utilisant ZFS en tant que système de fichiers racine et doté de clusters de zone configurés, en cas d'utilisation de Live Upgrade pour la mise à niveau de Solaris 10 8/10, l'environnement d'initialisation mis à niveau ne s'initialise pas.
Contactez votre représentant du support technique Oracle pour savoir si un patch ou une solution de contournement est disponible.
Le module de stockage amélioré de Solaris Management Console n'est pas compatible avec le logiciel Oracle Solaris Cluster. Configurez votre logiciel Solaris Volume Manager à l’aide de l'interface de ligne de commande ou des utilitaires Oracle Solaris Cluster.