JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Notes de version d'Oracle Solaris Cluster 3.3 5/11     Oracle Solaris Cluster (Français)
search filter icon
search icon

Informations document

Préface

Notes de version d'Oracle Solaris Cluster 3.3 5/11

Nouveautés du logiciel Oracle Solaris Cluster 3.3 5/11

Améliorations apportées à la commande cluster check en tant qu'outil de validation de cluster

Prise en charge de la séparation pour Sun ZFS Storage Appliance en tant que périphérique NAS

Prise en charge d'Oracle ACFS comme système de fichiers du cluster

Prise en charge par le cluster de zones des montages en loopback avec HAStoragePlus utilisant ZFS

Prise en charge par l'assistant de configuration d'Oracle 11g version 2 avec HA-Oracle et Oracle RAC

Prise en charge des clusters de zones sans adresse IP

Prise en charge de SWIFTAlliance Access 7.0 et SWIFTAlliance Gateway 7.0

Restrictions

Oracle ACFS en tant que système de fichiers d'un cluster

Abandon de la prise en charge de la fonction de cluster de Veritas Volume Manager

Commandes modifiées dans cette version

Modifications des noms de produits

Problèmes de compatibilité

Grave erreur de noeligud lors de l'appel de rename(2) pour renommer un répertoire Oracle ACFS d'après son répertoire parent (11828617)

Le noeligud ne parvient pas à démarrer Oracle Clusterware après une erreur grave (uadmin 5 1) (11828322)

Besoin d'assistance pour l'utilisation de l'appel système fcntl mis en cluster par Oracle ACFS (11814449)

Impossible de démarrer Oracle ACFS en présence d'Oracle ASM dans une zone non globale (11707611)

Le flux de travaux de partages de projet Oracle Solaris Cluster doit renvoyer tous les partages sous les projets L/E (7041969)

Le programme startsap de SAP ne parvient pas à démarrer l'instance d'application si startsrv n'est pas en cours d'exécution (7028069)

Problème d'utilisation de Sun ZFS Storage Appliance en tant que périphérique de quorum via Fibre Channel ou iSCSI (6966970)

Le cluster de zone ne s'initialise pas après une mise à niveau Live Upgrade sur une racine ZFS (6955669)

Interface graphique utilisateur Solaris Volume Manager

Informations d'accessibilité

Produits pris en charge

Services de données

Systèmes de fichiers

Oracle Solaris 10 sur SPARC

Oracle Solaris 10 sur x86

Mémoire requise

Système d'exploitation Oracle Solaris

Oracle VM Server for SPARC

Sun Management Center

Sun StorageTek Availability Suite

Gestionnaires de volumes

Oracle Solaris 10 sur SPARC

Oracle Solaris 10 sur x86

Localisation du produit

Problèmes et bogues connus

Administration

Le groupe de ressources ne bascule pas lors d'une défaillance d'interface publique si Failover_mode est défini sur SOFT (7038727)

Impossible d'enregistrer le type de ressource SUNW.scalable_acfs_proxy dans un cluster de zones (7023590)

Échec de SPARC T3-4 d'Oracle lors du redémarrage (6993321)

La suppression du dernier noeligud hébergeant un cluster de zones n'entraîne pas la suppression du cluster de zones de la configuration en cluster (6969605)

L'absence de /dev/rmt entraîne une utilisation incorrecte de la réservation lorsque la stratégie est pathcount (6920996)

Interruption du code de la propriété global_fencing si la valeur devient prefer3 (6879360)

La détection automatique ne fonctionne pas sur LDoms avec des E/S hybrides (6870171)

EMC SRDF et Hitachi TrueCopy rejettent la commutation lorsque l'état de groupe de périphériques répliqués entraîne l'échec de la commutation et du retour (6798901)

Échec de la configuration d'une ressource évolutive avec clsetup et la règle d'équilibrage de charge LB_STICKY_WILD (6773401)

La suppression de noeliguds de la configuration en cluster peut entraîner de graves erreurs de noeligud (6735924)

La commande scstat -i indique un échec de liaison RPC si le logiciel Solaris Security Toolkit est configuré sur les noeliguds du cluster (6727594)

Davantage de vérifications de validation sont nécessaires lors du regroupement de périphériques DID (6605101)

Exécution impossible de Solaris Cluster Manager dans un cluster à 16 noeliguds (6594485)

Services de données

Création de groupe de ressources après réinitialisation du cluster de zones mais avant que la reconfiguration du RGM conduise à un état incohérent dans le RGM (7041222)

Apache Tomcat ne démarre pas en raison de l'absence d'un script (7022690)

L'instance principale du serveur d'application Web SAP ne parvient pas à passer en ligne sur le même noeligud après l'interruption du dispatcheur (7018400)

La ressource HAStoragePlus configurée dans un groupe de ressources évolutives avec un système de fichiers de cluster reste indéfiniment à l'état Starting (Démarrage) (6960386)

La sonde de la passerelle effectue un ping pong si le listener de base de données n'est pas accessible (6927071)

Les applications évolutives ne sont pas isolées entre les clusters de zones (6911363)

Problème possible lors de l'exécution simultanée de la commande clnas add ou clnas remove sur plusieurs noeliguds (6791618)

La commande clresourcegroup add-node déclenche le passage d'une ressource HAStoragePlus à l'état Faulted (6547896)

Environnement de développement

GDS renvoie un état de sortie incorrect en méthode STOP pour les services non PMF (6831988)

Installation

Le programme d'installation supprime le package existant correspondant à la base de données JavaDB d'Ops Center Agent. (6956479)

Localisation

Le résultat de la vérification de la configuration système requise est incorrect (6495984)

Exécution

La commande cldevicegroup status affiche en permanence les jeux de disques Solaris Volume Manager multipropriétaires configurés sur la structure de vucmm comme étant "offline" (hors ligne) (6962196)

Échec de ssm_start en raison d'une défaillance d'un IPMP non associé (6938555)

Mise à niveau

Les zones avec le paramètre ip-type=exclusive ne peuvent plus héberger les ressources SUNW.LogicalHostname après une mise à niveau (6702621)

Patchs et niveaux des microprogrammes requis

Application d'un patch de noyau Oracle Solaris Cluster 3.3 5/11

Application du patch de noyau Oracle Solaris Cluster 3.3 5/11

Suppression d'un patch de noyau Oracle Solaris Cluster 3.3 5/11

Procédure de suppression d'un patch de noyau Oracle Solaris Cluster 3.3 5/11

Outils de gestion des patchs

Patch de prise en charge de cluster pour baie de disques Sun StorageTek 2530

My Oracle Support

Ensemble de documentation Oracle Solaris Cluster 3.3 5/11

Addendum de la documentation

Pages de manuel

clnasdevice(1CL)

clzonecluster(1CL)

SUNW.oracle_server(5)

SUNW.scalable_acfs_proxy(5)

A.  Annexe de la documentation

Problèmes de compatibilité

Cette section contient les informations suivantes sur les problèmes de compatibilité d'Oracle Solaris Cluster avec d'autres produits :

Consultez également les informations suivantes :

Grave erreur de nœud lors de l'appel de rename(2) pour renommer un répertoire Oracle ACFS d'après son répertoire parent (11828617)

Résumé du problème : ce problème survient en cas d'appel de la commande rename(2) afin de renommer un sous-répertoire d'un système de fichiers Oracle ACFS d'après son répertoire parent, celui-ci étant un sous-répertoire situé sous le point de montage du système de fichiers Oracle ACFS. Il peut s'agir, par exemple, d'un système de fichiers Oracle ACFS monté à l'emplacement /xxx, avec un répertoire nommé /xxx/dir1 et un répertoire enfant nommé /xxx/dir1/dir2. L'appel de rename(2) en utilisant /xxx/dir1/dir2 avec les arguments /xxx/dir1 génère une erreur.

Solution : aucune. Vous ne devez pas renommer un répertoire Oracle ACFS d'après le nom de son répertoire parent.

Le nœud ne parvient pas à démarrer Oracle Clusterware après une erreur grave (uadmin 5 1) (11828322)

Résumé du problème : ce problème se produit dans une configuration Oracle Solaris Cluster à deux nœuds qui exécute une instance unique d'Oracle Database sur Oracle ASM en cluster avec l'emplacement DB_HOME situé sur Oracle ACFS. À la suite d'une erreur grave sur l'un des nœuds, le nœud démarre correctement mais pas CRS.

# crsctl check crs
CRS-4638: Oracle High Availability Services is online 
CRS-4535: Cannot communicate with Cluster Ready Services 
CRS-4529: Cluster Synchronization Services is online 
CRS-4533: Event Manager is online 
# crsctl start crs
CRS-4640: Oracle High Availability Services is already active 
CRS-4000: Command Start failed, or completed with errors.

Solution : redémarrez le nœud à nouveau.

Besoin d'assistance pour l'utilisation de l'appel système fcntl mis en cluster par Oracle ACFS (11814449)

Résumé du problème : Oracle ACFS dans Oracle 11g version 2 Grid Infrastructure fournit un appel système fcntl local sur le nœud uniquement. Dans une configuration Oracle Solaris Cluster, les applications configurées comme étant évolutives risquent d'être actives dans plusieurs nœuds du cluster. Une application évolutive peut envoyer des demandes d'écriture au système de fichiers sous-jacent depuis plusieurs nœuds en même temps. Selon leur implémentation, les applications ayant une dépendance sur l'appel système fcntl() clusterisé ne peuvent pas être configurées en tant que ressources évolutives. Pour prendre en charge des applications évolutives sur Oracle ACFS dans une configuration Oracle Solaris Cluster, Oracle ACFS doit prendre en charge l'appel système fcntl clusterisé.

Solution : actuellement, il n'existe pas de solution. Vous ne devez pas configurer d'applications évolutives sur Oracle ACFS dans une configuration Oracle Solaris Cluster.

Impossible de démarrer Oracle ACFS en présence d'Oracle ASM dans une zone non globale (11707611)

Résumé du problème : ce problème se produit lorsqu'une configuration dotée d'Oracle 11 g version 2 Grid Infrastructure s'exécute dans la zone globale et qu'Oracle 10g version 2 ASM s'exécute dans une zone non globale. Un système de fichiers Oracle ACFS polyvalent est créé dans la zone globale, le chemin mountpath étant défini sous le chemin racine de la zone non globale. L'utilisateur admin Oracle ASM dans la zone globale est différent de l'utilisateur Oracle ASM dans la zone non globale. L'ID de l'utilisateur admin Oracle ASM dans la zone non globale n'existe pas dans la zone globale.

Après le redémarrage du nœud de cluster global, la tentative de démarrage du système de fichiers Oracle ACFS échoue sur des messages qui s'apparentent aux messages suivants :

phys-schost# /u01/app/11.2.0/grid/bin/srvctl start filesystem -d /dev/asm/dummy-27 -n phys-schost 
PRCR-1013 : Failed to start resource ora.dbhome.dummy.acfs 
PRCR-1064 : Failed to start resource ora.dbhome.dummy.acfs on node phys-schost 
CRS-5016: Process "/u01/app/11.2.0/grid/bin/acfssinglefsmount" spawned by agent "/u01/app/11.2.0/grid/bin/orarootagent.bin" for action "start" failed: details at "(:CLSN00010:)" in "/u01/app/11.2.0/grid/log/phys-schost/agent/crsd/orarootagent_root/orarootagent_ro ot.log" 
CRS-2674: Start of 'ora.dbhome.dummy.acfs' on 'phys-schost' failed 

Le fichier orarootagent_root.log contient des messages qui s'apparentent au message suivant :

2011-02-01 16:15:53.417: [ora.dbhome.dummy.acfs][8] {2:53487:190} [start] (:CLSN00010:)su: Unknown id: 303

L'ID utilisateur 303 identifié comme inconnu correspond à l'ID de l'utilisateur admin Oracle ASM dans la zone non globale.

Solution : utilisez le même ID utilisateur pour l'utilisateur admin Oracle ASM à la fois dans la zone globale et la zone non globale.

Le flux de travaux de partages de projet Oracle Solaris Cluster doit renvoyer tous les partages sous les projets L/E (7041969)

Résumé du problème : la configuration d'une ressource ScalMountPoint pour un système de fichiers Sun ZFS Appliance échoue si le système de fichiers n'est pas défini pour hériter de ses propriétés NFS à partir de son projet parent.

Vérifiez que Inherit from project est sélectionné pour le système de fichiers lorsque vous configurez la ressource ScalMountPoint. Pour vérifier ce paramètre, modifiez le système de fichiers dans l'interface graphique de ZFS Appliance et accédez à l'onglet des protocoles.

Une fois que vous avez configuré la ressource ScalMountPoint, vous pouvez éventuellement désélectionner Inherit from project pour désactiver la séparation.

Le programme startsap de SAP ne parvient pas à démarrer l'instance d'application si startsrv n'est pas en cours d'exécution (7028069)

Résumé du problème : dans SAP 7.11, le programme startsap ne parvient pas à démarrer l'instance d'application si le programme startsrv n'est pas en cours d'exécution.

Solution : utilisez les entrées suivantes dans le script de wrapper pour démarrer l'instance d'application, en y appliquant les informations de votre système, telles que le numéro d'instance, le SID, etc.

ps -e -o args|grep sapstartsrv|grep DVEB
if (( ${?} != 0 ))
then
         /usr/sap/FIT/DVEBMGS03/exe/sapstartsrv pf=/usr/sap/FIT/SYS/profile/FIT_DVEBMGS03_lzkosi2c -D
fi

Problème d'utilisation de Sun ZFS Storage Appliance en tant que périphérique de quorum via Fibre Channel ou iSCSI (6966970)

Résumé du problème : lorsque Sun ZFS Storage Appliance (anciennement Sun Storage 7000 Unified Storage Systems) d'Oracle est utilisé via Fibre Channel ou iSCSI en tant que périphérique de quorum avec la fonction de séparation activée, Oracle Solaris Cluster l'utilise en tant que périphérique de quorum SCSI. Dans une configuration de ce type, certaines actions SCSI demandées par le logiciel Oracle Solaris Cluster peuvent ne pas être traitées correctement. En outre, le délai par défaut de 25 secondes accordé à la reconfiguration du cluster pour l'achèvement des opérations de quorum n'est peut-être pas suffisant pour ce type de configuration du quorum.

Si des messages sur les nœuds du cluster s'affichent indiquant qu'un périphérique de quorum Sun ZFS Storage Appliance de ce type est inaccessible, ou si des messages de panne des nœuds du cluster s'affichent indiquant CMM: Unable to acquire the quorum device, il est possible que le périphérique de quorum ou son chemin d'accès pose problème.

Solution : vérifiez que le périphérique de quorum et son chemin d'accès fonctionnent correctement. Si le problème persiste, appliquez le microprogramme de Sun ZFS Storage Appliance Firmware version 2010Q3.3 pour résoudre le problème.

S'il existe une raison de ne pas installer ce microprogramme ou si vous recherchez simplement une solution provisoire, utilisez l'une des options suivantes :

Le cluster de zone ne s'initialise pas après une mise à niveau Live Upgrade sur une racine ZFS (6955669)

Pour un cluster global utilisant ZFS en tant que système de fichiers racine et doté de clusters de zone configurés, en cas d'utilisation de Live Upgrade pour la mise à niveau de Solaris 10 8/10, l'environnement d'initialisation mis à niveau ne s'initialise pas.

Contactez votre représentant du support technique Oracle pour savoir si un patch ou une solution de contournement est disponible.

Interface graphique utilisateur Solaris Volume Manager

Le module de stockage amélioré de Solaris Management Console n'est pas compatible avec le logiciel Oracle Solaris Cluster. Configurez votre logiciel Solaris Volume Manager à l’aide de l'interface de ligne de commande ou des utilitaires Oracle Solaris Cluster.