Résumé du problème : lors de l'utilisation de ZFS Storage Appliance, pendant un test de coupure de courant, après la mise hors tension de tous les noeuds de cluster puis leur mise sous tension, la base de données risque de ne pas repasser en ligne et l'ensemble de l'application risque d'échouer. Lors du déroulement d'un cycle d'alimentation, l'application risque de ne pas être disponible jusqu'à ce que vous retiriez manuellement les verrous NFS de ZFS Storage Appliance.
Solution : pour ZFS Storage Appliance (systèmes de fichiers NFS), depuis la GUI de ZFS Storage Appliance, accédez à maintenance, sélectionnez workflows, puis cliquez sur Clear Locks (avec le nom d'hôte et l'adresse IP).
Résumé du problème : ce problème peut se produire sur un système configuré avec une ressource SUNW.HAStoragePlus (HASP) gérant un pool de stockage ZFS.
Lorsque les opérations zfs send et zfs recv sont exécutées avec un instantané d'un autre système sur un sous-volume ZFS distinct sur le même zpool qui est géré par HASP, les ressources HASP risquent d'échouer dans Oracle Solaris Cluster 4.3 exécuté sur Oracle Solaris 11.2 ou Oracle Solaris 11.3.
Solution : avant de démarrer la réplication de données du système de fichiers géré de façon active sous la ressource Oracle Solaris Cluster, effectuez l'une des opérations suivantes :
Exécutez la commande suivante pour désactiver la ressource HASP :
# clresource disable hasp-resource-name
Exécutez la commande suivante pour désactiver la surveillance de la ressource HASP :
# clresource unmonitor hasp-resource-name
Une fois la réplication de données terminée, mettez la ressource HASP dans un état surveillé et en ligne.
Notez que même avec la solution préconisée, si un basculement de la ressource HASP se produit lors de zfs receive, la réplication de l'instantané n'aboutira pas. Vous devez reprendre manuellement la réplication sur le noeud vers lequel la ressource HASP bascule.
Résumé du problème : les assistants de configuration de services de données existants ne prennent pas en charge la configuration des ressources et des groupes de ressources HAStoragePlus évolutives. En outre, les assistants ne sont pas non plus en mesure de détecter les ressources et groupes de ressources HAStoragePlus évolutives existants.
Par exemple, lors de la configuration de HA pour WebLogic Server en mode multi-instance, l'assistant affiche Aucune ressource de stockage hautement disponible n'est sélectionnable, même s'il existe des ressources HAStoragePlus évolutives et des groupes de ressources sur le cluster.
Solution : configurez les services de données utilisant des ressources HAStoragePlus évolutives et des groupes de ressources comme suit :
Ayez recours aux commandes clresourcegroup et clresource pour configurer les ressources et groupes de ressources HAStoragePlus en mode évolutif.
Utilisez l'assistant clsetup pour configurer les services de données comme s'ils se trouvaient sur des systèmes de fichiers locaux, c'est-à-dire comme si aucune ressource de stockage n'était impliquée.
Utilisez l'interface de ligne de commande (CLI) pour créer une dépendance de redémarrage hors ligne aux ressources HAStoragePlus évolutives que vous avez configurées au cours de l'étape 1 et une affinité positive forte sur les groupes de ressources HAStoragePlus évolutives.
Résumé du problème : si des applications évolutives configurées pour être exécutées dans différents clusters de zones se lient à INADDR_ANY et utilisent le même port, alors les services évolutifs ne peuvent pas opérer de distinctions entre les instances de ces applications exécutées dans différents clusters de zones.
Solution : ne configurez pas les applications évolutives de manière à ce qu'elles se lient à INADDR_ANY en tant qu'adresse IP locale, ou bien liez-les à un port qui n'est pas en conflit avec une autre application évolutive.
Résumé du problème : quand vous réinitialisez ou que vous arrêtez un noeud de cluster alors que la ressource Oracle Solaris Cluster HA for NFS est en ligne, si un client NFS avait un fichier ou un répertoire ouvert avec une opération d'écriture en cours, il est possible que le client NFS renvoie une erreur de descripteur de fichier NFS obsolète.
Solution : avant de réinitialiser ou d'arrêter le noeud de cluster où la ressource Oracle Solaris Cluster HA for NFS est en ligne, procédez au basculement du groupe de ressources vers un autre noeud de cluster cible.
# clrg switch -n target_host nfs-rg
où target_host est le noeud de cluster cible pour le basculement du groupe de ressources nfs-rg.
Résumé du problème : le démarrage d'Oracle Grid peut se bloquer indéfiniment lors de l'utilisation d'Oracle Solaris 11.3 et Oracle Grid 12.1.0.1.0.
Solution : vous pouvez utiliser Oracle Grid 12.1.0.2.0 ou Oracle Solaris 11.2 pour éviter ce problème. Pour savoir si un correctif ou une solution de contournement est disponible, contactez votre représentant du support Oracle.
Résumé du problème : lors de l'utilisation d'Oracle Solaris Cluster HA for Oracle avec des périphériques du système de fichiers Solaris Volume Manager (SVM) ou UFS dans un environnement de cluster x64, une altération du journal d'Oracle Database peut se produire.
Solution : pour éviter une corruption des données lors de l'utilisation de systèmes de fichiers basés sur SVM ou UFS avec HA for Oracle Database, placez les binaires Oracle et les données Oracle sur des systèmes de fichiers distincts. Dans les systèmes de fichiers de données Oracle, définissez forcedirectio dans /etc/vfstab pour éviter ce bogue. Vous devez utiliser forcedirectio uniquement pour le système de fichiers de données Oracle, ce qui nécessite des systèmes de fichiers distincts pour les binaires Oracle et les données Oracle.