Oracle Database Appliance X7-2S、X7-2M、およびX7-2-HAのデプロイ、更新、および管理に関する既知の問題は次のとおりです:
Microsoft EdgeおよびMicrosoft Internet Explorer Webブラウザで、Oracle Appliance ManagerのWebコンソールが正しく表示されない。
モデル
Oracle Database Appliance X7-2-HA, X7-2S, X7-2M, X6-2S, X6-2M, X6-2L
回避策
Webコンソールにアクセスするには、Google ChromeまたはFirefoxを使用します。
この問題は、Oracle Bug#27028446によって追跡されます。
Oracle Appliance Manager Webコンソールから保存されたデータベース・バックアップ・レポートからデータベースをリカバリするためにodacli
を使用することはできません。
モデル
Oracle Database Appliance X7-2-HA, X7-2S, X7-2M, X6-2S, X6-2M, X6-2L
回避策
Webコンソールではなく、odacli
で保存されたバックアップ・レポートを使用して、odacli recover-database
コマンドでデータベースをリカバリします。
この問題は、Oracle Bug#27742604で追跡されます。
12.2.0.1 Oracle Databaseのホームを最新のパッチセットにパッチする際にエラーが発生しました
既存の12.1.0.2データベースをパッチ済みのOracle Databaseホームにアップグレードする場合、12.2.0.1 Oracle Databaseホームを最新のパッチにパッチしようとすると、アップグレード・エラーが発生することがあります。
モデル
Oracle Database Appliance X7-2-HA, X7-2S, X7-2M, X6-2S, X6-2M, X6-2L, X5-2, X4-2, X3-2, V1
回避策
1月18日の12.2クローンを使用して新しい12.2 Oracle Databaseホームを作成するか、バグ24923080のパッチをパッチ適用された12.2.0.1 Oracle Databaseホームに手動で適用してから、アップグレードを試みます。
この問題は、Oracle Bug#27983436で追跡されます。
両方のノードをローリングまたはローカル・パッチして12.2.1.3にすると、リポジトリはノード0または1上でオフラインまたは不明な状態になります。
コマンドoakcli start repo <reponame>
が次のエラーで失敗します:
OAKERR8038 The filesystem could not be exported as a crs resource OAKERR:5015 Start repo operation has been disabled by flag
モデル
Oracle Database Appliance X7-2-HA、X6-2-HA、X5-2、X4-2、X3-2、およびV1。
回避策
任意のノードのoda_base
にログインし、次の2つのコマンドを実行します:
oakcli enable startrepo -node 0 oakcli enable startrepo -node 1
これらのコマンドはリポジトリを起動し、オンラインで利用できるようにします。
この問題は、Oracle Bug#27539157によって追跡されます。
クラスタ・レディ・サービス(CRS)が停止または再起動された場合、リポジトリおよび仮想マシンを停止する前にエラーが発生する可能性があります。
リポジトリ・ステータスは不明で、リポジトリと仮想マシンを停止する前にCluster Ready Services (CRS)を停止または再起動すると、High Availability Virtual IPがオフラインになります。
ハードウェア・モデル
Oracle Database Appliance HAモデルX7-2-HA、X6-2-HA、X5-2、X4-2、X3-2、V1
回避策
次の手順を実行します。
# /u01/app/GI_version/grid/bin/srvctl start havip -id havip_0
dom0
のoakVmAgent.py
プロセスを停止します。
dom0
リポジトリのマウントでlazy unmountオプションを実行します:
umount -l mount_points
この問題は、Oracle Bug#20461930によって追跡されます。
構成ファイル/etc/security/limits.conf
には、カスタム環境の場合でもデフォルトのエントリが含まれています。
カスタム環境では、単一のユーザーがグリッドとオラクルの両方に構成されている場合、イメージのデフォルトのグリッド・ユーザー・エントリは/etc/security/limits.conf
ファイルから削除されません。
モデル
Oracle Database Appliance X7-2-HA、X7-2S、およびX7-2M
回避策
この問題は機能には影響しません。 手動で/etc/security/limits.conf
ファイルを編集し、無効なエントリを削除します。
この問題は、Oracle Bug#27036374によって追跡されます。
Oracle ASRマネージャは、dcsagent
のパッチ適用後には実行されません。
dcsagent
のパッチ中に、dcsagent
がOracle ASRマネージャのプロセスを開始します。 asrmanager
とdcsagent
は同じセッションIDを共有します。 dcsagent
プロセスは、そのセッションのグループ・リーダーです。 dcsagent
プロセスが停止すると、dcsagent
と同じセッションIDを共有する他のすべてのプロセスが停止します。
ハードウェア・モデル
Oracle Database Appliance X7-2-HA, X7-2S, X7-2M, X6-2S, X6-2M, X6-2L
回避策
/opt/asrmanager/bin/asr restart
この問題は、Oracle Bug#27057927によって追跡されます。
データベースが実行されていない場合、Oracle Database 12.1から12.2へのアップグレードは失敗します。
モデル
Oracle Database Appliance X7-2-HA、X7-2S、およびX7-2M
回避策
アップグレードを実行する前にデータベースを手動で起動してください。
この問題は、Oracle Bug#27054542によって追跡されます。
odb36データベース・シェイプで作成されたオンライン・トランザクション処理(OLTP)、インメモリー(IMDB)およびディシジョン支援サービス(DSS)データベースの場合、PGAおよびSGA値は正しく表示されません。
odb36シェイプで作成されたOLTPデータベースの場合、以下の問題があります:
sga_target
は144 GBの代わりに128 GBに設定されています
pga_aggregate_target
は72 GBではなく64 GBに設定されています
odb36の形で作成されたDSSデータベースの場合、以下の問題があります:
sga_target
は72 GBではなく64 GBに設定されています
pga_aggregate_target
は144 GBの代わりに128 GBに設定されています
Odb36シェイプで作成されたIMDBデータベースの場合、以下の問題があります:
sga_target
は144 GBの代わりに128 GBに設定されています
pga_aggregate_target
は72 GBではなく64 GBに設定されています
inmmory_size
は72 GBではなく64 GBに設定されています
モデル
Oracle Database Appliance X7-2-HA、X7-2S、およびX7-2M
回避策
手動でPGAおよびSGAサイズをリセット
この問題は、Oracle Bug#27036374によって追跡されます。
odacli update-repository
ジョブが失敗し、patch-name.zipファイルが/tmp
ディレクトリに存在しません。
リポジトリを更新すると、更新プログラムはコピーしたファイルを検証できず、ジョブは失敗します。 次のようなエラーが表示されます:
CS-10001:Internal error encountered: /tmp/oda-sm-12.2.1.2.0-171124-GI-12.2.0.1.zip does not exist in the /tmp directory.
ハードウェア・モデル
X7-2M、X7-2-HA、X6-2S、X6-2M、およびX6-2Lからなる群より選択される、請求項1に記載の方法。
回避策
無効なnull_null
認証キーがZooKeeperにあります。 無効なキーを削除し、各ノードでdcsagent
を再起動して、コマンドodacli update-repository
を実行します。
ZooKeeperの/bin
ディレクトリに移動します。
# cd /opt/zookeeper/bin
飼い主とつながる。
# ./zkCli.sh
すべての認証キーを一覧表示します。
# ls /ssh-auth-keys
無効なキーを削除します。
# rmr /ssh-auth-keys/null_null
飼い葉桶でやめろ。
quit
各ノードでdcsagent
を再起動します。
/opt/oracle/dcs/bin/restartagent.sh
コマンドodacli update-repository
を実行します。
opatchのタイムゾーンの問題により、dbhomeパッチの更新が失敗することがあります。
ジョブの詳細には、次のようなエラーが表示されます:
DCS-10001:Internal error encountered: run datapatch after bundlePatch application on the database home dbhomeID
ハードウェア・モデル
Oracle Database Appliance X7-2S、X7-2M、X7-2-HA、X6-2S、X6-2M、およびX6-2L
回避策
/u01/app/oracle/product/*/*/inventory/ContentsXML/comps.xml
ファイルを開きます。
4文字のタイムゾーン(TZ)情報を検索します。
たとえば、HADTとHASTです。
それらのファイルのバックアップをとります。
4文字のタイムゾーンを3文字のタイムゾーンに変換します。
たとえば、HADTとHASTをHSTに変換します。
パッチdbhome。
異なるバージョンのディレクトリ/opt/oracle/dcs/bin/
にある2つのdcscli.jar
ファイルのため、ODACLIは機能しません。
ODA CLIコマンドは機能しません。
odacli: '/opt/oracle/dcs/bin/dcscli-2.4.*-SNAPSHOT.jar' is not an odacli command.
ハードウェア・モデル
Oracle Database Appliance X7-2-HA、X7-2S、X7-2M、X6-2S、X6-2M、およびX6-2L
回避策
/opt/oracle/dcs/bin
ディレクトリに移動します。
ls dcscli-*
CLI jarファイルが2つあるかどうかを確認します。
古いCLI jarファイルを削除します。
この問題は、Oracle Bug#27807116で追跡されます。
Oracle Database 12.2.1.2の問題により、内部エラーCRS-01019が発生することがあります: OCRサービスが終了しました。 これが発生すると、Cluster Ready Servicesデーモン(crsd)が停止します。
ハードウェア・モデル
Oracle Database Appliance X7-2-HA、X7-2S、X7-2M、X6-2S、X6-2M、およびX6-2L
回避策
CRSデーモンを再起動します。
crsを停止します。
# crsctl stop crs -f
crsを開始します。
# crsctl start crs -wait
この問題は、Oracle Bug#27060167によって追跡されます。
プロビジョニング中に、FLASHディスクグループでDATAボリュームを使用できないようにするオプションが設定されている場合、ボリュームの作成は失敗します。
Oracle Database Appliance X7-2高可用性環境では、許可されるディスクグループはDATA、REDO、RECO、およびFLASHです。 プロビジョニング中に、FLASHディスク・グループがプロビジョニング・リクエストで指定されておらず、Oracle Automatic Storage Managementクラスタ・ファイル・システム(Oracle ACFS)で作成され、DATAオプションがFLASHのdbOnFlashStorage
がfalse
に設定されている場合、アクセラレータ・ボリュームはDATAディスクグループ。 この場合、FLASHディスクグループが作成されていないため、失敗したFLASHディスクグループにアクセラレータ・ボリュームを作成しようとしています。
DCS-10001:Internal error encountered: Volume creation invoked on a non existing Diskgroup.
ハードウェア・モデル
HDDとSSDの両方を備えたOracle Database Appliance X7-2プラットフォーム
回避策
プロビジョニング時にDATA、REDO、RECO、およびFLASHディスク・グループの情報を提供します。 FLASHディスクグループを作成せずに環境をプロビジョニングした場合は、FLASHディスクグループを手動で作成します。
この問題は、Oracle Bug#27721310で追跡されます。
仮想化されたプラットフォームにパッチを当てると、--local
オプションはサポートされません。
仮想化プラットフォーム上でOracle Database ApplianceをRelease 12.1.2.xからRelease 12.2.1.xにパッチすると、--local
オプションを使用して単一ノードにパッチを適用しようとするとエラーになります。
# oakcli update -patch 12.2.1.2.0 --server --local ERROR: -local is not supported for server patching, on VM systems.
ハードウェア・モデル
Oracle Database Appliance X7-2-HA
回避策
次のコマンドを使用して、両方のノードにパッチを適用するOracle Database Applianceのソフトウェアを更新します。
# oakcli update -patch 12.2.1.3.0 --server
コマンドoakcli validate -a
とoakcli validate -c
は、仮想化されたプラットフォーム上でいくつかのエラーを返します。
1つの例外を除いて、validate
コマンドのオプションは、Oracle Database Appliance 12.2.1.1.0リリースではサポートされていません。
注意:
コマンドoakcli validate -c storagetopology
がサポートされています。ハードウェア・モデル
Oracle Database Appliance X7-2-HA仮想化プラットフォーム。
回避策
回避策はありません。
この問題は、Oracle Bug#27022056および27021403によって追跡されます。
cleanup.pl
スクリプトを実行すると、次のエラー・メッセージが表示されます。 : DCS-10001:Internal error encountered: Fail to start hand shake
。
問題を再現するステップは次のとおりです:
最初のノード(Node0)でcleanup.pl
を実行します。 クリーンアップ・スクリプトが終了するまで待ってから、ノードを再起動します。
2番目のノード(Node1)でcleanup.pl
を実行します。 クリーンアップ・スクリプトが終了するまで待ってから、ノードを再起動します。
両方のノードを起動したら、コマンド行インタフェースを使用してNode0のジョブをリストします。 内部エラーが表示されます。
# odacli list-jobs DCS-10001:Internal error encountered: Fail to start hand shake to localhost:7070
ハードウェア・モデル
Oracle Database Appliance X7-2-HA
回避策
dcsagent
を起動する前に、両方のノードの動物園のステータスを確認します:
/opt/zookeeper/bin/zkServer.sh status
単一ノード環境の場合、ステータスは次のようになります。: リーダー、フォロワ、またはスタンドアロン。
cleanup.pl
スクリプトを実行した後、Node0でdcsagent
を再起動します。
# initctl stop initdcsagent # initctl start initdcsagent
Oracle Database 12.2.0.1グリッド・インフラストラクチャ(GI)を使用して11.2.0.4データベースを作成すると、Oracle Enterprise Manager DBコンソールを構成するオプションが無効になります。
12.2.0.1 GIを使用して11.2.0.4データベースを作成すると、Enterprise Manager Control (emctl)コマンドライン・ユーティリティとEnterprise Manager Configuration Assistant (emca)に関する問題が発生します。
ハードウェア・モデル
Oracle Database Appliance X7-2-HA、X7-2S、X7-2M、X6-2S、X6-2M、およびX6-2Lは、12.2.0.1 GIを使用しています。
回避策
データベースの作成後、Oracle Enterprise Manager DBコンソールを手動で構成してください。
アプライアンスがマルチ・ノード・システムの場合は、両方のノードでステップを実行します。 この例では、マルチ・ノード・システムを想定しています:
ご使用の環境に応じて、次のようにdbconsole.rsp
レスポンス・ファイルを作成します。
ご使用の環境のクラスタ名を取得するには、コマンド$GI_HOME/bin/cemutlo -n
を実行
DB_UNIQUE_NAME=db_unique_name SERVICE_NAME=db_unique_name.db_domain PORT=scan listener port LISTENER_OH=$GI_HOME SYS_PWD=admin password DBSNMP_PWD=admin password SYSMAN_PWD=admin password CLUSTER_NAME=cluster name ASM_OH=$GI_HOME ASM_SID=+ASM1 ASM_PORT=asm listener port ASM_USER_NAME=ASMSNMP ASM_USER_PWD=admin password
コマンドを実行して、レスポンス・ファイルを使用してdbcontrolを構成します。 コマンドはエラーで失敗します。 ステップ4の出力のステップを使用します。
$ORACLE_HOME/bin/emca -config dbcontrol db -repos create -cluster -silent -respFile dbconsole.rsp Error securing Database Control. Database Control has not been brought-up on nodes node1 node2 Execute the following command(s) on nodes: node1 node2 1. Set the environment variable ORACLE_UNQNAME to the Database unique name. 2. /u01/app/oracle/product/11.2.0.4/dbhome_1/bin/emctl config emkey -repos -sysman_pwd Password for SYSMAN user -host node -sid Database unique name 3. /u01/app/oracle/product/11.2.0.4/dbhome_1/bin/emctl secure dbconsole -sysman_pwd Password for SYSMAN user -host node -sid Database unique name 4. /u01/app/oracle/product/11.2.0.4/dbhome_1/bin/emctl start dbconsole To secure Em Key, run /u01/app/oracle/product/11.2.0.4/dbhome_1/bin/emctl config emkey -remove_from_repos -sysman_pwd Password for SYSMAN user
viエディタを使用して$ORACLE_HOME/bin/emctl
を開き、CRS_HOME=
をCRS_HOME=/u01/app/12.2.0.1/grid
に変更
ステップ2のemca
によって報告されたステップを適切な値で実行します。
$ORACLE_HOME/bin/emca -reconfig dbcontrol -silent -cluster -EM_NODE node0 host -EM_NODE_LIST node1 host -DB_UNIQUE_NAME db_unique_name -SERVICE_NAME db_unique_name.db_domain
$ORACLE_HOME/bin/emca -reconfig dbcontrol -silent -cluster -EM_NODE node1 host -EM_NODE_LIST node1 host -DB_UNIQUE_NAME db_unique_name -SERVICE_NAME db_unique_name.db_domain
viエディタを使用して$ORACLE_HOME/bin/emctl
を開き、CRS_HOME=
をCRS_HOME=/u01/app/12.2.0.1/grid
に変更
dbコンソールの構成状況を確認します。
# /u01/app/oracle/product/11.2.0.4/dbhome_1/bin/emctl status agent - https://public IP for Node0:1158/em - https://public IP for Node1:1158/em