5 ステータスおよびヘルス・モニタリング
システム・ヘルス・チェックおよびモニタリング・データは、問題検出の基盤です。 必要なトラブルシューティングおよびデバッグ情報はすべて単一のデータ・ストアで保持されるため、問題を調査する必要がある場合、個々のコンポーネントから収集する必要はありません。 システムの全体的な健全性は1箇所で取得されます: Grafana.
Oracleでは、Grafanaにデフォルトのダッシュボードとアラート、およびLokiに格納されているログを参照するメカニズムが構築されています。 お客様は、この設定を展開してカスタマイズすることもできますが、これはOracle Private Cloud Applianceドキュメントの範囲外です。
この機能の実装の詳細および技術的なバックグラウンド情報は、「Oracle Private Cloud Appliance概要ガイド」を参照してください。 「アプライアンス管理の概要」の章の「Status and Health Monitoring」の項を参照してください。
Grafanaの使用
Grafanaを使用すると、Oracle Private Cloud Applianceは、システムのすべてのレベルおよびすべてのコンポーネントで収集されたログおよびメトリックに対して、視覚的に指向した単一のインタフェースを管理者に提供します。 この項では、Grafanaにアクセスし、ログおよびモニタリング・ダッシュボードをナビゲートするための基本的なガイドラインを示します。
Grafanaホーム・ページにアクセスするには
-
「サービスWeb UI」を開き、ログインします。
-
ダッシュボードの右側にあるMonitoringタイルをクリックします。
Grafanaホーム・ページが新しいブラウザ・タブで開きます。 プロンプトが表示されたら、ユーザー名およびパスワードを入力します。
ログおよびメトリックがPrometheusに格納されると、アプライアンスの時間とタイムゾーン設定に基づいてタイムスタンプが付与されます。 ただし、Grafanaでは、ユーザー・プリファレンスに基づいて時間が表示され、異なるタイム・ゾーンにいるためオフセットが発生する可能性があります。 Grafanaビジュアライゼーションのタイム・ラインをアプライアンスのタイム・ゾーンと同期することをお薦めします。
Grafanaタイム・ライン表示を変更するには
-
Grafanaホーム・ページを開きます。
-
左側のメニュー・バーで、(下部近くにある)ユーザー・アカウント・アイコンをクリックして、アカウント・プリファレンスを表示します。
-
プリファレンス・セクションで、タイムゾーン設定をアプライアンスと同じタイムゾーンに変更します。
-
下の保存ボタンをクリックして変更を適用します。
Private Cloud Applianceの事前定義済ダッシュボードには、Grafanaホーム・ページから直接アクセスできませんが、最も使用されているダッシュボードを後でホーム・ページに表示できます。 ダッシュボードは、メイン・メニューのダッシュボード・セクションからアクセスするフォルダで構成されています。
Grafanaダッシュボードを参照するには
-
左側のメニュー・バーで、Dashboards(ダッシュボード)をポイントし、Manage(管理)を選択します。
フォルダまたはダッシュボード・セットのリストが表示されます。
-
フォルダをクリックすると、そのフォルダに含まれるダッシュボードのリストが表示されます。 ダッシュボードをクリックしてそのコンテンツを表示します。
-
フォルダとダッシュボードのリストに戻るには、ステップ1で行ったようにメニュー・バーを使用します。
「My Sauron (読取り専用)」ダッシュボード・セットを除き、すべての事前定義済ダッシュボードおよびパネルは設計によって編集可能です。 これらは、モニターする特定のメトリックを使用して変更することも、独自のメトリックを作成することもできます。 アラートにも同様です。
アラートは別の領域で管理されます。 Oracleには、便宜上、一連のアラートが事前定義されています。
アラート・ルールおよび通知にアクセスするには
-
左側のメニュー・バーで、Alerting(ベル・アイコン)をクリックします。
現在のステータスを含む、定義されているすべてのアラート・ルールのリストが表示されます。
-
アラート・ルールをクリックして詳細パネルを表示し、そのステータスが時間の経過とともにどのように変化し、アラートしきい値に対する相対的なかを確認します。
-
アラート・ルールのリストに戻るには、ステップ1で行ったようにメニュー・バーを使用します。
-
アラート通知を構成するには、アラート・ページの「通知チャネル」タブに移動します。
ノート:
独自の外部通知チャネルを使用してカスタム・アラートを構成する場合は、最初にSauron APIエンドポイントを使用してGrafanaのプロキシを構成する必要があります。 これを行うには、管理仮想IPを所有する管理ノードにログインし、次のコマンドを実行します:
$ sudo curl -u <admin_user_name> \ -XPUT 'https://api.<mypca>.example.com/v1/grafana/proxy/config?http-proxy=<proxy_fqdn>:<proxy_port>&https-proxy=<proxy_fqdn>:<proxy_port>' Enter host password for user '<admin_user_name>': Grafana proxy config successfully updated!
最後に、Grafanaは、Lokiを介して集計されるアプライアンス・ログへのアクセスも提供します。 詳細は、「システム・ログへのアクセス」を参照してください。
ハードウェアおよびプラットフォーム・コンポーネントの健全性およびステータスの確認
ハードウェア層とプラットフォーム層は、システムアーキテクチャの基礎を形成します。 このレベルの異常な条件は、インフラストラクチャ・サービス内の操作に悪影響を及ぼすことが予想されます。 多くの事前定義済Grafanaダッシュボードを使用すると、これらの重要な低レベル・コンポーネントのステータスを確認し、関連するメトリックのリアルタイムおよび履歴の詳細にドリルダウンできます。
この項で説明するダッシュボードは、基本的なシステム・ヘルス・チェックのスタート・ポイントと、問題が見つかった場合のトラブルシューティングに役立ちます。 かわりに、様々なダッシュボード、メトリックおよびビジュアライゼーションを使用することをお薦めします。 システム全体にわたって収集される必要なデータはPrometheusに格納され、無数の方法でGrafanaを使用して照会および表示できます。
Grafanaフォルダ | ダッシュボード | 説明 |
---|---|---|
サービスのモニタリング |
サーバー統計 |
この包括的なダッシュボードには、サーバー・ノードのテレメトリ・データが表示されます。 これには、CPUおよびメモリー使用率、ディスク・アクティビティ、ネットワーク・トラフィックなどのグラフが含まれます。 このダッシュボードの一部のパネルでは、1つのグラフに多数の「シリーズ」が表示されるため、1つのグラフをクリックして表示するか、グラフ上にカーソルを置いて時間軸の特定のポイントの詳細データを表示できます。 |
PCA 3.0サービス・アドバイザ |
プラットフォームのヘルス・チェック |
このダッシュボードは、Grafanaがロギングおよびモニタリング用に提供する一元化されたアプローチにアプライアンスのヘルス・チェック・メカニズムを統合します。 デフォルトでは、Platform Health Checkダッシュボードに、すべてのヘルス・チェック・サービスの失敗が表示されます。 プラットフォーム・サービスのリストからヘルス・チェッカを選択してパネルの表示を変更でき、正常、異常またはすべての結果を表示するように選択できます。 通常、ヘルス・チェックの失敗が表示された場合は、トラブルシューティングを開始します。 そのために、各ヘルス・チェック結果には、関連するLokiログへの直接リンクとして機能するタイムスタンプが含まれています。 ヘルス・チェックの結果に関連するログを表示するには、タイム・スタンプをクリックするだけです。 |
My Sauron (読取り専用) |
ノード・エクスポータがいっぱいです |
このダッシュボードには、1つのコンピュートまたは管理ノードに対して多数の詳細なメトリック・パネルが表示されます。 リストからホストを選択してデータを表示します。 このダッシュボードは、サーバー統計ダッシュボードのファイングレイン拡張とみなすことができます。 さまざまなパネルでは、サーバー・ノードのハードウェア・ステータスとオペレーティング・システムのサービスとプロセスの詳細なカバレージが提供されます。 通常、各物理ノードのコマンド行で収集する情報は、1つのダッシュボードにまとめられ、ライブ・データとその推移が表示されます。 My Sauron (読取り専用)フォルダのすべてのダッシュボードには、システム・レベルの障害を解決する必要がある場合に重要なデータが表示されます。 したがって、これらのダッシュボードは変更または削除できません。 |
モニタリング・データの表示および解釈
インフラストラクチャ・サービス・レイヤーは、プラットフォーム上に構築され、すべてのクラウド・ユーザーおよび管理者機能を有効にし、Grafanaダッシュボードの広範なコレクションを介して監視できます。 これらのマイクロサービスは、Kubernetesコンテナの3つの管理ノードにわたってデプロイされるため、そのモニタリングは主にKubernetesノードおよびポッド・メトリックに基づきます。 Kubernetesクラスタもコンピュート・ノードに拡張され、Kubernetesワーカー・ノードは、システム操作およびモニタリングのための重要な追加データを収集します。
この項で説明するダッシュボードは、マイクロサービス・ヘルス・モニタリングの開始点となります。 かわりに、様々なダッシュボード、メトリックおよびビジュアライゼーションを使用することをお薦めします。 システム全体にわたって収集される必要なデータはPrometheusに格納され、無数の方法でGrafanaを使用して照会および表示できます。
Grafanaフォルダ | ダッシュボード | 説明 |
---|---|---|
サービスのモニタリング |
ClusterLabs HAクラスタの詳細 |
このダッシュボードでは、特注のPrometheusエクスポータを使用して、Pacemakerに基づいてHAクラスタのデータを表示します。 各HTTPリクエストでは、クラスタ・コンポーネント・ツールによって提供される既存の分散データを解析することで、クラスタ・ステータスをローカルで検査します。 モニタリング・データには、Pacemakerクラスタ・サマリー、ノードとリソース統計、Corosyncリング・エラーおよび定足数投票が含まれます。 |
サービスのモニタリング |
MySQLクラスタ・エクスポータ |
このダッシュボードには、MySQLデータベース・クラスタのパフォーマンス詳細が表示されます。 データには、稼働時間、接続統計、表ロック数などのデータベース・サービス・メトリック、およびMySQLオブジェクト、接続、ネットワーク・トラフィック、メモリーおよびCPU使用率に関するより一般的な情報が含まれます。 |
サービスのモニタリング |
サービス・レベル |
このダッシュボードには、基本的なアプライアンス・サービスによって受信されたRabbitMQリクエストに関する詳細情報が表示されます。 リクエスト数、リクエスト・レイテンシ、およびエラーの原因となったリクエストを監視できます。 |
サービスのモニタリング |
VM統計 |
この包括的なダッシュボードには、環境内のコンピュート・インスタンス全体のリソース消費情報が表示されます。 これには、CPUおよびメモリー使用率、ディスク・アクティビティ、ネットワーク・トラフィックなどのグラフが含まれます。 このダッシュボードのパネルには、1つのグラフに多数の「シリーズ」が表示されるため、1つのグラフをクリックして表示するか、グラフ上にカーソルを置いて時間軸の特定のポイントの詳細データを表示できます。 |
PCA 3.0サービス・アドバイザ |
Kubeエンドポイント |
このダッシュボードは、特にKubernetesエンドポイントに焦点を当て、エンドポイント・アラートを提供します。 これらのアラートは、選択した通知チャネルに送信できます。 |
PCA 3.0サービス・アドバイザ |
Kube Ingress |
このダッシュボードでは、Kubernetesサービスおよびそのポッドへのイングレス・トラフィックに関するデータが提供されます。 2つのアラートが組み込まれており、選択した通知チャネルに送信できます。 |
PCA 3.0サービス・アドバイザ |
Kubeノード |
このダッシュボードには、Kubernetesクラスタおよびホスト・マイクロサービス・ポッドに属するすべてのサーバー・ノードのメトリック・データ(管理およびコンピュート・ノード)が表示されます。 ポッド数、CPUおよびメモリー使用量などを監視できます。 メトリック・パネルには、すべてのノードに関する情報が表示されます。 グラフ・ベースのパネルでは、クリックすると1つのノードだけの情報を表示できます。 |
PCA 3.0サービス・アドバイザ |
Kube Pod |
このダッシュボードには、マイクロサービス・ポッドのレベルでメトリック・データが表示され、ポッドの合計数およびそれらをノード間でどのように分散しているかを表示できます。 ネームスペースごとおよびサービスごとにステータスをモニターし、アラートがトリガーされたかどうかを確認できます。 |
PCA 3.0サービス・アドバイザ |
Kubeサービス |
このダッシュボードには、メトリック・データがKubernetesサービス・レベルで表示されます。 データは特定のサービスに対してフィルタ処理できますが、デフォルトではすべてが表示されます。 2つのアラートが組み込まれており、選択した通知チャネルに送信できます。 |
Kubernetesモニタリング Kubernetesコンテナのモニタリング Kubernetesモニタリング・ノード |
(all) |
これらのフォルダには、Kubernetesクラスタのほぼすべての側面をカバーする、広範なモニタリング・データを含むダッシュボードの多種多様なコレクションが含まれています。 データは、クラスタ、ノード、ポッドおよびコンテナ・レベルでKubernetesをカバーします。 メトリックは、デプロイメント、イングレス、CPU、ディスク、メモリーおよびネットワークの使用状況などについてのインサイトを提供します。 |
システム容量のモニタリング
コンピュート・インスタンスをホストするシステム容量と、使用するストレージを決定する主要なメトリックを追跡することが重要です。 コンピュート・ノードの負荷およびストレージ使用量の詳細データはGrafanaダッシュボードにありますが、管理者はCPUおよびメモリーの現在の消費量とストレージ領域に直接アクセスできます。
フォルト・ドメイン別CPUおよびメモリー使用量の表示
getFaultDomainInfo
コマンドは、フォルト・ドメイン全体のメモリーおよびCPU使用率の概要を示します。
「サービスWeb UI」の使用
-
PCA Configナビゲーション・メニューで、Fault Domainsをクリックします。
この表には、フォルト・ドメイン別のCPUおよびメモリー使用量データが表示されます。
-
コンポーネントに関する詳細情報を表示するには、表でそのホスト名をクリックします。
「サービスCLI」の使用
-
フォルト・ドメインのCPUおよびメモリー使用量のリストを表示するには、
getFaultDomainInfo
コマンドを使用します。UNASSIGNED
行は、現在フォルト・ドメインに割り当てられていないコンピュート・ノードを参照します。 コンピュート・ノードはフォルト・ドメインに属していないため、メモリーおよびCPU使用率「フォルト・ドメイン内」はゼロです。 「サービスWeb UI」の「コンピュート・ノード情報」ページを表示すると、コンピュート・ノード当たりのメモリーおよびCPU使用率にアクセスできます。PCA-ADMIN> getFaultDomainInfo Command: getFaultDomainInfo Status: Success Time: 2022-06-17 14:43:13,292 UTC Data: id totalCNs totalMemory freeMemory totalvCPUs freevCPUs notes -- -------- ----------- ---------- ---------- --------- ----- UNASSIGNED 11 0.0 0.0 0 0 FD1 1 984.0 968.0 120 118 FD2 1 984.0 984.0 120 120 FD3 1 984.0 984.0 120 120
ZFS Storage Applianceのディスク領域使用量の表示
「サービス・エンクレーブ」は、ZFSプール・マネージャと呼ばれるストレージ・モニタリング・ツールを実行し、60秒ごとにZFS Storage Applianceをポーリングします。 「サービスCLI」を使用すると、各ZFSプールで使用可能なディスク領域の使用状況に関する現在の情報を表示できます。 超過した場合に障害をトリガーする使用しきい値を設定することもできます。
標準ストレージ構成では、プールは1つしかありません。 システムに高パフォーマンスのディスク・トレイが含まれている場合は、両方のプールの使用状況情報を個別に表示できます。
次のように「サービスCLI」を使用して、ストレージ容量を確認します:
-
ZFSプールのステータスを表示します。
PCA-ADMIN> list ZfsPool Command: list ZfsPool Status: Success Time: 2022-10-10 08:44:11,938 UTC Data: id name -- ---- e898b147-7cf0-4bd0-8b54-e32ec83d04cb PCA_POOL c2f67943-df81-47a5-9713-06768318b623 PCA_POOL_HIGH PCA-ADMIN> show ZfsPool id=e898b147-7cf0-4bd0-8b54-e32ec83d04cb Command: show ZfsPool id=e898b147-7cf0-4bd0-8b54-e32ec83d04cb Status: Success Time: 2022-10-10 08:44:22,051 UTC Data: Id = e898b147-7cf0-4bd0-8b54-e32ec83d04cb Type = ZfsPool Pool Status = Online Free Pool = 44879343128576 Total Pool = 70506183131136 Pool Usage Percent = 0.3634693989163486 Name = PCA_POOL Work State = Normal
-
ZFSプール・マネージャの障害しきい値を構成します。 デフォルトでは、80%フル(値= 0.8)に設定されます。
PCA-ADMIN> show ZfsPoolManager Command: show ZfsPoolManager Status: Success Time: 2022-10-10 08:58:11,231 UTC Data: Id = a6ca861b-f83a-4032-91c5-bc506394d0de Type = ZfsPoolManager LastRunTime = 2022-10-09 12:17:52,964 UTC Poll Interval (sec) = 60 The minimum Zfs pool usage percentage to trigger a major fault = 0.8 Manager's run state = Running PCA-ADMIN> edit ZfsPoolManager usageMajorFaultPercent=0.75 Command: edit ZfsPoolManager usageMajorFaultPercent=0.75 Status: Success Time: 2022-10-10 08:58:27,657 UTC JobId: 67cfe180-f2a2-4d59-a676-01b3d73cffae
システム・ログへのアクセス
ログはシステム全体から収集され、Lokiに集計されます。 すべてのログ・データは、Grafanaの中央インタフェースを使用して問合せ、フィルタ処理および表示できます
Lokiログを表示するには
-
Grafanaホーム・ページを開きます。
-
左側のメニュー・バーで、エクスプローラ(コン・パス・アイコン)をクリックします。
デフォルトでは、参照ページのデータ・ソースは"Prometheus"に設定されます。
-
左側のページの上部にあるデータ・ソース・リストから「Loki」を選択します。
-
ログ・ラベル・リストを使用して、ログを問い合せてフィルタします。
ログはラベルに分類され、特定のタイプまたはカテゴリのログ・エントリを表示するために問合せできます。 Private Cloud Appliance内で使用される主要なログ・ラベル・カテゴリは次のとおりです:
-
job
このカテゴリのログ・ラベルは、次の3つのカテゴリに分類されます:
-
プラットフォーム: アプライアンス・アーキテクチャの基礎レイヤーで実行されているサービスおよびコンポーネントからのログ。
このカテゴリのログ・ラベルには次が含まれます:
"him"
/"has"
/"hms"
(ハードウェア管理)、"api-server"
、"vault"
/"etcd"
(シークレット・サービス)、"corosync"
/"pacemaker"
/"pcsd"
(管理クラスタ)、"messages" (RabbitMQ)"pca-platform-l0"
、"pca-platform-l1api"
など。 -
インフラストラクチャ・サービス: プラットフォーム上にデプロイされたユーザー・レベルのクラウド・サービスおよび管理サービスからのログ。 これらのサービスは、名前で簡単に識別できます。
このカテゴリのログ・ラベルには次が含まれます:
"brs"
(バックアップ/リストア)、"ceui"
(コンピュートWeb UI)、"seui"
(サービスWeb UI)、"compute"
、"dr-admin"
(ディザスタ・リカバリ)、"filesystem"
、"iam"
(アイデンティティおよびアクセス管理)、"pca-upgrader"
など。 -
標準出力: コンテナ化されたインフラストラクチャ・サービスが
stdout
ストリームに送信したことをログに記録します。 この出力は、ユーザーがUI操作またはCLIコマンドを実行すると表示されます。ログ・ラベル
job="k8s-stdout-logs"
を使用して、標準出力ログをフィルタ処理します。 ログ・データはマイクロサービスのKubernetesコンテナから取得され、ポッド名またはコンテナ名(あるいはその両方)を指定してさらにフィルタできます。
-
-
k8s_app
このカテゴリのログ・ラベルを使用すると、標準出力ログを絞り込むことができます(
job="k8s-stdout-logs"
)。 そのログ・データはマイクロサービスのKubernetesコンテナから取得され、関心のある特定のサービスの名前に対応するラベルを選択してさらにフィルタできます。
job
またはk8s_app
ログ・ラベルのいずれかを選択して、ログをナビゲートします。 目的のサービスまたはアプリケーションに対応するラベルを選択し、ログのリストが時系列で逆に表示されます。 ログ・エントリの上に表示されている時間行の一部にズーム・インすることで、検索を絞り込むことができます。 カラー・コーディングは、注意が必要なアイテムを識別するのに役立ちます。たとえば、: 警告は黄色でマークされ、エラーは赤でマークされます。
監査ログ
監査ログは、個別のカテゴリとして参照できます。 ログ・ラベル・リストから、次の監査ラベルを選択できます:
-
job="vault-audit"
このログ・ラベルを使用して、ボールト・クラスタの監査ログをフィルタします。 シークレット・サービスのキー・コンポーネントであるボールトは、すべてのリクエストおよびレスポンスの詳細なログを保持します。 認証されたすべてのボールトとの相互作用(エラーを含む)を表示できます。 これらのログには機密情報が含まれているため、秘密情報が監査ログでプレーン・テキストで表示されないように、リクエストおよびレスポンス内の多くの文字列がハッシュされます。
-
job="kubernetes-audit"
このログ・ラベルを使用して、Kubernetesクラスタの監査ログをフィルタします。 Kubernetes監査ポリシーは、リクエスト・メタデータをログに記録するように構成されます: ユーザー、タイム・スタンプ、リソース、動詞などのリクエスト・リクエスト本文およびレスポンス本文は監査ログには含まれません。
-
job="audit"
このログ・ラベルを使用して、Oracle Linuxカーネル監査デーモンのログをフィルタします。 カーネル監査デーモン(auditd)は、Linux監査システムのユーザー空間コンポーネントです。 システム・ログイン、アカウント変更、sudo操作などの特定のイベントを取得します。
-
log="audit"
このログ・ラベルを使用して、ZFS Storage Applianceの監査ログをフィルタします。
リストのログ・ラベルを使用する以外に、カスタム問合せを作成することもできます。 たとえば、管理サービスおよびAPIサービスの監査ログをフィルタするには、ログ・ラベル・リストの横にあるフィールドに次の問合せを入力します:
{job=~"(admin|api-server)"} | json tag="tag" | tag=~"(api-audit.log|audit.log)"
実行するには、右上隅の問合せの実行ボタンをクリックするか、Shift
+ Enter
を押します。
Oracle Auto Service Requestの使用
Oracle Private Cloud Applianceは、Oracle Auto Service Request (ASR)に適格です。 ASRは、My Oracle Supportと統合されています。 特定のハードウェア障害が発生すると、ASRは自動的にサービス・リクエストを開き、診断情報を送信します。 アプライアンス管理者は、サービス・リクエストが開いているという通知を受信します。
ASRの使用はオプションです: アプライアンスのサービスを登録して有効にする必要があります。
Oracle Auto Service Requestの理解
ASRは、特定のPrivate Cloud Applianceハードウェア障害が発生した場合にサービス・リクエストを自動的に開きます。 この機能を有効にするには、ハードウェア障害テレメトリをhttps://transport.oracle.comのOracleに直接、プロキシ・ホスト、または別のエンドポイントに送信するようにPrivate Cloud Applianceを構成する必要があります。 たとえば、データセンターにASR Managerソフトウェアがインストールされている場合、複数のシステムの集約ポイントとして別のエンドポイントを使用できます。
ハードウェアの問題が検出されると、ASRはサービス・リクエストをOracleサポート・サービスに送信します。 多くの場合、Oracleサポート・サービスは、管理者が問題が存在することを認識する前に、問題の解決作業を開始できます。
ASRは、ディスク、ファン、電源供給などの最も一般的なハードウェア・コンポーネントで障害を検出し、障害が発生するとサービス・リクエストを自動的に開きます。 ASRは、可能性のあるすべてのハードウェア障害を検出せず、顧客データセンター内のほかのモニタリング・メカニズム(SMTPアラートなど)を置き換えるものではありません。 ASRは、交換ハードウェアの発送を促進および簡素化する補完メカニズムです。 ASRは、高優先度システムのダウンタイム・イベントに使用することはできません。 優先順位の高いイベントについては、Oracleサポート・サービスに直接お問い合せください。
サービス・リクエストの作成を通知するために、My Oracle Support電子メール・アカウントとPrivate Cloud Applianceの技術担当者の両方に電子メール・メッセージが送信されます。 ASRへの接続が失われた場合など、場合によってはサービス・リクエストが自動的に発行されないことがあります。 管理者は、サービス・リクエストが自動的に提出されたという通知を受け取らない場合は、各自のシステムの障害を監視し、Oracleサポート・サービスを呼び出す必要があります。
ASRの詳細は、次のリソースを参照してください。
-
Oracle Auto Service Request webページ : https://www.oracle.com/servers/technologies/auto-service-request.html。
-
Oracle Auto Service Requestユーザー・ドキュメント : https://docs.oracle.com/cd/E37710_01/index.htm。
Oracle Auto Service Request前提条件
ASRサービスに登録する前に、次の前提条件が満たされていることを確認してください。
-
有効なMy Oracle Supportアカウントがあることを確認してください。
必要に応じて、https://support.oracle.comでアカウントを作成します。
-
My Oracle Supportに次のものが正しく設定されていることを確認します:
-
Private Cloud Applianceを担当する顧客サイトの技術担当者
-
Private Cloud Applianceが配置されている顧客サイトの有効な出荷先住所で、部品が設置する必要があるサイトに搬送されるようにします
-
-
HTTPSを使用してインターネットへの接続を確認します。
たとえば、
curl
を試して、https://support.oracle.comにアクセスできるかどうかをテストします。
Oracle Auto Service RequestへのPrivate Cloud Applianceの登録
Private Cloud ApplianceをASRクライアントとして登録するには、次のいずれかの方法でハードウェア障害テレメトリをOracleに送信するようにアプライアンスを構成する必要があります:
-
プロキシ・ホストへ
-
別のエンドポイントへ
異なるエンドポイントを使用する例として、複数のシステムのポイントとしてデータセンターにASR Managerソフトウェアがインストールされているとします。
ASRにPrivate Cloud Applianceを登録すると、ASRサービスが自動的に有効になります。
「サービスWeb UI」の使用
-
ナビゲーション・メニューを開き、ASR Phone Homeをクリックします。
-
「登録」ボタンをクリックします。
-
ユーザー名とパスワードを入力し、選択したフォン・ホーム構成のフィールドに入力します。
-
ユーザー名: 必須。 My Oracle Supportから取得できるOracleシングル・サインオン(SSO)資格証明を入力します。
-
パスワード: 必須 SSOアカウントのパスワードを入力します。
-
プロキシ・ユーザー名: プロキシ・ホストを使用するには、そのホストにアクセスするためのユーザー名を入力します。
-
プロキシ・パスワード: プロキシ・ホストを使用するには、そのホストにアクセスするためのパスワードを入力します。
-
プロキシ・ホスト: プロキシ・ホストを使用するには、そのホストの名前を入力します。
-
プロキシ・ポート: プロキシ・ホストを使用するには、ホストへのアクセスに使用するポートを入力します。
-
エンドポイント: ASRデータ統合にポイントまたはその他のエンドポイントを使用する場合は、この形式でそのエンドポイントを入力 :
http://host[:port]/asr
-
「サービスCLI」の使用
ASRをhttps://transport.oracle.comに直接構成
-
SSHを使用して、管理ノードVIPに
admin
としてログインします。# ssh -l admin 100.96.2.32 -p 30006
-
asrClientRegister
カスタム・コマンドを使用して、アプライアンスを登録します。PCA-ADMIN> asrClientRegister username=asr-pca3_ca@example.com \ password=******** confirmPassword=******** \ endpoint=https://transport.us.oracle.com/ \ Command: asrClientRegister username=asr-pca3_ca@example.com \ password=***** confirmPassword=***** \ endpoint=https://transport.us.oracle.com/ Status: Success Time: 2021-07-12 18:47:14,630 UTC
-
構成を確認します。
PCA-ADMIN> show asrPhonehome Command: show asrPhonehome Status: Success Time: 2021-09-30 13:08:42,210 UTC Data: Is Registered = true Overall Enable Disable = true Username = asr.user@example.com Endpoint = https\://transport.us.oracle.com/ PCA-ADMIN>
プロキシ・ホストへのASRの構成
-
SSHを使用して、管理ノードVIPに
admin
としてログインします。# ssh -l admin 100.96.2.32 -p 30006
-
asrClientRegister
カスタム・コマンドを使用して、アプライアンスを登録します。PCA-ADMIN> asrClientRegister username=asr-pca3_ca@oracle.com \ password=******** confirmPassword=******** \ proxyHost=zeb proxyPort=80 \ proxyUsername=support \ proxyPassword=**** proxyConfirmPassword=**** \
別のエンドポイントへのASRの構成
-
SSHを使用して、管理ノードVIPに
admin
としてログインします。# ssh -l admin 100.96.2.32 -p 30006
-
asrClientRegister
カスタム・コマンドを使用して、アプライアンスを登録します。PCA-ADMIN> asrClientRegister username=oracle_email@example.com \ password=******** confirmPassword=******** \ endpoint=https://transport.us.oracle.com/ \ Command: asrClientRegister username=oracle_email@example.com \ password=***** confirmPassword=***** \ endpoint=https://transport.us.oracle.com/ Status: Success Time: 2021-07-12 18:47:14,630 UTC
Oracle Auto Service Request構成のテスト
構成後、ASR構成をテストして、エンド・ツー・エンドの通信が正しく機能していることを確認します。
「サービスWeb UI」の使用
-
ナビゲーション・メニューを開き、ASR Phone Homeをクリックします。
-
ControlsメニューでTest Registrationを選択します。
-
Test Registrationをクリックします。 ダイアログによって、テストが成功したかどうかが確認されます。
-
テストが成功しない場合は、ASR構成情報を確認してテストを繰り返します。
「サービスCLI」の使用
-
SSHを使用して、管理ノードVIPに
admin
としてログインします。# ssh -l admin 100.96.2.32 -p 30006
-
asrClientsendTestMsg
カスタム・コマンドを使用して、ASR構成をテストします。PCA-ADMIN> asrClientsendTestMsg Command: asrClientsendTestMsg Status: Success Time: 2021-12-08 18:43:30,093 UTC PCA-ADMIN>
Oracle Auto Service RequestのPrivate Cloud Applianceの登録解除
ASRのPrivate Cloud Applianceを登録解除すると、ASRサービスは自動的に無効になります。別のステップを実行する必要はありません。
「サービスWeb UI」の使用
-
ナビゲーション・メニューを開き、ASR Phone Homeをクリックします。
-
Unregisterボタンをクリックします。 プロンプトが表示されたら、操作を確認します。
「サービスCLI」の使用
-
SSHを使用して、管理ノードVIPに
admin
としてログインします。# ssh -l admin 100.96.2.32 -p 30006
-
asrClientUnregister
カスタム・コマンドを使用して、アプライアンスを登録します。PCA-ADMIN> asrClientUnregister Command: asrClientUnregister Status: Success Time: 2021-06-23 15:25:18,127 UTC PCA-ADMIN>
Oracle Auto Service Requestの無効化
アプライアンスでASRを無効にして、障害メッセージの送信やサービス・リクエストの作成を一時的に防止できます。 たとえば、システムのメンテナンス中、コンポーネントは停止しているが、障害が発生していないか、障害が発生していない可能性があります。 ASRサービスを再起動するには、「Oracle Auto Service Requestの有効化」を参照してください。
「サービスWeb UI」の使用
-
ナビゲーション・メニューを開き、ASR Phone Homeをクリックします。
-
「無効化」ボタンをクリックします。 プロンプトが表示されたら、操作を確認します。
「サービスCLI」の使用
-
SSHを使用して、管理ノードVIPに
admin
としてログインします。# ssh -l admin 100.96.2.32 -p 30006
-
asrClientDisable
カスタム・コマンドを使用して、ASRサービスを停止します。PCA-ADMIN> asrClientDisable Command: asrClientDisable Status: Success Time: 2021-06-23 15:26:17,753 UTC PCA-ADMIN>
Oracle Auto Service Requestの有効化
このセクションでは、ASRサービスが無効になっている場合にASRサービスを再起動する方法について説明します。
「サービスWeb UI」の使用
-
ナビゲーション・メニューを開き、ASR Phone Homeをクリックします。
-
「有効化」ボタンをクリックします。 プロンプトが表示されたら、操作を確認します。
「サービスCLI」の使用
-
SSHを使用して、管理ノードVIPに
admin
としてログインします。# ssh -l admin 100.96.2.32 -p 30006
-
asrClientEnable
カスタム・コマンドを使用して、ASRサービスを起動します。PCA-ADMIN> asrClientEnable Command: asrClientEnable Status: Success Time: 2021-06-23 15:26:47,632 UTC PCA-ADMIN>
サポート・バンドルの使用
サポート・バンドルは、問題の評価および修正に使用される、Private Cloud Applianceから収集された診断データのファイルです。
サポート・バンドルは、Oracleサポートに自動的にアップロードすることも、手動でアップロードすることもできます。 サポート・バンドルは安全にアップロードされ、最小限必要なデータが含まれます: システム・アイデンティティ (IPアドレスではない)、問題の症状、およびログやステータスなどの診断情報。
サポート・バンドルは作成でき、アップロードできません。 自分で使用するためにバンドルを作成することもできます。 サポート・バンドルの作成は、関連データを収集する便利な方法です。
サポート・バンドルは、次の方法で作成およびアップロードされます:
- Oracle Auto Service Request (ASR)
-
特定のハードウェア障害が発生した場合、ASRは自動的にサービス・リクエストとサポート・バンドルを作成します。 サービス・リクエストおよびサポート・バンドルはOracleサポートに自動的に送信され、Private Cloud Appliance管理者に通知されます。 「Oracle Auto Service Requestの使用」を参照してください。
-
asrInitiateBundle
-
asrInitiateBundle
コマンドは、サポート・バンドルを作成し、既存のサービス・リクエストにサポート・バンドルをアタッチし、OracleサポートにアップロードするPCA-ADMIN
コマンドです。 「asrInitiateBundleコマンドの使用」を参照してください。 -
support-bundles
-
support-bundles
コマンドは、指定したタイプのサポート・バンドルを作成する管理ノード・コマンドです。 Oracleサポートでは、このコマンドを実行してサービス・リクエストに関連するより多くのデータを収集するように求められる場合や、ユーザー自身で使用するためにこのデータを収集する必要がある場合があります。 「support-bundlesコマンドの使用」を参照してください。 - Oracleサポートへの手動アップロード
-
サポート・バンドルまたはその他のデータをOracleサポートにアップロードするには、いくつかのメソッドを使用できます。 「サポート・バンドルのOracle Supportへのアップロード」を参照してください。
asrInitiateBundle
コマンドの使用
asrInitiateBundle
コマンドには3つのパラメータがあり、すべて必須です:
PCA-ADMIN> asrInitiateBundle mode=triage sr=SR_number bundleType=auto
triage
サポート・バンドルが収集され、サービス・リクエストSR_number
に自動的にアタッチされます。 triage
サポート・バンドルの詳細は、「トリアージ・モード」を参照してください。
ASRサービスが有効になっている場合、bundleType=auto
はPhone Homeサービスを使用してバンドルをOracle Supportにアップロードします。 Phone Homeサービスの詳細については、「Oracle Auto Service RequestのPrivate Cloud Applianceの登録」を参照してください。
support-bundles
コマンドの使用
support-bundles
コマンドは、ヘルス・チェック・ステータス、コマンド出力、ログなどの診断データの様々なタイプのバンドル(モード)を収集します。 このトピックでは、使用可能なモードについて説明します。 このコマンドを使用する推奨方法は次のとおりです:
-
triage
モードを指定してデータ収集を開始し、Private Cloud Applianceの予備ステータスを理解します。 -
triage
モードの結果にNOT_HEALTHYが表示された場合は、次のいずれかを実行します:-
time_slice
モードを使用して、タイム・スロット別にデータを収集します。 これらの結果は、ポッド名、ジョブおよびk8s_appラベルを指定することでさらに絞り込むことができます。 -
特定のヘルス・チェッカからデータを問い合せるには、
smart
モードを使用します。
-
support-bundles
コマンドにはモード(-m
)オプションが必要です。 一部のモードには、追加のオプションがあります。
次の表に、support-bundles
コマンドのすべてのモードに共通するオプションを示します。
オプション | 説明 | 必須 |
---|---|---|
|
バンドルのタイプ。 |
はい |
|
サービス・リクエスト番号。 |
いいえ |
ほとんどのモードでは、support-bundles
コマンドは単一のアーカイブ・ファイルを生成します。 出力アーカイブ・ファイルの名前は[SR_number_]pca-support-bundle.current-time.tgz
です。 SR_number
は、-sr
オプションを指定した場合に使用されます。 サービス・リクエストのサポート・バンドルを作成する場合は、SR_number
を指定する必要があります。
native
モードの場合、support-bundles
コマンドはアーカイブ・ファイルのディレクトリを生成します。
アーカイブ・ファイルは、管理ノードの/nfs/shared_storage/support_bundles/
に格納されます。
管理ノードへのログイン
support-bundles
コマンドを使用するには、Pacemakerリソースを実行している管理ノードにroot
としてログインします。 Pacemakerリソースを実行している管理ノードから、必要に応じてほかの管理ノードからデータを収集します。
Pacemakerリソースを実行している管理ノードがわからない場合は、管理ノードにログインし、Pacemakerクラスタのステータスを確認します。 次のコマンドは、Pacemakerクラスタ・リソースがpcamn01で実行されていることを示しています。
[root@pcamn01 ~]# pcs status Cluster name: mncluster Stack: corosync Current DC: pcamn01 ... Full list of resources: scsi_fencing (stonith:fence_scsi): Stopped (disabled) Resource Group: mgmt-rg vip-mgmt-int (ocf::heartbeat:IPaddr2): Started pcamn01 vip-mgmt-host (ocf::heartbeat:IPaddr2): Started pcamn01 vip-mgmt-ilom (ocf::heartbeat:IPaddr2): Started pcamn01 vip-mgmt-lb (ocf::heartbeat:IPaddr2): Started pcamn01 vip-mgmt-ext (ocf::heartbeat:IPaddr2): Started pcamn01 l1api (systemd:l1api): Started pcamn01 haproxy (ocf::heartbeat:haproxy): Started pcamn01 pca-node-state (systemd:pca_node_state): Started pcamn01 dhcp (ocf::heartbeat:dhcpd): Started pcamn01 hw-monitor (systemd:hw_monitor): Started pcamn01 Daemon Status: corosync: active/enabled pacemaker: active/enabled pcsd: active/enabled
トリアージ・モード
triage
モードでは、Prometheus platform_health_check
はHEALTHYステータスとNOT_HEALTHYステータスの両方で問い合せられます。 NOT_HEALTHYが見つかった場合は、time_slice
モードを使用して詳細を取得します。
[root@pcamn01 ~]# support-bundles -m triage
出力アーカイブ・ファイルには、次のファイルがあります。
ファイル | 説明 |
---|---|
|
このバンドルを生成するためのタイムスタンプおよびコマンドライン。 |
|
コンピュート・ノードで実行されているポッド。 |
|
管理ノードで実行されているポッド。 |
|
ラックの取り付け時間とビルド・バージョン。 |
|
jsonのチャンク・ファイル。 |
タイム・スライス・モード
タイム・スライス・モードでは、データは開始タイムスタンプと終了タイムスタンプを指定することによって収集されます。
-j
オプションまたは--all
オプションを指定しない場合、データはすべての健全性チェッカ・ジョブから収集されます。
次のいずれかを指定して、データ収集を絞り込むことができます:
-
Lokiジョブ・ラベル
-
Loki k8s_appラベル
-
ポッド名
[root@pcamn01 ~]# support-bundles -m time_slice -j flannel-checker -s 2021-05-29T22:40:00.000Z \ -e 2021-06-29T22:40:00.000Z -l INFO
次のその他の例を参照してください。
support-bundles
コマンドのタイム・スライス・モードには、このトピックの最初にリストされているモードおよびサービス・リクエスト番号オプションに加えて、次のオプションがあります。
-
指定できるのは、
--job_name
、--all
および--k8s_app
のいずれか1つのみです。 -
--job_name
、--all
または--k8s_app
のいずれも指定されていない場合、ポッド・フィルタリングはデフォルト(.+checker
)で実行されます。 -
--all
オプションは大量のデータを収集できます。 タイム・スライスを48時間に制限できます。
オプション | 説明 | 必須 |
---|---|---|
|
Lokiジョブ名。 デフォルト値: 次のラベル・リスト問合せを参照してください。 |
いいえ |
--all
|
audit 、kubernetes-audit 、vault-audit およびk8s_app ラベルpcacoredns など、ロギングが多すぎることが認識されているジョブを除くすべてのジョブ名を問い合せます。
|
いいえ |
--k8s_app 「ラベル」
|
次のラベル・リスト問合せを参照してください。 |
いいえ |
|
メッセージ・レベル |
いいえ |
|
開始日(書式 最小引数は |
はい |
|
最小引数は |
はい |
--pod_name pod_name
|
ポッドに基づいて出力をフィルタするためのポッド名(kube やnetwork-checker など)。 開始文字のみが必要です。
|
いいえ |
ラベル・リスト問合せ
ラベル・リスト問合せを使用して、使用可能なジョブ名とk8s_app
ラベル値をリストします。
[root@pcamn01 ~]# support-bundles -m label_list 2021-10-14T23:19:18.265 - support_bundles - INFO - Starting Support Bundles 2021-10-14T23:19:18.317 - support_bundles - INFO - Locating filter-logs Pod 2021-10-14T23:19:18.344 - support_bundles - INFO - Executing command - ['python3', '/usr/lib/python3.6/site-packages/filter_logs/label_list.py'] 2021-10-14T23:19:18.666 - support_bundles - INFO - Label: job Values: ['admin', 'api-server', 'asr-client', 'asrclient-checker', 'audit', 'cert-checker', 'ceui', 'compute', 'corosync', 'etcd', 'etcd-checker', 'filesystem', 'filter-logs', 'flannel-checker', 'his', 'hms', 'iam', 'k8s-stdout-logs', 'kubelet', 'kubernetes-audit', 'kubernetes-checker', 'l0-cluster-services-checker', 'messages', 'mysql-cluster-checker', 'network-checker', 'ovm-agent', 'ovn-controller', 'ovs-vswitchd', 'ovsdb-server', 'pca-healthchecker', 'pca-nwctl', 'pca-platform-l0', 'pca-platform-l1api', 'pca-upgrader', 'pcsd', 'registry-checker', 'sauron-checker', 'secure', 'storagectl', 'uws', 'vault', 'vault-audit', 'vault-checker', 'zfssa-checker', 'zfssa-log-exporter'] Label: k8s_app Values: ['admin', 'api', 'asr-client', 'asrclient-checker', 'brs', 'cert-checker', 'compute', 'default-http-backend', 'dr-admin', 'etcd', 'etcd-checker', 'filesystem', 'filter-logs', 'flannel-checker', 'fluentd', 'ha-cluster-exporter', 'has', 'his', 'hms', 'iam', 'ilom', 'kube-apiserver', 'kube-controller-manager', 'kube-proxy', 'kubernetes-checker', ' l0-cluster-services-checker', 'loki', 'loki-bnr', 'mysql-cluster-checker', 'mysqld-exporter', 'network-checker', 'pcacoredns', 'pcadnsmgr', 'pcanetwork', 'pcaswitchmgr', 'prometheus', 'rabbitmq', 'registry-checker', 'sauron-api', 'sauron-checker', 'sauron-grafana', 'sauron-ingress-controller', 'sauron-mandos', 'sauron-operator', 'sauron-prometheus', 'sauron-prometheus-gw', 'sauron-sauron-exporter', 'sauron.oracledx.com', 'storagectl', 'switch-metric', 'uws', 'vault-checker', 'vmconsole', 'zfssa-analytics-exporter', 'zfssa-csi-nodeplugin', 'zfssa-csi-provisioner', 'zfssa-log-exporter']
例:
ジョブ・ラベルなし、k8s_appラベルなし、すべてのヘルス・チェッカからログを収集します。
[root@pcamn01 ~]# support-bundles -m time_slice -sr 3-xxxxxxxxxxx -s "2022-01-11T00:00:00" -e "2022-01-12T23:59:59"
1ジョブの停滞。
[root@pcamn01 ~]# support-bundles -m time_slice -sr 3-xxxxxxxxxxx -j ceui -s "2022-01-11T00:00:00" -e "2022-01-12T23:59:59"
1つのk8s_appネットワーク・チェッカ。
[root@pcamn01 ~]# support-bundles -m time_slice -sr 3-xxxxxxxxxxx --k8s_app network-checker -s "2022-01-11T00:00:00" -e "2022-01-12T23:59:59"
すべてのジョブと日付。
[root@pcamn01 ~]# support-bundles -m time_slice -sr 3-xxxxxxxxxxx -s `date -d "2 days ago" -u +"%Y-%m-%dT%H:%M:%S.000Z"` -e `date -d +u +"%Y-%m-%dT%H:%M:%S.000Z"`
全ジョブ
[root@pcamn01 ~]# support-bundles -m time_slice -sr 3-xxxxxxxxxxx --all -s "2022-01-11T00:00:00" -e "2022-01-12T23:59:59"
出力アーカイブ・ファイルには、次のファイルがあります。
ファイル | 説明 |
---|---|
|
このバンドルを生成するためのタイムスタンプおよびコマンドライン。 |
|
jsonのチャンク・ファイル。 |
スマート・モード
スマート・モードでは、最近のNOT_HEALTHYステータスについてヘルス・チェッカが問い合せられます。 デフォルトでは、2日間のログが収集されます。 2日を超えるログが必要な場合は、--force
オプションを指定します。 ヘルス・チェッカを指定するには、-hc
オプションを使用します。
[root@pcamn01 ~]# support-bundles -m smart
次のその他の例を参照してください。
support-bundles
コマンドのスマート・モードには、このトピックの最初にリストされているモードおよびサービス・リクエスト番号オプションに加えて、次のオプションがあります。
開始日または終了日のみが指定されている場合、時間は計算され、指定された終了日の2日前または指定された開始日の2日後に問い合せられます。 開始日のみが指定され、2日の時間範囲内では、デフォルトの最近の異常時間が使用されます。
オプション | 説明 | 必須 |
---|---|---|
|
Lokiヘルス・チェッカ名。 次の健全性チェッカ・ログファイルの表を参照してください。 |
いいえ |
--errors_only
|
レベル名のフィルタリングは、エラー、クリティカルおよび重大でのみ実行されます。 | いいえ |
--force
|
開始日が2日の時間範囲制限を上書きするように強制します。 |
いいえ |
|
開始日(書式 最小引数は デフォルト値: 終了日マイナス2日 |
いいえ |
|
最小引数は デフォルト値: 最新の異常時間 |
いいえ |
次の表に、各ヘルス・チェッカに対するログ・ファイルを示します。
ヘルス・チェッカ | サポート・ログ・ファイル |
---|---|
L0_hw_health-checker |
|
cert-checker |
ログなし - 証明書と有効期限(チェッカから)のみ |
etcd-checker |
|
flannel-checker |
|
kubernetes-checker |
|
l0-cluster-services-checker |
|
mysql-cluster-checker |
|
network-checker |
|
registry-checker |
メッセージ(レジストリ自体はログを生成しません) |
vault-checker |
|
zfssa-checker |
|
例:
-hc
はありません。 すべてのヘルス・チェッカから異常なデータを問い合せます。
[root@pcamn01 ~]# support-bundles -m smart -sr 3-xxxxxxxxxxx
-hc
を使用して、1つのヘルス・チェッカを指定します。
[root@pcamn01 ~]# support-bundles -m smart -sr 3-xxxxxxxxxxx -hc network-checker
--force
のタイムスタンプ。
[root@pcamn01 ~]# support-bundles -m smart -sr 3-xxxxxxxxxxx -s "2022-01-11/00:00:00" -e "2022-01-15/23:59:59" --force
出力アーカイブ・ファイルには、次のファイルがあります。
ファイル | 説明 |
---|---|
|
このバンドルを生成するためのタイムスタンプおよびコマンドライン。 |
|
jsonのチャンク・ファイル。 |
ネイティブ・モード
他のサポート・バンドル・モードとは異なり、ネイティブ・バンドル・コマンドはただちに戻り、バンドル・コレクションはバックグラウンドで実行されます。 ネイティブ・バンドルでは、収集に時間がかかる場合があります。 収集の進捗情報は、バンドル・ディレクトリのnative_collection.log
にあります。
また、他のサポート・バンドル・モードとは異なり、ネイティブ・バンドルの出力は単一のアーカイブ・ファイルではありません。 かわりに、バンドル・ディレクトリは管理ノードの/nfs/shared_storage/support_bundles/
領域に作成されます。 このディレクトリには、native_collection.log
ファイルおよび多数のtar.gz
ファイルが含まれています。
[root@pcamn01 ~]# support-bundles -m native -t bundle_type [-c component_name] [-sr SR_number]
support-bundles
コマンドのネイティブ・モードには、このトピックの最初にリストされているモードおよびサービス・リクエスト番号オプションに加えて、次のオプションがあります。
オプション | 説明 | 必須 |
---|---|---|
|
バンドル・タイプ: |
はい |
|
コンポーネント名 このオプションは、 |
いいえ |
ZFSバンドル
type
がzfs-bundle
の場合、ZFSサポート・バンドル・コレクションは両方のZFSノードで開始され、新しいZFSサポート・バンドルがバンドル・ディレクトリにダウンロードされます。
[root@pcamn01 ~]# support-bundles -m native -t zfs-bundle 2021-11-16T22:49:30.982 - support_bundles - INFO - Starting Support Bundles 2021-11-16T22:49:31.037 - support_bundles - INFO - Locating filter-logs Pod 2021-11-16T22:49:31.064 - support_bundles - INFO - Executing command - ['python3', '/usr/lib/python3.6/site-packages/filter_logs/native.py', '-t', 'zfs-bundle'] 2021-11-16T22:49:31.287 - support_bundles - INFO - LAUNCHING COMMAND: ['python3', '/usr/lib/python3.6/site-packages/filter_logs/native_app.py', '-t', 'zfs-bundle', '--target_directory', '/support_bundles/zfs-bundle_20211116T224931267'] ZFS native bundle collection running to /nfs/shared_storage/support_bundles/zfs-bundle_20211116T224931267 Monitor /nfs/shared_storage/support_bundles/zfs-bundle_20211116T224931267/native_collection.log for progress. 2021-11-16T22:49:31.287 - support_bundles - INFO - Finished running Support Bundles
SOSレポート・バンドル
type
がsosreport
の場合、component_name
は管理ノードまたはコンピュート・ノードです。 component_name
を指定しない場合、レポートはすべての管理ノードおよびコンピュート・ノードから収集されます。
[root@pcamn01 ~]# support-bundles -m native -t sosreport -c pcacn003 -sr SR_number
Oracleサポートへのサポート・バンドルのアップロード
「support-bundlesコマンドの使用」の説明に従ってsupport-bundles
コマンドを使用してサポート・バンドルを作成した後、このトピックで説明するメソッドを使用して、サポート・バンドルをOracleサポートにアップロードできます。
これらのメソッドを使用するには、次の要件を満たす必要があります:
-
ファイルのアップロードに使用される各サポートID (SI)の適切なカスタマ・ユーザー管理者(CUA)によって付与された、SRの作成および更新権限を持つMy Oracle SupportユーザーIDが必要です。
-
既存のサービス・リクエストにファイルをアップロードする場合は、サービス・リクエストに関連付けられたサポートIDがプロファイルに含まれている必要があります。
-
2 GBより大きいファイルをアップロードするには、送信マシンがFTPSおよびHTTPSを使用するには、
transport.oracle.com
のMy Oracle Supportサーバーに接続するためのネットワーク・アクセス権を持っている必要があります。Oracle FTPSサービスはパッシブ実装です。 暗黙的な構成では、初期接続はクライアントから990の制御ポート上のサービスに接続され、その後、接続は上位ポートに切り替えられてデータを交換します。 Oracleは、データ・ポート32000から42000の範囲を定義し、ネットワーク構成によっては、ポート990とポート32000から42000の両方でアウトバウンド接続を有効にする必要がある場合があります。 TLSv1.2 / ECDHE-RSA-AES128-GCM-SHA256のみが有効な暗号化メソッドです。
Oracle HTTPS診断アップロード・サービスは、443の標準HTTPSポートを使用し、追加のポートを開く必要はありません。
コマンドライン・プロトコルを使用する場合は、コマンドにパスワードを含めないでください。 要求された場合にのみパスワードを入力します。
-
Oracleでは、すべてのファイル転送にTLS 1.2 +を使用する必要があります。
-
暗号化ファイルまたはパスワードで保護されたファイル(スタンドアロンまたはアーカイブ内)はアップロードしないでください。 サービス・リクエストの更新では、これは破損ファイルとして記録されるか、許可されていないファイル・タイプが見つかったためアップロードを拒否します。 FTPSおよびHTTPSを使用すると、ファイルは暗号化されます。追加の保護は必要ありません。
-
ファイル・タイプ拡張子が
exe
,bat
,asp
またはcom
のファイルは、スタンドアロンまたはアーカイブ内でアップロードしないでください。 サービス・リクエストの更新により、許可されていないファイル・タイプが見つかったことが通知されます。
ファイル2 GB以下のアップロード
My Oracle SupportポータルでSRファイル・アップロード・ユーティリティを使用します。
-
My Oracle Supportのユーザー名とパスワードでMy Oracle Supportにログインします。
-
次の内の1つを実行します。
-
新規サービス・リクエストを作成し、次のステップでアップロード・ボタンを選択します。
-
既存のサービス・リクエストを選択して開きます。
-
-
ページ上部の添付の追加ボタンをクリックします。
-
「ファイルの選択」ボタンをクリックします。
-
ナビゲートして、アップロードするファイルを選択します。
-
ファイルの添付ボタンをクリックします。
また、次のセクションで説明するメソッドを使用して、大きなファイルを作成することもできます。
GBが2つを超えるファイルのアップロード
200GBを超えるファイルはアップロードできません。 「ファイルの分割」を参照してください。
FTPS
構文:
サービス・リクエスト番号の後に/
文字を含めてください。
$ curl -T path_and_filename -u MOS_user_ID ftps://transport.oracle.com/issue/SR_number/
例:
$ curl -T /u02/files/bigfile.tar -u MOSuserID@example.com ftps://transport.oracle.com/issue/3-1234567890/
HTTPS
構文:
サービス・リクエスト番号の後に/
文字を含めてください。
$ curl -T path_and_filename -u MOS_user_ID https://transport.oracle.com/upload/issue/SR_number/
例:
$ curl -T D:\data\bigfile.tar -u MOSuserID@example.com https://transport.oracle.com/upload/issue/3-1234567890/
送信中のファイルの名前変更
$ curl -T D:\data\bigfile.tar -u MOSuserID@example.com https://transport.oracle.com/upload/issue/3-1234567890/NotSoBig.tar
プロキシの使用
$ curl -k -T D:\data\bigfile.tar -x proxy.example.com:80 -u MOSuserID@example.com https://transport.oracle.com/upload/issue/3-1234567890/
ファイルの分割
大きなファイルを複数のパートに分割し、パートをアップロードできます。 Oracleすべてのパートのアップロードが完了すると、トランスポートによってセグメントが連結されます。
HTTPSプロトコルのみを使用できます。 使用できるのはUNIXスプリット・ユーティリティのみです。 Microsoft Windows分割ユーティリティは、互換性のない書式を生成します。
アップロード時間を短縮するには、分割する前に元のファイルを圧縮します。
-
ファイルを分割します。
次のコマンドは、ファイル
file1.tar
をfile1.tar.partaa
およびfile1.tar.partab
という名前の2つのGB部分に分割します。重要:
次に示すように、
.part
拡張子を正確に指定します。$ split –b 2048m file1.tar file1.tar.part
-
結果の
file1.tar.partaa
およびfile1.tar.partab
ファイルをアップロードします。重要:
これらの出力パート・ファイルの名前を変更しないでください。
$ curl -T file1.tar.partaa -u MOSuserID@example.com https://transport.oracle.com/upload/issue/SR_number/ $ curl -T file1.tar.partab -u MOSuserID@example.com https://transport.oracle.com/upload/issue/SR_number/
-
コマンドを送信してパーツをまとめます。
ス・ピット・ファイルはサービス・リクエストに添付されません。 最終連結ファイルのみがサービス・リクエストに添付されます。
$ curl -X PUT -H X-multipart-total-size:original_size -u MOSuserID@example.com https://transport.oracle.com/upload/issue/SR_number/file1.tar?multiPartComplete=true
前述のコマンドで、
original_size
は、ファイル・リストに示されている元の分割されていないファイルのサイズです。 -
新しく添付されたファイルのサイズを確認します。
ノート:
この検証コマンドは、ステップ3の連結コマンドの直後に実行する必要があります。 それ以外の場合は、ファイルの処理が開始され、このコマンドで使用できなくなります。
$ curl -I -u MOSuserID@example.com https://transport.oracle.com/upload/issue/SR_number/file1.tar X-existing-file-size: original_size
中断されたHTTPSアップロードの再開
異常終了したファイル・アップロードを再開できます。 再開はHTTPSを使用してのみ実行できます。 再開はFTPSでは機能しません。 アップロードがイベントによって中断された場合、中断されたファイルのファイル・サイズの取得から開始
-
すでにアップロードされているファイルの量を確認します。
$ curl -I -u MOSuserID@example.com https://transport.oracle.com/upload/issue/SR_number/myinfo.tar HTTP/1.1 204 No Content Date: Tue, 15 Nov 2022 22:53:54 GMT Content-Type: text/plain X-existing-file-size: already_uploaded_size X-Powered-By: Servlet/3.0 JSP/2.2
-
ファイルのアップロードを再開します。
ステップ1の「X-existing-file-size」で返されるファイル・サイズに注意してください。 このファイル・サイズは、
-C
スイッチの後および-H “X-resume-offset:”
スイッチで使用します。$ curl -Calready_uploaded_size -H "X-resume-offset: already_uploaded_size" -T myinfo.tar -u MOSuserID@example.com https://transport.oracle.com/upload/issue/SR_number/myinfo.tar
-
最終ファイル・サイズを確認します。
$ curl -I -u MOSuserID@example.com https://transport.oracle.com/upload/issue/SR_number/myinfo.tar -H X-existing-file-size: original_size
前述のコマンドで、
original_size
は、ファイルのリストに示されている元のファイルのサイズです。