機械翻訳について

4.2 CLIのコマンド

この項では、CLI経由で使用可能なすべてのドキュメント化されたコマンドについて説明します。

Ethernetベース・システムとInfiniBandベース・システムで使用可能なCLIコマンドにはわずかな相違点があります。 特定のアーキテクチャで使用できないコマンドを発行すると、コマンドは失敗します。

4.2.1 add compute-node

既存のテナント・グループにコンピュート・ノードを追加します。 新規テナント・グループを作成するには、第4.2.17項、「create tenant-group」を参照してください。

構文

add compute-node node tenant-group-name [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

そこで、tenant-group-nameは、1つ以上のコンピュート・ノードを追加するテナント・グループの名前、nodeは、選択されているテナント・グループに追加する必要があるコンピュート・ノードの名前です。

説明

add compute-nodeコマンドを使用して、作成したテナント・グループに必要なコンピュート・ノードを追加します。 現在、コンピュート・ノードが別のテナント・グループの一部である場合、まずそのテナント・グループから削除されます。 カスタム・ネットワークがテナント・グループにすでに関連付けられている場合、新しく追加されたサーバーもそのネットワークに接続されます。

add compute-node操作中は、Kubernetesクラスタ操作を実行または起動しないでください。 既存のKubernetesクラスタがテナント・グループ内にある場合、コンピュート・ノードが追加され、K8S_Privateネットワークが接続された後、既存のKubernetesプライベート・クラスタ・ネットワークが拡張される期間があります。 Kubernetesプライベート・ネットワーク拡張は、コンピュート・ノードの追加の外部で非同期に行われます。

add network-to-tenant-groupコマンドを使用して、カスタム・ネットワークをテナント・グループに関連付けます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.3 テナント・グループへのコンピュート・ノードの追加

PCA> add compute-node ovcacn09r1 myTenantGroup

Status: Success

4.2.2 add initiator

iSCSI LUNにイニシエータを追加します。 これにより、内部ZFSストレージ・アプライアンスで作成したiSCSI LUN共有へのアクセスを制御できます。

構文

add initiator initiator IQN LUN-name [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、LUN-nameはイニシエータを使用してアクセス権を付与するiSCSI LUN共有の名前です。

説明

iSCSI LUNにイニシエータを追加するには、add initiatorコマンドを使用します。 このコマンドは、指定されたIQNを持つイニシエータをZFSストレージ・アプライアンスに作成し、iSCSI共有に関連付けられたイニシエータ・グループに追加します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

initiator IQN

LUNにアクセスする仮想マシンからイニシエータIQNを一覧表示します。 同じサブネット/ネットワーク内の仮想マシンのみがファイルシステムにアクセスできます。

LUN name

イニシエータを使用して使用可能にするLUNを指定します。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.4 LUNへのイニシエータの追加

PCA> add initiator iqn.company.com  myLUN 
Status: Success

4.2.3 add network

サーバー・ノードを既存のネットワークに接続します。 新しいカスタム・ネットワークを作成するには、第4.2.12項、「create network」を参照してください。

構文

add network network-name node [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、network-nameは、1つ以上のサーバーを接続するネットワークの名前です。nodeは、選択されたネットワークに接続する必要があるサーバー・ノードの名前です。

説明

add networkコマンドを使用して、必要なサーバー・ノードを作成したカスタム・ネットワークに接続します。 サーバー間にカスタム・ネットワークを設定するときは、まずネットワークを作成し、次に必要なサーバーをネットワークに追加します。 create networkコマンドを使用して、追加のカスタム・ネットワークを構成します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.5 コンピュート・ノードのカスタム・ネットワークへの接続

PCA> add network MyNetwork ovcacn09r1
Status: Success

4.2.4 add network-to-tenant-group

既存のテナント・グループにカスタム・ネットワークを関連付けます。 新規テナント・グループを作成するには、第4.2.17項、「create tenant-group」を参照してください。 新しいカスタム・ネットワークを作成するには、第4.2.12項、「create network」を参照してください。

構文

add network-to-tenant-group network-name tenant-group-name [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

network-nameは既存のカスタム・ネットワークの名前、tenant-group-nameはカスタム・ネットワークを関連付けるテナント・グループの名前です。

説明

add network-to-tenant-groupコマンドを使用して、テナント・グループのすべてのメンバー・サーバーをカスタム・ネットワークに接続します。 サーバーがテナント・グループに参加する場合はカスタム・ネットワーク接続が構成され、テナント・グループからサーバーが削除される場合は構成解除されます。

ノート

このコマンドには、バックグラウンドで実行される検証ステップが含まれます。 その結果、出力が返され、CLIの制御を再度収集しても、特定の操作が一定時間実行され続けます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.6 テナント・グループへのカスタム・ネットワークの関連付け

PCA> add network-to-tenant-group myPublicNetwork myTenantGroup

Validating servers in the tenant group... This may take some time.

The job for sync all nodes in tenant group  with the new network myPublicNetwork has been submitted.
Please look into "/var/log/ovca.log" and "/var/log/ovca-sync.log" to monitor the progress.

Status: Success

4.2.5 add nfs-exception

NFS共有の許可されたクライアント・リストにNFS例外を追加します。 これにより、特定のユーザー・グループに予想を付与することで、内部ZFSストレージ・アプライアンスへのアクセスを制御できます。

構文

add nfs-exception nfs-share-name network or IP address [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

nfs-share-nameは、例外を使用してアクセス権を付与するNFS共有の名前です。

説明

add nfs-exceptionコマンドを使用して、NFS共有へのクライアント・アクセスを付与します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

network or IP address

シェアにアクセスするIPアドレスまたはCIDRを一覧表示します。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.7 NFS共有例外の追加

PCA> add nfs-exception MyNFSshare  172.16.4.0/24 
Status: Success

4.2.6 add node-pool

Kubernetesクラスタにノード・プールを追加します。 クラスタが最初に構築されるときには、2つのノード・プールがあります: masterおよびworker 追加のワーカー・ノード・プールを作成できます。 これは、クラスタにCPUおよびメモリーが多い(または少ない)ワーカー・ノードが必要な場合、または代替リポジトリにブート・ディスクを作成する必要がある場合に便利です。

構文

add node-pool cluster-name node-pool-name cpus memory repository virtual-appliance [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

cluster-nameは、ノード・プールを追加するKubernetesクラスタの名前です。

説明

add node-poolコマンドを使用して、Kubernetesクラスタにノード・プールを追加します。 新しいノード・プールは、元のクラスタとは異なるリポジトリにすることができ、複数の使用可能な仮想アプライアンスがある場合は別の仮想アプライアンスを使用できます。 CPUおよびメモリーの数は有効な範囲内である必要があります。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

node pool name

追加するノード・プールの名前を選択します。 作成後、新しいノード・プールは空になります。 第4.2.7項、「add node-pool-node」を参照してください。

cpus

CPUの数を指定します。 ノード・プールは1から24のCPUを持つことができます。

memory

メモリーの量を指定します。 ノード・プールには、8から393 GBのメモリーを含めることができます。

repository

仮想マシンのブート・ディスクに使用される仮想アプライアンスを含むリポジトリを入力します。 クラスタは、テナント・グループ内のすべてのノードにアタッチされているかぎり、複数のリポジトリにノード・プールを持つことができます。 指定しない場合、create kube-clusterコマンドで指定したリポジトリが使用されます。

このフィールドでタブを入力すると、Oracle VMで使用可能なストレージ・リポジトリの完全なリストではなく、デフォルト・リポジトリが返されることに注意してください。

virtual appliance

事前構成済の仮想アプライアンス名のいずれかを入力します。 指定しない場合、クラスタで使用される仮想アプライアンス名が想定されます。

複数の仮想アプライアンスが使用可能な場合、新しいノード・プールは元のクラスタとは異なる仮想アプライアンスを使用できます。

このコマンドを実行する前に、使用する仮想アプライアンス(none default OVA-name)を/etc/kubernetes.confファイルに追加する必要があります。

例4.8 ノード・プールの追加

PCA> add node-pool MyCluster np0 1 8192
Status: Success

4.2.7 add node-pool-node

Kubernetesクラスタ・ノード・プールにノードを追加します。 ホスト名は、静的ネットワーク構成の場合にのみ必要です。 このコマンドは、既存のワーカー・ノード・プールをスケール・アップしたり、以前に削除されたマスター・ノードを置換するために使用します。

構文

add node-pool-node cluster-name node-pool-name hostname [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

cluster-nameは、ノードを追加するKubernetesクラスタの名前です。

説明

add node-pool-nodeコマンドを使用して、Kubernetesクラスタ内のノード・プールにノードを追加します。 このコマンドは、非同期ジョブを介してノードを起動します。 進捗は、show node-pool-nodeまたはlist node-pool-nodeコマンドを使用して表示できます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

node pool name

ノードを追加するノード・プールを選択します。

host name

静的ネットワークの場合、ホスト名が必要であり、そのホスト名を静的ネットワークで解決できる必要があります。 DHCPの場合、マスター・ノードを置換しないかぎり、このコマンドにホスト名は必要ありません。

マスター・ノード置換の場合は、既存のホストの名前を使用する必要があります。 list node-pool-nodeコマンドから既存のホスト名を確認できます。

状態

次の表に、このコマンドで使用可能な状態を示します。 すべての状態はワーカー・ノードに適用され、一部の状態はマスター・ノードにも適用されます。

状態

サブ状態

説明

CONFIGURED

この状態は、マスターおよびワーカー・ノード・プール内のノードでのみ表示され、通常、クラスタがCONFIGUREDまたはBUILDING状態のときにのみ表示されます。 再構築するためにマスター・ノードがクラスタから一時的に削除された場合、クラスタがAVAILABLEであれば、マスター・ノード・プール内のノードはCONFIGURED状態に戻ることがあります。

SUBMITTED

QUEUED

リソースがビルドを開始するまで待機しています。

BUILDING

ノードの構築。

VM

仮想マシンを構築し、設定を適用します。

JOIN

Kubernetesコントロール・プレーンの結合。

RECOVERING

VM

VMを停止して削除します。

STOPPING

ノードを停止します。 最初にノードがKubernetesクラスタから削除され、次に仮想マシンが停止されてOracle VMから削除されます。

AVAILABLE

ノードは構築プロセスを終了しました。

BUSY

この状態のマスター・ノードは、Kubernetesクラスタとの対話に使用されています。

ERROR

構築中にノードでエラーが発生しました。 エラーを理解した後、ノードを削除する必要があります。

BUILD_VM

仮想マシンのビルド中にエラーが発生しました。 show node-pool-nodeでエラー・メッセージを確認すると、問題の理解に役立ちます。失敗の詳細は、Oracle VMを直接参照する必要がある場合があります。

JOIN

仮想マシンがKubernetesコントロール・プレーンに参加中にエラーが発生しました。 Kubernetesの潜在的な問題については、Kubernetes管理者に問い合せてください。

例4.9 ノード・プール・ノードの追加

PCA> add node-pool-node MyCluster np0 myHost_1 
Status: Success

4.2.8 backup

Oracle Private Cloud Applianceの手動バックアップをトリガーします。

ノート

バックアップ・コマンドはアクティブ管理ノードからのみ実行できます。スタンバイ管理ノードからは実行できません。

構文

backup [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

説明

通常のcronスケジュール外でバックアップ・タスクを開始するには、backupコマンドを使用します。 バックアップ・タスクでは、第1.6項、「Oracle Private Cloud Applianceバックアップ」の説明に従ってOracle Private Cloud Applianceの全体バックアップが実行されます。 CLIコマンドはバックアップ・タスク自体の進捗を監視せず、タスクをトリガーした直後に終了し、タスクIDと名前、初期ステータス、進行状況および開始時間を返します。 このコマンドは、アクティブ管理ノードでのみ実行する必要があります。

バックアップを開始した後は、show taskコマンドを使用してタスクのステータスを表示できます。 詳細は、4.74 の例、タスクの表示を参照してください。

オプション

このコマンドには、これ以上のオプションはありません。

例4.10 バックアップ・タスクの実行

PCA> backup

The backup job has been submitted. Use "show task <task id>" to monitor the progress.

Task_ID         Status  Progress Start_Time           Task_Name
-------         ------  -------- ----------           ---------
3769a13df448a2  RUNNING None     06-05-2019 09:21:36  backup
---------------
1 row displayed

Status: Success

4.2.9 configure vhbas

コンピュート・ノードでvHBAsを構成します。 このコマンドは、InfiniBandベースのネットワーク・アーキテクチャを備えたシステムでのみ使用されます。

構文

configure vhbas { ALL | node } [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、nodeはvHBAsを構成する必要があるコンピュート・ノードのコンピュート・ノード名で、ALLは環境にプロビジョニングされているすべてのコンピュート・ノードを参照します。

説明

このコマンドが存在しない場合は、ファイバ・チャネル接続用のデフォルトの仮想ホスト・バス・アダプタ(vHBAs)が作成されます。 4つのデフォルトvHBAsのそれぞれに、物理サーバー上の結合が対応します。 サーバー・ノードとFabric Interconnect間の各vHBA接続には、固有のマッピングがあります。 configure vhbasコマンドを使用して、すべてのコンピュート・ノードまたはその特定のサブセット上に仮想ホスト・バス・アダプタ(vHBA)を構成します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

ALL | node

すべてのコンピュート・ノードまたは1つ以上の特定のコンピュート・ノードにvHBAsを構成します。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.11 特定のコンピュート・ノードのvHBAsの構成

PCA> configure vhbas ovcacn11r1 ovcacn14r1
Compute_Node         Status         
------------         ------         
ovcacn14r1           Succeeded      
ovcacn11r1           Succeeded      
----------------
2 rows displayed
Status: Success

4.2.10 create iscsi-storage

VMストレージ・ネットワーク用の新しいiSCSI LUN共有を作成します。 詳細は、第2.7.2項、「ストレージ共有の作成」を参照してください。

構文

create iscsi-storage iscsi-LUN-name storage_network_name LUN_size storage-profile [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、iscsi-LUN-nameは作成するiSCSI LUN共有の名前です。

説明

このコマンドを使用して、特定のネットワークに関連付けられたiSCSI LUN共有を作成します。 このiSCSI LUN共有は、指定されたネットワークにアクセスできる仮想マシンで使用できます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

storage_network_name

共有を作成するストレージ・ネットワークの名前。

share_size

共有のサイズ(ギガバイト)、たとえば100G。

storage-profile

必要に応じて、事前構成済のストレージ・プロファイルを選択して、ご使用の環境でI/Oのパフォーマンスを最大化できます。 詳細は、第2.7.3項、「ストレージ・プロファイル」を参照してください。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.12 iSCSI LUN共有の作成

PCA> create iscsi-storage my_iscsi_LUN myStorageNnetwork 100G general

Status: Success

4.2.11 create lock

特定のアプライアンス機能にロックを設定します。

注意

Oracle Supportから相談したり固有の指示がないかぎり、ロックは使用しないでください。

構文

create lock { all_provisioning | cn_upgrade | database | install | manufacturing | mn_upgrade | provisioning | service } [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

説明

特定のアプリケーションレベル・ファンクションを一時的に無効にするには、create lockコマンドを使用します。 ロック・タイプについては、オプションで説明します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

all_provisioning

すべての管理ノードの更新およびコンピュート・ノード・プロビジョニングを一時停止します。 実行中のタスクは完了し、プロセスの次のステージの前で停止されます。

デーモンは、数秒ごとにロックをチェックします。 ロックが解除されると、更新またはプロビジョニング・プロセスは、停止された場所から続行されます。

cn_upgrade

すべてのコンピュート・ノードのアップグレード操作を防止します。

database

管理ノードの更新プロセス中にデータベースに対してロックの解除を行います。 更新後にロックが解放されます。

install

プレースホルダー・ロック・タイプ。 現在使用されていません。

manufacturing

製造での使用

このロック・タイプは、ファクトリ内のリブート間で最初のブート・プロセスが開始するのを防ぎます。 このロックがアクティブである間は、ovcaサービスは開始しません。

mn_upgrade

すべての管理ノードのアップグレード操作を防止します。

provisioning

コンピュート・ノードのプロビジョニングを回避します。 コンピュート・ノードのプロビジョニング・プロセスが実行されている場合、次の段階で停止します。

デーモンは、数秒ごとにロックをチェックします。 ロックが解除されると、すべてのノードがプロビジョニング・プロセスの次の段階に進みます。

service

プレースホルダー・ロック・タイプ。 動作は、製造ロックと同じです。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.13 プロビジョニング・ロックの適用

PCA> create lock provisioning
Status: Success

4.2.12 create network

アプライアンス・レベルで新しいカスタム・ネットワーク、プライベートまたはパブリックを作成します。 詳細は、第2.6項、「ネットワークのカスタマイズ」を参照してください。

構文

create network network-name { rack_internal_network | external_network port-group | storage_network prefix netmask [zfs-ipaddress] | host_network port-group prefix netmask [route-destination gateway] } [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、network-nameは作成するカスタム・ネットワークの名前です。

ネットワーク・タイプがexternal_networkの場合、パブリック接続に使用されるスパイン・スイッチのポートもport-groupとして指定する必要があります。 このために、最初にアップリンク・ポート・グループを作成する必要があります。 詳細は、第4.2.18項、「create uplink-port-group」を参照してください。

ネットワーク・タイプがstorage_networkの場合、必須の追加引数が必要です。 ZFSストレージ・アプライアンス・ネットワーク・インタフェースに割り当てられているprefixnetmaskおよび[zfs-ipaddress]を入力します。

ネットワーク・タイプがhost_networkの場合、追加の引数が必要です。 サブネット引数は必須です。ルーティング引数はオプションです。

  • prefix: ネットマスクに応じてホスト・ネットワーク・サブネットの固定部分を定義します

  • netmask: サブネットのどの部分が固定され、どの部分が変数であるかを決定します

  • [route-destination]: ホスト・ネットワーク内から到達可能な外部ネットワークのロケーション。単一の有効なIPv4アドレスまたはCIDR表記のサブネットとして指定できます。

  • [gateway]: 静的ルートのゲートウェイのIPアドレスで、これはホスト・ネットワーク・サブネット内にある必要があります

ホストまたは物理サーバーのIPアドレスは、ホスト・ネットワークのプレフィクスとネットマスクに基づいています。 最後のオクテットは、対応する内部管理IPアドレスと同じです。 ネットワーク作成コマンドによるルーティング情報は、ホスト・ネットワークに結合する各コンピュート・ノード上に静的ルートを構成するために使用されます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

{ rack_internal_network | external_network | storage_network | host_network }

作成するカスタム・ネットワークのタイプ。 オプションは次のとおりです。

  • ラック内部のネットワーク

  • 外部接続性のあるネットワーク

  • 外部接続を持つネットワーク。物理ホストの場合にアクセスできます。

  • ZFSストレージ・アプライアンスへの内部接続を備えたネットワーク

external_network port-group

外部接続を含むカスタム・ネットワークを作成するには、スパイン・スイッチのポートも指定する必要があります。 ポートはアップリンク・ポート・グループに属している必要があり、このコマンドでポート・グループ名を引数として指定します。

storage_network prefix netmask [zfs-ipaddress]

ストレージ・ネットワークを作成するには、ZFSストレージ・アプライアンス・ネットワーク・インタフェースに割り当てるプレフィクス、ネットマスクおよびIPアドレスを指定する必要があります。

host_network port-group prefix netmask [route-destination gateway]

カスタム・ホスト・ネットワークを作成するには、外部ネットワークと同様に、スパイン・スイッチにポートを指定する必要があります。 ポートはアップリンク・ポート・グループに属している必要があり、このコマンドでポート・グループ名を引数として指定します。

また、ホスト・ネットワークには、そのサブネットの引数が必要です。 ルーティング引数はオプションです。 前述の構文セクションでは、4つの引数すべてについて説明しています。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.14 内部カスタム・ネットワークの作成

PCA> create network MyPrivateNetwork rack_internal_network
Status: Success

例4.15 外部接続を使用したカスタム・ネットワークの作成

PCA> create network MyPublicNetwork external_network myUplinkPortGroup
Status: Success

例4.16 ストレージ・ネットワークの作成

PCA> create network MyStorageNetwork storage_network 10.10.10 255.255.255.0 10.10.10.1

Status: Success

4.2.13 create nfs-storage

VMストレージ・ネットワークの新しいNFSストレージ共有を作成します。 詳細は、第2.7.2項、「ストレージ共有の作成」を参照してください。

構文

create nfs-storage nfs-share-name storage_network_name share_size storage-profile [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、nfs-share-nameは作成するNFS共有の名前です。

説明

このコマンドを使用して、特定のネットワークにアクセスされるNFS共有を作成します。 このNFS共有は、指定されたネットワークにアクセスできる仮想マシンで使用できます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

storage_network_name

共有を作成するストレージ・ネットワークの名前。

share_size

共有のサイズ(ギガバイト)、たとえば100G。

storage-profile

必要に応じて、事前構成済のストレージ・プロファイルを選択して、ご使用の環境でI/Oのパフォーマンスを最大化できます。 詳細は、第2.7.3項、「ストレージ・プロファイル」を参照してください。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.17 NFS共有の作成

PCA> create nfs-storage myShare myStorageNnetwork 100G general

Status: Success

4.2.14 create kube-cluster

新しいKubernetesクラスタ定義を作成します。 クラスタ定義を作成したら、そのクラスタを起動してアクティブにします。 詳細は、第2.13.3項、「DHCPネットワークでのKubernetesクラスタの作成」および第2.13.4項、「静的ネットワークでのKubernetesクラスタの作成」を参照してください。

構文

create kube-cluster cluster-name tenant-group external_network load_balancer_IP_address repository virtual-appliance

cluster-nameは、作成するKubernetesクラスタの名前です。

説明

create kube-clusterコマンドを使用して、実行可能なKubernetesクラスタの新しいクラスタ構成を設定します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

tenant group

クラスタを構築するOracle Private Cloud Applianceテナント・グループを選択します。 第2.8項、「テナント・グループ」を参照してください。

external network

クラスタ・マスター・ノードに接続する外部ネットワークを選択します。 このネットワークはネーム・サーバーとDHCPサーバーへのアクセスを提供し、必要に応じてマスター・ノードがワーカー・ノードのゲートウェイとして機能できるようにします。

load balancer IP address

ロード・バランサのIPアドレスは浮動IPアドレスで、アドレスのホストに接続できなくなったときに、仮想ルーター冗長プロトコル(VRRP)を使用して他のマスター・ノードにフェイルオーバーします。 VRRPアドレスは、create kube-clusterコマンドによって、Oracle Private Cloud Applianceで次に使用可能なものとして自動的に選択されます。

ネットワーク上のほかのリソースがVRRPを使用する場合は、VRRPの衝突を避けるために、特定のVRRP IDをクラスタに割り当てます。 第4.2.45項、「set kube-load-balance」を参照してください。

repository

ストレージ・リポジトリをクラスタに割り当てます。 このフィールドでタブを入力すると、Oracle VMで使用可能なストレージ・リポジトリの完全なリストではなく、デフォルト・リポジトリが返されることに注意してください。

virtual appliance

オプションで、ダウンロードした仮想アプライアンスを入力して、Kubernetesクラスタのテンプレートとして使用できます。 第2.13.2項、「クラスタ環境の準備」を参照してください。

例4.18 クラスタの作成

PCA> create kube-cluster MyCluster Rack1_ServerPool vm_public_vlan 10.10.10.250 Rack1-Repository 
Kubernetes cluster configuration (MyCluster) created
Status: Success

4.2.15 create oci-backup

オンデマンドのOracle Cloud Infrastructureデータセット・バックアップを作成します。 詳細は、第2.12.2項、「手動クラウド・バックアップの構成」を参照してください。

構文

create oci-backup target-name target-name-2

target-nameは、バックアップを配置するOracle Cloud Infrastructureターゲットの名前です。

説明

このコマンドを使用して、Oracle Cloud Infrastructureバックアップを作成します。 このコマンドを使用して複数のターゲットをリストすることで、バックアップを複数の構成済ターゲットにプッシュできます。 ターゲットを構成するには、第2.12.1項、「クラウド・バックアップ・サービスの構成」を参照してください。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.19 Oracle Cloud Infrastructureバックアップの作成

PCA> create oci-backup OCItarget_1 OCItarget_2

Status: Success

4.2.16 create oci-target

バックアップを格納するOracle Cloud Infrastructureテナンシ上のロケーションであるOracle Cloud Infrastructureターゲットを作成します。

構文

create oci-target target-name target-location target-user target-bucket target-tenancy keyfile

target-nameは、バックアップを配置するOracle Cloud Infrastructureターゲットの名前です。

説明

このコマンドを使用して、Oracle Cloud Infrastructureターゲットを作成し、そのターゲットにスケジュール済バックアップを送信します。 このコマンドは、このバックアップを毎週構成されたターゲットにプッシュするcronjobを作成します。 詳細は、第2.12.1項、「クラウド・バックアップ・サービスの構成」を参照してください。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

target-location

オブジェクト・ストレージのエンドポイント。 使用可能なエンドポイントのリストは、https://docs.cloud.oracle.com/en-us/iaas/api/#/en/objectstorage/20160918/を参照してください。

target-user

Oracle Cloud Infrastructureテナンシへのアクセス権を持つユーザー。

target-bucket

オブジェクトを格納するための論理コンテナ。 ユーザーまたはシステムは、必要に応じて「リージョン内」にバケットを作成します。 クラウド・バックアップ機能のバケットを作成するには、第2.12.1項、「クラウド・バックアップ・サービスの構成」を参照してください。

target-tenancy

バックアップを格納するOracle Cloud Infrastructureテナンシ。

keyfile

Oracle Cloud Infrastructureテナンシへのアクセスに必要なAPIキー。 詳細は、https://docs.cloud.oracle.com/en-us/iaas/Content/API/Concepts/apisigningkey.htmを参照してください。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.20 Oracle Cloud Infrastructureターゲットの作成

PCA> create oci-target MyTarget https://objectstorage.us-oci.com ocid1.user.oc1..oos mybucketocid1.tenancy.oc1..no /root/oci_api_key.pem

Status: Success

4.2.17 create tenant-group

新規テナント・グループを作成します。 アプライアンス・レベルに存在するテナント・グループでは、対応するOracle VMサーバー・プールが作成されます。 詳細は、第2.8項、「テナント・グループ」を参照してください。

構文

create tenant-group tenant-group-name [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、tenant-group-nameはテナント・グループの名前です - およびサーバー・プール - 環境に追加すること。

説明

create tenant-groupコマンドを使用して、別のコンピュート・ノード・グループに対して新しいプレースホルダーを設定します。 テナント・グループの目的は、複数のコンピュート・ノードを個別のサーバー・プールにグループ化することです。 テナント・グループが存在する場合、add compute-nodeコマンドを使用して必要なコンピュート・ノードを追加します。 サーバー・プールのすべてのメンバーをカスタム・ネットワークに接続する場合は、add network-to-tenant-groupコマンドを使用します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.21 テナント・グループの作成

PCA> create tenant-group myTenantGroup

Status: Success

4.2.18 create uplink-port-group

新規アップリンク・ポート・グループを作成します。 アップリンク・ポート・グループは、使用されるスパイン・スイッチのポートと、それらが動作するブレークアウト・モードを定義します。 詳細は、「Oracle Private Cloud Applianceインストレーション・ガイド」「アプライアンスのアップリンク構成」を参照してください。 このコマンドは、Ethernetベースのネットワーク・アーキテクチャのあるシステムでのみ使用されます。

構文

create uplink-port-group port-group-name ports { 10g-4x | 25g-4x | 40g | 100g } [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

port-group-nameは、一意である必要があるアップリンク・ポート・グループの名前です。 アップリンク・ポート・グループは、使用可能なブレークアウト・モードのいずれかで実行されているportsのリストで構成されます。

説明

外部接続のスパイン・スイッチに予約されるポートを構成するには、create uplink-port-groupコマンドを使用します。 ポート5は、デフォルトの外部ネットワーク用に構成および予約されています。カスタム外部ネットワークにはポート1-4を使用できます。 これらのポートは、100Gbitの完全帯域幅または40Gbitの容量で使用することも、内訳付きのケーブルを4つの同等の遮断ポートに分割することもできます: 4x 10Gビットまたは4x 25Gビット。 ポート速度はアップリンク・ポート・グループのブレークアウト・モードで反映されます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

ports

アップリンク・ポート・グループを作成するには、ポート・グループに属するスパイン・スイッチのポートを指定する必要があります。 ポートは常に隣接するペアで指定する必要があります。 これらはポート番号で識別され、オプションでコロンで区切られ、ブレークアウト・ポートIDでも識別されます。 引用符間のポート識別子をスペース区切りのリストとして配置します。たとえば: '1 2'または'3:1 3:2'

{ 10g-4x | 25g-4x | 40g | 100g }

アップリンク・ポート・グループのブレークアウト・モードを設定します。 4方向の分割ケーブルを使用する場合、4つのすべてのポートを10Gbitまたは25Gbitに設定する必要があります。 内訳ケーブルを使用しない場合、接続要件に応じてアップリンク・ポート・グループのポート速度は100Gbitまたは40Gbitである必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.22 アップリンク・ポート・グループの作成

PCA> create uplink-port-group myUplinkPortGroup '3:1 3:2' 10g-4x
Status: Success

PCA> create uplink-port-group myStoragePortGroup '1 2' 40g
Status: Success

4.2.19 delete config-error

delete config-errorコマンドを使用すると、障害が発生した構成タスクを構成エラー・データベースから削除できます。

構文

delete config-error id [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、idはデータベースから削除する構成エラーの識別子です。

説明

delete config-errorコマンドを使用して、構成エラー・データベースから構成エラーを削除します。 これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

データベースから構成エラーを削除した後に、それに関連付けられていた構成タスクを再実行できない場合があります。 構成エラーのリストを取得するには、list config-errorコマンドを使用します。 詳細は、4.49 の例「すべての構成エラーのリスト」を参照してください。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.23 構成エラーの削除

PCA> delete config-error 87
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y
Status: Success

4.2.20 delete iscsi-storage

VMストレージ・ネットワークのiSCSI LUN共有を削除します。

構文

delete iscsi-storage iscsi-LUN-name

ここで、iscsi-LUN-nameは削除するiSCSI LUN共有の名前です。

説明

iSCSI LUN共有を完全に削除するには、このコマンドを使用します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.24 iSCSI LUN共有の削除

PCA> delete iscsi-storage my_iscsi_LUN

Status: Success

4.2.21 delete kube-cluster

Kubernetesクラスタ構成を削除します。 このコマンドを実行するには、クラスタを停止してCONFIGURED状態にする必要があります。 第2.13.7項、「クラスタの停止」を参照してください。

構文

delete kube-cluster cluster-name

cluster-nameは、削除するクラスタ構成の名前です。

説明

delete kube-clusterコマンドを使用して、クラスタ構成ファイルを削除し、マスター構成からクラスタを削除します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.25 クラスタの削除

PCA> delete kube-cluster MyCluster
Status: Success

4.2.22 delete lock

特定のアプライアンス機能に以前に適用されたロックを削除します。

構文

delete lock { all_provisioning | cn_upgrade | database | install | manufacturing | mn_upgrade | provisioning | service } [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

説明

以前にロックされたアプライアンス・レベルの関数を再び有効にするには、delete lockコマンドを使用します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

{ all_provisioning | cn_upgrade | database | install | manufacturing | mn_upgrade | provisioning | service }

削除するロックのタイプ。

ロック・タイプの詳細は、第4.2.11項、「create lock」を参照してください。

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.26 プロビジョニングのロック解除

PCA> delete lock provisioning
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y
Status: Success

4.2.23 delete network

カスタム・ネットワークを削除します。 詳細は、第2.6項、「ネットワークのカスタマイズ」を参照してください。

構文

delete network network-name [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、network-nameは削除するカスタム・ネットワークの名前です。

説明

以前に作成したカスタム・ネットワークを環境から削除するには、delete networkコマンドを使用します。 これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

カスタム・ネットワークは、すべてのサーバーを削除した後でのみ削除できます。 第4.2.36項、「ネットワークの削除」を参照してください。

デフォルトのOracle Private Cloud Applianceネットワークは保護されており、削除しようとすると失敗します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.27 カスタム・ネットワークの削除

PCA> delete network MyNetwork
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y
Status: Success

例4.28 デフォルト・ネットワークの削除の試行

PCA> delete network default_internal
Status: Failure
Error Message: Error (NETWORK_003): Exception while deleting network: default_internal.
['INVALID_NAME_002: Invalid Network name: default_internal. Name is reserved.']

4.2.24 delete nfs-storage

VMストレージ・ネットワークのNFSストレージ共有を削除します。

構文

delete nfs-storage nfs-share-name

ここで、nfs-share-nameは削除するNFSストレージ共有の名前です。

説明

NFSストレージ共有を完全に削除するには、このコマンドを使用します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.29 NFSストレージ共有の削除

PCA> delete nfs-storage myStorageShare

Status: Success

4.2.25 delete oci-backup

Oracle Cloud Infrastructureデータセットのバックアップを削除します。 詳細は、第2.12.3項、「クラウド・バックアップの削除」を参照してください。

構文

delete oci-backup oci-backup-name

oci-backup-nameは、削除するOracle Cloud Infrastructureバックアップの名前です。

説明

このコマンドを使用して、Oracle Cloud Infrastructurebackup.を完全に削除します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.30 Oracle Cloud Infrastructureバックアップの削除

PCA> delete oci-backup myOCIbackup

Status: Success

4.2.26 delete oci-target

ZFSストレージ・アプライアンスからOracle Cloud Infrastructureターゲットを削除します。 詳細は、第2.12.4項、「Oracle Cloud Infrastructureターゲットの削除」を参照してください。

構文

delete oci-target oci-target-name

oci-target-nameは、削除するOracle Cloud Infrastructureターゲットの名前です。

説明

このコマンドを使用して、Oracle Cloud Infrastructureターゲットを完全に削除します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.31 Oracle Cloud Infrastructureターゲットの削除

PCA> delete nfs-storage myStorageShare

Status: Success

4.2.27 delete task

deleteコマンドを使用すると、データベースからタスクを削除できます。

構文

delete task id [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、idはデータベースから削除するタスクの識別子です。

説明

タスク・データベースからタスクを削除するには、delete taskコマンドを使用します。 これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.32 タスクの削除

PCA> delete task 341e7bc74f339c
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y
Status: Success

4.2.28 delete tenant-group

テナント・グループを削除します。 デフォルト・テナント・グループは削除できません。 詳細は、第2.8項、「テナント・グループ」を参照してください。

構文

delete tenant-group tenant-group-name [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、tenant-group-nameはテナント・グループの名前です - およびサーバー・プール - 環境に追加すること。

説明

以前に作成したデフォルト以外のテナント・グループを環境から削除するには、delete tenant-groupコマンドを使用します。 すべてのサーバーは、削除する前にテナント・グループから削除する必要があります。 テナント・グループが削除されると、サーバー・プール・ファイル・システムが内部ZFSストレージから削除されます。

これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.33 テナント・グループの削除

PCA> delete tenant-group myTenantGroup
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y
Status: Success

4.2.29 delete uplink-port-group

アップリンク・ポート・グループを削除します。 アップリンク・ポート・グループの使用方法の詳細は、第4.2.18項、「create uplink-port-group」を参照してください。 このコマンドは、Ethernetベースのネットワーク・アーキテクチャのあるシステムでのみ使用されます。

構文

delete uplink-port-group port-group-name [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、port-group-nameは環境から削除するアップリンク・ポート・グループの名前です。

説明

以前に作成したアップリンク・ポート・グループを環境から削除するには、delete uplink-port-groupコマンドを使用します。 ネットワークの構成でアップリンク・ポート・グループを使用する場合は、アップリンク・ポート・グループを削除する前に、このネットワークを削除する必要があります。 それ以外の場合、削除コマンドは失敗します。

これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.34 アップリンク・ポート・グループの削除

PCA> delete uplink-port-group myUplinkPortGroup
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y
Status: Success

4.2.30 deprovision compute-node

様々な構成データベースで、以前にプロビジョニングされたコンピュート・ノード・レコードをクリーン・アップして削除します。 プロビジョニング・ロックは事前に適用する必要があります。そうしないと、プロビジョニング解除後すぐにノードの再プロビジョニングが行われます。

構文

deprovision compute-node compute-node-name [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、compute-node-nameはアプライアンス構成から削除するコンピュート・ノードの名前です。

説明

deprovision compute-nodeコマンドを使用して、アプライアンスから既存のコンピュート・ノードを取得します。そのような方法で修復または置換することができ、その後、ブランドの新しいコンポーネントとして再表示できます。 コンピュート・ノード構成レコードがシステムから正常に削除されました。

注意

プロビジョニング解除が成功するには、コンピュート・ノードILOMパスワードがデフォルトのWelcome1である必要があります。 そうでない場合、操作でエラーが発生することがあります。 これは、既存のコンピュート・ノードの再プロビジョニングにも適用されます。

デフォルトでは、コンピュート・ノードに稼働中のVMが含まれている場合、このコマンドは続行しません。 正しいワークフローは、コンピュート・ノードのプロビジョニングを解除する前にプロビジョニング・ロックを適用することです。それ以外の場合は、プロビジョニング解除が完了するとすぐに再表示およびプロビジョニングされます。 アプライアンスで通常の操作を再開する準備ができたら、プロビジョニング・ロックを再度解放します。 詳細は、第4.2.11項、「create lock」および第4.2.22項、「delete lock」を参照してください。

これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.35 コンピュート・ノードのプロビジョニング解除

deprovision compute-node ovcacn29r1
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y
Shutting down dhcpd:                                [ OK ]
Starting dhcpd:                                     [ OK ]
Shutting down dnsmasq:                              [ OK ]
Starting dnsmasq:                                   [ OK ]

Status: Success

4.2.31 diagnose

サポートのためにOracle Private Cloud Applianceに対して様々な診断チェックを実行します。

注意

diagnose softwareコマンドは非推奨です。 次回のOracle Private Cloud Appliance Controllerソフトウェア・リリースでは削除されます。 診断関数は別のヘルス・チェック・ツールで使用できるようになりました。 詳細は、第2.10項、「ヘルス・モニタリング」を参照してください。

その他のdiagnoseコマンドは機能し続けます。

構文

diagnose { ilom | software | hardware | rack-monitor } [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

次の表は、diagnoseコマンドの可能な各ターゲットを示しています。

コマンド・ターゲット

表示される情報

hardware

hardware診断には、さらに2つのオプションがあります。

  • rackオプションは、ラックの存続期間中に少なくとも1回ping可能なラック・コンポーネントのステータス情報を表示します。 コマンド出力はリアルタイム情報です。

    必要に応じて、結果をコンポーネント・タイプ(cn、ilom、mnなど)でフィルタ処理できます。タブ補完を使用すると、使用可能なすべてのコンポーネント・タイプを表示できます。

  • resetオプションの後には、コンポーネントのホスト名が必要です。 このコマンドは、問題のコンポーネントについて、モニター・データベースのイベント・カウンタをゼロにリセットします。

    コンポーネントがクリティカル状態であるか、または重要な状態であった場合、リセット・コマンドはそのコンポーネントのモニターを再有効化します。

ilom

ilom診断では、各コンポーネントのILOMが管理ネットワークでアクセス可能であることを確認します。

leaf-switch (Ethernetベースのシステムのみ)

leaf-switch診断では、リーフ・スイッチのヘルス・チェックが実行されます。

leaf-switch-resources (Ethernetベースのシステムのみ)

leaf-switch-resource診断で、各リーフ・スイッチのCPUおよびメモリー・ステータスをチェックします。

link-status (Ethernetベースのシステムのみ)

link-status診断で、リーフ・スイッチ・リンク・ポートのステータスが返されます。

rack-monitor

rack-monitor診断では、モニター・サービスによって登録されたエラーの有無をチェックします。 オプションで、これらをコンポーネント・カテゴリごとにフィルタできます。

必要に応じて、結果をコンポーネント・タイプ(cn、ilom、mnなど)でフィルタ処理できます。タブ補完を使用すると、使用可能なすべてのコンポーネント・タイプを表示できます。

softdware

software診断では、Oracle Private Cloud Applianceソフトウェア受入れテストがトリガーされます。

spine-switch (Ethernetベースのシステムのみ)

spine-switch診断では、スパイン・スイッチのヘルス・チェックが実行されます。

spine-switch-resources (Ethernetベースのシステムのみ)

spine-switch-resource診断では、スパイン・スイッチのCPUおよびメモリー・ステータスがチェックされます。

switch-logs (Ethernetベースのシステムのみ)

switch-logs診断には、さらに2つのオプションがあります。

  • processオプションは、スイッチで実行されるプロセスの情報を表示します。

  • coreオプションは、コア・ダンプに関する情報を表示します。

    ログ詳細は、スイッチに直接アクセスしてください。

uplink-port-statistics (Ethernetベースのシステムのみ)

uplink-port-statistics診断には、スパイン・スイッチの北-南データ・トラフィック統計が表示されます。

説明

diagnoseコマンドを使用して、Oracle Private Cloud Applianceを構成する各種コンポーネントの診断チェックを開始します。

診断情報の大部分は、インベントリ・データベースおよび監視データベースに格納されます。 インベントリ・データベースは最初のラック・インストールから移入され、すべてのラック・コンポーネントの履歴ログを保存します。 モニター・データベースには、モニター・サービスによって検出されたラック・コンポーネント・イベントが格納されます。 一部の診断コマンドは、これらのデータベースの内容を表示するために使用されます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

--tests=TESTS

すべてのテストを実行するのではなく、指定した特定のテストの出力を返します。

--version=VERSION

コマンドが実行されるソフトウェアのバージョンを定義します。 デフォルト・バージョンは2.4.2ですが、ここで指定した他のバージョンで実行することもできます。

例4.36 ILOM診断の実行

PCA> diagnose ilom
Checking ILOM health............please wait..

IP_Address      Status          Health_Details
----------      ------          --------------
192.168.4.129   Not Connected   None
192.168.4.128   Not Connected   None
192.168.4.127   Not Connected   None
192.168.4.126   Not Connected   None
192.168.4.125   Not Connected   None
192.168.4.124   Not Connected   None
192.168.4.123   Not Connected   None
192.168.4.122   Not Connected   None
192.168.4.121   Not Connected   None
192.168.4.120   Not Connected   None
192.168.4.101   OK              None
192.168.4.102   OK              None
192.168.4.105   Faulty          Mon Nov 25 14:17:37 2013  Power    PS1 (Power Supply 1) 
                                A loss of AC input to a power supply has occurred. 
                                (Probability: 100, UUID: 2c1ec5fc-ffa3-c768-e602-ca12b86e3ea1, 
                                Part Number: 07047410, Serial Number: 476856F+1252CE027X, 
                                Reference Document: http://www.sun.com/msg/SPX86-8003-73)
192.168.4.107   OK              None
192.168.4.106   OK              None
192.168.4.109   OK              None
192.168.4.108   OK              None
192.168.4.112   OK              None
192.168.4.113   Not Connected   None
192.168.4.110   OK              None
192.168.4.111   OK              None
192.168.4.116   Not Connected   None
192.168.4.117   Not Connected   None
192.168.4.114   Not Connected   None
192.168.4.115   Not Connected   None
192.168.4.118   Not Connected   None
192.168.4.119   Not Connected   None
-----------------
27 rows displayed

Status: Success

例4.37 ソフトウェア診断の実行

PCA> diagnose software
PCA Software Acceptance Test runner utility
Test -  01 - OpenSSL CVE-2014-0160 Heartbleed bug Acceptance [PASSED]
Test -  02 - PCA package Acceptance [PASSED]
Test -  03 - Shared Storage Acceptance [PASSED]
Test -  04 - PCA services Acceptance [PASSED]
Test -  05 - PCA config file Acceptance [PASSED]
Test -  06 - Check PCA DBs exist Acceptance [PASSED]
Test -  07 - Compute node network interface Acceptance [PASSED]
Test -  08 - OVM manager settings Acceptance [PASSED]
Test -  09 - Check management nodes running Acceptance [PASSED]
Test -  10 - Check OVM manager version Acceptance [PASSED]
Test -  11 - OVM server model Acceptance [PASSED]
Test -  12 - Repositories defined in OVM manager Acceptance [PASSED]
Test -  13 - Management Nodes have IPv6 disabled [PASSED]
Test -  14 - Bash Code Injection Vulnerability bug Acceptance [PASSED]
Test -  15 - Check Oracle VM 3.4 xen security update Acceptance [PASSED]
Test -  16 - Test for ovs-agent service on CNs Acceptance [PASSED]
Test -  17 - Test for shares mounted on CNs Acceptance [PASSED]
Test -  18 - All compute nodes running Acceptance [PASSED]
Test -  19 - PCA version Acceptance [PASSED]
Test -  20 - Check support packages in PCA image Acceptance [PASSED]

Status: Success

例4.38 リーフ・スイッチ診断の実行

PCA> diagnose leaf-switch

Switch      Health Check Name                   Status
------      -----------------                   ------
ovcasw15r1  CDP Neighbor Check                  Passed
ovcasw15r1  Virtual Port-channel check          Passed
ovcasw15r1  Management Node Port-channel check  Passed
ovcasw15r1  Leaf-Spine Port-channel check       Passed
ovcasw15r1  OSPF Neighbor Check                 Passed
ovcasw15r1  Multicast Route Check               Passed
ovcasw15r1  Leaf Filesystem Check               Passed
ovcasw15r1  Hardware Diagnostic Check           Passed
ovcasw16r1  CDP Neighbor Check                  Passed
ovcasw16r1  Virtual Port-channel check          Passed
ovcasw16r1  Management Node Port-channel check  Passed
ovcasw16r1  Leaf-Spine Port-channel check       Passed
ovcasw16r1  OSPF Neighbor Check                 Passed
ovcasw16r1  Multicast Route Check               Passed
ovcasw16r1  Leaf Filesystem Check               Passed
ovcasw16r1  Hardware Diagnostic Check           Passed
-----------------
16 rows displayed

Status: Success

4.2.32 get log

選択したコンポーネントからログ・ファイルを取得して、ラックの共有ストレージのディレクトリに保存します。

ノート

現在、スパイン・スイッチまたはデータ・スイッチはこのコマンドでサポートされる唯一のターゲット・コンポーネントです。

構文

get log component [ --confirm ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

componentは、ログ・ファイルを取り出すラック・コンポーネントの識別子です。

説明

get logコマンドを使用して、特定のラック・コンポーネントまたは特定のタイプのラック・コンポーネント・セットのログ・ファイルを収集します。 コマンド出力は、ログ・ファイルが保存されている場所を示します: これは、両方の管理ノードからアクセスできるロケーションにある内部ストレージ・アプライアンス上のディレクトリです。 このロケーションから、ログを調べたり、ローカル・システムにコピーしてOracleとの通信に含めることができます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.39 スパイン・スイッチからのログ・ファイルの収集

CLIでは、スパインCisco Nexus 9336C-FX2 Switchの内部別名としてdata_switchを使用します。

PCA> get log data_switch
Log files copied to: /nfs/shared_storage/incoming
Status: Success

4.2.33 list

listコマンドを使用すると、Oracle Private Cloud Appliance内の様々なコンポーネントおよびタスクをリストできます。 出力には、各コンポーネントまたはタスクに関連する情報が表示されます。 通常、リスト・コマンドからの出力は、コマンド・ターゲットに関連する各種の情報行に対する列として表示されるように表にまとめられています。

構文

list { backup-task | compute-node | config-error | iscsi-storage | kube-cluster | lock | management-node | mgmt-switch-port | network | network-card | network-port | network-switch | nfs-storage | node-pool | node-pool-node | oci-backup | oci-target | ofm-network | opus-port | server-profile | storage-network | storage-profile | task | tenant-group | update-task | uplink-port | uplink-port-group | wwpn-info } [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ] [ [ --sorted-by SORTEDBY | --sorted-order SORTEDORDER ] ] [ [ --filter-column FILTERCOLUMN | --filter FILTER ] ]

SORTEDBY は、選択したコマンド・ターゲットから返される表の列名の1つであり、SORTEDORDER は昇順ソートの場合はASCで、降順ソートの場合はDESであることができます。 詳細は、第4.1.3.2項、「ソート」を参照してください。

ここで、FILTERCOLUMN は選択したコマンド・ターゲットに返される表の列名の1つであり、FILTER はフィルタリングを実行するために照合するテキストです。 詳細は、第4.1.3.3項、「フィルタリング」を参照してください。

次の表は、listコマンドの可能な各ターゲットを示しています。

コマンド・ターゲット

表示される情報

backup-task

すべてのバックアップ・タスクに関する基本情報が表示されます。

compute-node

インストールされているすべてのコンピュート・ノードの基本情報が表示されます。

config-error

正常に完了せず、エラーで終了した構成タスクがすべて表示されます。

iscsi-storage (Ethernetベースのシステムのみ)

ストレージのすべてのiSCSI LUNを表示します。

kube-cluster (Ethernetベースのシステムのみ)

すべてのKubernetesクラスタを表示します。

lock

適用されているすべてのロックが表示されます。

management-node

両方の管理ノードの基本情報を表示します。

mgmt-switch-port

内部管理ネットワークまたは管理ネットワークに属するOracle Private Cloud Appliance環境内のすべてのポートに関する接続情報が表示されます。 リストされるポートは、スイッチ、サーバー・ノード、または接続されたその他のラック・コンポーネント・タイプに属します。

network

環境に構成されたすべてのネットワークを表示します。

network-card ( InfiniBandベースのシステムのみ)

Fabric InterconnectにインストールされているI/Oモジュールに関する情報が表示されます。

network-port

ネットワーク・コンポーネントにインストールされているすべてのI/Oモジュールのすべてのポートのステータスを表示します。

network-switch (Ethernetベースのシステムのみ)

Oracle Private Cloud Appliance環境にインストールされているすべてのスイッチに関する基本情報が表示されます。

nfs-storage (Ethernetベースのシステムのみ)

ストレージのNFS共有を表示します。

node-pool (Ethernetベースのシステムのみ)

すべてのKubernetesノード・プールを表示します。

node-pool-node (Ethernetベースのシステムのみ)

すべてのKubernetesノードを表示します。

oci-backup

すべてのOracle Cloud Infrastructureバックアップを表示します。

oci-target

すべてのOracle Cloud Infrastructureターゲットを表示します。

ofm-network ( InfiniBandベースのシステムのみ)

Fabric Interconnect上のOracle Fabric Managerソフトウェアから直接読み取られた、ネットワーク構成が表示されます。

opus-port ( InfiniBandベースのシステムのみ)

Oracle Private Cloud Appliance環境の各Oracle Switch ES1-24のすべてのポートに関する接続情報が表示されます。

server-profile ( InfiniBandベースのシステムのみ)

Fabricインターコネクトに格納されている、サーバーの接続プロファイルのリストが表示されます。 プロファイルには、問題のサーバーに関する必須のネットワーキングおよびストレージ情報が含まれています。

storage-network

InfiniBandベース・システム上の既知のストレージ・クラウドのリストを表示します。 各ストレージ・クラウドの構成には、参加しているFabric InterconnectポートおよびサーバーvHBAsに関する情報が含まれます。

Ethernetベース・システム上の既知のストレージ・ネットワークのリストを表示します。

storage-profile (Ethernetベースのシステムのみ)

すべてのストレージ・プロファイルを表示します。

task

実行中、完了したタスクおよび失敗したタスクのリストが表示されます。

tenant-group

構成済のすべてのテナント・グループを表示します。 リストには、デフォルトの構成およびカスタム・テナント・グループが含まれます。

update-task

アプライアンスで起動したすべてのソフトウェア更新タスクのリストを表示します。

uplink-port (Ethernetベースのシステムのみ)

外部ネットワークのスパイン・スイッチのポート構成に関する情報が表示されます。

uplink-port-group (Ethernetベースのシステムのみ)

外部ネットワーク用に構成されたすべてのアップリンク・ポート・グループに関する情報を表示します。

wwpn-info ( InfiniBandベースのシステムのみ)

Oracle Private Cloud Applianceファイバ・チャネル・ファブリックに参加しているすべてのポートについて、すべてのWorld Wide Port Names (WWPNs)のリストを表示します。 標準構成では、各コンピュート・ノードのデフォルトの4つのストレージ・クラウドそれぞれにvHBAがあります。

タブ補完を使用すると、様々なコマンド・ターゲットのobjectを正しく指定できるので注意してください。 コマンド・ターゲットがsystem-propertiesまたはversionの場合、objectを指定する必要はありません。

説明

listコマンドを使用して、Oracle Private Cloud Appliance内の様々なコンポーネントまたはアクティビティに関する情報の表形式のリストを取得します。 listコマンドは、様々な処理を実行したり、特定のコンポーネントやタスクに関する詳細情報を取得するために他の多くのコマンドとともに使用できる識別子を取得する場合にもよく使用されます。 listコマンドでは、ソートおよびフィルタリング機能もサポートされているため、情報を順序付けしたり、関心のある特定のアイテムを迅速かつ簡単に識別できるように情報を制限できます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

list { backup-task | compute-node | config-error | iscsi-storage | kube-cluster | lock | management-node | mgmt-switch-port | network | network-card | network-port | network-switch | nfs-storage | node-pool | node-pool-node | oci-backup | oci-target | ofm-network | opus-port | server-profile | storage-network | storage-profile | task | tenant-group | update-task | uplink-port | uplink-port-group | wwpn-info } [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ] [ [ --sorted-by SORTEDBY | --sorted-order SORTEDORDER ] ] [ [ --filter-column FILTERCOLUMN | --filter FILTER ] ]

情報を表示するコマンド・ターゲット

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

[ --sorted-by SORTEDBY ]

SORTEDBYを、ソートの実行に使用する列の名前で置き換えて指定した、表の特定の列にある値で表をソートします。

[ --sorted-order SORTEDORDER ]

ソート順序を指定するために使用します。ソート順序は、昇順の場合はASCで、降順の場合はDESです。 このオプションとともに--sorted-byオプションを使用する必要があります。

[ --filter-column FILTERCOLUMN ]

FILTERCOLUMNを、ソートの実行に使用する必要のある列の名前で置き換えて指定した、表の特定の列にある値の表をフィルタ処理します。 このオプションとともに--filterオプションを使用する必要があります。

[ --filter FILTER ]

--filter-columnオプションで指定された列内の値に適用されるフィルタ。

例4.40 すべての管理ノードを一覧表示

PCA> list management-node

Management_Node IP_Address   Provisioning_Status  ILOM_MAC           Provisioning_State   Master
--------------- ----------   -------------------  --------           ------------------   ------
ovcamn05r1      192.168.4.3  RUNNING              00:10:e0:e9:1f:c9  running              None
ovcamn06r1      192.168.4.4  RUNNING              00:10:e0:e7:26:ad  running              Yes
----------------
2 rows displayed

Status: Success

例4.41 すべてのコンピュート・ノードをリスト

PCA> list compute-node
Compute_Node  IP_Address    Provisioning_Status  ILOM_MAC            Provisioning_State
------------  ----------    -------------------  --------            ------------------
ovcacn10r1    192.168.4.7   RUNNING              00:10:e0:65:2f:4b   running
ovcacn08r1    192.168.4.5   RUNNING              00:10:e0:65:2f:f3   initializing_stage_wait_...
ovcacn09r1    192.168.4.10  RUNNING              00:10:e0:62:98:e3   running
ovcacn07r1    192.168.4.8   RUNNING              00:10:e0:65:2f:93   running
----------------
4 rows displayed
 
Status: Success

例4.42 すべてのテナント・グループを一覧表示

PCA> list tenant-group

Name                 Default      State
----                 -------      -----
Rack1_ServerPool     True         ready
myTenantGroup        False        ready
----------------
2 rows displayed

Status: Success

例4.43 アプライアンス・ネットワークのリスト

PCA> list network

Network_Name          Default      Type                    Trunkmode    Description
------------          -------      ----                    ---------    -----------
custom_internal       False        rack_internal_network   None         None
default_internal      True         rack_internal_network   None         None
storage_net           False        host_network            None         None
default_external      True         external_network        None         None
----------------
4 rows displayed

Status: Success

例4.44 Spine Cisco Nexus 9336C-FX2スイッチで構成されたネットワーク・ポートのリスト表示

PCA> list network-port

Port      Switch          Type                   State           Networks
----      ------          ----                   -----           --------
1         ovcasw22r1      40G                    up              storage_net
2         ovcasw22r1      40G                    up              storage_net
3         ovcasw22r1      auto-speed             down            None
4         ovcasw22r1      auto-speed             down            None
5:1       ovcasw22r1      10G                    up              default_external
5:2       ovcasw22r1      10G                    down            default_external
5:3       ovcasw22r1      10G                    down            None
5:4       ovcasw22r1      10G                    down            None
1         ovcasw23r1      40G                    up              storage_net
2         ovcasw23r1      40G                    up              storage_net
3         ovcasw23r1      auto-speed             down            None
4         ovcasw23r1      auto-speed             down            None
5:1       ovcasw23r1      10G                    up              default_external
5:2       ovcasw23r1      10G                    down            default_external
5:3       ovcasw23r1      10G                    down            None
5:4       ovcasw23r1      10G                    down            None
-----------------
16 rows displayed

Status: Success

例4.45 フィルタを使用した管理Cisco Nexus 9348GC-FXPスイッチのリスト・ポート

CLIでは、内部別名mgmt-switch-portが使用されます。 この例では、コマンドによって、コンピュート・ノードからCisco Nexus 9348GC-FXPスイッチへのすべての内部Ethernet接続が表示されます。 --filterオプションでは、ワイルドカードが使用されます。

PCA> list mgmt-switch-port --filter-column=Hostname --filter=*cn*r1

Dest       Dest_Port  Hostname        Key        MGMTSWITCH RACK  RU    Src_Port   Type
----       ---------  --------        ---        ---------- ----  --    --------   ----
07         Net-0      ovcacn07r1      CISCO-1-5  CISCO-1    1     7     5          compute
08         Net-0      ovcacn08r1      CISCO-1-6  CISCO-1    1     8     6          compute
09         Net-0      ovcacn09r1      CISCO-1-7  CISCO-1    1     9     7          compute
10         Net-0      ovcacn10r1      CISCO-1-8  CISCO-1    1     10    8          compute
11         Net-0      ovcacn11r1      CISCO-1-9  CISCO-1    1     11    9          compute
12         Net-0      ovcacn12r1      CISCO-1-10 CISCO-1    1     12    10         compute
13         Net-0      ovcacn13r1      CISCO-1-11 CISCO-1    1     13    11         compute
14         Net-0      ovcacn14r1      CISCO-1-12 CISCO-1    1     14    12         compute
34         Net-0      ovcacn34r1      CISCO-1-15 CISCO-1    1     34    15         compute
35         Net-0      ovcacn35r1      CISCO-1-16 CISCO-1    1     35    16         compute
36         Net-0      ovcacn36r1      CISCO-1-17 CISCO-1    1     36    17         compute
37         Net-0      ovcacn37r1      CISCO-1-18 CISCO-1    1     37    18         compute
38         Net-0      ovcacn38r1      CISCO-1-19 CISCO-1    1     38    19         compute
39         Net-0      ovcacn39r1      CISCO-1-20 CISCO-1    1     39    20         compute
40         Net-0      ovcacn40r1      CISCO-1-21 CISCO-1    1     40    21         compute
41         Net-0      ovcacn41r1      CISCO-1-22 CISCO-1    1     41    22         compute
42         Net-0      ovcacn42r1      CISCO-1-23 CISCO-1    1     42    23         compute
26         Net-0      ovcacn26r1      CISCO-1-35 CISCO-1    1     26    35         compute
27         Net-0      ovcacn27r1      CISCO-1-36 CISCO-1    1     27    36         compute
28         Net-0      ovcacn28r1      CISCO-1-37 CISCO-1    1     28    37         compute
29         Net-0      ovcacn29r1      CISCO-1-38 CISCO-1    1     29    38         compute
30         Net-0      ovcacn30r1      CISCO-1-39 CISCO-1    1     30    39         compute
31         Net-0      ovcacn31r1      CISCO-1-40 CISCO-1    1     31    40         compute
32         Net-0      ovcacn32r1      CISCO-1-41 CISCO-1    1     32    41         compute
33         Net-0      ovcacn33r1      CISCO-1-42 CISCO-1    1     33    42         compute
-----------------
25 rows displayed

Status: Success

例4.46 すべてのタスクを一覧表示

PCA> list task

Task_ID         Status  Progress Start_Time           Task_Name
-------         ------  -------- ----------           ---------
376a676449206a  SUCCESS      100 06-06-2019 09:00:01  backup
376ce11fc6c39c  SUCCESS      100 06-06-2019 04:23:41  update_download_image
376a02cf798f68  SUCCESS      100 06-05-2019 21:00:02  backup
376c7c8afcc86a  SUCCESS      100 06-05-2019 09:00:01  backup
----------------
4 rows displayed

Status: Success

例4.47 外部ネットワークを構成するためのリンク・ポートのリスト

PCA> list uplink-port

Interface Name  Switch       Status    Admin_Status  PortChannel  Speed
--------------  ------       ------    ------------  -----------  -----
Ethernet1/1     ovcasw22r1   up        up            111          40G
Ethernet1/1     ovcasw23r1   up        up            111          40G
Ethernet1/2     ovcasw22r1   up        up            111          40G
Ethernet1/2     ovcasw23r1   up        up            111          40G
Ethernet1/3     ovcasw22r1   down      down          None         auto
Ethernet1/3     ovcasw23r1   down      down          None         auto
Ethernet1/4     ovcasw22r1   down      down          None         auto
Ethernet1/4     ovcasw23r1   down      down          None         auto
Ethernet1/5/1   ovcasw22r1   up        up            151          10G
Ethernet1/5/1   ovcasw23r1   up        up            151          10G
Ethernet1/5/2   ovcasw22r1   down      up            151          10G
Ethernet1/5/2   ovcasw23r1   down      up            151          10G
Ethernet1/5/3   ovcasw22r1   down      down          None         10G
Ethernet1/5/3   ovcasw23r1   down      down          None         10G
Ethernet1/5/4   ovcasw22r1   down      down          None         10G
Ethernet1/5/4   ovcasw23r1   down      down          None         10G
-----------------
16 rows displayed

Status: Success

例4.48 アップリンク・ポート・グループのリスト

PCA> list uplink-port-group

Port_Group_Name    Ports      Mode    Speed    Breakout_Mode    Enabled   State
---------------    -----      ----    -----    -------------    -------   -----
default_5_1        5:1 5:2    LAG     10g      10g-4x           True      (up)* Not all ports are up
default_5_2        5:3 5:4    LAG     10g      10g-4x           False     down
----------------
2 rows displayed

Status: Success

例4.49 すべての構成エラーを一覧表示

PCA> list config-error
 
ID        Module                      Host             Timestamp           
--        ------                      ----             ---------           
87        Management node password    192.168.4.4      Mon Jun 03 02:45:42 2019
54        MySQL management password   192.168.4.216    Mon Jun 03 02:44:54 2019
----------------
2 rows displayed
 
Status: Success

例4.50 すべてのストレージ・プロファイルの一覧表示

PCA> list storage-profile

Name             Type               Default
----             ----               -------
dbms_demo        iscsi              N
general          iscsi              Y
bkup_basic       iscsi              N
general          nfs                Y
bkup_basic       nfs                N
dbms_demo        nfs                N
----------------
6 rows displayed

Status: Success

4.2.34 remove compute-node

既存のテナント・グループからコンピュート・ノードを削除します。

構文

remove compute-node node tenant-group-name [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

そこで、tenant-group-nameは、1つ以上のコンピュート・ノードを削除するテナント・グループの名前、nodeは、選択されているテナント・グループから削除する必要のあるコンピュート・ノードの名前です。

説明

remove compute-nodeコマンドを使用して、必要なコンピュート・ノードをテナント・グループから削除します。 Oracle VM Managerを使用して、最初にコンピュート・ノードを準備します: 仮想マシンがコンピュート・ノードから離れて移行されており、ストレージ・リポジトリが提示されていないことを確認してください。 テナント・グループに関連付けられているカスタム・ネットワークは、テナント・グループからではなく、コンピュート・ノードから削除されます。

これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.51 テナント・グループからのコンピュート・ノードの削除

PCA> remove compute-node ovcacn09r1 myTenantGroup
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y

Status: Success

4.2.35 remove initiator

ISCSI LUNからイニシエータを削除し、そのイニシエータからiSCSI LUNへのアクセスを削除します。

構文

remove initiator initiator IQN LUN-name [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、LUN-nameは、一覧表示されたイニシエータのアクセス権を取り消すiSCSI LUN共有の名前です。

説明

iSCSI LUNからイニシエータを削除するには、remove initiatorコマンドを使用します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

initiator IQN

LUNにアクセスできなくなった仮想マシンからイニシエータIQNを一覧表示します。

LUN name

イニシエータを削除するLUNを指定します。

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.52 LUNからのイニシエータの削除

PCA> remove initiator iqn.company.com  myLUN 
Status: Success

4.2.36 remove network

サーバー・ノードをネットワークから切断する。

構文

remove network network-name node [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

network-nameは、1つ以上のサーバーの切断元ネットワーク名、nodeは、選択したネットワークから切断する必要があるサーバー・ノードの名前です。

説明

remove networkコマンドを使用して、作成したカスタム・ネットワークからサーバー・ノードを切断します。 カスタム・ネットワークを環境から削除する場合は、最初にすべてのサーバーをそのネットワークから切断する必要があります。 次に、delete networkコマンドを使用して、カスタム・ネットワーク構成を削除します。 これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.53 カスタム・ネットワークからのコンピュート・ノードの切断

PCA> remove network MyNetwork ovcacn09r1
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y
Status: Success

4.2.37 remove network-from-tenant-group

テナント・グループからカスタム・ネットワークを削除します。

構文

remove network-from-tenant-group network-name tenant-group-name [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、network-nameはテナント・グループに関連付けられているカスタム・ネットワークの名前、tenant-group-nameはカスタム・ネットワークを削除するテナント・グループの名前です。

説明

remove network-from-tenant-groupコマンドを使用して、カスタム・ネットワークとテナント・グループ間の関連付けを解除します。 カスタム・ネットワークがすべてのテナント・グループのメンバー・サーバーから構成解除されている。

これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.54 テナント・グループからのカスタム・ネットワークの削除

PCA> remove network-from-tenant-group myPublicNetwork myTenantGroup
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y

Status: Success

4.2.38 remove nfs exceptions

NFS例外を削除して、リストされたマシンからNFS共有へのアクセスを削除します。

構文

remove nfs-exception nfs-share-name network or IP address [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

nfs-share-nameは、例外を使用してアクセス権を付与するNFS共有の名前です。

説明

シェアからnfs-exceptionを削除するには、remove nfs-exceptionコマンドを使用します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

network or IP address

シェアにアクセスできなくなったIPアドレスまたはCIDRを一覧表示します。

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.55 シェアからのNFS例外の削除

PCA> remove nfs-exception myNFSshare  172.16.4.0/24 
Status: Success

4.2.39 remove node-pool

Kubernetesクラスタからノード・プール定義を削除します。

構文

remove node-pool cluster-name node-pool-name

cluster-nameは、ノード・プールを削除するKubernetesクラスタの名前です。

説明

remove node-poolコマンドを使用して、Kubernetesクラスタからノード・プールを削除します。 ノード・プールは、削除する前に空にする必要があります。 第4.2.40項、「remove node-pool-node」を参照してください。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

node pool name

削除するノード・プールを選択します。 ノード・プールを削除するには、空にする必要があります。 workerおよびmasterノード・プールは削除できません。

--force

ターゲットが無効な状態にあるか、ノードが含まれている場合でも、コマンドを強制的に実行します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。 ノード・プールにノードがある場合、このコマンドはKubernetesからワーカーを正常に削除しようとします。 このオプションを使用して実行されたすべてのワーカー・ノードについて、Kubernetes管理者に通知する必要があります。

例4.56 ノード・プールの削除

PCA> remove node-pool MyCluster np0 
Status: Success

4.2.40 remove node-pool-node

Kubernetesクラスタからノードを削除し、仮想マシンを削除します。

構文

remove node-pool-node cluster-name node-pool-name hostname

cluster-nameは、ノードを削除するKubernetesクラスタの名前です。

説明

remove node-pool-nodeコマンドを使用して、Kubernetesクラスタからノードを削除します。 ノードがKubernetesクラスタから削除されると、そのノードがKubernetesクラスタから削除されたマスター・ノードにないかぎり、仮想マシンは停止して破棄され、クラスタから構成情報が削除されます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

node pool name

ノードを削除するノード・プールを選択します。 ノードは任意のノード・プールから削除できます。 マスター・ノード・プールから削除できるのは2つのノードのみです。

host name

ノード・プールから削除するホスト名を入力します。

--force

最初にマスター・ノードまたはワーカー・ノードを削除しようとして失敗した場合は、クリーン・クリーンアップのために、まず--forceオプションを指定せずに再試行を実行してください。 すべてが失敗した場合は、--forceオプションを使用してKubernetesノードを削除します。

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 完了すると、Kubernetesクラスタでノードが準備中状態のままになる可能性があるため、ノードが削除されたことをKubernetes管理者に通知する必要があります。 この場合、Kubernetes管理者はノードを削除する必要があります。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

例4.57 ノード・プール・ノードの削除

PCA> remove node-pool-node MyCluster np0 myHost_1  
*************************************************************************************
  WARNING !!! THIS IS A DESTRUCTIVE OPERATION. 
*************************************************************************************
Are you sure [y/N]:y
Node (myHost_1) removed
Status: Success

例4.58 ノード・プール・マスター・ノードの削除

PCA> remove node-pool-node MyCluster master cluster_master_1   
*************************************************************************************
  WARNING !!! THIS IS A DESTRUCTIVE OPERATION. 
*************************************************************************************
Are you sure [y/N]:y
Node (myHost_1) removed

Status: Success

4.2.41 reprovision

reprovisionコマンドを使用して、Oracle Private Cloud Appliance内の指定したコンピュート・ノードの再プロビジョニングをトリガーできます。

注意

再編成によって、コンピュート・ノードがクリーン状態にリストアされます。 コンピュート・ノードが以前にOracle VM環境に追加されており、内部ZFSストレージの記憶域リポジトリ以外の記憶域リポジトリに対してアクティブな接続を持っている場合は、再プロビジョニング後に外部ストレージ接続を再度構成する必要があります。

構文

reprovision { compute-node } node [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ] [ --force ] [ --save-local-repo ]

ここで、nodeは再プロビジョニングする必要のあるコンピュート・ノードのコンピュート・ノード名です。

説明

指定したコンピュート・ノードを再プロビジョニングするには、reprovisionコマンドを使用します。 プロビジョニング・プロセスの詳細は、第1.4項、「プロビジョニングおよびオーケストレーション」で説明されています。

reprovisionコマンドによって、再プロビジョニングするプロセスを処理するタスクがトリガーされ、タスクが正常に生成された場合はステータスが成功で即時に終了します。 これは、再プロビジョニング中のプロセス自体が正常に完了したことを意味しません。 再プロビジョニングするタスクのステータスをモニターするには、list compute-nodeコマンドを使用してサーバーのプロビジョニング状態を確認します。 また、プロビジョニング・タスクに関連する情報についてログ・ファイルを監視することもできます。 ログ・ファイルのロケーションは、show system-propertiesコマンドの実行時にLog_Fileパラメータを確認することによって取得できます。 詳細は、4.73 の例、システム・プロパティの表示を参照してください。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

compute-node

再プロビジョニング操作を実行するコマンド・ターゲット。

--save-local-repo

ローカル・ストレージ・リポジトリを保存するために、プロビジョニング・プロセスでHMPステップをスキップします。

--json

コマンドの出力をJSON形式で返します。

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.59 コンピュート・ノードの再プロビジョニング

注意

実行中の仮想マシンを持つコンピュート・ノードを強制的に再プロビジョニングしないでください。これは、不確定な状態のままになるためです。

PCA> reprovision compute-node ovcacn11r1
The reprovision job has been submitted.
Use "show compute-node <compute node name>" to monitor the progress.
Status: Success

4.2.42 rerun

構成タスクがトリガーされてOracle Private Cloud Appliance上で再実行されます。

構文

rerun { config-task } id [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

idは、再実行が必要な構成タスクの識別子です。

説明

rerunコマンドを使用して、失敗した構成タスクを再度開始します。 失敗した構成タスクおよびこのコマンドとともに使用する関連識別子を表示するには、list config-errorコマンドを使用します。 詳細は、4.49 の例「すべての構成エラーのリスト」を参照してください。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

config-task

再実行操作を実行するコマンド・ターゲット。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.60 構成タスクの再実行

PCA> rerun config-task 84
Status: Success

4.2.43 set system-property

Oracle Private Cloud Applianceのシステム・プロパティの値を設定します。

構文

set system-property { ftp_proxy | http_proxy | https_proxy | log_count | log_file | log_level | log_size | timezone } value [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、valueは設定するシステム・プロパティの値です。

説明

set system-propertyコマンドを使用して、Oracle Private Cloud Applianceのシステム・プロパティの値を設定します。

重要

set system-propertyコマンドは、それが実行される管理ノードの設定にのみ影響します。 アクティブ管理ノードの設定を変更する場合、このコマンドを使用してパッシブ管理ノードに接続し、同等のコマンドをそこで実行して2つのシステムの同期を維持する必要があります。 これは、パッシブ管理ノードでCLIコマンドを実行する必要がある唯一の例外です。

show system-propertiesコマンドを使用すると、どの時点でもさまざまなシステム・プロパティの値を表示できます。 詳細は、4.73 の例、システム・プロパティの表示を参照してください。

重要

システム・プロパティを変更した場合、変更を有効にするには、通常、サービスの再起動が必要です。 このためには、システム・プロパティの値を設定した後に、アクティブ管理ノードのシェルでservice ovca restartを実行する必要があります。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

ftp_proxy

FTPプロキシのIPアドレスの値を設定

http_proxy

HTTPプロキシのIPアドレスの値を設定

https_proxy

HTTPSプロキシのIPアドレスの値を設定

log_count

ログ・ローテーションを通じて保持する必要があるログ・ファイル数の値を設定します

log_file

特定のログ・ファイルのロケーションの値を設定します。

注意

新しいログ・ファイルのパスが存在することを確認します。 それ以外の場合は、ログ・サーバーは動作を停止します。

/var/logは、常にエントリの先頭に付加されます。 絶対パスは、/var/log/<path> に変換されます。

このプロパティは、次のログ・ファイルに対して個別に定義できます: backup、cli、diagnosis、monitor、ovca、snmpおよびsyncservice。

log_level

ログ・レベル出力の値を設定してください。 受け入れられるログ・レベルは次のとおりです: CRITICAL, DEBUG, ERROR, INFO, WARNING.

このプロパティは、次のログ・ファイルに対して個別に定義できます: backup、cli、diagnosis、monitor、ovca、snmpおよびsyncservice。 タブ補完を使用して、ログ・レベル値の前にログ・ファイルをコマンドに挿入します。

log_size

ログがローテーションされるまでの最大ログ・サイズの値の設定

timezone

Oracle Private Cloud Applianceのロケーションのタイムゾーンを設定します。

数百のオプションがあり、選択では大/小文字が区別されます。 タブ補完を使用して、自分のロケーションで最も正確な設定を見つけることをお薦めします。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.61 同期サービス・ログ・ファイルのロケーションの変更

PCA> set system-property log_file syncservice sync/ovca-sync.log
Status: Success

PCA> show system-properties
----------------------------------------
[...]
Backup.Log_File      /var/log/ovca-backup.log
Backup.Log_Level     DEBUG
Cli.Log_File         /var/log/ovca-cli.log
Cli.Log_Level        DEBUG
Sync.Log_File        /var/log/sync/ovca-sync.log
Sync.Log_Level       DEBUG
Diagnosis.Log_File   /var/log/ovca-diagnosis.log
Diagnosis.Log_Level  DEBUG
[...]
----------------------------------------
Status: Success

ノート

CLIを使用したログ構成の詳細は、第7.1項、「Oracle Private Cloud Applianceのロギング・パラメータの設定」で説明されています。


例4.62 HTTPプロキシの構成および構成解除

PCA> set system-property http_proxy http://10.1.1.11:8080
Status: Success

PCA> set system-property http_proxy ''
Status: Success

ノート

CLIを使用したプロキシ構成の詳細は、第7.2項、「Oracle Private Cloud Applianceの更新に対するプロキシ設定の追加」で説明されています。


例4.63 Oracle Private Cloud Applianceタイムゾーンの構成

PCA> set system-property timezone US/Eastern
Status: Success

4.2.44 set kube-dns

静的ネットワークのDNS情報を構成します。

構文

set kube-dns cluster-name name-servers search-domains

cluster-nameは、外部ネットワーク設定を構成するクラスタの名前です。

説明

set kube-dnsコマンドを使用して、DNSネーム・サーバーおよび検索ドメインを設定します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

name servers

ドメイン・ネーム・サーバーのアドレスを指定します。 複数のドメイン・ネーム・サーバーを使用する場合は、カンマを使用してアドレスを区切ります。

search domains

1つ以上の検索ドメインを指定します。 DSN検索には、完全修飾ドメイン名が必要です。 使用頻度の低いドメインをドメインの検索フィールドにリストすると、完全修飾ドメイン名を使用せずにマシン名のみを検索できます。

例4.64 静的ネットワークのDNS情報の設定

PCA> set kube-dns MyCluster 8.8.8.8,9.9.9.9  demo.org,demo.com
Status: Success

4.2.45 set kube-load-balancer

Kubernetesロード・バランサのVRRP IDパラメータを設定します。 ネットワーク上でVRRPの競合を回避するには、この設定を使用します。

構文

set kube-load-balancer cluster-name VRRP_ID

ここで、cluster-nameは、ロード・バランサVRRP IDを設定するKubernetesクラスタの名前です。

説明

ネットワーク内のほかのシステムがVRRPを使用する場合は、set kube-load-balancerコマンドを使用して、クラスタ上でVRRP IDを手動で設定します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

VRRP_ID

一般に、VRRPアドレスはcreate kube-clusterコマンド中に自動選択されます。 Oracle Private Cloud Applianceと同じネットワーク上のほかのリソースがVRRPを使用している場合、このランダム化メソッドによって競合が発生する可能性があります。 その場合は、使用するネットワーク上で使用可能なVRRP IDを見つけ、このコマンドを使用してクラスタに割り当てます。

例4.65 クラスタでのVRRP IDの設定

PCA> create kube-load-balancer MyCluster 232
Status: Success

4.2.46 set kube-master-pool

Kubernetesマスター・ノードのホスト名を構成します。これらは外部ネットワーク上で解決可能な名前である必要があります。

構文

set kube-master-pool cluster-name primary-hostname,ipv4address host-name host-name

cluster-nameは、マスター・ノードのホスト名を構成するクラスタの名前です。

説明

set kube-master-poolを使用して、クラスタ内のマスター・ノードの有効なホスト名のリストを作成します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

primary host name,IPv4 address

最初のホスト名には、関連付けられたIPアドレスが必要です。 このコマンドは、外部ネットワークが静的な場合は実行する必要があり、外部ネットワークがDHCPの場合は無効なコマンドです。

host name

マスター・ノードに1つ以上の追加ホスト名を指定します。追加ホストにIPv4アドレスは必要ありません。

例4.66 静的ネットワークのDNS情報の設定

PCA> set kube-master-pool MyCluster Master_host1,192.168.0.20  MasterHost2 MasterHost3 
Status: Success

4.2.47 set kube-network

DHCPまたは静的IPアドレス指定用に外部ネットワークを構成します。

構文

set kube-network cluster-name DHCP | static netmask gateway

cluster-nameは、外部ネットワーク設定を構成するクラスタの名前です。

説明

set kube-networkコマンドを使用して、選択したクラスタのDHCPまたは静的IPアドレス指定を設定します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

dhcp | static

選択したクラスタのDHCPアドレス指定または静的IPアドレス指定を選択します。 静的を選択した場合は、ネットマスクおよびゲートウェイ情報を指定する必要があります。 静的ネットワークの場合は、次の情報も設定する必要があります:

netmask

インタフェースのネットマスク。

ゲートウェイ

ゲートウェイのIPアドレス。

例4.67 クラスタ・ネットワークをDHCPに設定

PCA> set kube-network MyCluster dhcp 
Status: Success

例4.68 クラスタ・ネットワークを静的に設定

PCA> set kube-network MyCluster static 255.255.255.0 192.168.0.1 
Status: Success

4.2.48 set kube-vm-shape

マスターまたはワーカーのデフォルト・ノード・プールの一部である仮想マシンのプロファイルを変更します。

構文

set kube-vm-shape cluster-name master | worker cpus memory

cluster-nameは、仮想マシン・プロファイルを変更するクラスタの名前です。

説明

set kube-vm-shapeを使用して、クラスタ内のマスター・ノードまたはワーカー・ノードのいずれかの仮想マシン・シェイプをオプションで設定します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

master | worker

カスタマイズする仮想マシン・シェイプ(マスター・シェイプまたはワーカー・シェイプ)を選択します。

cpus

マスター・ノードは、4から24のCPUを持つことができます。 デフォルトは8 CPUです。

ワーカー・ノードは1から14のCPUを持つことができます。 デフォルトは4 CPUです。

memory

マスター・ノードには、16から393 GBのメモリーを含めることができます(使用可能な場合)。 デフォルトは32GBです。

ワーカー・ノードには、8から393 GBのメモリー(使用可能な場合)を含めることができます。 デフォルトは16GBです。

例4.69 マスター・ノードのkube-vm-shapeの設定

PCA> set kube-vm-shape MyCluster master 4 16384 
Status: Success

例4.70 ワーカー・ノードのkube-vm-shapeの設定

PCA> set kube-vm-shape MyCluster worker 16 64000
Status: Success

4.2.49 set kube-worker-pool

Kubernetesクラスタ・ワーカー・プールのサイズを変更します。

構文

set kube-worker-pool cluster-name quantity [ | ] host-name host-name

cluster-nameは、ワーカー・プールのサイズを変更するクラスタの名前です。

説明

set kube-worker-poolを使用して、クラスタ・ワーカー・プールのサイズを変更します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

quantity

外部ネットワークがDHCPの場合、ホスト名のリストを指定するかわりに、ワーカー・プールで必要なワーカーの数を指定できます。 数量0は、DHCPネットワークと静的ネットワークのどちらでも有効です。 静的クラスタに数量は必要ありませんが、ワーカーを作成できないようにするには、数量を0に設定する必要があります。

host name

静的ネットワークの場合、ホスト名のリストが必要であり、ホスト名がないとクラスタ構成は無効になります。 静的ネットワーク内のワーカー・ノードのホスト名を指定します。

例4.71 静的ネットワークのワーカー・プール・サイズの設定

PCA> set kube-worker-pool MyCluster  WorkerHost1 WorkerHost2 WorkerHost3
Status: Success

例4.72 DHCPネットワークのワーカー・プール・サイズの設定

PCA> set kube-worker-pool MyCluster  2
Status: Success

4.2.50 show

showコマンドを使用すると、タスク、ラックのレイアウト、システム・プロパティなど、特定のオブジェクトに関する情報を表示できます。 ターゲット・オブジェクト・タイプ全体に適用されるlistコマンドとは異なり、showコマンドは特定のターゲット・オブジェクト固有の情報を表示します。 そのため、通常はコマンド、ターゲット・オブジェクト・タイプおよびオブジェクト識別子を指定して実行されます。

構文

show { cloud-wwpn | compute-node | iscsi-storage | iscsi-storage-profile | kube-cluster | network | node-pool | node-pool-node | nfs-storage | nfs-storage-profile | oci-backup | oci-target | rack-layout | rack-type | server-profile | storage-network | system-properties | task | tenant-group | version | vhba-info } object [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

objectは、情報を表示するターゲット・オブジェクトの識別子です。 次の表に、コマンド・ターゲットに応じてobjectと置換される識別子のマッピングを示します。

コマンド・ターゲット

オブジェクト識別子

cloud-wwpn ( InfiniBandベースのシステムのみ)

ストレージ・ネットワーク/クラウド名

compute-node

コンピュート・ノード名

iscsi-storage (Ethernetベースのシステムのみ)

iSCSI LUN名

iscsi-storage-profile (Ethernetベースのシステムのみ)

ストレージ・プロファイル名

kube-cluster (Ethernetベースのシステムのみ)

Kubernetesクラスタ名

network

ネットワーク名

nfs-storage (Ethernetベースのシステムのみ)

NFS共有名

nfs-storage-profile (Ethernetベースのシステムのみ)

NFSストレージ・プロファイル名

node-pool (Ethernetベースのシステムのみ)

ノード・プール名

node-pool-node (Ethernetベースのシステムのみ)

ノード・プール・ノード名

oci-backup (Ethernetベースのシステムのみ)

Oracle Cloud Infrastructureバックアップ名

oci-target (Ethernetベースのシステムのみ)

Oracle Cloud Infrastructureターゲット名

rack-layout

ラックのアーキテクチャまたはタイプ

rack-type

(なし)

server-profile (InfiniBandベースのシステムのみ)

サーバー名

storage-network

ストレージ・ネットワーク/クラウド名

system-properties

(なし)

task

タスクID

tenant-group

テナント・グループ名

version

(なし)

vhba-info ( InfiniBandベースのシステムのみ)

コンピュート・ノード名

タブ補完を使用すると、様々なコマンド・ターゲットのobjectを正しく指定できるので注意してください。 コマンド・ターゲットがsystem-propertiesまたはversionの場合、objectを指定する必要はありません。

説明

showコマンドを使用すると、特定のターゲット・オブジェクトに固有の情報を表示でき、そのためには、表示するオブジェクトに対する識別子を指定します。 例外は、識別子が不要なsystem-propertiesを表示するオプションです。

showコマンドは、listコマンドとそのフィルタリング機能を併用していない情報を表示する場合がよくあります。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

show { cloud-wwpn | compute-node | iscsi-storage | iscsi-storage-profile | kube-cluster | network | node-pool | node-pool-node | nfs-storage | nfs-storage-profile | oci-backup | oci-target | rack-layout | rack-type | server-profile | storage-network | system-properties | task | tenant-group | version | vhba-info } object [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

情報を表示するコマンド・ターゲット

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.73 システム・プロパティの表示

ノート

このコマンドは、このコマンドが実行されている管理ノードのシステム・プロパティのみを表示します。 2つの管理ノード全体でシステム・プロパティが同期化されない場合は、このコマンドによって反映される情報が両方のシステムに適用されない可能性があります。 構成が一致することを確認する必要がある場合、アクティブ管理ノードまたはパッシブ管理ノードでこのコマンドを実行できます。

PCA> show system-properties

----------------------------------------
HTTP_Proxy           None
HTTPS_Proxy          None
FTP_Proxy            None
Log_File             /var/log/ovca.log
Log_Level            DEBUG
Log_Size (MB)        250
Log_Count            5
Timezone             Etc/UTC
Backup.Log_File      /var/log/ovca-backup.log
Backup.Log_Level     DEBUG
Cli.Log_File         /var/log/ovca-cli.log
Cli.Log_Level        DEBUG
Sync.Log_File        /var/log/ovca-sync.log
Sync.Log_Level       DEBUG
Diagnosis.Log_File   /var/log/ovca-diagnosis.log
Diagnosis.Log_Level  DEBUG
Monitor.Log_File     /var/log/ovca-monitor.log
Monitor.Log_Level    INFO
Snmp.Log_File        /nfs/shared_storage/logs/ovca_snmptrapd.log
Snmp.Log_Level       DEBUG
----------------------------------------

Status: Success

例4.74 タスクの表示

PCA> show task 341e7bc74f339c

----------------------------------------
Task_Name            backup
Status               RUNNING
Progress             70
Start_Time           05-27-2019 09:59:36
End_Time             None
Pid                  1503341
Result               None
----------------------------------------

Status: Success

例4.75 ラック・レイアウトの表示

PCA> show rack-layout x8-2_base

RU  Name         Role             Type         Sub_Type     Units
--  ----         ----             ----         --------     -----
42  ovcacn42r1   compute          compute                   [42]
41  ovcacn41r1   compute          compute                   [41]
40  ovcacn40r1   compute          compute                   [40]
39  ovcacn39r1   compute          compute                   [39]
38  ovcacn38r1   compute          compute                   [38]
37  ovcacn37r1   compute          compute                   [37]
36  ovcacn36r1   compute          compute                   [36]
35  ovcacn35r1   compute          compute                   [35]
34  ovcacn34r1   compute          compute                   [34]
33  ovcacn33r1   compute          compute                   [33]
32  ovcacn32r1   compute          compute                   [32]
31  ovcacn31r1   compute          compute                   [31]
30  ovcacn30r1   compute          compute                   [30]
29  ovcacn29r1   compute          compute                   [29]
28  ovcacn28r1   compute          compute                   [28]
27  ovcacn27r1   compute          compute                   [27]
26  ovcacn26r1   compute          compute                   [26]
25  N / A        infrastructure   filler                    [25, 24]
24  N / A        infrastructure   filler                    [25, 24]
23  ovcasw23r1   infrastructure   cisco-data   cisco4       [23]
22  ovcasw22r1   infrastructure   cisco-data   cisco3       [22]
21  ovcasw21r1   infrastructure   cisco                     [21]
20  N / A        infrastructure   zfs-storage  disk-shelf   [20, 19, 18, 17]
19  N / A        infrastructure   zfs-storage  disk-shelf   [20, 19, 18, 17]
18  N / A        infrastructure   zfs-storage  disk-shelf   [20, 19, 18, 17]
17  N / A        infrastructure   zfs-storage  disk-shelf   [20, 19, 18, 17]
16  ovcasw16r1   infrastructure   cisco-data   cisco2       [16]
15  ovcasw15r1   infrastructure   cisco-data   cisco1       [15]
14  ovcacn14r1   compute          compute                   [14]
13  ovcacn13r1   compute          compute                   [13]
12  ovcacn12r1   compute          compute                   [12]
11  ovcacn11r1   compute          compute                   [11]
10  ovcacn10r1   compute          compute                   [10]
9   ovcacn09r1   compute          compute                   [9]
8   ovcacn08r1   compute          compute                   [8]
7   ovcacn07r1   compute          compute                   [7]
6   ovcamn06r1   infrastructure   management   management2  [6]
5   ovcamn05r1   infrastructure   management   management1  [5]
4   ovcasn02r1   infrastructure   zfs-storage  zfs-head2    [4, 3]
3   ovcasn02r1   infrastructure   zfs-storage  zfs-head2    [4, 3]
2   ovcasn01r1   infrastructure   zfs-storage  zfs-head1    [2, 1]
1   ovcasn01r1   infrastructure   zfs-storage  zfs-head1    [2, 1]
0   ovcapduBr1   infrastructure   pdu          pdu2         [0]
0   ovcapduAr1   infrastructure   pdu          pdu1         [0]
-----------------
44 rows displayed

Status: Success

例4.76 default_externalネットワークの構成詳細の表示

PCA> show network default_external

----------------------------------------
Network_Name         default_external
Trunkmode            None
Description          None
Ports                ['5:1', '5:2']
vNICs                None
Status               ready
Network_Type         external_network
Compute_Nodes        ovcacn12r1, ovcacn07r1, ovcacn13r1, ovcacn14r1, ovcacn10r1, ovcacn09r1, ovcacn11r1
Prefix               192.168.200.0/21
Netmask              None
Route_Destination    None
Route_Gateway        None
----------------------------------------

Status: Success

例4.77 テナント・グループの詳細を表示

PCA> show tenant-group myTenantGroup

----------------------------------------
Name                 myTenantGroup
Default              False
Tenant_Group_ID      0004fb0000020000155c15e268857a78
Servers              ['ovcacn09r1', 'ovcacn10r1']
State                ready
Tenant_Group_VIP     None
Tenant_Networks      ['myPublicNetwork']
Pool_Filesystem_ID   3600144f0d29d4c86000057162ecc0001
----------------------------------------

Status: Success

例4.78 カスタム・ネットワークの詳細の表示

PCA> show network myHostNetwork

----------------------------------------
Network_Name         myHostNetwork
Trunkmode            None
Description          None
Ports                ['1', '2']
vNICs                None
Status               ready
Network_Type         host_network
Compute_Nodes        ovcacn42r1, ovcacn01r2, ovcacn02r2
Prefix               10.10.10
Netmask              255.255.240.0
Route_Destination    10.10.20.0/24
Route_Gateway        10.10.10.250
----------------------------------------

Status: Success

例4.79 ストレージ・ネットワーク用のWWPNの表示

PCA> show cloud-wwpn Cloud_A

----------------------------------------
Cloud_Name       Cloud_A              
WWPN_List        50:01:39:70:00:58:91:1C, 50:01:39:70:00:58:91:1A, 
                 50:01:39:70:00:58:91:18, 50:01:39:70:00:58:91:16, 
                 50:01:39:70:00:58:91:14, 50:01:39:70:00:58:91:12, 
                 50:01:39:70:00:58:91:10, 50:01:39:70:00:58:91:0E, 
                 50:01:39:70:00:58:91:0C, 50:01:39:70:00:58:91:0A,
                 50:01:39:70:00:58:91:08, 50:01:39:70:00:58:91:06, 
                 50:01:39:70:00:58:91:04, 50:01:39:70:00:58:91:02, 
                 50:01:39:70:00:58:91:00 
----------------------------------------

Status: Success

例4.80 コンピュート・ノードのvHBA構成の表示

PCA> show vhba-info ovcacn10r1

vHBA_Name      Cloud        WWNN                      WWPN                      
-------------  -----------  -------------             -------------             
vhba03         Cloud_C      50:01:39:71:00:58:B1:04   50:01:39:70:00:58:B1:04   
vhba02         Cloud_B      50:01:39:71:00:58:91:05   50:01:39:70:00:58:91:05   
vhba01         Cloud_A      50:01:39:71:00:58:91:04   50:01:39:70:00:58:91:04   
vhba04         Cloud_D      50:01:39:71:00:58:B1:05   50:01:39:70:00:58:B1:05   
----------------
4 rows displayed

Status: Success

例4.81 Oracle Private Cloud Applianceバージョン情報の表示

PCA> show version

----------------------------------------
Version              2.4.1
Build                819
Date                 2019-06-20
----------------------------------------

Status: Success

例4.82 クラスタ情報の表示

PCA> show kube-cluster MyCluster

----------------------------------------
Cluster              MyCluster
Tenant_Group         Rack1_ServerPool    
State                CONFIGURED
Sub_State            VALID
Ops_Required         None
Load_Balancer        100.80.111.129
Vrrp_ID              15
External_Network     vm_public_vlan
Cluster_Network_Type dhcp
Gateway              None
Netmask              None
Name_Servers         None
Search_Domains       None
Repository           Rack1-Repository
Assembly             PCA_K8s_va.ova
Masters              3
Workers              3
Cluster_Start_Time   None
Cluster_Stop_Time    None
Job_ID               None
Error_Code           None
Error_Message        None
----------------------------------------

Status: Success

4.2.51 start

ラック・コンポーネントを起動します。

注意

startコマンドは非推奨です。 次回のOracle Private Cloud Appliance Controllerソフトウェア・リリースでは削除されます。

構文

start { compute-node CN | management-node MN } [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

そこで、CNはコンピュート・ノードの名前、MNは起動する管理ノードの名前を指します。

説明

startコマンドを使用して、コンピュート・ノードまたは管理ノードをブートします。 起動するサーバーのホスト名を指定する必要があります。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

compute-node CN | management-node MN

コンピュート・ノードまたは管理ノードのいずれかを起動します。 CNまたはMNを、起動するサーバーのホスト名にそれぞれ置き換えます。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.83 コンピュート・ノードの開始

PCA> start compute-node ovcacn11r1
Status: Success

4.2.52 start kube-cluster

第4.2.14項、「create kube-cluster」を使用して作成されたクラスタ定義からKubernetesクラスタを構築します。 クラスタ定義のサイズによっては、このプロセスに30分から数時間かかる場合があります。

構文

start kube-cluster cluster-name

cluster-nameは、起動するクラスタの名前です。

説明

start kube-clusterコマンドを使用して、非同期ジョブによって開始されるKubernetesクラスタ定義を発行します。 進捗は、show kube-clusterまたはlist kube-clusterコマンドを使用して表示できます。

状態

次の表に、このコマンドで使用可能な状態を示します。 これらはKubernetesクラスタの状態であり、Oracle VM Kubernetes仮想マシンの状態(停止、一時停止など)ではありません。 クラスタの起動中にshow kube-clusterコマンドを使用するか、list kube-clusterコマンドを使用して状態を表示します。

状態

サブ状態

説明

CONFIGURED

VALID

クラスタは有効です。

INVALID

クラスタが無効で、起動できません。

SUBMITTED

QUEUED

リソースがビルドを開始するまで待機しています。

BUILDING

NETWORK

ネットワークの構築。

MASTER_VMS

コントロール・プレーンの仮想マシンを構築します。

LOADBALANCER

ロード・バランサの変更を適用します。

CONTROL_PLANE

コントロール・プレーンの結合。

WORKERS

ワーカーの作成。

RECOVERING

MASTER_VMS

マスターVMを停止および削除します。

NETWORK

ネットワークを停止および削除します。

STOPPING

VM

ノード・プール内のVMの停止: nodepoolname

NETWORK

ネットワークを停止します。

AVAILABLE

クラスタは構築プロセスを完了しました。

WORKERS

ワーカー・ノードのビルド中にエラーが発生しました。

TBD

クラスタ構築がクリアされました。

ERROR

TBD

クラスタが完全に切断されました。

TBD

クラスタを停止する必要があり、手動の介入がある可能性があります。

例4.84 クラスタの起動

PCA> start kube-cluster MyCluster
Status: Success

4.2.53 stop

ラック・コンポーネントをシャットダウンするか、実行中のタスクを中断します。

注意

ラック・コンポーネントをシャットダウンするstopコマンドは非推奨です。 次回のOracle Private Cloud Appliance Controllerソフトウェア・リリースでは削除されます。

タスクを中止するその他のstopコマンドは、引き続き機能します。

構文

stop { compute-node CN | management-node MN | task id | update-task id } [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

CNまたはMNは停止するサーバーの名前、idは中断するタスクの識別子を指します。

説明

stopコマンドを使用して、コンピュート・ノードまたは管理ノードを停止したり、実行中のタスクを中断します。 コマンド・ターゲットに応じて、停止するサーバーのホスト名、または中断するタスクの一意の識別子を指定する必要があります。 これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

compute-node CN | management-node MN

コンピュート・ノードまたは管理ノードのいずれかを停止します。 CNまたはMNを、停止するサーバーのホスト名にそれぞれ置き換えます。

注意

これらのオプションは非推奨です。

task id | update-task id

実行中のタスクを中断します。

update-taskターゲット・タイプを使用して、ソフトウェア更新タスクを中止してください。 タスクIDは引数として取得されませんが、管理ノードIPアドレスは取得されます。

注意

更新タスクの停止は危険な操作であり、その使用には十分な注意が必要です。

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.85 タスクの中止

PCA> stop task 341d45b5424c16
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y

Status: Success

4.2.54 stop kube-cluster

Kubernetesクラスタを停止します。

構文

stop kube-cluster cluster-name

ここで、cluster-nameは停止するクラスタの名前です。

説明

stop kube-clusterコマンドを使用して、非同期ジョブを介して使用可能なKubernetesクラスタを停止します。 進捗は、show kube-clusterまたはlist kube-clusterコマンドを使用して表示できます。

状態

次の表に、このコマンドで使用可能な状態を示します。 クラスタの起動中にshow kube-clusterコマンドを使用して状態を表示します。

クラスタ・サブ状態

説明

AVAILABLE or ERROR

SUBMITTED

ネットワーク構成のステータス。

考えられる状態は次のとおりです: build_network, build_control_pane, remove_network

QUEUED

STOPPING

CONFIGURED

VALID

 

例4.86 クラスタの停止

PCA> stop kube-cluster MyCluster
Status: Success

4.2.55 update appliance

このコマンドは非推奨です。 その機能は、Oracle Private Cloud Applianceアップグレーダの一部です。

注意

リリース2.4.1は、ファクトリ・インストール専用です。 既存のアプライアンス環境でのフィールドの更新やアップグレード操作には使用できません。

4.2.56 update password

Oracle Private Cloud Appliance内の1つ以上のコンポーネントのパスワードを変更します。

構文

update password { LeafSwitch-admin | MgmtNetSwitch-admin | SpineSwitch-admin | mgmt-root | mysql-appfw | mysql-ovs | mysql-root | ovm-admin | spCn-root | spMn-root | spZfs-root | system-root | wls-weblogic | zfs-root } [ PCA-password target-password ] [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、PCA-passwordはOracle Private Cloud Appliance管理ユーザーの現在のパスワード、target-passwordはターゲット・ラック・コンポーネントに適用する新しいパスワードです。

説明

Oracle Private Cloud Appliance内の1つ以上のコンポーネントのパスワードを変更するには、update passwordコマンドを使用します。 これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

必要に応じて、現在のOracle Private Cloud Applianceパスワードと新規ターゲット・コンポーネントのパスワードをコマンドで指定します。 そうでない場合は、Oracle Private Cloud Appliance管理ユーザーの現在のパスワードと、ターゲットに適用する新しいパスワードの入力を求められます。

注意

パスワードの変更はアプライアンス全体に即座に反映されるのではなく、タスク・キューを介して伝播されます。 パスワード変更を適用する場合は、少なくとも30分待って変更を有効にします。 この遅延中は、これ以上パスワードを変更しないでください。 パスワードの変更が正しく適用されていることを確認します。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

LeafSwitch-admin

リーフCisco Nexus 9336C-FX2スイッチ上のadminユーザーの新しいパスワードを設定します。

MgmtNetSwitch-admin

Cisco Nexus 9348GC-FXPスイッチ上でadminユーザーの新しいパスワードを設定します。

SpineSwitch-admin

スパインCisco Nexus 9336C-FX2スイッチの、adminユーザーの新しいパスワードを設定します。

mgmt-root

管理ノードでrootユーザーの新しいパスワードを設定します。

mysql-appfw

MySQLデータベースでappfwユーザーの新しいパスワードを設定します。

mysql-appfwmysql-ovsmysql-rootおよびwls-weblogicのパスワードは常に同じである必要があるため、自動的に同期されます。

mysql-ovs

MySQLデータベースでovsユーザーの新しいパスワードを設定します。

mysql-appfwmysql-ovsmysql-rootおよびwls-weblogicのパスワードは常に同じである必要があるため、自動的に同期されます。

mysql-root

MySQLデータベースでrootユーザーの新しいパスワードを設定します。

mysql-appfwmysql-ovsmysql-rootおよびwls-weblogicのパスワードは常に同じである必要があるため、自動的に同期されます。

ovm-admin

Oracle VM Managerでadminユーザーの新しいパスワードを設定します。

spCn-root

コンピュート・ノードILOMにrootユーザーの新規パスワードを設定します。

spMn-root

管理ノードILOMのrootユーザーに新しいパスワードを設定します。

spZfs-root

ZFSストレージ・アプライアンスでrootユーザーとそのILOMの新しいパスワードを設定します。

system-root

すべてのコンピュート・ノードでrootユーザーに新しいパスワードを設定します。

wls-weblogic

WebLogic Serverでweblogicユーザーの新しいパスワードを設定します。

mysql-appfwmysql-ovsmysql-rootおよびwls-weblogicのパスワードは常に同じである必要があるため、自動的に同期されます。

zfs-root

ZFSストレージ・アプライアンスでrootユーザーとそのILOMの新しいパスワードを設定します。

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.87 Oracle VM Manager管理者パスワードの変更

PCA> update password ovm-admin
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y
Current PCA Password:
New ovm-admin Password:
Confirm New ovm-admin Password:
Status: Success

4.2.57 update compute-node

Oracle Private Cloud Applianceコンピュート・ノードを、Oracle Private Cloud Appliance ISOイメージに含まれているOracle VM Serverバージョンに更新します。

構文

update compute-node { node } [ --confirm ] [ --force ] [ --json ] [ --less ] [ --more ] [ --tee=OUTPUTFILENAME ]

ここで、nodeはアプライアンス・ソフトウェアのISOイメージの一部として提供されるOracle VM Serverバージョンで更新する必要があるコンピュート・ノードの識別子です。 このコマンドは、一度に1つのコンピュート・ノードに対して実行します。

警告

複数のnode引数を使用したupdate compute-nodeコマンドの実行はサポートされていません。 どちらも、コマンドを個別のターミナル・ウィンドウで同時に実行しません。

説明

update compute-nodeコマンドを使用して、選択したコンピュート・ノードまたはコンピュート・ノードに新しいOracle VM Serverバージョンをインストールします。 これは破壊的な操作であり、--confirmフラグを使用してプロンプトをオーバーライドしないかぎり、続行するかどうかの確認を求められます。

オプション

次の表は、このコマンドで使用可能なオプションを示しています。

オプション

説明

--confirm

破壊的なコマンドに対するフラグの確認。 このフラグを使用すると、このコマンドの実行時に確認プロンプトが使用不可になります。

--force

ターゲットが無効な状態の場合でも、コマンドの実行を強制します。 このオプションは安全ではありません。最後の手段としてのみ使用する必要があります。

--json

コマンドの出力をJSON形式で返します

--less

Linuxコマンド・ライン上のlessコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションを使用すると、コマンド出力を前後に移動できます。

--more

Linuxコマンド・ライン上のmoreコマンドと同様、簡単に表示できるように、コマンドの出力を一度に1つずつ返します。 このオプションは進むナビゲーションのみを許可します。

--tee=OUTPUTFILENAME

コマンドの出力を返すときは、指定された出力ファイルにも書き出します。

例4.88 コンピュート・ノードのOracle VM Serverリリース4.2.xへのアップグレード

PCA> update compute-node ovcacn10r1
************************************************************
 WARNING !!! THIS IS A DESTRUCTIVE OPERATION.
************************************************************
Are you sure [y/N]:y

Status: Success