このドキュメントで説明されているソフトウェアはサポートされていないか、拡張サポートが提供されています。
現在サポートされているリリースにアップグレードすることをお薦めします。
Cephデプロイメント・ノードをインストールして構成した後、このノードを使用して、ストレージ・クラスタに参加している他のノードにCephをインストールできます。
すべてのストレージ・クラスタ・ノードにCephをインストールするには、デプロイメント・ノード上で次のコマンドを実行します。
# ceph-deploy install ceph-node{1..4}
ストレージ・クラスタを構成するには、管理ノード上で次の手順を実行します。
たとえば次のように、Cephモニタリングを初期化し、ストレージ・クラスタの1つ以上のノードにCephモニターをデプロイします。
#
ceph-deploy mon create-initial
#ceph-deploy mon create
ceph-node{2,3,4}
注意高可用性を実現するため、少なくとも3つのノードをCephモニターとして構成することをお薦めします。
たとえば次のように、Cephモニターの1つから、モニター・キー、およびOSDとMDSのブートストラップ・キーリングを収集します。
#
ceph-deploy gatherkeys
ceph-node3
次のコマンドを使用して、ストレージ・クラスタの各ノードのバックエンド・ストレージ・デバイスを準備します。
#
ceph-deploy osd create --zap-disk --fs-type
fstype
node
:device
注意このコマンドにより、指定したデバイス上のすべてのデータが削除され、そのデバイスのパーティションが変更されます。
node
を、ディスクが配置されているノード名またはホスト名に置き換えます。device
を、ディスクが配置されているホスト上でlsblkを実行したときに報告されたディスクのデバイス名に置き換えます。 サポートされているファイルシステム・タイプ(fstype
)は、btrfs
およびxfs
です。 このコマンドによって、ディスクが再パーティション化され、通常は2つのパーティション(1つはデータ格納用、もう1つはジャーナル格納用)が作成されます。たとえば、ストレージ・クラスタのノードに対して、
/dev/sdb
にバックエンド・ストレージ・デバイスとしてbtrfsファイルシステムを準備します。#
ceph-deploy osd create --zap-disk --fs-type btrfs
ceph-node1
:sdb次のコマンドを使用して、ストレージ・クラスタの状態およびステータスを確認します。
#
ceph health
#ceph status
HEALTH_OK
と正常に表示され、記憶域クラスタが安定するまで、通常、数分かかります。 クラスタ・クォーラム・ステータスを確認して、クラスタ・モニターのクォーラム・ステータスに関する指標を取得することもできます。#
ceph quorum_status --format json-pretty
ストレージ・クラスタの状態またはステータスに関する問題のトラブルシューティングの詳細は、アップストリームのCephドキュメントを参照してください。