このドキュメントで説明されているソフトウェアはサポートされていないか、拡張サポートが提供されています。
現在サポートされているリリースにアップグレードすることをお薦めします。
Cephデプロイメント・ノードをインストールして構成した後、このノードを使用して、ストレージ・クラスタに参加している他のノードにCephをインストールできます。
すべてのストレージ・クラスタ・ノードにCephをインストールするには、デプロイメント・ノード上で次のコマンドを実行します。
# ceph-deploy install ceph-node{1..4}ストレージ・クラスタを構成するには、管理ノード上で次の手順を実行します。
たとえば次のように、Cephモニタリングを初期化し、ストレージ・クラスタの1つ以上のノードにCephモニターをデプロイします。
#
ceph-deploy mon create-initial#ceph-deploy mon createceph-node{2,3,4}注意高可用性を実現するため、少なくとも3つのノードをCephモニターとして構成することをお薦めします。
たとえば次のように、Cephモニターの1つから、モニター・キー、およびOSDとMDSのブートストラップ・キーリングを収集します。
#
ceph-deploy gatherkeysceph-node3次のコマンドを使用して、ストレージ・クラスタの各ノードのバックエンド・ストレージ・デバイスを準備します。
#
ceph-deploy osd create --zap-disk --fs-typefstypenode:device注意このコマンドにより、指定したデバイス上のすべてのデータが削除され、そのデバイスのパーティションが変更されます。
nodeを、ディスクが配置されているノード名またはホスト名に置き換えます。deviceを、ディスクが配置されているホスト上でlsblkを実行したときに報告されたディスクのデバイス名に置き換えます。 サポートされているファイルシステム・タイプ(fstype)は、btrfsおよびxfsです。 このコマンドによって、ディスクが再パーティション化され、通常は2つのパーティション(1つはデータ格納用、もう1つはジャーナル格納用)が作成されます。たとえば、ストレージ・クラスタのノードに対して、
/dev/sdbにバックエンド・ストレージ・デバイスとしてbtrfsファイルシステムを準備します。#
ceph-deploy osd create --zap-disk --fs-type btrfsceph-node1:sdb次のコマンドを使用して、ストレージ・クラスタの状態およびステータスを確認します。
#
ceph health#ceph statusHEALTH_OKと正常に表示され、記憶域クラスタが安定するまで、通常、数分かかります。 クラスタ・クォーラム・ステータスを確認して、クラスタ・モニターのクォーラム・ステータスに関する指標を取得することもできます。#
ceph quorum_status --format json-prettyストレージ・クラスタの状態またはステータスに関する問題のトラブルシューティングの詳細は、アップストリームのCephドキュメントを参照してください。

