このドキュメントで説明されているソフトウェアはサポートされていないか、拡張サポートが提供されています。
現在サポートされているリリースにアップグレードすることをお薦めします。

1.3.3 ストレージ・クラスタ参加ノードでのCephのインストールおよび構成

Cephデプロイメント・ノードをインストールして構成した後、このノードを使用して、ストレージ・クラスタに参加している他のノードにCephをインストールできます。

すべてのストレージ・クラスタ・ノードにCephをインストールするには、デプロイメント・ノード上で次のコマンドを実行します。

# ceph-deploy install ceph-node{1..4}

ストレージ・クラスタを構成するには、管理ノード上で次の手順を実行します。

  1. たとえば次のように、Cephモニタリングを初期化し、ストレージ・クラスタの1つ以上のノードにCephモニターをデプロイします。

    # ceph-deploy mon create-initial
    # ceph-deploy mon create ceph-node{2,3,4}
    注意

    高可用性を実現するため、少なくとも3つのノードをCephモニターとして構成することをお薦めします。

  2. たとえば次のように、Cephモニターの1つから、モニター・キー、およびOSDとMDSのブートストラップ・キーリングを収集します。

    # ceph-deploy gatherkeys ceph-node3
  3. 次のコマンドを使用して、ストレージ・クラスタの各ノードのバックエンド・ストレージ・デバイスを準備します。

    # ceph-deploy osd create --zap-disk --fs-type fstype node:device
    注意

    このコマンドにより、指定したデバイス上のすべてのデータが削除され、そのデバイスのパーティションが変更されます。

    nodeを、ディスクが配置されているノード名またはホスト名に置き換えます。 deviceを、ディスクが配置されているホスト上でlsblkを実行したときに報告されたディスクのデバイス名に置き換えます。 サポートされているファイルシステム・タイプ(fstype)は、btrfsおよびxfsです。 このコマンドによって、ディスクが再パーティション化され、通常は2つのパーティション(1つはデータ格納用、もう1つはジャーナル格納用)が作成されます。

    たとえば、ストレージ・クラスタのノードに対して、/dev/sdbにバックエンド・ストレージ・デバイスとしてbtrfsファイルシステムを準備します。

    # ceph-deploy osd create --zap-disk --fs-type btrfs ceph-node1:sdb
  4. 次のコマンドを使用して、ストレージ・クラスタの状態およびステータスを確認します。

    # ceph health
    # ceph status

    HEALTH_OKと正常に表示され、記憶域クラスタが安定するまで、通常、数分かかります。 クラスタ・クォーラム・ステータスを確認して、クラスタ・モニターのクォーラム・ステータスに関する指標を取得することもできます。

    # ceph quorum_status --format json-pretty

    ストレージ・クラスタの状態またはステータスに関する問題のトラブルシューティングの詳細は、アップストリームのCephドキュメントを参照してください。