このドキュメントで説明されているソフトウェアはサポートされていないか、拡張サポートが提供されています。
現在サポートされているリリースにアップグレードすることをお薦めします。
次の手順で使用される例では、デプロイメント・ノードはceph-node1.example.com
(192.168.1.51)で、これは管理ノードと同じです。
デプロイメント・ノードで次の手順を実行します。
ceph-deploy
パッケージをインストールします。#
yum install ceph-deploy
たとえば次のように、ストレージ・クラスタのCeph構成ディレクトリを作成し、このディレクトリに変更します。
#
mkdir /var/mydom_ceph
#cd /var/mydom_ceph
注意これは、Cephデプロイメント・ノードが構成変更をクラスタとクライアント・ノードおよびゲートウェイ・ノードにロール・アウトする場合に使用する作業用の構成ディレクトリです。 今後、Ceph構成ファイルを変更する必要がある場合は、このディレクトリで変更してから、ceph-deploy config pushコマンドを使用して、クラスタ内の他のノードの構成を更新してください。
たとえば次のように、ceph-deployコマンドを使用して、ストレージ・クラスタのメンバーを定義します。
#
ceph-deploy --cluster mydom new
ceph-node{1..4}
ヒントこの例では、bashシェルのショートハンドを使用して、ceph-node1、ceph-node2、ceph-node3およびceph-node4という名前のノードの追加を反復実行します。 これらのホスト名を空白区切りリストとして手動で指定することもできます。 このドキュメント全体を通して、これと同様の表記方法が使用されている場合があります。
注意同じハードウェア上で複数のストレージ・クラスタを実行しない場合、--clusterオプションを使用してクラスタ名を指定する必要はありません。
たとえば次のように、
/var/mydom_ceph/ceph.conf
を編集し、レプリカのデフォルト数を設定します。osd pool default size = 2
/var/mydom_ceph/ceph.conf
を編集し、1.8.3項 「RBDカーネル・モジュールがイメージをブロック・デバイスにマップできない」で説明している問題の回避策を追加します。rbd default features = 3
これで、残りのストレージ・クラスタ・ノードにCephをインストールできるようになります。 1.3.3項 「ストレージ・クラスタ参加ノードでのCephのインストールおよび構成」を参照してください。