このドキュメントで説明されているソフトウェアはサポートされていないか、拡張サポートが提供されています。
現在サポートされているリリースにアップグレードすることをお薦めします。
Ceph FS機能は、テクノロジ・プレビューとして使用できます。 この機能のサポートは制限されているため、本番環境では使用しないでください。 この機能を使用する場合は、アップストリームのドキュメント(http://docs.ceph.com/docs/master/cephfs/)を参照して、詳細を確認してください。
Ceph Metadata Server (MDS)をデプロイします。
Ceph FSを使用するには、環境内で1つ以上のメタデータ・サーバーがアクティブになっている必要があります。 そのための専用サーバーを用意できない場合、MDSサービスでは大容量のリソースを必要としないので、このサービスをストレージ・クラスタ内の既存の監視ノードにインストールできます。 環境内にCeph MDSをデプロイするには、デプロイメント・ノードから次のコマンドを実行します。
#
ceph-deploy mds create
ceph-node3
Cephクライアントをデプロイします。
Cephクライアントは、Ceph FSをマウントするシステム上にデプロイされている必要があり、そのシステムにはストレージ・クラスタにアクセスするための適切なネットワーク・アクセスと認証キーリングが必要です。 Cephクライアントのデプロイおよび設定の詳細は、1.5.1項 「Cephクライアントのインストール」を参照してください。
ストレージ・プールと新しいCephファイルシステムを作成します。
Cephファイルシステムが機能するには、2つ以上のストレージ・プールが必要です。 1つ目のプールには実際のデータが格納され、2つ目のプールにはメタデータが格納されます。 CephコマンドラインにはCephファイルシステムを作成および削除するためのコマンドが含まれていますが、同時に存在できるのは1つのファイルシステムのみです。
ストレージ・プールを作成するには、Cephクライアント・ノードから次のコマンドを実行します。
#
ceph osd pool create cephfs_data 1
#ceph osd pool create cephfs_metadata 2
新しいCephファイルシステムを作成するには、Cephクライアント・ノードから次のコマンドを実行します。
#
ceph fs new cephfs cephfs_metadata cephfs_data
Ceph MDSのステータスを確認します。
ファイルシステムが作成されると、Ceph MDSはアクティブな状態になります。 ファイルシステムをマウントできるのは、MDSがアクティブになってからです。 ステータスを確認するには、次のようにします。
#
ceph mds stat
e5: 1/1/1 up {0=ceph-node3=up:active}
管理認証に使用する秘密鍵を、Ceph FSのマウントに使用可能なファイルに格納します。
ストレージ・クラスタの管理鍵は、クラスタ内の各ノードの
/etc/ceph/ceph.client.admin.keyring
と、Cephクライアント・ノードにも格納されています。 Ceph FSをマウントする際、マウント要求を認証するために、この鍵が必要です。 この鍵がプロセス・リストに表示されないようにするには、適切な権限で保護されているファイルに鍵をコピーして、その情報を保護することをお薦めします。次に例を示します。
#
echo $(sed -n 's/.*key *= *\([^ ]*.*\)/\1/p' < /etc/ceph/ceph.client.admin.keyring) > /etc/ceph/admin.secret
#chmod 600 /etc/ceph/admin.secret
#cat /etc/ceph/ceph.client.admin.keyring
[client.admin] key = AQDIvtZXzBriJBAA+3HmoYkUmPFnKljqhxlYGw==
#cat /etc/ceph/admin.secret
AQDIvtZXzBriJBAA+3HmoYkUmPFnKljqhxlYGw==
ファイルシステムをマウントするには、Cephカーネル・モジュールを使用するか、Ceph FUSE (Filesystem in User Space)ツールを使用できます。
カーネル・モジュールを使用したマウント
ディレクトリ・マウント・ポイントを作成します(必要な場合)。
#
mkdir -p /mnt/cephfs
ファイル・システムをマウントします。
#
mount -t ceph
ceph-node2
:6789:/ /mnt/cephfs -o name=admin,secretfile=/etc/ceph/admin.secretceph-node2
を、ストレージ・クラスタ内のCephモニターのホスト名またはIPアドレスに置き換えます。 ファイルシステムを正常にマウントするために必要なアクティブ・モニターは1つのみですが、複数のモニターのアドレスをカンマで区切って指定できます。 使用可能なモニターが不明な場合は、ceph mon statを実行して、使用可能なモニター、それぞれのIPアドレスおよびポート番号のリストを取得できます。Cephファイルシステムをマウントすると、Cephクライアント・ノードに
ceph
およびlibceph
カーネル・モジュールが自動的にロードされます。ファイルシステムをアンマウントするには、次のようにします。
#
umount /mnt/cephfs
Ceph FUSEを使用したマウント
ceph-fuseパッケージをまだインストールしていない場合は、クライアント・システムにインストールする必要があります。
#
yum install ceph-fuse
Ceph FUSEがCeph Storage Clusterの構成情報にアクセスでき、Cephクライアントの管理キーリングのコピーを保持している場合は、どのシステムからでもCeph FUSEを使用できます。 このホストをCephクライアントとして構成済の場合、この情報はすでに使用可能なので、この手順はスキップしてかまいません。
クライアント・ホスト上で、適切な構成ディレクトリを作成します。
#
mkdir -p /etc/ceph
構成および管理キーリングをCeph Storage Clusterのいずれかの監視ホストからこのディレクトリにコピーします。
#
scp /etc/ceph/ceph.conf root@
#client_host
:/etc/cephscp /etc/ceph/ceph.client.admin.keyring root@
client_host
:/etc/cephCeph構成ファイルおよびキーリングに、クライアント・システムに対して設定されている適切な権限があることを確認します。
#
chmod -R 644 /etc/ceph/
ファイルシステムのマウント・ポイントを作成します(必要な場合)。
#
mkdir -p /mnt/cephfs
CephファイルシステムをFUSEとしてマウントするには、ceph-fuseコマンドを使用します。 次に例を示します。
#
ceph-fuse -c /etc/ceph/ceph.conf /mnt/cephfs
FUSEとしてマウントされたCephファイルシステムをアンマウントするには、次を実行します。
#
fusermount -u /mnt/cephfs