JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris 10 から Oracle Solaris 11 への移行     Oracle Solaris 11 Information Library (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris 10 から Oracle Solaris 11 への移行 (概要)

2.  Oracle Solaris 11 インストール方法への移行

3.  デバイスの管理

4.  ストレージ機能の管理

5.  ファイルシステムの管理

Oracle Solaris 11 ファイルシステムの変更点

ルートファイルシステムの要件および変更点

ZFS ファイルシステムの管理の変更点

ZFS ファイルシステムの情報を表示する

ZFS ファイルシステム領域の報告に関する問題の解決

ZFS ストレージプール領域の報告に関する問題の解決

ZFS ファイルシステムを利用可能にする

ZFS ファイルシステムの共有の変更点

旧バージョンの ZFS 共有の構文

ZFS 共有のマイグレーション/移行に関する問題

ZFS データの複製解除の要件

ZFS バックアップ機能の検討

ZFS ファイルシステムへのファイルシステムデータの移行

推奨されるデータ移行操作

ZFS シャドウマイグレーションを使用したデータ移行

ZFS ファイルシステムへの UFS データの移行 (ufsdump および ufsrestore)

6.  ソフトウェアの管理

7.  ネットワーク構成の管理

8.  システム構成の管理

9.  セキュリティーの管理

10.  仮想環境での Oracle Solaris リリースの管理

11.  ユーザーアカウント管理とユーザー環境の変更点

12.  Oracle Solaris デスクトップ機能の使用

A.  以前の Oracle Solaris 11 リリースから Oracle Solaris 11 への移行

ZFS ファイルシステムの管理の変更点

次の ZFS ファイルシステムの機能は、Oracle Solaris 10 リリースでは利用できませんが、Oracle Solaris 11 では利用できます。

ZFS ファイルシステムの情報を表示する

システムのインストール後、ZFS ストレージプールおよび ZFS ファイルシステムの情報を確認します。

zpool status コマンドを使用して、ZFS ストレージプールの情報を表示します。例:

# zpool status
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          c2t0d0s0  ONLINE       0     0     0

errors: No known data errors

zfs list コマンドを使用して、ZFS ファイルシステムの情報を表示します。例:

# zfs list -r rpool
NAME                      USED  AVAIL  REFER  MOUNTPOINT
NAME                      USED  AVAIL  REFER  MOUNTPOINT
rpool                    5.39G  67.5G  74.5K  /rpool
rpool/ROOT               3.35G  67.5G    31K  legacy
rpool/ROOT/solaris       3.35G  67.5G  3.06G  /
rpool/ROOT/solaris/var    283M  67.5G   214M  /var
rpool/dump               1.01G  67.5G  1000M  -
rpool/export             97.5K  67.5G    32K  /rpool/export
rpool/export/home        65.5K  67.5G    32K  /rpool/export/home
rpool/export/home/admin  33.5K  67.5G  33.5K  /rpool/export/home/admin
rpool/swap               1.03G  67.5G  1.00G  -

ルートプールコンポーネントの詳細は、「インストール後の最初の ZFS BE の確認」を参照してください。

ZFS ファイルシステム領域の報告に関する問題の解決

利用可能なプールおよびファイルシステムの領域を判別する場合、zpool list および zfs list コマンドは、以前の df および du コマンドより優れています。旧バージョンのコマンドでは、プールおよびファイルシステムの領域を簡単に識別できず、下位のファイルシステムまたはスナップショットによって消費される領域の詳細を表示できません。

たとえば、次のルートプール (rpool) は、5.46GB が割り当て済みで、68.5GB は空き領域です。

# zpool list rpool
NAME   SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
rpool   74G  5.46G  68.5G   7%  1.00x  ONLINE  -

個別のファイルシステムの USED 列を確認することにより、プール領域の数値とファイルシステム領域の数値を比較すれば、プールの領域の詳細を確認できます。例:

# zfs list -r rpool
NAME                      USED  AVAIL  REFER  MOUNTPOINT
rpool                    5.41G  67.4G  74.5K  /rpool
rpool/ROOT               3.37G  67.4G    31K  legacy
rpool/ROOT/solaris       3.37G  67.4G  3.07G  /
rpool/ROOT/solaris/var    302M  67.4G   214M  /var
rpool/dump               1.01G  67.5G  1000M  -
rpool/export             97.5K  67.4G    32K  /rpool/export
rpool/export/home        65.5K  67.4G    32K  /rpool/export/home
rpool/export/home/admin  33.5K  67.4G  33.5K  /rpool/export/home/admin
rpool/swap               1.03G  67.5G  1.00G  -

ZFS ストレージプール領域の報告に関する問題の解決

zpool list コマンドによって報告される SIZE 値は、通常、プール内の物理ディスク領域の大きさですが、プールの冗長性レベルに応じて異なります。次の例を参照してください。zfs list コマンドは、使用可能な領域のうち、ファイルシステムで利用できる領域を示します。これは、ディスク領域から ZFS プール冗長性メタデータオーバーヘッド (ある場合) を差し引いたものです。

ZFS ファイルシステムを利用可能にする

ZFS ファイルシステムを利用可能にする方法は、Oracle Solaris 10 リリースと次の点で似ています。

ZFS ファイルシステムの共有の変更点

Oracle Solaris 10 では、sharenfs または sharesmb プロパティーを設定して ZFS ファイルシステム共有を作成して公開したり、旧バージョンの share コマンドを使用したりできました。

この Solaris リリースでは、次のように ZFS ファイルシステムの共有を作成してからその共有を公開します。

新しい共有の主要な相違点は次のとおりです。

旧バージョンの ZFS 共有の構文

旧バージョンの共有の構文は引き続きサポートされます。/etc/dfs/dfstab ファイルを変更する必要はありません。旧バージョンの共有は SMF サービスによって管理されます。

  1. share コマンドを使用してファイルシステムを共有します。

    たとえば、ZFS ファイルシステムを共有するには、次のように行います。

    # share -F nfs /tank/zfsfs
    # cat /etc/dfs/sharetab
    /tank/zfsfs        -       nfs     rw

    上の構文は UFS ファイルシステムの共有と同じです。

    # share -F nfs /ufsfs
    # cat /etc/dfs/sharetab
    /ufsfs  -       nfs     rw      
    /tank/zfsfs     -       nfs     rw      
  2. 以前のリリースと同様に、sharenfs プロパティーを有効にしたファイルシステムを作成できます。Oracle Solaris 11 の動作では、ファイルシステムにデフォルトの共有が作成されます。

    # zfs create -o sharenfs=on rpool/data
    # cat /etc/dfs/sharetab
    /rpool/data     rpool_data      nfs     sec=sys,rw

上記のファイルシステムの共有は、すぐに公開されます。

ZFS 共有のマイグレーション/移行に関する問題

このセクションで、共有の移行の問題を確認してください。

ZFS データの複製解除の要件

Oracle Solaris 11 では、複製解除 (dedup) プロパティーを使用して、ZFS ファイルシステムから冗長なデータを削除できます。ファイルシステムで dedup プロパティーが有効になっている場合、重複データブロックが同期的に削除されます。この結果、一意のデータだけが格納され、共通のコンポーネントがファイル間で共有されます。例:

# zfs set dedup=on tank/home

次の手順を実行してシステムがデータの複製解除をサポートできるかどうかを判断するまでは、本稼働システムに常駐するファイルシステムで dedup プロパティーを有効にしないでください。

  1. 複製解除による領域の節約がデータに有益であるかどうかを判断します。データを複製解除できない場合、dedup を有効にしても無駄です。次のコマンドを実行すると、非常に大量のメモリーが使用されます。

    # zdb -S tank
    Simulated DDT histogram:
    bucket              allocated                       referenced          
    ______   ______________________________   ______________________________
    refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
    ------   ------   -----   -----   -----   ------   -----   -----   -----
         1    2.27M    239G    188G    194G    2.27M    239G    188G    194G
         2     327K   34.3G   27.8G   28.1G     698K   73.3G   59.2G   59.9G
         4    30.1K   2.91G   2.10G   2.11G     152K   14.9G   10.6G   10.6G
         8    7.73K    691M    529M    529M    74.5K   6.25G   4.79G   4.80G
        16      673   43.7M   25.8M   25.9M    13.1K    822M    492M    494M
        32      197   12.3M   7.02M   7.03M    7.66K    480M    269M    270M
        64       47   1.27M    626K    626K    3.86K    103M   51.2M   51.2M
       128       22    908K    250K    251K    3.71K    150M   40.3M   40.3M
       256        7    302K     48K   53.7K    2.27K   88.6M   17.3M   19.5M
       512        4    131K   7.50K   7.75K    2.74K    102M   5.62M   5.79M
        2K        1      2K      2K      2K    3.23K   6.47M   6.47M   6.47M
        8K        1    128K      5K      5K    13.9K   1.74G   69.5M   69.5M
     Total    2.63M    277G    218G    225G    3.22M    337G    263G    270G
    
    dedup = 1.20, compress = 1.28, copies = 1.03, dedup * compress / copies = 1.50

    推定される dedup 比率が 2 より大きい場合は、dedup によって領域が節約される可能性があります。

    この例では、dedup 比率 (dedup = 1.20) は 2 より小さいため、dedup の有効化は推奨されません。

  2. システムに dedup をサポートするための十分なメモリーがあることを確認してください。

    • コア内の各 dedup テーブルエントリは、およそ 320 バイトです。

    • 割り当てられているブロック数に 320 を掛けます。例:

      in-core DDT size = 2.63M x 320 = 841.60M
  3. dedup のパフォーマンスは、複製解除テーブルがメモリーに入る場合に最適になります。dedup テーブルをディスクに書き込む必要がある場合は、パフォーマンスが低下します。十分なメモリーリソースがない状態でファイルシステムに対する複製解除を有効にすると、ファイルシステム関連の操作時にシステム性能が低下する可能性があります。たとえば、十分なメモリーリソースがない状態で、dedup が有効になっている大容量のファイルシステムを削除すると、システム性能に影響が出る可能性があります。