JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris ZFS 管理ガイド     Oracle Solaris 10 8/11 Information Library (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

1.  Oracle Solaris ZFS ファイルシステム (概要)

2.  Oracle Solaris ZFS 入門

3.  Oracle Solaris ZFS ファイルシステムと従来のファイルシステムの相違点

4.  Oracle Solaris ZFS ストレージプールの管理

5.  Oracle Solaris ZFS ルートファイルシステムのインストールとブート

Oracle Solaris ZFS ルートファイルシステムのインストールとブート (概要)

ZFS インストール機能

ZFS をサポートするための Oracle Solaris インストールと Live Upgrade の要件

Oracle Solaris リリースの要件

一般的な ZFS ストレージプール要件

ZFS ストレージプールのディスク容量要件

ZFS ストレージプールの構成要件

ZFS ルートファイルシステムのインストール (Oracle Solaris 初期インストール)

ミラー化された ZFS ルートプールを作成する方法 (インストール後)

ZFS ルートファイルシステムのインストール (Oracle Solaris フラッシュアーカイブインストール)

ZFS ルートファイルシステムのインストール (JumpStart インストール)

ZFS 用の JumpStart キーワード

ZFS 用 JumpStart プロファイルの例

ZFS の JumpStart に関する問題

ZFS ルートファイルシステムへの移行または ZFS ルートファイルシステムの更新 (Live Upgrade)

Live Upgrade で ZFS に移行する際の問題

Live Upgrade を使用して ZFS ルートファイルシステム (ゾーンが含まれていない) を移行または更新する

ゾーンが含まれているシステムを Live Upgrade を使用して移行またはアップグレードする (Solaris 10 10/08)

UFS 上にゾーンルートを持つ UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する方法 (Solaris 10 10/08)

ZFS 上にゾーンルートを持つ ZFS ルートファイルシステムを構成する方法 (Solaris 10 10/08)

ZFS 上にゾーンルートを持つ ZFS ルートファイルシステムにアップグレードまたはパッチを適用する方法 (Solaris 10 10/08)

ゾーンが含まれているシステムを Oracle Solaris Live Upgrade で移行またはアップグレードする (Solaris 10 5/09 以降)

サポートされているゾーンルート構成を持つ ZFS の情報 (Solaris 10 5/09 以降)

ZFS ルートファイルシステムとゾーンルートを持つ ZFS BE を作成する方法 (Solaris 10 5/09 以降)

ゾーンルートを持つ ZFS ルートファイルシステムにアップグレードまたはパッチを適用する方法 (Solaris 10 5/09 以降)

ゾーンルートを持つ UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する方法 (Solaris 10 5/09 以降)

スワップデバイスおよびダンプデバイスの ZFS サポート

ZFS スワップデバイスおよびダンプデバイスのサイズを調整する

ZFS ダンプデバイスの問題のトラブルシューティング

ZFS ルートファイルシステムからのブート

ミラー化された ZFS ルートプールの代替ディスクからブートする

SPARC: ZFS ルートファイルシステムからブートする

x86: ZFS ルートファイルシステムからブートする

正常なブートを妨げる ZFS マウントポイントの問題の解決 (Solaris 10 10/08)

ZFS マウントポイントの問題を解決する方法

ZFS ルート環境での回復のためのブート

ZFS フェイルセーフモードをブートする方法

代替メディアから ZFS をブートする方法

ZFS ルートプールまたはルートプールのスナップショットを回復する

ZFS ルートプールのディスクを置き換える方法

ルートプールのスナップショットを作成する方法

ZFS ルートプールを再作成しルートプールのスナップショットを復元する方法

フェイルセーフブートからルートプールのスナップショットをロールバックする方法

6.  Oracle Solaris ZFS ファイルシステムの管理

7.  Oracle Solaris ZFS のスナップショットとクローンの操作

8.  ACL および属性を使用した Oracle Solaris ZFS ファイルの保護

9.  Oracle Solaris ZFS 委任管理

10.  Oracle Solaris ZFS の高度なトピック

11.  Oracle Solaris ZFS のトラブルシューティングとプールの回復

A.  Oracle Solaris ZFS バージョンの説明

索引

ZFS ルートファイルシステムのインストール (Oracle Solaris 初期インストール)

この Oracle Solaris リリースでは、次の方法を使用して初期インストールを実行できます。

初期インストールを実行して ZFS ストレージプールを作成する前に、「ZFS をサポートするための Oracle Solaris インストールと Live Upgrade の要件」を参照してください。

ZFS ルートファイルシステムの初期インストールのあとでゾーンを構成し、システムにパッチやアップグレードを適用することを計画している場合は、「ゾーンが含まれているシステムを Live Upgrade を使用して移行またはアップグレードする (Solaris 10 10/08)」または 「ゾーンが含まれているシステムを Oracle Solaris Live Upgrade で移行またはアップグレードする (Solaris 10 5/09 以降)」を参照してください。

ZFS ストレージプールがシステム上にすでに存在している場合、次のメッセージによってその旨が通知されます。ただし、ユーザーがそれらの既存プール内のディスクを新たに作成するストレージプール用として選択しないかぎり、それらのプールはそのまま残されます。

There are existing ZFS pools available on this system.  However, they can only be upgraded 
using the Live Upgrade tools.  The following screens will only allow you to install a ZFS root system, 
not upgrade one.

注意

注意 - 既存のプールのディスクのいずれかを新しいプール用に選択すると、既存のプールは破棄されます。


例 5-1 ブート可能な ZFS ルートファイルシステムの初期インストール

対話式テキストインストール処理は、基本的に以前の Oracle Solaris リリースの場合と同じですが、UFS または ZFS ルートファイルシステムの作成を求めるプロンプトが表示される点が異なります。このリリースでも、デフォルトのファイルシステムは UFS です。ZFS ルートファイルシステムを選択すると、ZFS ストレージプールの作成を求めるプロンプトが表示されます。ZFS ルートファイルシステムのインストール手順は次のとおりです。

  1. Oracle Solaris インストールメディアを挿入するか、インストールサーバーからシステムをブートします。次に、ブート可能な ZFS ルートファイルシステムを作成するための対話式テキストインストール方法を選択します。

    • SPARC: Oracle Solaris インストール DVD で次の構文を使用します。

      ok boot cdrom - text
    • SPARC: ネットワークからブートする場合は次の構文を使用します。

      ok boot net - text
    • x86: テキストモードインストール方法を選択します。

    また、次の方法を使用することによって、インストールされる ZFS フラッシュアーカイブを作成することもできます。

    • JumpStart インストール。詳細は、例 5-2 を参照してください。

    • 初期インストール。詳細は、例 5-3 を参照してください。

    標準のアップグレードを実行してブート可能な既存の ZFS ファイルシステムをアップグレードすることができますが、このオプションを使用してブート可能な新しい ZFS ファイルシステムを作成することはできません。Solaris 10 10/08 以降のリリースでは、Solaris 10 10/08 以降のリリースがすでにインストールされていれば、UFS ルートファイルシステムから ZFS ルートファイルシステムに移行することができます。ZFS ルートファイルシステムへの移行の詳細については、「ZFS ルートファイルシステムへの移行または ZFS ルートファイルシステムの更新 (Live Upgrade)」を参照してください。

  2. ZFS ルートファイルシステムを作成するには、ZFS オプションを選択します。次に例を示します。

    Choose Filesystem Type
    
      Select the filesystem to use for your Solaris installation
    
    
                [ ] UFS
                [X] ZFS
  3. インストールするソフトウェアを選択したあと、ZFS ストレージプールを作成するためのディスクの選択を求めるプロンプトが表示されます。この画面は、前のリリースとほぼ同じです。

    Select Disks
    
      On this screen you must select the disks for installing Solaris software.
      Start by looking at the Suggested Minimum field; this value is the
      approximate space needed to install the software you've selected. For ZFS,
      multiple disks will be configured as mirrors, so the disk you choose, or the
      slice within the disk must exceed the Suggested Minimum value.
      NOTE: ** denotes current boot disk
    
      Disk Device                                              Available Space
      =============================================================================
      [X]    c1t0d0                                           69994 MB  (F4 to edit)
      [ ]    c1t1d0                                           69994 MB
      [-]    c1t2d0                                               0 MB
      [-]    c1t3d0                                               0 MB
    
                                      Maximum Root Size:  69994 MB
                                      Suggested Minimum:   8279 MB

    ZFS ルートプールに使用するディスクとして、1 つまたは複数を選択できます。2 つのディスクを選択すると、ルートプールには 2 ディスク構成が設定されます。2 ディスクまたは 3 ディスクのミラー化プールが最適です。8 つのディスクがある場合にそれらすべてを選択すると、ルートプールでは 8 つのディスクが単一の大規模なミラーとして使用されます。この構成は最適ではありません。もう 1 つの方法は、初期インストールの完了後にミラー化ルートプールを作成することです。ルートプールでは RAID-Z プール構成はサポートされていません。

    ZFS ストレージプールの構成方法の詳細については、「ZFS ストレージプールの複製機能」を参照してください。

  4. ミラー化ルートプールを作成するために 2 つのディスクを選択するには、Ctrl キーを押しながら 2 番目のディスクをクリックします。

    次の例では、c1t0d0c1t1d0 の両方をルートプールディスクとして選択しています。両方のディスクには、SMI ラベルが付けられていて、スライス 0 が割り当てられていなければなりません。ディスクに SMI ラベルが付けられていない場合やディスクにスライスが含まれていない場合は、インストールプログラムを終了し、format ユーティリティを使用して、ディスクのラベルを変更し、パーティションを再設定してから、インストールプログラムを再起動してください。

    Select Disks
    
      On this screen you must select the disks for installing Solaris software.
      Start by looking at the Suggested Minimum field; this value is the
      approximate space needed to install the software you've selected. For ZFS,
      multiple disks will be configured as mirrors, so the disk you choose, or the
      slice within the disk must exceed the Suggested Minimum value.
      NOTE: ** denotes current boot disk
    
      Disk Device                                              Available Space
      =============================================================================
      [X]    c1t0d0                                           69994 MB  
      [X]    c1t1d0                                           69994 MB  (F4 to edit)
      [-]    c1t2d0                                               0 MB
      [-]    c1t3d0                                               0 MB
    
                                      Maximum Root Size:  69994 MB
                                      Suggested Minimum:   8279 MB

    「Available Space」欄が 0M バイトになっている場合、そのディスクには通常 EFI ラベルが付いています。EFI ラベルの付いたディスクを使用するには、インストールプログラムを終了し、format -e コマンドを使ってそのディスクに SMI ラベルを付け直したあと、インストールプログラムを再起動する必要があります。

    インストール中にミラー化ルートプールを作成しなかった場合も、インストール後にそのようなプールを容易に作成できます。これについては、「ミラー化された ZFS ルートプールを作成する方法 (インストール後)」を参照してください。

    ZFS ルートプールに使用する 1 つ以上のディスクを選択したら、次のような画面が表示されます。

    Configure ZFS Settings
    
      Specify the name of the pool to be created from the disk(s) you have chosen.
      Also specify the name of the dataset to be created within the pool that is
      to be used as the root directory for the filesystem.
    
                  ZFS Pool Name: rpool                                   
          ZFS Root Dataset Name: s10s_u9wos_08
          ZFS Pool Size (in MB): 69995
      Size of Swap Area (in MB): 2048
      Size of Dump Area (in MB): 1536
            (Pool size must be between 6231 MB and 69995 MB)
    
                             [X] Keep / and /var combined
                             [ ] Put /var on a separate dataset
  5. この画面では、ZFS プールの名前、データセット名、プールサイズ、およびスワップデバイスとダンプデバイスのサイズをオプションで変更できます。変更するには、カーソル制御キーでエントリの中を移動し、デフォルトの値を新しい値で置き換えます。あるいは、デフォルト値をそのまま使用できます。また、/var ファイルシステムの作成およびマウントの方法を変更することもできます。

    次の例では、ルートデータセットの名前が zfsBE に変更されます。

                  ZFS Pool Name: rpool
          ZFS Root Dataset Name: zfsBE                                   
          ZFS Pool Size (in MB): 69995
      Size of Swap Area (in MB): 2048
      Size of Dump Area (in MB): 1536
            (Pool size must be between 6231 MB and 69995 MB)
    
                             [X] Keep / and /var combined
                             [ ] Put /var on a separate dataset
  6. このインストール最終画面で、インストールプロファイルをオプションで変更できます。例:

    Profile
    
      The information shown below is your profile for installing Solaris software.
      It reflects the choices you've made on previous screens.
    
      ============================================================================
    
                    Installation Option: Initial
                            Boot Device: c1t0d0
                  Root File System Type: ZFS
                        Client Services: None
    
                                Regions: North America
                          System Locale: C ( C )
    
                               Software: Solaris 10, Entire Distribution
                              Pool Name: rpool
                  Boot Environment Name: zfsBE
                              Pool Size: 69995 MB
                        Devices in Pool: c1t0d0
                                         c1t1d0
  7. インストールが完了したら、作成された ZFS ストレージプールおよびファイルシステムの情報を確認します。次に例を示します。

    # zpool status
      pool: rpool
     state: ONLINE
     scrub: none requested
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         ONLINE       0     0     0
              mirror-0    ONLINE       0     0     0
                c1t0d0s0  ONLINE       0     0     0
                c1t1d0s0  ONLINE       0     0     0
    
    errors: No known data errors
    # zfs list
    NAME                USED  AVAIL  REFER  MOUNTPOINT
    rpool              8.03G  58.9G    96K  /rpool
    rpool/ROOT         4.47G  58.9G    21K  legacy
    rpool/ROOT/zfsBE   4.47G  58.9G  4.47G  /
    rpool/dump         1.50G  58.9G  1.50G  -
    rpool/export         44K  58.9G    23K  /export
    rpool/export/home    21K  58.9G    21K  /export/home
    rpool/swap         2.06G  61.0G    16K  -

    このサンプルの zfs list の出力では、rpool/ROOT ディレクトリなどルートプールのコンポーネントが識別されています。デフォルトでは、これらにはアクセスできません。

  8. 同じストレージプール内に別の ZFS ブート環境 (BE) を作成するには、lucreate コマンドを使用します。

    次の例では、zfs2BE という名前の新しい BE が作成されます。zfs list の出力からわかるように、現在の BE の名前は zfsBE です。ただし、この現在の BE は、新しい BE が作成されるまで lustatus の出力に表示されません。

    # lustatus
    ERROR: No boot environments are configured on this system
    ERROR: cannot determine list of all boot environment names

    同じプール内に新しい ZFS BE を作成する場合は、次のような構文を使用します。

    # lucreate -n zfs2BE
    INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
    Current boot environment is named <zfsBE>.
    Creating initial configuration for primary boot environment <zfsBE>.
    The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.

    同じプール内で ZFS BE を作成する場合、ZFS のクローン機能とスナップショット機能を使ってその BE が即座に作成されます。Live Upgrade を使用した ZFS ルートへの移行の詳細については、「ZFS ルートファイルシステムへの移行または ZFS ルートファイルシステムの更新 (Live Upgrade)」を参照してください。

  9. 次に、新しいブート環境を確認します。例:

    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -        
    # zfs list
    NAME                      USED  AVAIL  REFER  MOUNTPOINT
    rpool                    8.03G  58.9G    97K  /rpool
    rpool/ROOT               4.47G  58.9G    21K  legacy
    rpool/ROOT/zfs2BE         116K  58.9G  4.47G  /
    rpool/ROOT/zfsBE         4.47G  58.9G  4.47G  /
    rpool/ROOT/zfsBE@zfs2BE  75.5K      -  4.47G  -
    rpool/dump               1.50G  58.9G  1.50G  -
    rpool/export               44K  58.9G    23K  /export
    rpool/export/home          21K  58.9G    21K  /export/home
    rpool/swap               2.06G  61.0G    16K  -
  10. 代替 BE からブートするには、luactivate コマンドを使用します。

    • SPARC - ブートデバイスに ZFS ストレージプールが含まれているときは、利用可能な BE を boot -L コマンドで識別します。

      たとえば、SPARC システムでは、boot -L コマンドを使用して利用可能な BE のリストを表示します。新しい BE zfs2BE からブートするには、オプション 2 を選択します。次に、表示された boot -Z コマンドを入力します。

      ok boot -L
      Executing last command: boot -L                                       
      Boot device: /pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0  File and args: -L
      1 zfsBE
      2 zfs2BE
      Select environment to boot: [ 1 - 2 ]: 2
      
      To boot the selected entry, invoke:
      boot [<root-device>] -Z rpool/ROOT/zfs2BE
      ok boot -Z rpool/ROOT/zfs2BE
    • x86 – ブートする BE を GRUB メニューから識別します。

ZFS ファイルシステムのブートに関する詳細は、「ZFS ルートファイルシステムからのブート」を参照してください。

ミラー化された ZFS ルートプールを作成する方法 (インストール後)

ミラー化された ZFS ルートプールをインストール中に作成しなかった場合も、インストール後にそのようなプールを容易に作成できます。

ルートプール内のディスクを置き換える方法については、「ZFS ルートプールのディスクを置き換える方法」を参照してください。

  1. ルートプールの現在の状態を表示します。
    # zpool status rpool
      pool: rpool
     state: ONLINE
     scrub: none requested
    config:
    
            NAME        STATE     READ WRITE CKSUM
            rpool       ONLINE       0     0     0
              c1t0d0s0  ONLINE       0     0     0
    
    errors: No known data errors
  2. ミラー化ルートプール構成にするために、2 つ目のディスクを接続します。
    # zpool attach rpool c1t0d0s0 c1t1d0s0
    Make sure to wait until resilver is done before rebooting.
  3. ルートプールの状態を表示し、再同期化が完了しているか確認します。
    # zpool status rpool
      pool: rpool
     state: ONLINE
    status: One or more devices is currently being resilvered.  The pool will
            continue to function, possibly in a degraded state.
    action: Wait for the resilver to complete.
     scrub: resilver in progress for 0h1m, 24.26% done, 0h3m to go
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         ONLINE       0     0     0
              mirror-0    ONLINE       0     0     0
                c1t0d0s0  ONLINE       0     0     0
                c1t1d0s0  ONLINE       0     0     0  3.18G resilvered
    
    errors: No known data errors

    前述の出力の場合、再同期化処理は完了していません。次のようなメッセージが表示されたら、再同期化が完了しています。

    resilvered 7.61G in 0h3m with 0 errors on Fri Jun 10 11:57:06 2011
  4. 2 つ目のディスクから正常にブートできることを確認します。
  5. 必要な場合、新しいディスクから自動的にブートするようシステムをセットアップします。
    • SPARC - eeprom コマンドまたは setenv コマンドを SPARC ブート PROM から使用して、デフォルトのブートデバイスをリセットします。

    • x86 - システム BIOS を再構成します。