Skip Headers
StorageTek Automated Cartridge System Library Software 高可用性 8.3 クラスタインストール、構成、および操作
リリース 8.3
E54098-01
  目次に移動
目次
索引に移動
索引

前
 
次
 

3 ZFS を使用したファイルシステムの構成

Solaris 11 は、ZFS ファイルシステムに基づいています。ディスクの入出力、ディスクのパーティション分割、ディスクのミラー化 (または RAID) は、完全に ZFS で処理されます。したがって、ディスクをパーティション分割する必要はありません (一般に、UFS ファイルシステムを使用した場合も同様です)。システムディスク全体が単一のパーティションとして表示されるはずです。

ストレージアレイにはすでに RAID が構成されているため、ZFS を使用して追加の RAID レベルを構成することは、ACSLS ファイルシステムに不可欠ではありません。単純な JBOD ディスクを使用している場合は ZFS RAID が不可欠ですが、正規のディスクアレイを採用していれば、追加の RAID はオプションです。次の例では、どちらかのアプローチについて説明します。

ミラー化されたルートファイルシステムの作成

  1. Solaris プラットフォームは、2 つの物理ディスクドライブで構成されているはずです。ZFS のパフォーマンスを最適化するには、システムディスクとそのミラードライブをパーティション分割します。

    オペレーティングシステムをインストールする前の新しいシステムでは、パーティション 0 にディスク領域全体の (全部ではないが) 大部分が含まれるように、各システムディスクドライブをパーティション分割できます。ZFS はディスク全体にアクセスできる場合に、より高速かつ確実に動作します。2 つ目のディスク上の ZFS に定義するパーティションのサイズが、プライマリディスク上で定義されたサイズと同じであることを確認します。

    Solaris 11.1 がすでにインストールされているシステムでは、プライマリシステムディスク上で format または fdisk を使用して、ルートパーティションのサイズを表示します。次に、パーティションサイズが等しい 2 つ目のシステムディスクをフォーマットします。フォーマットが完了したら、ディスクにラベルを付けます。

  2. システムが起動したら、zpool status コマンドを使用して、rpool を検証します。

    # zpool status
      pool: rpool
      state: ONLINE
      scan: none requested
      config:
         NAME        STATE     READ WRITE CKSUM
         rpool       ONLINE       0     0     0
         c1t0d0s0    ONLINE       0     0     0
    

    注:

    システム上に「c/t/d/s」形式のディスクが表示されていることを確認します。あとで手順 4 でドライブをミラー化するときにも、これと同じ形式に従います。

  3. 2 つ目のシステムディスクを特定し、そのデバイス ID を確認します。

    # echo | format
    AVAILABLE DISK SELECTIONS:
    0. c1t0d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@0,0
       /dev/chassis/SYS/HD0/disk
    1. c1t1d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@1,0
       /dev/chassis/SYS/HD1/disk
    

    この例では、2 つ目のディスク ID は c1t1d0 です。

  4. rpool に 2 つ目のディスクを追加します。

    # zpool attach -f rpool c1t0d0s0 c1t1d0s0
    

    注:

    必ず、上記の手順 2 で確認したときと同じ「c/t/d/s」の形式を使用してください。

    ミラー化されたドライブの再同期化が開始され、ブートドライブの内容が 2 つ目のドライブにコピーされます。この動作には数分間かかるため、リブートによって中断されないようにしてください。

    次のコマンドを使用すると、進行状況をモニターできます。

    zpool status -v
    

    注 1: 再同期化が完了するまで、ステータスには、ディスクが縮退モードになっていることが表示されます。情報がプライマリディスクからミラーディスクにコピーされている間は、ディスクが縮退状態のままになります。

    注 2: ディスクに EFI ディスクのラベルが付けられているために zpool attach に失敗する場合は、『Oracle Solaris の管理: デバイスとファイルシステム』ドキュメント (http://docs.oracle.com/cd/E23824_01/pdf/821-1459.pdf) の 220 ページで説明されている処理に従ってください。EFI ディスクを SMI に変換するプロセスは次のとおりです。

    # format -e
      (select the drive to serve as the rpool mirror).
      format> partition
      partition> print
      partition> label
        (specify label type "0")
        Ready to label? y
      partition> modify
        (select "1" All free Hog)
        Do you wish to continue ... yes
        Free Hog Partition[6]? (specify partition "0")
        (Specify a size of "0" to the remaining partitions)
        Okay to make this current partition table? yes
        Enter table name: "c1t1d0"
        Ready to label disk? y
     partition> quit
     format> quit
    
  5. ミラー化された rpool の構成を確認します。

    # zpool status
      pool: rpool
     state: ONLINE
      scan: resilvered 6.89G in 0h3m with 0 errors
    config:
            NAME        STATE     READ WRITE CKSUM
            rpool       ONLINE       0     0     0
              mirror-0  ONLINE       0     0     0
                c1t0d0  ONLINE       0     0     0
                c1t1d0  ONLINE       0     0     0
    

    隣接するノード上で、この操作を繰り返します。

ACSLS アプリケーション用のミラー化されたファイルシステムの作成

ACSLS ファイルシステムは、外部の共有ストレージアレイ上の zpool に存在します。次の例では、2 つのディスクのみを使用した単純なミラー化アレイ (RAID-1) が採用されています。これらは実際のドライブである可能性もありますが、接続されているストレージアレイとは別個のドライブとして表示されている仮想デバイスである可能性が高いです。

ストレージアレイにはすでに RAID が構成されているため、ZFS を使用して追加の RAID レベルを構成することは、ACSLS ファイルシステムに不可欠ではありません。単純な JBOD ディスクを使用している場合は ZFS RAID が不可欠ですが、正規のディスクアレイを採用していれば、追加の RAID はオプションです。次の例では、どちらかのアプローチについて説明します。

  1. 共有ストレージアレイを準備します。

    標準の構成では、使用中のディスクアレイから 1 つの仮想ドライブを使用します。それ以外の場合、ZFS RAID ミラー化構成では、サイズが等しい 2 つの仮想ドライブが使用されます。ドライブアレイに備わっている管理ツールまたは Solaris のフォーマットユーティリティーを使用すると、サイズが等しくなるように 2 つの仮想ドライブをパーティション分割できます。

  2. ACSLS をインストールするためのベースディレクトリを決定します。

    ACSLS 8.3 は、どのファイルシステムにもインストールできます。すでに rpool システムに存在する基本ファイルシステムは、選択しないようにしてください。すでに存在する場合は、既存のファイルシステムを破棄してから、新しい zpool に作成するようにしてください。

    ACSLS 用にデフォルトの /export/home ベースディレクトリを使用する予定である場合は、Solaris 11 のデフォルトルートプールから /export ファイルシステムを破棄する必要があります。

    /export/homerpool に接続されているかどうかを確認するには、次のコマンドを実行します。

    # zfs list
    

    rpool から /export/home を切り離すには、まず、保持すべきファイルやディレクトリを保存します。/export/home に現在アクティブになっているユーザーのホームディレクトリが存在しないことを確認します。次に、zfs destroy を使用して、/export の下にあるすべてのものを削除します。

    # zfs destroy -r rpool/export
    

    姉妹ノード上で、この手順を繰り返して rpool/export を切り離します。

  3. format を使用して、接続されているディスクアレイ上のドライブのデバイス名を特定します。

    # echo | format
    AVAILABLE DISK SELECTIONS:
       0. c1t0d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@0,0
       /dev/chassis/SYS/HD0/disk
    1. c1t1d0 <FUJITSU-MAY2073RCSUN72G-0501-68.37GB>
       /pci@0,0/pci1022,7450@2/pci1000,3060@3/sd@1,0
       /dev/chassis/SYS/HD1/disk
    3. c0t600A0B800049EDD600000C9952CAA03Ed0 <SUN-LCSM100_F-50.00GB>
       /scsi_vhci/disk@g600a0b800049edd600000c9952caa03e
    4. c0t600A0B800049EE1A0000832652CAA899d0 <SUN-LCSM100_F-50.00GB>
       /scsi_vhci/disk@g600a0b800049ee1a0000832652caa899
    

    この例では、2 つのシステムディスクと、c0t600A で始まるデバイス名を持つディスクアレイから表示されている 2 つの仮想ディスクがあります。

  4. acslspool を作成します。

    正規のディスクアレイを使用した標準の構成では、次のように acslspool を作成します。

    # zpool create -m /export/home acslspool\
      /dev/dsk/c0t600A0B800049EDD600000C9952CAA03Ed0
    

    手順 1 で提案したように ZFS RAID を追加することを選択した場合は、次のようにミラー化構成を作成します。

    # zpool create -m /export/home acslspool mirror \
       /dev/dsk/c0t600A0B800049EDD600000C9952CAA03Ed0 \
       /dev/dsk/c0t600A0B800049EE1A0000832652CAA899d0
    
  5. 新しい acslspool を検証します。

    # zpool status acslspool
      pool: acslspool
     state: ONLINE
      scan: none requested
    config:
      NAME                                       STATE   READ WRITE CKSUM
      acslspool                                  ONLINE   0     0     0
        mirror-0                                 ONLINE   0     0     0
          c0t600A0B800049EDD600000C9952CAA03Ed0  ONLINE   0     0     0
          c0t600A0B800049EE1A0000832652CAA899d0  ONLINE   0     0     0
    

    注:

    RAID ディスクアレイを使用している場合、ミラー化された ZFS 構成はオプションです。

  6. 新しいプールにテストファイルを作成し、検証します。

    # cd /export/home
    # date > test
    # ls
    test
    # cat test
    Tue Jan  7 11:48:05 MST 2014
    
  7. プールをエクスポートします。

    # zpool export acslspool
    
  8. (新しい現在のノードとして参照される) 隣接するノードにログインします。

  9. 新しい現在のノードから、/export/home (または ACSLS 用のファイルシステム) がルートプールのどこにもマウントされていないことを確認します。

    # zfs list
    

    すでにファイルシステムが rpool に存在する場合は、この現在のノード上で手順 2 (上記) を繰り返します。

  10. 新しい現在のノードから acslspool をインポートし、このノード上に acslspool が存在することを確認します。

    # zpool import acslspool
    # zpool status
      pool: acslspool
     state: ONLINE
      scan: none requested
    config:
    NAME                                       STATE   READ WRITE CKSUM
    acslspool                                  ONLINE   0     0     0
      mirror-0                                 ONLINE   0     0     0
        c0t600A0B800049EDD600000C9952CAA03Ed0  ONLINE   0     0     0
        c0t600A0B800049EE1A0000832652CAA899d0  ONLINE   0     0     0
    

    zpool import に失敗した場合は、zpool import -f を使用して操作を試すことができます。


    注:

    RAID ディスクアレイを使用している場合、ミラー化された ZFS 構成はオプションです。

  11. 新しい現在のノード上にテストファイルが存在することを確認します。

    # cd /export/home
    # ls
    test
    # cat test
    Tue Jan  7 11:48:05 MST 2014