JavaScript is required to for searching.
Navigationslinks ´┐Żberspringen
Druckansicht beenden
Oracle Solaris ZFS-Administrationshandbuch
search filter icon
search icon

Dokument-Informationen

Vorwort

1.  Oracle Solaris ZFS-Dateisystem (Einführung)

2.  Erste Schritte mit Oracle Solaris ZFS

3.  Unterschiede zwischen Oracle Solaris ZFS und herkömmlichen Dateisystemen

4.  Verwalten von Oracle Solaris ZFS-Speicher-Pools

5.  Installieren und Booten eines Oracle Solaris ZFS-Root-Dateisystems

Installieren und Booten eines Oracle Solaris ZFS-Root-Dateisystems (Übersicht)

Leistungsmerkmale für die ZFS-Installation

Oracle Solaris-Installation und Live Upgrade: Voraussetzungen für die ZFS-Unterstützung

Voraussetzungen für die Oracle Solaris-Version

Allgemeine Voraussetzungen für einen ZFS-Speicher-Pool

Erforderliche Festplattenkapazität für ZFS-Speicher-Pools

Voraussetzungen für die Konfiguration des ZFS-Speicher-Pools

Installieren eines ZFS-Root-Dateisystems (Erstinstallation von Oracle Solaris)

Erstellen eines gespiegelten ZFS-Root-Pools (nach der Installation)

Installieren eines ZFS-Root-Dateisystems (Oracle Solaris Flash-Archiv-Installation)

Installieren eines ZFS-Root-Dateisystems (JumpStart-Installation)

JumpStart-Schlüsselwörter für ZFS

JumpStart-Profilbeispiele für ZFS

JumpStart-Probleme im Zusammenhang mit ZFS

Migrieren in ein ZFS-Root-Dateisystem oder Aktualisieren eines ZFS-Root-Dateisystems (Live Upgrade)

Probleme bei der ZFS-Migration mit Live Upgrade

Migrieren oder Aktualisieren eines ZFS-Root-Dateisystems mit Live Upgrade (ohne Zonen)

Verwenden von Live Upgrade zum Migrieren oder Aktualisieren eines Systems mit Zonen (Solaris 10 10/08)

So migrieren Sie ein UFS-Root-Dateisystem mit Zonen-Roots auf UFS auf ein ZFS-Root-Dateisystem (Solaris 10 10/08)

So konfigurieren Sie ein ZFS-Root-Dateisystem mit Zonen-Roots auf ZFS (Solaris 10 10/08)

So aktualisieren bzw. patchen Sie ein ZFS-Root-Dateisystem mit Zonen-Roots auf ZFS (Solaris 10 10/08)

Verwenden des Oracle Solaris Live Upgrade zum Migrieren oder Aktualisieren eines Systems mit Zonen (ab Solaris 10 5/09)

Unterstütztes ZFS mit Zonen-Root-Konfigurationsinformationen (ab Solaris 10 5/09)

So erstellen Sie eine ZFS-BU mit einem ZFS-Root-Dateisystem und einem Zonen-Root (ab Solaris 10 5/09)

So aktualisieren oder patchen Sie ein ZFS-Root-Dateisystem mit Zonen-Roots (ab Solaris 10 5/09)

So migrieren Sie ein UFS-Root-Dateisystem mit Zonen-Roots in ein ZFS-Root-Dateisystem (ab Solaris 10 5/09)

ZFS-Unterstützung für Swap- und Dump-Geräte

Anpassen der Größe von ZFS-Swap- und Dump-Geräten

Behebung von Problemen mit ZFS-Dump-Geräten

Booten aus einem ZFS-Root-Dateisystem

Booten von einer alternativen Festplatte in einem gespiegelten ZFS-Root-Pool

SPARC: Booten aus einem ZFS-Root-Dateisystem

x86: Booten aus einem ZFS-Root-Dateisystem

Lösen von Problemen mit ZFS-Einhängepunkten, die ein erfolgreiches Booten verhindern (Solaris 10 10/08)

So lösen Sie Probleme mit ZFS-Einhängepunkten

Booten zur Wiederherstellung in einer ZFS-Root-Umgebung

So booten Sie im ZFS-Failsafe-Modus

So booten Sie ZFS von einem alternativen Datenträger

Wiederherstellen von ZFS-Root-Pool oder Root-Pool-Schnappschüssen

So ersetzen Sie eine Festplatte im ZFS-Root-Pool

So erstellen Sie Root-Pool-Schnappschüsse

So erstellen Sie einen ZFS-Root-Pool neu und stellen Root-Pool-Schnappschüsse wieder her

So erstellen Sie nach dem Booten im Failsafe-Modus ein Dateisystem im Zustand eines früheren Schnappschusses wieder her

6.  Verwalten von Oracle Solaris ZFS-Dateisystemen

7.  Arbeiten mit Oracle Solaris ZFS-Snapshots und -Klonen

8.  Schützen von Oracle Solaris ZFS-Dateien mit Zugriffskontrolllisten und Attributen

9.  Delegierte Oracle Solaris ZFS-Administration

10.  Fortgeschrittene Oracle Solaris ZFS-Themen

11.  Problembehebung und Pool-Wiederherstellung in Oracle Solaris ZFS

A.  Oracle Solaris ZFS-Versionsbeschreibungen

Index

Installieren eines ZFS-Root-Dateisystems (Erstinstallation von Oracle Solaris)

In dieser Oracle Solaris-Version stehen Ihnen folgende Verfahren für die Erstinstallation zur Verfügung:

Bevor Sie mit der Erstinstallation für die Erstellung eines ZFS-Speicher-Pools beginnen, lesen Sie den Abschnitt Oracle Solaris-Installation und Live Upgrade: Voraussetzungen für die ZFS-Unterstützung.

Informationen zum Konfigurieren von Zonen und zum Patchen oder Aktualisieren des Systems nach der Erstinstallation eines ZFS-Root-Dateisystems finden Sie unter Verwenden von Live Upgrade zum Migrieren oder Aktualisieren eines Systems mit Zonen (Solaris 10 10/08) oder Verwenden des Oracle Solaris Live Upgrade zum Migrieren oder Aktualisieren eines Systems mit Zonen (ab Solaris 10 5/09).

Sollten bereits ZFS-Speicher-Pools auf dem System vorhanden sein, werden sie durch die folgende Meldung bestätigt. Diese Pools bleiben jedoch unverändert, es sei denn, Sie wählen die Festplatten in den vorhandenen Pools aus, um den neuen Speicher-Pool zu erstellen.

There are existing ZFS pools available on this system.  However, they can only be upgraded 
using the Live Upgrade tools.  The following screens will only allow you to install a ZFS root system, 
not upgrade one.

Achtung

Achtung - Vorhandene Pools werden überschrieben, falls einige ihrer Datenträger für den neuen Pool ausgewählt werden.


Beispiel 5-1 Erstinstallation eines bootfähigen ZFS-Root-Dateisystems

Der interaktive, textgestützte Installationsprozess ist im Wesentlichen derselbe wie in den vorherigen Oracle Solaris-Versionen, mit der Ausnahme, dass Sie gefragt werden, ob ein UFS- oder ZFS-Root-Dateisystem erstellt werden soll. UFS ist auch in dieser Version weiterhin das Standarddateisystem. Wenn Sie ein ZFS-Root-Dateisystem wählen, werden Sie aufgefordert, einen ZFS-Speicher-Pool zu erstellen. Es folgen die Schritte zur Installation eines ZFS-Root-Dateisystems:

  1. Legen Sie das Installationsmedium von Oracle Solaris ein oder booten Sie das System von einem Installationsserver. Wählen Sie dann das interaktive textbasierte Installationsverfahren zur Erstellung eines bootfähigen ZFS-Root-Dateisystems.

    • SPARC: Verwenden Sie die folgende Syntax für die Oracle Solaris-Installations-DVD:

      ok boot cdrom - text
    • SPARC: Verwenden Sie die folgende Syntax beim Booten über das Netzwerk:

      ok boot net - text
    • x86: Wählen Sie das Textmodus-Installationsverfahren.

    Sie können auch ein ZFS-Flash-Archiv erstellen, das mit folgenden Methoden installiert werden kann:

    • JumpStart-Installation. Weitere Optionen finden Sie in Beispiel 5-2.

    • Erstinstallation. Weitere Informationen finden Sie in Beispiel 5-3.

    Sie können ein Standard-Upgrade ausführen, um ein vorhandenes bootfähiges ZFS-Dateisystem zu aktualisieren. Ein neues bootfähiges ZFS-Dateisystem kann mit dieser Option jedoch nicht erstellt werden. Ab der Solaris-Version 10 10/08 können Sie ein UFS-Root-Dateisystem in ein ZFS-Root-Dateisystem migrieren. Hierfür muss mindestens Solaris 10 10/08 installiert sein. Weitere Informationen zur Migration in ein ZFS-Root-Dateisystem finden Sie unter Migrieren in ein ZFS-Root-Dateisystem oder Aktualisieren eines ZFS-Root-Dateisystems (Live Upgrade).

  2. Wenn Sie ein ZFS-Root-Dateisystem erstellen möchten, wählen Sie die ZFS-Option. Beispiel:

    Choose Filesystem Type
    
      Select the filesystem to use for your Solaris installation
    
    
                [ ] UFS
                [X] ZFS
  3. Nach der Auswahl der zu installierenden Software werden Sie zur Auswahl der Festplatten aufgefordert, auf denen der ZFS-Speicher-Pool installiert werden soll. Dieser Bildschirm sieht ähnlich aus wie in vorherigen Versionen.

    Select Disks
    
      On this screen you must select the disks for installing Solaris software.
      Start by looking at the Suggested Minimum field; this value is the
      approximate space needed to install the software you've selected. For ZFS,
      multiple disks will be configured as mirrors, so the disk you choose, or the
      slice within the disk must exceed the Suggested Minimum value.
      NOTE: ** denotes current boot disk
    
      Disk Device                                              Available Space
      =============================================================================
      [X]    c1t0d0                                           69994 MB  (F4 to edit)
      [ ]    c1t1d0                                           69994 MB
      [-]    c1t2d0                                               0 MB
      [-]    c1t3d0                                               0 MB
    
                                      Maximum Root Size:  69994 MB
                                      Suggested Minimum:   8279 MB

    Sie können mindestens eine Festplatte für den ZFS-Root-Pool auswählen. Wenn Sie zwei Festplatten auswählen, wird für den Root-Pool eine aus zwei Festplatten bestehende Konfiguration mit Datenspiegelung ausgewählt. Optimal ist ein gespiegelter Pool mit zwei oder drei Festplatten. Wenn Sie über acht Festplatten verfügen und alle auswählen, werden diese acht Festplatten als eine große Datenspiegelung für den Root-Pool verwendet. Diese Konfiguration ist nicht optimal. Alternativ können Sie einen gespiegelten Root-Pool nach der Erstinstallation erstellen. RAID-Z-Konfigurationen werden für den Root-Pool nicht unterstützt.

    Weitere Informationen zur Konfiguration von ZFS-Speicher-Pools finden Sie unter Replikationsfunktionen eines ZFS-Speicher-Pools.

  4. Um zwei Festplatten zur Erstellung eines gespiegelten Root-Pools auszuwählen, wählen Sie die zweite Festplatte mit dem Cursor aus.

    Im folgenden Beispiel werden sowohl c1t0d0 als auch c1t1d0 als Root-Pool-Festplatten ausgewählt. Beide Festplatten müssen ein SMI-Label und den Bereich 0 haben. Falls die Festplatten kein SMI-Label haben oder Bereiche enthalten, verlassen Sie das Installationsprogramm und verwenden das Dienstprogramm format zur Umbenennung und Neupartitionierung der Festplatten. Anschließend starten Sie das Installationsprogramm erneut.

    Select Disks
    
      On this screen you must select the disks for installing Solaris software.
      Start by looking at the Suggested Minimum field; this value is the
      approximate space needed to install the software you've selected. For ZFS,
      multiple disks will be configured as mirrors, so the disk you choose, or the
      slice within the disk must exceed the Suggested Minimum value.
      NOTE: ** denotes current boot disk
    
      Disk Device                                              Available Space
      =============================================================================
      [X]    c1t0d0                                           69994 MB  
      [X]    c1t1d0                                           69994 MB  (F4 to edit)
      [-]    c1t2d0                                               0 MB
      [-]    c1t3d0                                               0 MB
    
                                      Maximum Root Size:  69994 MB
                                      Suggested Minimum:   8279 MB

    Wenn in der Spalte "Verfügbarer Speicherplatz" 0 MB angezeigt werden, bedeutet dies in der Regel, dass die Festplatte ein EFI-Label hat. Wenn Sie eine Festplatte mit einem EFI-Label verwenden möchten, verlassen Sie das Installationsprogramm, versehen die Festplatte mit einem neuen SMI-Label, indem Sie den Befehl format -e verwenden, und starten anschließend das Installationsprogramm erneut.

    Wenn Sie während der Installation keinen gespiegelten Root-Pool erstellen, können Sie dies nach der Installation problemlos nachholen. Weitere Informationen finden Sie unter Erstellen eines gespiegelten ZFS-Root-Pools (nach der Installation).

    Nach der Auswahl mindestens einer Festplatte für den ZFS-Speicher-Pool wird ein Bildschirm wie der folgende angezeigt:

    Configure ZFS Settings
    
      Specify the name of the pool to be created from the disk(s) you have chosen.
      Also specify the name of the dataset to be created within the pool that is
      to be used as the root directory for the filesystem.
    
                  ZFS Pool Name: rpool                                   
          ZFS Root Dataset Name: s10s_u9wos_08
          ZFS Pool Size (in MB): 69995
      Size of Swap Area (in MB): 2048
      Size of Dump Area (in MB): 1536
            (Pool size must be between 6231 MB and 69995 MB)
    
                             [X] Keep / and /var combined
                             [ ] Put /var on a separate dataset
  5. Auf diesem Bildschirm können Sie optional den Namen des ZFS-Pools, den Dataset-Namen, die Pool-Größe sowie die Größe der Swap- und Dump-Geräte ändern. Gehen Sie mit dem Cursor von Eintrag zu Eintrag und ersetzen Sie die Standardwerte durch die neuen Werte. Anderenfalls können Sie die Standardwerte übernehmen. Außerdem können Sie das Verfahren ändern, mit dem das Dateisystem /var erstellt und eingehängt wird.

    In diesem Beispiel wird der Name des Root-Datasets in zfsBE abgeändert.

                  ZFS Pool Name: rpool
          ZFS Root Dataset Name: zfsBE                                   
          ZFS Pool Size (in MB): 69995
      Size of Swap Area (in MB): 2048
      Size of Dump Area (in MB): 1536
            (Pool size must be between 6231 MB and 69995 MB)
    
                             [X] Keep / and /var combined
                             [ ] Put /var on a separate dataset
  6. Auf diesem letzten Installationsbildschirm können Sie optional das Installationsprofil ändern. Beispiel:

    Profile
    
      The information shown below is your profile for installing Solaris software.
      It reflects the choices you've made on previous screens.
    
      ============================================================================
    
                    Installation Option: Initial
                            Boot Device: c1t0d0
                  Root File System Type: ZFS
                        Client Services: None
    
                                Regions: North America
                          System Locale: C ( C )
    
                               Software: Solaris 10, Entire Distribution
                              Pool Name: rpool
                  Boot Environment Name: zfsBE
                              Pool Size: 69995 MB
                        Devices in Pool: c1t0d0
                                         c1t1d0
  7. Überprüfen Sie nach abgeschlossener Installation die Informationen zum erstellten ZFS-Speicher-Pool und Dateisystem. Beispiel:

    # zpool status
      pool: rpool
     state: ONLINE
     scrub: none requested
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         ONLINE       0     0     0
              mirror-0    ONLINE       0     0     0
                c1t0d0s0  ONLINE       0     0     0
                c1t1d0s0  ONLINE       0     0     0
    
    errors: No known data errors
    # zfs list
    NAME                USED  AVAIL  REFER  MOUNTPOINT
    rpool              8.03G  58.9G    96K  /rpool
    rpool/ROOT         4.47G  58.9G    21K  legacy
    rpool/ROOT/zfsBE   4.47G  58.9G  4.47G  /
    rpool/dump         1.50G  58.9G  1.50G  -
    rpool/export         44K  58.9G    23K  /export
    rpool/export/home    21K  58.9G    21K  /export/home
    rpool/swap         2.06G  61.0G    16K  -

    In der Beispielausgabe von zfs list sind die Root-Pool-Komponenten wie z. B. das Verzeichnis rpool/ROOT aufgeführt, auf das standardmäßig nicht zugegriffen werden kann.

  8. Um eine weitere ZFS-Boot-Umgebung (BU) im selben Speicher-Pool zu erstellen, verwenden Sie den Befehl lucreate.

    Im folgenden Beispiel wird eine neue BU namens zfs2BE erstellt. Die aktuelle BU wird mit zfsBE benannt, wie in der Ausgabe von zfs list gezeigt wird. Die aktuelle BU wird jedoch erst nach der Erstellung der neuen BU in der Ausgabe von lustatus bestätigt.

    # lustatus
    ERROR: No boot environments are configured on this system
    ERROR: cannot determine list of all boot environment names

    Zum Erstellen einer neuen ZFS-BU in demselben Pool verwenden Sie folgende Syntax:

    # lucreate -n zfs2BE
    INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
    Current boot environment is named <zfsBE>.
    Creating initial configuration for primary boot environment <zfsBE>.
    The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.

    Beim Erstellen einer ZFS-BU innerhalb desselben Pools kommen die Klon- und Schnappschuss-Funktionen von ZFS zum Einsatz und die BU wird sofort erstellt. Weitere Informationen zur ZFS-Root-Migration mithilfe von Live Upgrade finden Sie unter Migrieren in ein ZFS-Root-Dateisystem oder Aktualisieren eines ZFS-Root-Dateisystems (Live Upgrade).

  9. Überprüfen Sie anschließend die neuen Boot-Umgebungen. Beispiel:

    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -        
    # zfs list
    NAME                      USED  AVAIL  REFER  MOUNTPOINT
    rpool                    8.03G  58.9G    97K  /rpool
    rpool/ROOT               4.47G  58.9G    21K  legacy
    rpool/ROOT/zfs2BE         116K  58.9G  4.47G  /
    rpool/ROOT/zfsBE         4.47G  58.9G  4.47G  /
    rpool/ROOT/zfsBE@zfs2BE  75.5K      -  4.47G  -
    rpool/dump               1.50G  58.9G  1.50G  -
    rpool/export               44K  58.9G    23K  /export
    rpool/export/home          21K  58.9G    21K  /export/home
    rpool/swap               2.06G  61.0G    16K  -
  10. Zum Booten aus einer alternativen BU verwenden Sie den Befehl luactivate.

    • SPARC – Ermitteln Sie mit dem Befehl boot -L die verfügbaren BUs, wenn das Boot-Gerät einen ZFS-Speicher-Pool enthält.

      Geben Sie also beispielsweise bei einem SPARC-System den Befehl boot -L ein, um eine Liste der verfügbaren BUs anzuzeigen. Zum Booten aus der neuen BU zfs2BE wählen Sie Option 2. Geben Sie dann den angezeigten Befehl boot -Z ein.

      ok boot -L
      Executing last command: boot -L                                       
      Boot device: /pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0  File and args: -L
      1 zfsBE
      2 zfs2BE
      Select environment to boot: [ 1 - 2 ]: 2
      
      To boot the selected entry, invoke:
      boot [<root-device>] -Z rpool/ROOT/zfs2BE
      ok boot -Z rpool/ROOT/zfs2BE
    • x86 – Ermitteln Sie die über das GRUB-Menü zu bootende BU.

Weitere Informationen zum Booten eines ZFS-Dateisystems können Sie dem Abschnitt Booten aus einem ZFS-Root-Dateisystem entnehmen.

Erstellen eines gespiegelten ZFS-Root-Pools (nach der Installation)

Wenn Sie während der Installation keinen gespiegelten ZFS-Root-Pool erstellen, können Sie dies nach der Installation problemlos nachholen.

Informationen zum Ersetzen einer Festplatte in einem ZFS-Root-Pool finden Sie unter So ersetzen Sie eine Festplatte im ZFS-Root-Pool.

  1. Zeigen Sie den aktuellen Root-Pool-Status an.
    # zpool status rpool
      pool: rpool
     state: ONLINE
     scrub: none requested
    config:
    
            NAME        STATE     READ WRITE CKSUM
            rpool       ONLINE       0     0     0
              c1t0d0s0  ONLINE       0     0     0
    
    errors: No known data errors
  2. Binden Sie eine zweite Festplatte ein, um einen gespiegelten Root-Pool zu konfigurieren.
    # zpool attach rpool c1t0d0s0 c1t1d0s0
    Make sure to wait until resilver is done before rebooting.
  3. Zeigen Sie den Root-Pool-Status an, um zu bestätigen, dass das Resilvering abgeschlossen ist.
    # zpool status rpool
      pool: rpool
     state: ONLINE
    status: One or more devices is currently being resilvered.  The pool will
            continue to function, possibly in a degraded state.
    action: Wait for the resilver to complete.
     scrub: resilver in progress for 0h1m, 24.26% done, 0h3m to go
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         ONLINE       0     0     0
              mirror-0    ONLINE       0     0     0
                c1t0d0s0  ONLINE       0     0     0
                c1t1d0s0  ONLINE       0     0     0  3.18G resilvered
    
    errors: No known data errors

    In der vorhergehenden Ausgabe ist das Resilvering nicht abgeschlossen. Das Resilvering ist abgeschlossen, wenn eine Meldung wie die folgende angezeigt wird:

    resilvered 7.61G in 0h3m with 0 errors on Fri Jun 10 11:57:06 2011
  4. Überprüfen Sie, ob Sie von der zweiten Festplatte booten können.
  5. Richten Sie bei Bedarf das System so ein, dass es automatisch von der neuen Festplatte gebootet wird.
    • SPARC – Verwenden Sie den Befehl eeprom oder setenv am SPARC-Boot-PROM, um das Standard-Boot-Gerät zurückzusetzen.

    • x86 – Konfigurieren Sie das System-BIOS erneut.