Oracle Solaris 10 9/10 Installationshandbuch: Solaris Live Upgrade und Planung von Upgrades

Erstellen einer Boot-Umgebung innerhalb des gleichen ZFS-Root-Pools

Wenn Sie in einem bereits vorhandenen ZFS-Root-Pool eine neue ZFS-Boot-Umgebung erstellen wollen, müssen Sie die folgenden Schritte abarbeiten. Nach dem Erstellen einer inaktiven Boot-Umgebung kann diese neue Boot-Umgebung nach Ihrem Ermessen aktualisiert und aktiviert werden. Die Option -p ist nicht erforderlich, wenn Sie eine Boot-Umgebung im gleichen Pool erstellen.

ProcedureSo erstellen Sie eine ZFS-Boot-Umgebung im gleichen ZFS-Root-Pool

  1. Vor dem erstmaligen Ausführen von Solaris Live Upgrade müssen Sie die neuesten Solaris Live Upgrade-Packages von den Installationsmedien und die im Sunsolve-Informationsdokument 206844 aufgeführten Patches installieren. Suchen Sie auf der Sunsolve-Website nach dem Informationsdokument 206844 (früher 72099).

    Die neuesten Packages und Patches gewährleisten, dass auf Ihrem System die neuesten Fehlerbehebungen und Leistungsmerkmale installiert sind. Stellen Sie die Installation aller für Ihr System erforderlichen Patches sicher, bevor Sie damit beginnen, eine neue Boot-Umgebung zu erstellen.

    Die folgenden Schritte geben die Schritte im Sunsolve-Informationsdokument 206844 wieder.


    Hinweis –

    Damit Sie mit Solaris Live Upgrade neue ZFS-Boot-Umgebungen installieren können, muss auf Ihrem System mindestens Solaris-Release 10 10/08 installiert sein. In früheren Releases ist die ZFS- und Solaris Live Upgrade-Software zum Durchführen dieser Aufgaben nicht enthalten.


    1. Melden Sie sich als Superuser an oder nehmen Sie eine entsprechende Rolle an.


      Hinweis –

      Rollen umfassen Autorisierungen und privilegierte Befehle. Weitere Informationen zu Rollen finden Sie unter Configuring RBAC (Task Map) in System Administration Guide: Security Services.


    2. Befolgen Sie von der Sunsolve-Website aus die Anweisungen zum Entfernen und Hinzufügen von Solaris Live Upgrade-Packages im Informationsdokument 206844.

      Die drei Solaris Live Upgrade-Packages SUNWluu, SUNWlur und SUNWlucfg enthalten die zum Aktualisieren mithilfe von Solaris Live Upgrade erforderliche Software. Diese Pakete enthalten die bestehende Software, neue Funktionen sowie Bugfixes. Wenn Sie die vorhandenen Packages nicht entfernen und die neuen Packages auf Ihrem System installieren, bevor Sie Solaris Live Upgrade ausführen, schlägt das Aktualisieren auf die Zielversion fehl. Das Package SUMWlucfg ist ab Solaris-Release 10 8/07 neu. Wenn Sie Solaris Live Upgrade-Packages mit einem Release vor Solaris 10 8/07 verwenden, müssen Sie dieses Package nicht entfernen.


      Hinweis –

      Das Package SUMWlucfg ist ab Solaris-Release 10 8/07 neu. Wenn Sie Solaris Live Upgrade-Packages eines früheren Release verwenden, brauchen Sie diese Packages nicht zu entfernen.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Installieren Sie die neuen Solaris Live Upgrade-Packages. Eine Anleitung finden Sie unter  Installieren von Solaris Live Upgrade.

    4. Vor der Installation und dem Ausführen von Solaris Live Upgrade müssen Sie die folgenden Patches installieren. Diese Patches gewährleisten, dass auf Ihrem System die neuesten Fehlerbehebungen und Leistungsmerkmale installiert sind.

      Vergewissern Sie sich auf SunSolve, dass Sie die aktuellste Patch-Liste haben. Suchen Sie auf der Sunsolve-Website nach dem Informationsdokument 206844 (früher 72099).

      • Zum Speichern der Patches auf einer lokalen Festplatte sollten Sie ein Verzeichnis wie z. B. /var/tmp/lupatches erstellen und die Patches in dieses Verzeichnis herunterladen.

      • Laden Sie von der Sunsolve -Website die Patchliste herunter.

      • Wechseln Sie wie in diesem Beispiel zum Patch-Verzeichnis.


        # cd /var/tmp/lupatches
        
      • Installieren Sie die Patches mit dem Befehl patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        Path-to-Patches steht für den Pfad zum Patch-Verzeichnis, wie z. B. /var/tmp/lupatches. Patch_ID sind die Patchnummern. Trennen Sie mehrere Patch-Namen mit Leerzeichen voneinander.


        Hinweis –

        Sie müssen die Patches in der im Dokument 206844 angegebenen Reihenfolge installieren.


      • Starten Sie, falls erforderlich, das System neu. Bei einigen Patches ist ein Systemneustart erforderlich.

        Nur x86: Das System muss neu gestartet werden, anderenfalls schlägt Solaris Live Upgrade fehl.


        # init 6
        

        Sie haben nun die für die erfolgreiche Erstellung einer neuen Boot-Umgebung erforderlichen Packages und Patches.

  2. Erstellen Sie die neue Boot-Umgebung.


    # lucreate [-c zfsBE] -n new-zfsBE
    
    -c zfsBU

    Weist der aktuellen Boot-Umgebung den Namen zfsBU zu. Diese Option ist nicht obligatorisch und wird nur beim Erstellen der ersten Boot-Umgebung verwendet. Wenn Sie lucreate zum ersten Mal ausführen und dabei keine Option -c angeben, so erstellt die Software automatisch einen Standardnamen.

    -n neue-zfsBU

    Weist der zu erstellenden Boot-Umgebung einen Namen zu. Der Name muss auf dem System einmalig sein.

    Die neue Boot-Umgebung wird fast unverzüglich erstellt. Von jedem Dataset im aktuellen ZFS-Root-Pool wird ein Snapshot erstellt, und von jedem Snapshot wird dann ein Klon angelegt. Snapshots sind sehr speicherplatzeffizient, sodass bei diesem Vorgang nur sehr wenig Festplattenspeicherplatz belegt wird. Nach dem Erstellen der inaktiven Boot-Umgebung können Sie die neue ZFS-Boot-Umgebung mithilfe der Befehle luupgrade bzw. luactivate aktualisieren bzw. aktivieren.

  3. (Optional) Überprüfen Sie, ob die Boot-Umgebung vollständig ist.

    Der Befehl lustatus erzeugt einen Bericht, ob die erstellte Boot-Umgebung vollständig und bootfähig ist.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE               yes       yes     yes         no             -
    new-zfsBE           yes       no      no          yes            -
  4. (Optional) Überprüfen Sie die grundlegenden Dataset-Informationen auf dem System.

    In diesem Beispiel heißt das ZFS-Root-Pool rpool, und das @-Zeichen zeigt an, dass es sich um einen Snapshot handelt. Die Einhängepunkte der neuen Boot-Umgebung sind temporär und gelten nur bis zur Ausführung des Befehls luactivate Die Volumes·/dump und /swap werden mit dem ZFS-Root-Pool und den Boot-Umgebungen des Root-Pools gemeinsam genutzt.


    # zfs list
    NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
    rpool                                    9.29G  57.6G    20K  /rpool 
    rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
    rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
    rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  -
    rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197
    rpool/dump                               1.95G      -  1.95G  - 
    rpool/swap                               1.95G      -  1.95G  - 

    Sie können die neue Boot-Umgebung jetzt aktualisieren und aktivieren. Siehe Beispiel 13–2.


Beispiel 13–2 Erstellen einer Boot-Umgebung innerhalb des gleichen ZFS-Root-Pools

Die folgenden Befehle erstellen die neue ZFS-Boot-Umgebung neue-zfsBU . Die Option -p ist nicht erforderlich, da die Boot-Umgebung innerhalb des gleichen Root-Pools erstellt wird.


# lucreate [-c zfsBE] -n new-zfsBE
Analyzing system configuration.
Comparing source boot environment <zfsBE> file systems with the file
system(s) you specified for the new boot environment. Determining which
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Creating configuration for boot environment new-zfsBE.
Source boot environment is zfsBE.
Creating boot environment new-zfsBE.
Cloning file systems from boot environment zfsBE to create 
boot environment new-zfsBE.
Creating snapshot for <rpool> on <rpool> Creating clone for <rpool>. 
Setting canmount=noauto for <rpool> in zone <global> on <rpool>. 
Population of boot environment zfsBE successful on <rpool>.
# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	   OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE               yes       yes     yes         no          - 
new-zfsBE           yes       no      no          yes         -
# zfs list
NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
rpool                                    9.29G  57.6G    20K  /rpool 
rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  - 
rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197 
rpool/dump                               1.95G      -  1.95G  - 
rpool/swap                               1.95G      -  1.95G  - 

Sie können die neue Boot-Umgebung jetzt aktualisieren und aktivieren. Ein Beispiel zum Aktualisieren einer ZFS-Boot-Umgebung finden Sie in Beispiel 13–1. Weitere Beispiele zur Verwendung des Befehls luupgrade finden Sie in Kapitel 5Ausführen eines Upgrades mit Solaris Live Upgrade (Vorgehen).


# luactivate new-zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <new-zfsBE> successful.

Booten Sie das System mit der ZFS-Boot-Umgebung neu.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.