JavaScript is required to for searching.
Navigationslinks überspringen
Druckansicht beenden
Oracle Solaris 10 1/13 Installationshandbuch: Live Upgrade und Planung von Upgrades     Oracle Solaris 10 1/13 Information Library (Deutsch)
search filter icon
search icon

Dokumentinformationen

Vorwort

Teil I Upgraden mit Live Upgrade

1.  Informationen zur Planung einer Oracle Solaris-Installation

2.  Live Upgrade (Übersicht)

3.  Live Upgrade (Planung)

4.  Erstellen einer Boot-Umgebung mit Live Upgrade (Vorgehen)

5.  Ausführen eines Upgrades mit Live Upgrade (Vorgehen)

6.  Wiederherstellen nach Fehler: Zurückgreifen auf die ursprüngliche Boot-Umgebung (Vorgehen)

7.  Verwalten von Live Upgrade-Boot-Umgebungen (Vorgehen)

8.  Aktualisieren des Betriebssystems Oracle Solaris auf einem System mit bereits installierten nicht-globalen Zonen

9.  Live Upgrade-Beispiele

Teil II Upgraden und Migrieren mit Live Upgrade auf einen ZFS-Root-Pool

10.  Live Upgrade und ZFS (Überblick)

11.  Live Upgrade für ZFS (Planung)

12.  Erstellen einer Boot-Umgebung für ZFS-Root-Pools

Migrieren eines UFS-Dateisystems auf ein ZFS-Dateisystem

So migrieren Sie ein UFS-Dateisystem auf ein ZFS-Dateisystem

Erstellen einer Boot-Umgebung innerhalb des gleichen ZFS-Root-Pools

So erstellen Sie eine ZFS-Boot-Umgebung im gleichen ZFS-Root-Pool

Erstellen einer Boot-Umgebung in einem neuen Root-Pool

So erstellen Sie eine Boot-Umgebung auf einem neuen ZFS-Root-Pool

Erstellen einer Boot-Umgebung von einem anderen System als dem aktuell laufenden System

Zurückgreifen auf eine andere ZFS-Boot-Umgebung (Fallback)

13.  Live Upgrade für ZFS mit installierten nicht-globalen Zonen

Teil III Anhänge

A.  Live Upgrade-Befehlsreferenz

B.  Fehlerbehebung (Vorgehen)

C.  Zusätzliche SVR4-Packaging-Anforderungen (Referenz)

D.  Verwenden des Patch Analyzers beim Durchführen von Upgrades (Vorgehen)

Glossar

Index

Erstellen einer Boot-Umgebung in einem neuen Root-Pool

Wenn auf Ihrem System bereits ein ZFS-Root-Pool vorhanden ist und Sie eine neue ZFS-Boot-Umgebung in einem neuen ZFS-Root-Pool erstellen wollen, müssen Sie die folgenden Schritte abarbeiten. Nach dem Erstellen einer inaktiven Boot-Umgebung kann diese neue Boot-Umgebung nach Ihrem Ermessen aktualisiert und aktiviert werden. Die Option -p ist erforderlich, da sie angibt, wo die neue Boot-Umgebung angelegt werden soll. Damit der vorhandene ZFS-Root-Pool gebootet und aktualisiert werden kann, muss er sich auf einem separaten Bereich befinden.

So erstellen Sie eine Boot-Umgebung auf einem neuen ZFS-Root-Pool

  1. Vor dem erstmaligen Ausführen von Live Upgrade müssen Sie die neuesten Live Upgrade-Packages von den Installationsmedien und die im Knowledge Document aufgeführten Patches installieren. Suchen Sie auf der Website My Oracle Support nach Knowledge Document 1004881.1 "Live Upgrade Software Patch Requirements" (zuvor 206844).

    Die neuesten Packages und Patches gewährleisten, dass auf Ihrem System die neuesten Bugkorrekturen und Leistungsmerkmale installiert sind. Stellen Sie die Installation aller für Ihr System erforderlichen Patches sicher, bevor Sie damit beginnen, eine neue Boot-Umgebung zu erstellen.

    Die folgenden untergeordneten Schritte beschreiben die auf der My Oracle Support-Website im Knowledge Document 1004881.1 "Live Upgrade Software Patch Requirements" (zuvor 206844) enthaltenen Anweisungen.


    Hinweis - Damit Sie mit Live Upgrade neue ZFS-Boot-Umgebungen installieren können, muss auf Ihrem System mindestens Solaris-Version 10 10/08 installiert sein. In früheren Releases ist die ZFS- und Live Upgrade-Software zum Durchführen dieser Aufgaben nicht enthalten.


    1. Melden Sie sich als Superuser an oder nehmen Sie eine entsprechende Rolle an.

      Hinweis - Rollen umfassen Autorisierungen und privilegierte Befehle. Weitere Informationen zu Rollen finden Sie unter Configuring RBAC (Task Map) in System Administration Guide: Security Services.


    2. Befolgen Sie auf der My Oracle Support-Website die im Knowledge Document 1004881.1 aufgeführten Anweisungen zum Entfernen und Hinzufügen von Live Upgrade-Packages.

      Die drei Live Upgrade-Packages SUNWluu, SUNWlur und SUNWlucfg enthalten die zum Upgraden mithilfe von Live Upgrade erforderliche Software. Diese Pakete enthalten die bestehende Software, neue Funktionen sowie Bugkorrekturen. Wenn Sie die vorhandenen Packages nicht entfernen und die neuen Packages auf Ihrem System installieren, bevor Sie Live Upgrade ausführen, verläuft das Upgrade auf die Zielversion nicht erfolgreich. Das Package SUMWlucfg ist ab Solaris 10 8/07 neu. Wenn Sie Live Upgrade-Packages mit einem Release vor Solaris 10 8/07 verwenden, müssen Sie dieses Package nicht entfernen.


      Hinweis - Das Package SUMWlucfg ist ab Solaris 10 8/07 neu. Wenn Sie Live Upgrade-Packages eines früheren Release verwenden, brauchen Sie diese Packages nicht zu entfernen.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
    3. Installieren Sie die neuen Live Upgrade-Packages. Eine Anleitung finden Sie unter  Installieren von Live Upgrade.
    4. Vor dem Ausführen von Live Upgrade müssen Sie die folgenden Patches installieren. Diese Patches gewährleisten, dass auf Ihrem System die neuesten Bugkorrekturen und Leistungsmerkmale installiert sind.

      Eine stets aktuelle Patchliste finden Sie unter My Oracle Support. Suchen Sie auf der Website My Oracle Support nach Knowledge Document 1004881.1 - "Live Upgrade Software Patch Requirements" (zuvor 206844).

      • Zum Speichern der Patches auf einer lokalen Festplatte sollten Sie ein Verzeichnis wie z. B. /var/tmp/lupatches erstellen und die Patches in dieses Verzeichnis herunterladen.

      • Rufen Sie die Patchliste von der My Oracle Support-Website ab.

      • Wechseln Sie wie in diesem Beispiel zum Patch-Verzeichnis.

        # cd /var/tmp/lupatches
      • Installieren Sie die Patches mit dem Befehl patchadd.

        # patchadd -M path-to-patches patch_id patch_id

        Path-to-Patches steht für den Pfad zum Patch-Verzeichnis, wie z. B. /var/tmp/lupatches. Patch_ID sind die Patchnummern. Trennen Sie mehrere Patch-Namen mit Leerzeichen voneinander.


        Hinweis - Die Patches müssen in der Reihenfolge eingespielt werden, die auf der Website My Oracle Support im Knowledge Document 1004881.1 "Solaris Live Upgrade Software Patch Requirements" (zuvor 206844) angegeben ist.


      • Starten Sie, falls erforderlich, das System neu. Bei einigen Patches ist ein Systemneustart erforderlich.

        Nur x86: Das System muss neu gestartet werden, anderenfalls verläuft Solaris Live Upgrade nicht erfolgreich.

        # init 6

        Nun verfügen Sie über die für eine erfolgreiche Migration erforderlichen Packages und Patches.

  2. Erstellen Sie einen ZFS-Root-Pool.

    Damit der ZFS-Root-Pool boot- und upgradefähig ist, muss er sich auf einem einzigen Bereich befinden.

    # zpool create rpool2 c0t1d0s5
    rpool2

    Der Name des neuen ZFS-Root-Pools.

    c0t1d0s5

    Gibt an, dass rpool2 auf dem bootfähigen Bereich c0t1d0s5 angelegt werden soll.

    Informationen zum Erstellen eines neuen Root-Pools finden Sie im Oracle Solaris ZFS-Administrationshandbuch.

  3. Erstellen Sie die neue Boot-Umgebung.
    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    zfsBE

    Der Name der aktuellen ZFS-Boot-Umgebung.

    new-zfsBE

    Der Name der zu erstellenden Boot-Umgebung. Der Name muss auf dem System einmalig sein.

    -p rpool2

    Legt die·neu erstellte ZFS-Boot-Umgebung in dem in rpool2 definierten ZFS-Root-Pool an.

    Das Erstellen der neuen ZFS-Boot-Umgebung kann eine gewisse Zeit dauern. Die Daten des Dateisystems werden in den neuen ZFS-Root-Pool kopiert. Nach dem Erstellen der inaktiven Boot-Umgebung können Sie die neue ZFS-Boot-Umgebung mithilfe der Befehle luupgrade bzw. luactivate aktualisieren bzw. aktivieren.

  4. (Optional) Überprüfen Sie, ob die Boot-Umgebung vollständig ist.

    Der Befehl lustatus erzeugt einen Bericht, ob die erstellte Boot-Umgebung vollständig und bootfähig ist.

    # lustatus
    boot environment   Is        Active  Active     Can        Copy 
    Name               Complete  Now     OnReboot   Delete     Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (Optional) Überprüfen Sie die grundlegenden Dataset-Informationen auf dem System.

    Im folgenden Beispiel werden die Namen aller auf dem System vorhandenen Datasets angezeigt. Der für die neue Boot-Umgebung angezeigte Einhängepunkt ist temporär und gilt nur bis zur Ausführung des Befehls luactivate. Die neue Boot-Umgebung nutzt die Volumes rpool2/dump und rpool2/swap gemeinsam mit der ZFS-Boot-Umgebung rpool2.

    # zfs list
    NAME                                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                                     11.4G  2.95G    31K  /rpool
    rpool/ROOT                                4.34G  2.95G    31K  legacy
    rpool/ROOT/new-zfsBE                      4.34G  2.95G  4.34G  /
    rpool/dump                                2.06G  5.02G    16K  -
    rpool/swap                                5.04G  7.99G    16K  -

    Sie können die neue Boot-Umgebung jetzt aktualisieren und aktivieren.

Beispiel 12-3 Erstellen einer Boot-Umgebung in einem neuen Root-Pool

In diesem Beispiel wird der neue ZFS-Root-Pool newPool auf dem separaten Bereich c0t1s0s5 erstellt. Der Befehl lucreate erstellt die neue ZFS-Boot-Umgebung new-zfsbe. Die Option -p ist erforderlich, da die Boot-Umgebung in einem anderen Root-Pool erstellt wird.

# zpool create newPool C0t2d0s5
# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                          92.5K  18.7G    31K  /newPool 
rpool                                     11.4G  2.95G    31K  /rpool
rpool/ROOT                                4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                      4.34G  2.95G  4.34G  /
rpool/dump                                2.06G  5.02G    16K  -
rpool/swap                                5.04G  7.99G    16K  -
# lucreate -c c0t1d0s5 -n new-zfsbe -p newPool 
Checking GRUB menu...
Analyzing system configuration.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsbe>.
Source boot environment is <c0t1d0s5>.
Creating file systems on boot environment <new-zfsbe>.
Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>.
Populating file systems on boot environment <new-zfsbe>.
Analyzing zones.
Mounting ABE <new-zfsbe>.
Generating file list.
Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>.
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <new-zfsbe>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t1d0s5>.
Making boot environment <new-zfsbe> bootable.
Updating bootenv.rc on ABE <new-zfsbe>.
Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> as <mount-point>//boot/grub/menu.lst.prev.
File </boot/grub/menu.lst> propagation successful
Copied GRUB menu from PBE to ABE
No entry for BE <new-zfsbe> in GRUB menu
Population of boot environment <new-zfsbe> successful.
Creation of boot environment <new-zfsbe> successful. 
# lustatus
Boot Environment           Is       Active Active    Can    Copy
Name                       Complete Now    On Reboot Delete Status
-------------------------- -------- ------ --------- ------ ----------
c0t0d0                     yes      yes    yes       no     -
zfsBE                            yes      no     no        yes    -
new-zfsbe                  yes      no     no        yes    -

# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                               7.15G  11.6G    36K  /newPool
newPool/ROOT                          4.05G  11.6G    31K  legacy
newPool/ROOT/new-zfsbe                4.05G  11.6G  4.05G  /
newPool/dump                          1.03G  12.6G    16K  -
newPool/swap                          2.06G  13.6G    16K  -
rpool                                             11.4G  2.95G    31K  /rpool
rpool/ROOT                                        4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                                  4.34G  2.95G  4.34G  /
rpool/dump                                        2.06G  5.02G    16K  -
rpool/swap                                        5.04G  7.99G    16K  -