Navigationslinks überspringen | |
Druckansicht beenden | |
Oracle Solaris 10 1/13 Installationshandbuch: Live Upgrade und Planung von Upgrades Oracle Solaris 10 1/13 Information Library (Deutsch) |
Teil I Upgraden mit Live Upgrade
1. Informationen zur Planung einer Oracle Solaris-Installation
4. Erstellen einer Boot-Umgebung mit Live Upgrade (Vorgehen)
5. Ausführen eines Upgrades mit Live Upgrade (Vorgehen)
6. Wiederherstellen nach Fehler: Zurückgreifen auf die ursprüngliche Boot-Umgebung (Vorgehen)
7. Verwalten von Live Upgrade-Boot-Umgebungen (Vorgehen)
Teil II Upgraden und Migrieren mit Live Upgrade auf einen ZFS-Root-Pool
10. Live Upgrade und ZFS (Überblick)
11. Live Upgrade für ZFS (Planung)
12. Erstellen einer Boot-Umgebung für ZFS-Root-Pools
Migrieren eines UFS-Dateisystems auf ein ZFS-Dateisystem
So migrieren Sie ein UFS-Dateisystem auf ein ZFS-Dateisystem
Erstellen einer Boot-Umgebung innerhalb des gleichen ZFS-Root-Pools
So erstellen Sie eine ZFS-Boot-Umgebung im gleichen ZFS-Root-Pool
Erstellen einer Boot-Umgebung in einem neuen Root-Pool
So erstellen Sie eine Boot-Umgebung auf einem neuen ZFS-Root-Pool
Erstellen einer Boot-Umgebung von einem anderen System als dem aktuell laufenden System
Zurückgreifen auf eine andere ZFS-Boot-Umgebung (Fallback)
13. Live Upgrade für ZFS mit installierten nicht-globalen Zonen
A. Live Upgrade-Befehlsreferenz
C. Zusätzliche SVR4-Packaging-Anforderungen (Referenz)
D. Verwenden des Patch Analyzers beim Durchführen von Upgrades (Vorgehen)
Im Folgenden wird beschrieben, wie Sie eine neue ZFS-Boot-Umgebung innerhalb eines vorhandenen ZFS-Root-Pools erstellen. Nach dem Erstellen einer inaktiven Boot-Umgebung kann diese neue Boot-Umgebung nach Ihrem Ermessen aktualisiert und aktiviert werden. Die Option -p ist nicht erforderlich, wenn Sie eine Boot-Umgebung im gleichen Pool erstellen.
Die neuesten Packages und Patches gewährleisten, dass auf Ihrem System die neuesten Bugkorrekturen und Leistungsmerkmale installiert sind. Stellen Sie die Installation aller für Ihr System erforderlichen Patches sicher, bevor Sie damit beginnen, eine neue Boot-Umgebung zu erstellen.
Die folgenden untergeordneten Schritte beschreiben die im Knowledge Document 1004881.1 "Live Upgrade Software Patch Requirements" (zuvor 206844) enthaltenen Anweisungen.
Hinweis - Damit Sie mit Live Upgrade neue ZFS-Boot-Umgebungen installieren können, muss auf Ihrem System mindestens Solaris-Version 10 10/08 installiert sein. In früheren Releases ist die ZFS- und Live Upgrade-Software zum Durchführen dieser Aufgaben nicht enthalten.
Hinweis - Rollen umfassen Autorisierungen und privilegierte Befehle. Weitere Informationen zu Rollen finden Sie unter Configuring RBAC (Task Map) in System Administration Guide: Security Services.
Die drei Live Upgrade-Packages SUNWluu, SUNWlur und SUNWlucfg enthalten die zum Upgraden mithilfe von Live Upgrade erforderliche Software. Diese Pakete enthalten die bestehende Software, neue Funktionen sowie Bugkorrekturen. Wenn Sie die vorhandenen Packages nicht entfernen und die neuen Packages auf Ihrem System installieren, bevor Sie Live Upgrade ausführen, verläuft das Upgrade auf die Zielversion nicht erfolgreich. Das Package SUMWlucfg ist ab Solaris 10 8/07 neu. Wenn Sie Live Upgrade-Packages mit einem Release vor Solaris 10 8/07 verwenden, müssen Sie dieses Package nicht entfernen.
Hinweis - Das Package SUMWlucfg ist ab Solaris 10 8/07 neu. Wenn Sie Live Upgrade-Packages eines früheren Release verwenden, brauchen Sie diese Packages nicht zu entfernen.
# pkgrm SUNWlucfg SUNWluu SUNWlur
Eine stets aktuelle Patchliste finden Sie unter My Oracle Support. Suchen Sie auf der My Oracle Support-Website nach dem Knowledge Document 1004881.1 - "Live Upgrade Software Patch Requirements" (zuvor 206844).
Zum Speichern der Patches auf einer lokalen Festplatte sollten Sie ein Verzeichnis wie z. B. /var/tmp/lupatches erstellen und die Patches in dieses Verzeichnis herunterladen.
Rufen Sie die Patchliste von der My Oracle Support-Website ab.
Wechseln Sie wie in diesem Beispiel zum Patch-Verzeichnis.
# cd /var/tmp/lupatches
Installieren Sie die Patches mit dem Befehl patchadd.
# patchadd -M path-to-patches patch_id patch_id
Path-to-Patches steht für den Pfad zum Patch-Verzeichnis, wie z. B. /var/tmp/lupatches. Patch_ID sind die Patchnummern. Trennen Sie mehrere Patch-Namen mit Leerzeichen voneinander.
Hinweis - Die Patches müssen in der Reihenfolge eingespielt werden, die im Knowledge Document 1004881.1 - " Live Upgrade Software Patch Requirements" (zuvor 206844) angegeben ist.
Starten Sie, falls erforderlich, das System neu. Bei einigen Patches ist ein Systemneustart erforderlich.
Nur x86: Das System muss neu gestartet werden, anderenfalls verläuft Solaris Live Upgrade nicht erfolgreich.
# init 6
Sie haben nun die für die erfolgreiche Erstellung einer neuen Boot-Umgebung erforderlichen Packages und Patches.
# lucreate [-c zfsBE] -n new-zfsBE
Der Name der aktuellen Boot-Umgebung. Diese Option ist nicht obligatorisch und wird nur beim Erstellen der ersten Boot-Umgebung verwendet. Wenn Sie lucreate zum ersten Mal ausführen und dabei keine Option -c angeben, erstellt die Software automatisch einen Standardnamen.
Der Name der zu erstellenden Boot-Umgebung. Der Name muss auf dem System einmalig sein.
Die neue Boot-Umgebung wird fast unverzüglich erstellt. Von jedem Dataset im aktuellen ZFS-Root-Pool wird ein Snapshot erstellt, und von jedem Snapshot wird dann ein Klon angelegt. Snapshots sind sehr speicherplatzeffizient, sodass bei diesem Vorgang nur sehr wenig Festplattenspeicherplatz belegt wird. Nach dem Erstellen der inaktiven Boot-Umgebung können Sie die neue ZFS-Boot-Umgebung mithilfe der Befehle luupgrade bzw. luactivate aktualisieren bzw. aktivieren.
Der Befehl lustatus erzeugt einen Bericht, ob die erstellte Boot-Umgebung vollständig und bootfähig ist.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes -
In diesem Beispiel heißt der ZFS-Root-Pool rpool, und das @-Zeichen gibt an, dass es sich um einen Snapshot handelt. Die Einhängepunkte der neuen Boot-Umgebung sind temporär und gelten nur bis zur Ausführung des Befehls luactivate Die Volumes·/dump und /swap werden mit dem ZFS-Root-Pool und den Boot-Umgebungen des Root-Pools gemeinsam genutzt.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
Sie können die neue Boot-Umgebung jetzt aktualisieren und aktivieren.
Beispiel 12-2 Erstellen einer Boot-Umgebung innerhalb des gleichen ZFS-Root-Pools
Dieses Beispiel erstellt eine neue ZFS-Boot-Umgebung, new-zfsBE. Die Option -p ist nicht erforderlich, da die Boot-Umgebung innerhalb des gleichen Root-Pools erstellt wird.
# lucreate [-c zfsBE] -n new-zfsBE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Creating configuration for boot environment new-zfsBE. Source boot environment is zfsBE. Creating boot environment new-zfsBE. Cloning file systems from boot environment zfsBE to create boot environment new-zfsBE. Creating snapshot for <rpool> on <rpool> Creating clone for <rpool>. Setting canmount=noauto for <rpool> in zone <global> on <rpool>. Population of boot environment zfsBE successful on <rpool>. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
Sie können die neue Boot-Umgebung jetzt aktualisieren und aktivieren. Ein Beispiel für das Upgrade einer ZFS-Boot-Umgebung finden Sie in Beispiel 12-1. Weitere Beispiele zur Verwendung des Befehls luupgrade finden Sie in Kapitel 5, Ausführen eines Upgrades mit Live Upgrade (Vorgehen).
# luactivate new-zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <new-zfsBE>. ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Boot the machine to Single User mode using a different boot device (like the Solaris Install CD or Network). Examples: At the PROM monitor (ok prompt): For boot to Solaris CD: boot cdrom -s For boot to network: boot net -s 3. Mount the Current boot environment root slice to some directory (like /mnt). You can use the following command to mount: mount -Fufs /dev/dsk/c1t0d0s0 /mnt 4. Run <luactivate> utility with out any arguments from the current boot environment root slice, as shown below: /mnt/sbin/luactivate 5. luactivate, activates the previous working boot environment and indicates the result. 6. Exit Single User mode and reboot the machine. ********************************************************************** Modifying boot archive service Activation of boot environment <new-zfsBE> successful.
Booten Sie das System mit der ZFS-Boot-Umgebung neu.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . .