Navigationslinks überspringen | |
Druckansicht beenden | |
Oracle Solaris 10 1/13 Installationshandbuch: Live Upgrade und Planung von Upgrades Oracle Solaris 10 1/13 Information Library (Deutsch) |
Teil I Upgraden mit Live Upgrade
1. Informationen zur Planung einer Oracle Solaris-Installation
4. Erstellen einer Boot-Umgebung mit Live Upgrade (Vorgehen)
5. Ausführen eines Upgrades mit Live Upgrade (Vorgehen)
6. Wiederherstellen nach Fehler: Zurückgreifen auf die ursprüngliche Boot-Umgebung (Vorgehen)
7. Verwalten von Live Upgrade-Boot-Umgebungen (Vorgehen)
Teil II Upgraden und Migrieren mit Live Upgrade auf einen ZFS-Root-Pool
10. Live Upgrade und ZFS (Überblick)
11. Live Upgrade für ZFS (Planung)
12. Erstellen einer Boot-Umgebung für ZFS-Root-Pools
Migrieren eines UFS-Dateisystems auf ein ZFS-Dateisystem
So migrieren Sie ein UFS-Dateisystem auf ein ZFS-Dateisystem
Erstellen einer Boot-Umgebung innerhalb des gleichen ZFS-Root-Pools
So erstellen Sie eine ZFS-Boot-Umgebung im gleichen ZFS-Root-Pool
Erstellen einer Boot-Umgebung in einem neuen Root-Pool
So erstellen Sie eine Boot-Umgebung auf einem neuen ZFS-Root-Pool
Erstellen einer Boot-Umgebung von einem anderen System als dem aktuell laufenden System
Zurückgreifen auf eine andere ZFS-Boot-Umgebung (Fallback)
13. Live Upgrade für ZFS mit installierten nicht-globalen Zonen
A. Live Upgrade-Befehlsreferenz
C. Zusätzliche SVR4-Packaging-Anforderungen (Referenz)
D. Verwenden des Patch Analyzers beim Durchführen von Upgrades (Vorgehen)
In diesem Abschnitt wird die Migration eines UFS-Dateisystems auf eine ZFS-Dateisystem beschrieben. Durch das Erstellen einer Boot-Umgebung können kritische Dateisysteme von einer aktiven UFS-Boot-Umgebung in einen ZFS-Root-Pool kopiert werden. Der Befehl lucreate kopiert die kritischen Dateisysteme in eine neue Boot-Umgebung innerhalb eines vorhandenen ZFS-Root-Pools. Benutzerdefinierte (gemeinsam nutzbare) Dateisysteme werden nicht kopiert und mit der ursprünglichen UFS-Boot-Umgebung nicht gemeinsam genutzt. Darüber hinaus wird der /swap -Bereich nicht vom UFS-Dateisystem und dem ZFS-Root-Pool gemeinsam genutzt. Unter Arten von Dateisystemen finden Sie einen Überblick der kritischen und gemeinsam nutzbaren Dateisysteme.
Hinweis - Damit Sie ein aktives UFS-Root-Dateisystem (/) in einen ZFS-Root-Pool migrieren können, müssen Sie den Namen des Root-Pools angeben. Die kritischen Dateisysteme werden dann in den Root-Pool kopiert.
Die neuesten Packages und Patches gewährleisten, dass auf Ihrem System die neuesten Bugkorrekturen und Leistungsmerkmale installiert sind. Stellen Sie die Installation aller für Ihr System erforderlichen Patches sicher, bevor Sie damit beginnen, eine neue Boot-Umgebung zu erstellen.
Die folgenden untergeordneten Schritte beschreiben die im Knowledge Document 1004881.1 "Live Upgrade Software Patch Requirements" (zuvor 206844) enthaltenen Anweisungen.
Hinweis - Damit Sie mit Live Upgrade neue ZFS-Boot-Umgebungen installieren können, muss auf Ihrem System mindestens Solaris-Version 10 10/08 installiert sein. In früheren Releases ist die ZFS- und Live Upgrade-Software zum Durchführen dieser Aufgaben nicht enthalten.
Hinweis - Rollen umfassen Autorisierungen und privilegierte Befehle. Weitere Informationen zu Rollen finden Sie unter Configuring RBAC (Task Map) in System Administration Guide: Security Services.
Die drei Live Upgrade-Packages SUNWluu, SUNWlur und SUNWlucfg enthalten die zum Upgraden mithilfe von Live Upgrade erforderliche Software. Diese Pakete enthalten die bestehende Software, neue Funktionen sowie Bugkorrekturen. Wenn Sie die vorhandenen Packages nicht entfernen und die neuen Packages auf Ihrem System installieren, bevor Sie Live Upgrade ausführen, verläuft das Upgrade auf die Zielversion nicht erfolgreich. Das Package SUMWlucfg ist ab Solaris 10 8/07 neu. Wenn Sie Live Upgrade-Packages mit einem Release vor Solaris 10 8/07 verwenden, müssen Sie dieses Package nicht entfernen.
# pkgrm SUNWlucfg SUNWluu SUNWlur
Eine stets aktuelle Patchliste finden Sie unter My Oracle Support. Suchen Sie auf der My Oracle Support-Website nach dem Knowledge Document 1004881.1 - "Live Upgrade Software Patch Requirements" (zuvor 206844).
Zum Speichern der Patches auf einer lokalen Festplatte sollten Sie ein Verzeichnis wie z. B. /var/tmp/lupatches erstellen und die Patches in dieses Verzeichnis herunterladen.
Rufen Sie die Patchliste von der My Oracle Support-Website ab.
Wechseln Sie in das Patch-Verzeichnis.
# cd /var/tmp/lupatches
Installieren Sie die Patches mit dem Befehl patchadd.
# patchadd patch_id
Patch_ID sind die Patchnummern. Trennen Sie mehrere Patch-Namen mit Leerzeichen voneinander.
Hinweis - Die Patches müssen in der Reihenfolge eingespielt werden, die im Knowledge Document 1004881.1 - " Live Upgrade Software Patch Requirements" (zuvor 206844) angegeben ist.
Starten Sie, falls erforderlich, das System neu. Bei einigen Patches ist ein Systemneustart erforderlich.
Nur x86: Das System muss neu gestartet werden, anderenfalls verläuft Solaris Live Upgrade nicht erfolgreich.
# init 6
Nun verfügen Sie über die für eine erfolgreiche Migration erforderlichen Packages und Patches.
Damit der ZFS-Root-Pool boot- und upgradefähig ist, muss er sich auf einem einzigen Bereich befinden.
# zpool create rpool c0t1d0s5
Legt den Namen des neu anzulegenden ZFS-Root-Pools fest.
Erstellt den neuen Root-Pool auf Festplattenbereich c0t1d0s5 .
Informationen zum Erstellen eines neuen Root-Pools finden Sie im Oracle Solaris ZFS-Administrationshandbuch.
# lucreate [-c ufsBE] -n new-zfsBE -p rpool
Der Name der aktuellen UFS-Boot-Umgebung. Diese Option ist nicht obligatorisch und wird nur beim Erstellen der ersten Boot-Umgebung verwendet. Wenn Sie lucreate zum ersten Mal ausführen und dabei keine Option -c angeben, erstellt die Software automatisch einen Standardnamen.
Der Name der zu erstellenden Boot-Umgebung. Der Name muss auf dem System einmalig sein.
Legt das neu erstellte ZFS-Root-Dateisystem (/) in dem in rpool definierten ZFS-Root-Pool an.
Das Erstellen der neuen ZFS-Boot-Umgebung kann eine gewisse Zeit dauern. Die Daten des UFS-Dateisystems werden in den ZFS-Root-Pool kopiert. Nach dem Erstellen der inaktiven Boot-Umgebung können Sie die neue ZFS-Boot-Umgebung mithilfe der Befehle luupgrade bzw. luactivate aktualisieren bzw. aktivieren.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ----------------------------------------------------------------- ufsBE yes yes yes no - new-zfsBE yes no no yes -
Der Befehl list zeigt die Namen aller auf dem System vorhandenen Datasets an. In diesem Beispiel ist rpool der Name des ZFS-Pools und neue-zfsBU der Name der neu erstellten ZFS-Boot-Umgebung.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
Die für die neue Boot-Umgebung angezeigten Einhängepunkte sind temporär und gelten nur bis zur Ausführung des Befehls luactivate. Die Volumes /dump und /swap werden nicht gemeinsam mit der ursprünglichen UFS-Boot-Umgebung, sondern innerhalb des ZFS-Root-Pools und mit Boot-Umgebungen innerhalb des Root-Pools genutzt.
Sie können die neue Boot-Umgebung jetzt aktualisieren und aktivieren.
Beispiel 12-1 Migration eines UFS-Root-Dateisystems (/) auf einen ZFS-Root-Pool
In diesem Beispiel wird der neue ZFS-Root-Pool rpool auf dem separaten Bereich C0t0d0s4 erstellt. Der Befehl lucreate migriert die aktuell laufende UFS-Boot-Umgebung c0t0d0 auf die neue ZFS-Boot-Umgebung neue-zfsBU und legt die neue Boot-Umgebung in rpool an.
# zpool create rpool C0t0d0s4 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool # lucreate -c c0t0d0 -n new-zfsBE -p rpool Determining types of file systems supported Validating file system requests Preparing logical storage devices Preparing physical storage devices Configuring physical storage devices Configuring logical storage devices Analyzing system configuration. No name for current boot environment. Current boot environment is named <c0t0d0>. Creating initial configuration for primary boot environment <c0t0d0>. INFORMATION: No BEs are configured on this system. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <c0t0d0> PBE Boot Device </dev/dsk/c1t0d0s0>. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s6> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsBE>. Source boot environment is <c0t0d0>. Creating file systems on boot environment <new-zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/new-zfsBE>. Populating file systems on boot environment <new-zfsBE>. Analyzing zones. Mounting ABE <new-zfsBE>. Generating file list. Copying data from PBE <c0t0d0> to ABE <new-zfsBE>. 100% of filenames transferred Finalizing ABE. Fixing zonepaths in ABE. Unmounting ABE <new-zfsBE>. Fixing properties on ZFS datasets in ABE. Reverting state of zones in PBE <c0t0d0>. Making boot environment <new-zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-Cjh.mnt updating /.alt.tmp.b-Cjh.mnt/platform/sun4u/boot_archive Population of boot environment <new-zfsBE> successful. Creation of boot environment <new-zfsBE> successful. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ c0t0d0 yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
Sie können die neue Boot-Umgebung jetzt aktualisieren bzw.·aktivieren.
In diesem Beispiel wird die neue Boot-Umgebung mithilfe des Befehls luupgrade von einem Abbild aktualisiert, das sich in dem in der Option -s angegebenen Verzeichnis befindet.
# luupgrade -n zfsBE -u -s /net/install/export/s10/combined.s10 51135 blocks miniroot filesystem is <lofs> Mounting miniroot at </net/install/export/solaris_10/combined.solaris_10_wos /Solaris_10/Tools/Boot> Validating the contents of the media </net/install/export/s10/combined.s10>. The media is a standard Solaris media. The media contains an operating system upgrade image. The media contains Solaris version <10_1008>. Constructing upgrade profile to use. Locating the operating system upgrade program. Checking for existence of previously scheduled Live Upgrade requests. Creating upgrade profile for BE <zfsBE>. Determining packages to install or upgrade for BE <zfsBE>. Performing the operating system upgrade of the BE <zfsBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Upgrading Solaris: 100% completed Installation of the packages from this media is complete. Adding operating system patches to the BE <zfsBE>. The operating system patch installation is complete. INFORMATION: The file /var/sadm/system/logs/upgrade_log on boot environment <zfsBE> contains a log of the upgrade operation. INFORMATION: The file var/sadm/system/data/upgrade_cleanup on boot environment <zfsBE> contains a log of cleanup operations required. INFORMATION: Review the files listed above. Remember that all of the files are located on boot environment <zfsBE>. Before you activate boot environment <zfsBE>, determine if any additional system maintenance is required or if additional media of the software distribution must be installed. The Solaris upgrade of the boot environment <zfsBE> is complete.
Die neue Boot-Umgebung kann zu einem beliebigen Zeitpunkt nach ihrer Erstellung aktiviert werden.
# luactivate new-zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <new-zfsBE>. ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Boot the machine to Single User mode using a different boot device (like the Solaris Install CD or Network). Examples: At the PROM monitor (ok prompt): For boot to Solaris CD: boot cdrom -s For boot to network: boot net -s 3. Mount the Current boot environment root slice to some directory (like /mnt). You can use the following command to mount: mount -Fufs /dev/dsk/c1t0d0s0 /mnt 4. Run <luactivate> utility with out any arguments from the current boot environment root slice, as shown below: /mnt/sbin/luactivate 5. luactivate, activates the previous working boot environment and indicates the result. 6. Exit Single User mode and reboot the machine. ********************************************************************** Modifying boot archive service Activation of boot environment <new-zfsBE> successful.
Booten Sie das System mit der ZFS-Boot-Umgebung neu.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . .
Wenn Sie einen Fallback auf die UFS-Boot-Umgebung durchführen, müssen Sie alle in der ZFS-Boot-Umgebung erstellten ZFS-Speicherpools neu importieren, da diese·in der UFS-Boot-Umgebung nicht automatisch verfügbar sind. Beim Umschalten auf die UFS-Boot-Umgebung werden Meldungen wie im folgenden Beispiel angezeigt.
# luactivate c0t0d0 WARNING: The following files have changed on both the current boot environment <new-zfsBE> zone <global> and the boot environment to be activated <c0t0d0>: /etc/zfs/zpool.cache INFORMATION: The files listed above are in conflict between the current boot environment <zfsBE> zone <global> and the boot environment to be activated <c0t0d0>. These files will not be automatically synchronized from the current boot environment <new-zfsBE> when boot environment <c0t0d0>