Navigationslinks �berspringen | |
Druckansicht beenden | |
Oracle Solaris 10 8/11 Installationshandbuch: Solaris Live Upgrade und Planung von Upgrades |
Teil I Ausführen eines Upgrades mit Solaris Live Upgrade
1. Informationen zur Planung einer Solaris-Installation
2. Solaris Live Upgrade (Übersicht)
3. Solaris Live Upgrade (Planung)
4. Erstellen einer Boot-Umgebung mit Solaris Live Upgrade (Vorgehen)
5. Ausführen eines Upgrades mit Solaris Live Upgrade (Vorgehen)
6. Wiederherstellen nach Fehler: Zurückgreifen auf die ursprüngliche Boot-Umgebung (Vorgehen)
7. Verwalten von Solaris Live Upgrade-Boot-Umgebungen (Vorgehen)
9. Solaris Live Upgrade (Beispiele)
10. Solaris Live Upgrade (Befehlsreferenz)
11. Solaris Live Upgrade und ZFS (Überblick)
12. Solaris Live Upgrade für ZFS (Planung)
13. Erstellen einer Boot-Umgebung für ZFS-Root-Pools
Migrieren eines UFS-Dateisystems auf ein ZFS-Dateisystem
So migrieren Sie ein UFS-Dateisystem auf ein ZFS-Dateisystem
Erstellen einer Boot-Umgebung innerhalb des gleichen ZFS-Root-Pools
So erstellen Sie eine ZFS-Boot-Umgebung im gleichen ZFS-Root-Pool
Erstellen einer Boot-Umgebung in einem neuen Root-Pool
So erstellen Sie eine Boot-Umgebung auf einem neuen ZFS-Root-Pool
Erstellen einer Boot-Umgebung von einem anderen System als dem aktuell laufenden System
Zurückgreifen auf eine andere ZFS-Boot-Umgebung (Fallback)
14. Solaris Live Upgrade für ZFS mit installierten nicht-globalen Zonen
B. Zusätzliche SVR4-Packaging-Anforderungen (Referenz)
C. Verwenden des Patch Analyzers beim Durchführen von Upgrades (Vorgehen)
Wenn auf Ihrem System bereits ein ZFS-Root-Pool vorhanden ist und Sie eine neue ZFS-Boot-Umgebung in einem neuen ZFS-Root-Pool erstellen wollen, müssen Sie die folgenden Schritte abarbeiten. Nach dem Erstellen einer inaktiven Boot-Umgebung kann diese neue Boot-Umgebung nach Ihrem Ermessen aktualisiert und aktiviert werden. Die Option -p ist erforderlich, da sie angibt, wo die neue Boot-Umgebung angelegt werden soll. Damit der vorhandene ZFS-Root-Pool gebootet und aktualisiert werden kann, muss er sich auf einem separaten Bereich befinden.
Die neuesten Packages und Patches gewährleisten, dass auf Ihrem System die neuesten Fehlerbehebungen und Leistungsmerkmale installiert sind. Stellen Sie die Installation aller für Ihr System erforderlichen Patches sicher, bevor Sie damit beginnen, eine neue Boot-Umgebung zu erstellen.
Die folgenden untergeordneten Schritte beschreiben die auf der Website My Oracle Support im Knowledge Document 1004881.1 "Solaris Live Upgrade Software Patch Requirements" (zuvor 206844) enthaltenen Anweisungen.
Hinweis - Damit Sie mit Solaris Live Upgrade neue ZFS-Boot-Umgebungen installieren können, muss auf Ihrem System mindestens Solaris-Release 10 10/08 installiert sein. In früheren Releases ist die ZFS- und Solaris Live Upgrade-Software zum Durchführen dieser Aufgaben nicht enthalten.
Hinweis - Rollen umfassen Autorisierungen und privilegierte Befehle. Weitere Informationen zu Rollen finden Sie unter Konfigurieren von RBAC (Übersicht der Schritte) in Systemverwaltungshandbuch: Sicherheitsservices.
Die drei Solaris Live Upgrade-Packages SUNWluu, SUNWlur und SUNWlucfg enthalten die zum Aktualisieren mithilfe von Solaris Live Upgrade erforderliche Software. Diese Pakete enthalten die bestehende Software, neue Funktionen sowie Bugfixes. Wenn Sie die vorhandenen Packages nicht entfernen und die neuen Packages auf Ihrem System installieren, bevor Sie Solaris Live Upgrade ausführen, schlägt das Aktualisieren auf die Zielversion fehl. Das Package SUMWlucfg ist ab Solaris 10 8/07 neu. Wenn Sie Solaris Live Upgrade-Packages mit einem Release vor Solaris 10 8/07 verwenden, müssen Sie dieses Package nicht entfernen.
Hinweis - Das Package SUMWlucfg ist ab Solaris 10 8/07 neu. Wenn Sie Solaris Live Upgrade-Packages eines früheren Release verwenden, brauchen Sie diese Packages nicht zu entfernen.
# pkgrm SUNWlucfg SUNWluu SUNWlur
Eine stets aktuelle Patchliste finden Sie auf My Oracle Support. Suchen Sie auf der Website My Oracle Support nach Knowledge Document 1004881.1 "Solaris Live Upgrade Software Patch Requirements" (zuvor 206844).
Zum Speichern der Patches auf einer lokalen Festplatte sollten Sie ein Verzeichnis wie z. B. /var/tmp/lupatches erstellen und die Patches in dieses Verzeichnis herunterladen.
Rufen Sie die Patchliste von der My Oracle Support-Website ab.
Wechseln Sie wie in diesem Beispiel zum Patch-Verzeichnis.
# cd /var/tmp/lupatches
Installieren Sie die Patches mit dem Befehl patchadd.
# patchadd -M path-to-patches patch_id patch_id
Path-to-Patches steht für den Pfad zum Patch-Verzeichnis, wie z. B. /var/tmp/lupatches. Patch_ID sind die Patchnummern. Trennen Sie mehrere Patch-Namen mit Leerzeichen voneinander.
Hinweis - Die Patches müssen in der Reihenfolge angewendet werden, die auf der Website My Oracle Support im Knowledge Document 1004881.1 "Solaris Live Upgrade Software Patch Requirements" (zuvor 206844) angegeben ist.
Starten Sie, falls erforderlich, das System neu. Bei einigen Patches ist ein Systemneustart erforderlich.
Nur x86: Das System muss neu gestartet werden, anderenfalls schlägt Solaris Live Upgrade fehl.
# init 6
Nun verfügen Sie über die für eine erfolgreiche Migration erforderlichen Packages und Patches.
Damit der ZFS-Root-Pool boot- und upgradefähig ist, muss er sich auf einem einzigen Bereich befinden.
# zpool create rpool2 c0t1d0s5
Der Name des neuen ZFS-Root-Pools.
Gibt an, dass rpool2 in dem bootfähigen Bereich c0t1d0s5 abgelegt werden soll.
Informationen zum Erstellen eines neuen Root-Pools finden Sie im Oracle Solaris ZFS-Administrationshandbuch.
# lucreate [-c zfsBE] -n new-zfsBE -p rpool2
Weist der aktuellen ZFS-Boot-Umgebung den Namen zfsBU zu.
Weist der zu erstellenden Boot-Umgebung einen Namen zu. Der Name muss auf dem System einmalig sein.
Legt die·neu erstellte ZFS-Boot-Umgebung in dem in rpool2 definierten ZFS-Root-Pool an.
Das Erstellen der neuen ZFS-Boot-Umgebung kann eine gewisse Zeit dauern. Die Daten des Dateisystems werden in den neuen ZFS-Root-Pool kopiert. Nach dem Erstellen der inaktiven Boot-Umgebung können Sie die neue ZFS-Boot-Umgebung mithilfe der Befehle luupgrade bzw. luactivate aktualisieren bzw. aktivieren.
Der Befehl lustatus erzeugt einen Bericht, ob die erstellte Boot-Umgebung vollständig und bootfähig ist.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes -
Im folgenden Beispiel werden die Namen aller auf dem System vorhandenen Datasets angezeigt. Der für die neue Boot-Umgebung angezeigte Einhängepunkt ist temporär und gilt nur bis zur Ausführung des Befehls luactivate. Die neue Boot-Umgebung nutzt die Volumes rpool2/dump und rpool2/swap gemeinsam mit der ZFS-Boot-Umgebung rpool2.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G -
Sie können die neue Boot-Umgebung jetzt aktualisieren und aktivieren. Siehe Beispiel 13-3.
Beispiel 13-3 Erstellen einer Boot-Umgebung in einem neuen Root-Pool
In diesem Beispiel wird der neue ZFS-Root-Pool rpool auf dem separaten Bereich c0t2s0s5 erstellt. Der Befehl lucreate erstellt die neue ZFS-Boot-Umgebung neue-zfsBU. Die Option -p ist erforderlich, da die Boot-Umgebung in einem anderen Root-Pool erstellt wird.
# zpool create rpool C0t1d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - # lucreate -c rpool -n new-zfsBE -p rpool2 Analyzing system configuration. Current boot environment is named <rpool>. Creating initial configuration for primary boot environment <rpool>. The device </dev/dsk/c0t0d0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <rpool> PBE Boot Device </dev/dsk/rpool>. Comparing source boot environment <rpool> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsBE>. Source boot environment is <rpool>. Creating boot environment <new-zfsBE>. Creating file systems on boot environment <new-zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool2/ROOT/new-zfsBE>. Populating file systems on boot environment <new-zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <new-zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <new-zfsBE> successful. Creation of boot environment <new-zfsBE> successful. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G -