Ignorar Links de Navegao | |
Sair do Modo de Exibio de Impresso | |
![]() |
Guia de instalação do Oracle Solaris 10 1/13: Live Upgrade e planejamento da atualização Oracle Solaris 10 1/13 Information Library (Português (Brasil)) |
Parte I Atualizando com o Live Upgrade
1. Onde encontrar informações de planejamento da instalação Oracle Solaris
3. Live Upgrade (planejamento)
4. Usando o Live Upgrade para criar um ambiente de inicialização (tarefas)
5. Fazendo upgrade com o Live Upgrade (tarefas)
6. Recuperação de falha: retrocesso para o ambiente de inicialização original (tarefas)
7. Fazendo a manutenção de ambientes de inicialização do Live Upgrade (tarefas)
8. Atualização do SO Oracle Solaris em um sistema com zonas não globais instaladas
Parte II Atualizando e migrando com o Live Upgrade para um pool raiz ZFS
10. Live Upgrade e ZFS (visão geral)
11. Live Upgrade para ZFS (planejamento)
12. Criando um ambiente de inicialização para pools raiz ZFS
13. Live Upgrade para ZFS com zonas não globais instaladas
A. Referência de comando do Live Upgrade
B. Solução de problemas (tarefas)
C. Requisitos de empacotamento SVR4 adicionais (referência)
Esta seção fornece instruções detalhadas sobre como migrar de um sistema de arquivos raiz UFS (/) para um pool raiz ZFS em um sistema com zonas não globais instaladas. Nenhuma zona não global está em um sistema de arquivos compartilhado no sistema de arquivos UFS.
O comando lucreate cria um ambiente de inicialização de um pool raiz ZFS a partir de um sistema de arquivos de raiz UFS (/). Um pool raiz ZFS deve existir antes da operação lucreate e deve ser criado com segmentos em vez dos discos inteiros a serem atualizados e inicializados. Este procedimento mostra como uma zona não global existente associada ao sistema de arquivos raiz UFS (/) é copiada para o novo ambiente de inicialização em um pool raiz ZFS.
Observação - Usar o Live Upgrade para criar novos ambientes de inicialização ZFS requer pelo menos que a versão Solaris 10 10/08 esteja instalada. As versões anteriores não possuem o ZFS e o software do Live Upgrade para executar as tarefas.
Os três pacotes Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, contêm o software necessário para atualizar utilizando o Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se não remover os pacotes existentes e instalar os novos pacotes em seu sistema antes de utilizar o Live Upgrade, a atualização para a versão de destino irá falhar.
# pkgrm SUNWlucfg SUNWluu SUNWlur
Verifique se você tem a lista de patches atualizada mais recente consultando My Oracle Support. Procure pelo documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no My Oracle Support.
Torne-se superusuário ou assuma uma função equivalente.
Observação - Funções contêm autorizações e comandos privilegiados. Para obter mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.
Se estiver armazenando os patches em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download dos patches para esse diretório.
Obtenha uma lista de patches no site do My Oracle Support.
Altere o diretório da correção.
# cd /var/tmp/lupatches
Instale as correções com o comando patchadd.
# patchadd patch_id
patch_id é o número ou números dos patches. Separe vários nomes de patches com um espaço.
Observação - Os patches precisam ser aplicados na ordem especificada no documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no My Oracle Support.
Reinicialize o sistema, se necessário. Alguns patches necessitam de uma reinicialização para se tornarem efetivos.
Somente x86: é necessário reinicializar o sistema ou o Live Upgrade irá falhar.
# init 6
O pool raiz ZFS deve estar em um único segmento para ser inicializado e atualizado.
# zpool create rpool c3t0d0s0
Neste exemplo, o nome do novo ZFS a ser criado é rpool . O pool é criado em um segmento inicializável,c3t0d0s0.
Para obter informações sobre como criar um novo pool raiz, consulte o Guia de administração do ZFS Oracle Solaris.
# lucreate [-c ufsBE] -n new-zfsBE -p rpool
O nome do ambiente de inicialização UFS atual. Esta opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão por você.
O nome do ambiente de inicialização a ser criado. O nome deve ser único no sistema.
Coloque o recém-criado sistema de arquivos raiz ZFS (/) no pool raiz ZFS definido em rpool.
Todas as zonas não globais e não compartilhadas são copiadas para o novo ambiente de inicialização junto com os sistemas críticos de arquivos. A criação do novo ambiente de inicialização ZFS pode levar algum tempo. Os dados do sistema de arquivos UFS estão sendo copiados para o pool raiz ZFS. Quando o ambiente de inicialização inativo foi criado, é possivel utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.
O comando lustatus informa se a criação do ambiente de inicialização está completa e inicializável.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ ufsBE yes yes yes no - new-zfsBE yes no no yes -
O comando list exibe os nomes de todos os conjuntos de dados no sistema. Neste exemplo, rpool é o nome do pool ZFS e new-zfsBE é o nome do recém-criado ambiente de inicialização ZFS.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
Os pontos de montagem listados para o novo ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap não são compartilhados com o ambiente original de inicialização UFS, mas são compartilhados no pool raiz ZFS e em ambientes de inicialização dentro do pool raiz.
Exemplo 13-1 Migrando de um sistema de arquivo raiz UFS (/) com zonas não globais instaladas no pool raiz ZFS
No exemplo a seguir, a zona não global existente, myzone, possui sua raiz de zona não global em um sistema de arquivos raiz UFS (/). A zona zzone tem sua raiz de zona em um sistema de arquivos ZFS no pool de armazenamento ZFS existente, pool. O Live Upgrade é utilizado para migrar o ambiente de inicialização UFS, c2t2d0s0, para um ambiente de inicialização ZFS, zfs2BE. A zona myzone baseada em UFS migra para um novo pool de armazenamento ZFS, mpool, que é criado antes da operação com o Live Upgrade. A zona não global baseada em ZFS, zzone, é clonada mas retida no pool ZFS pool e migrada para o novo ambiente de inicializaçãozfs2BE.
Os comandos para criar o ambiente de inicialização são os seguintes:
# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared - myzone installed /zones/myzone native shared - zzone installed /pool/zones native shared # zpool create mpool mirror c3t0d0s0 c4td0s0 # lucreate -c c1t2d0s0 -n zfs2BE -p mpool Checking GRUB menu... Analyzing system configuration. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfs2BE>. Source boot environment is <c1t2d0s0>. Creating file systems on boot environment <zfs2BE>. Creating <zfs> file system for </> in zone <global> on <mpool/ROOT/zfs2BE>. Populating file systems on boot environment <zfs2BE>. Analyzing zones. Mounting ABE <zfs2BE>. Generating file list. Copying data from PBE <c1t2d0s0> to ABE <zfs2BE>. 100% of filenames transferred Finalizing ABE. Fixing zonepaths in ABE. Unmounting ABE <zfs2BE>. Fixing properties on ZFS datasets in ABE. Reverting state of zones in PBE <c1t2d0s0>. Making boot environment <zfs2BE> bootable. Updating bootenv.rc on ABE <zfs2BE>. Saving existing file </boot/grub/menu.lst> in top level dataset for BE <zfs2BE> as <mount-point>//boot/grub/menu.lst.prev. File </boot/grub/menu.lst> propagation successful Copied GRUB menu from PBE to ABE No entry for BE <zfs2BE> in GRUB menu Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
Quando a operação lucreate for concluída, utilize o comando lustatus para visualizar o status do ambiente de inicialização como nesse exemplo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t2d0s0 yes yes yes no - zfsBE yes no no yes -
# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared - myzone installed /zones/myzone native shared - zzone installed /pool/zones native shared
Em seguida, utilize o comandoluactivate para ativar o novo ambiente de inicialização ZFS. Por exemplo:
# luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Boot the machine to Single User mode using a different boot device (like the Solaris Install CD or Network). Examples: At the PROM monitor (ok prompt): For boot to Solaris CD: boot cdrom -s For boot to network: boot net -s 3. Mount the Current boot environment root slice to some directory (like /mnt). You can use the following command to mount: mount -Fufs /dev/dsk/c1t0d0s0 /mnt 4. Run <luactivate> utility with out any arguments from the current boot environment root slice, as shown below: /mnt/sbin/luactivate 5. luactivate, activates the previous working boot environment and indicates the result. 6. Exit Single User mode and reboot the machine. ********************************************************************** Modifying boot archive service Activation of boot environment <zfsBE> successful.
Reinicialize o sistema para o ZFS BE.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . .
Confirme o novo ambiente de inicialização e o status das zonas migradas como neste exemplo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t2d0s0 yes yes yes no - zfsBE yes no no yes -
Se retroceder para o ambiente de inicialização UFS, será necessário importar novamente os pools de armazenamento ZFS que foram criados no ambiente de inicialização ZFS porque eles não estão automaticamente disponíveis no ambiente de inicialização UFS. Você verá mensagens semelhantes à seguinte quando você voltar para o ambiente de inicialização UFS.
# luactivate c1t2d0s0 WARNING: The following files have changed on both the current boot environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>: /etc/zfs/zpool.cache INFORMATION: The files listed above are in conflict between the current boot environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>. These files will not be automatically synchronized from the current boot environment <ZFSbe> when boot environment <c1t2d0s0>