Ignorar Links de Navegao | |
Sair do Modo de Exibio de Impresso | |
![]() |
Guia de instalação do Oracle Solaris 10 1/13: Live Upgrade e planejamento da atualização Oracle Solaris 10 1/13 Information Library (Português (Brasil)) |
Parte I Atualizando com o Live Upgrade
1. Onde encontrar informações de planejamento da instalação Oracle Solaris
3. Live Upgrade (planejamento)
4. Usando o Live Upgrade para criar um ambiente de inicialização (tarefas)
5. Fazendo upgrade com o Live Upgrade (tarefas)
6. Recuperação de falha: retrocesso para o ambiente de inicialização original (tarefas)
7. Fazendo a manutenção de ambientes de inicialização do Live Upgrade (tarefas)
8. Atualização do SO Oracle Solaris em um sistema com zonas não globais instaladas
Parte II Atualizando e migrando com o Live Upgrade para um pool raiz ZFS
10. Live Upgrade e ZFS (visão geral)
11. Live Upgrade para ZFS (planejamento)
12. Criando um ambiente de inicialização para pools raiz ZFS
Migrando um sistema de arquivos UFS para um sistema de arquivos ZFS
Como migrar um sistema de arquivos UFS para um sistema de arquivos ZFS
Criando um ambiente de inicialização dentro do mesmo pool raiz ZFS
Como criar um ambiente de inicialização ZFS dentro do mesmo pool raiz ZFS
Criando um ambiente de inicialização em um novo pool raiz
Como criar um ambiente de inicialização em um novo pool raiz ZFS
Retrocedendo para um ambiente de inicialização ZFS
13. Live Upgrade para ZFS com zonas não globais instaladas
A. Referência de comando do Live Upgrade
B. Solução de problemas (tarefas)
C. Requisitos de empacotamento SVR4 adicionais (referência)
O procedimento a seguir descreve como criar um novo ambiente de inicialização ZFS dentro de um pool raiz ZFS existente. Depois da criação do ambiente de inicialização inativo, o novo ambiente de inicialização pode ser atualizado e ativado de acordo com a sua conveniência. A opção -p não é necessária quando você cria um ambiente de inicialização dentro do mesmo pool.
Os últimos pacotes e patches garantem possuir todas as últimas correções de erros e novas funcionalidades na versão. Verifique se instalou todos os patches relevantes para o seu sistema antes de prosseguir na criação de um novo ambiente de inicialização.
As subetapas a seguir descrevem as etapas no documento da base de conhecimento do My Oracle Support 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844).
Observação - Usar o Live Upgrade para criar novos ambientes de inicialização ZFS requer pelo menos que o Solaris versão 10 10/08 esteja instalado. As versões anteriores não possuem o ZFS e o software do Live Upgrade para executar as tarefas.
Observação - Funções contêm autorizações e comandos privilegiados. Para obter mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.
Os três pacotes do Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, contêm o software necessário para atualizar utilizando o Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se você não remover os pacotes existentes e instalar os novos pacotes em seu sistema antes de utilizar o Live Upgrade, a atualização para a versão de destino irá falhar. O pacote SUMWlucfg é um novo, começando com a versão Solaris 10 8/07. Se estiver usando pacotes do Live Upgrade de uma versão anterior ao Solaris 10 8/07, não será necessário remover este pacote.
Observação - O pacote SUMWlucfg é um novo, começando com a versão Solaris 10 8/07. Se você estiver utilizando os pacotes do Live Upgrade de uma versão anterior, não será necessário removê-lo.
# pkgrm SUNWlucfg SUNWluu SUNWlur
Verifique se tem a lista de patches atualizada mais recente consultando My Oracle Support. Procure pelo documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no site do My Oracle Support.
Se estiver armazenando os patches em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download dos patches para esse diretório.
Obtenha uma lista de patches no site do My Oracle Support.
Altere o diretório de patch como nesse exemplo.
# cd /var/tmp/lupatches
Instale as correções com o comando patchadd.
# patchadd -M path-to-patches patch_id patch_id
path-to-patches é o patch para o diretório de patch como /var/tmp/lupatches. patch_id é o número ou números das correções. Separe vários nomes de patches com um espaço.
Observação - Os patches precisam ser aplicados na ordem especificada no documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844).
Reinicialize o sistema, se necessário. Alguns patches necessitam de uma reinicialização para se tornarem efetivos.
Somente x86: é necessário reinicializar o sistema ou o Live Upgrade irá falhar.
# init 6
Você possui agora os pacotes e patches necessários para criar um ambiente de inicialização com êxito.
# lucreate [-c zfsBE] -n new-zfsBE
O nome do ambiente de inicialização atual. Esta opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se você executar o comando lucreate pela primeira vez e omitir a opção -c, o software criará um nome padrão.
O nome do ambiente de inicialização a ser criado. O nome deve ser exclusivo no sistema.
A criação do novo ambiente de inicialização é quase instantânea. Um instantâneo é criado de cada conjunto de dados no pool raiz ZFS e um clone é criado de cada instantâneo. Instantâneos são espaços de disco muito eficientes e esse processo utiliza um espaço de disco mínimo. Quando o ambiente de inicialização for criado, é possível utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.
O comando lustatus informa se a criação do ambiente de inicialização está completa e inicializável.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes -
Neste exemplo, o pool raiz ZFS é denominado rpool e o símbolo @ indica um instantâneo. Os novos pontos de montagem do ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap são compartilhados com o pool raiz ZFS e os ambientes de inicialização dentro do pool raiz.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
Agora é possível atualizar e ativar o novo ambiente de inicialização.
Exemplo 12-2 Criando um ambiente de inicialização dentro do mesmo pool raiz ZFS
Este exemplo cria um novo ambiente de inicialização ZFS, new-zfsBE. A opção -p não é necessária porque o ambiente de inicialização está sendo criado dentro do mesmo pool raiz.
# lucreate [-c zfsBE] -n new-zfsBE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Creating configuration for boot environment new-zfsBE. Source boot environment is zfsBE. Creating boot environment new-zfsBE. Cloning file systems from boot environment zfsBE to create boot environment new-zfsBE. Creating snapshot for <rpool> on <rpool> Creating clone for <rpool>. Setting canmount=noauto for <rpool> in zone <global> on <rpool>. Population of boot environment zfsBE successful on <rpool>. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
Agora é possível atualizar e ativar o novo ambiente de inicialização. Para obter um exemplo de atualização de um ambiente de inicialização ZFS, consulte o Exemplo 12-1. Para obter mais exemplos da utilização do comando luupgrade consulte o Capítulo 5, Fazendo upgrade com o Live Upgrade (tarefas).
# luactivate new-zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <new-zfsBE>. ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Boot the machine to Single User mode using a different boot device (like the Solaris Install CD or Network). Examples: At the PROM monitor (ok prompt): For boot to Solaris CD: boot cdrom -s For boot to network: boot net -s 3. Mount the Current boot environment root slice to some directory (like /mnt). You can use the following command to mount: mount -Fufs /dev/dsk/c1t0d0s0 /mnt 4. Run <luactivate> utility with out any arguments from the current boot environment root slice, as shown below: /mnt/sbin/luactivate 5. luactivate, activates the previous working boot environment and indicates the result. 6. Exit Single User mode and reboot the machine. ********************************************************************** Modifying boot archive service Activation of boot environment <new-zfsBE> successful.
Reinicialize o sistema para o ambiente de inicialização ZFS.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . .