Ignorar Links de Navegao | |
Sair do Modo de Exibio de Impresso | |
![]() |
Oracle Solaris 10 8/11 Installation Guide: Solaris Live Upgrade and Upgrade Planning |
Parte I Atualizando com o Solaris Live Upgrade
1. Onde encontrar informações de planejamento de instalação Solaris
2. Solaris Live Upgrade (visão geral)
3. Solaris Live Upgrade (Planejamento)
4. Utilizando o Solaris Live Upgrade para criar um ambiente de inicialização (tarefas)
5. Atualizando com o Solaris Live Upgrade (Tarefas)
6. Recuperação de falha: retrocesso para o ambiente de inicialização original (tarefas)
7. Fazendo a manutenção de ambientes de inicialização do Solaris Live Upgrade (tarefas)
8. Atualização do SO Oracle Solaris em um sistema com regiões não globais instaladas
9. Solaris Live Upgrade (exemplos)
10. Solaris Live Upgrade (referência de comando)
Parte II Atualizando e migrando com Solaris Live Upgrade para um grupo raiz ZFS
11. Solaris Live Upgrade e ZFS (visão geral)
12. Solaris Live Upgrade para ZFS (planejamento)
13. Criando um ambiente de inicialização para conjuntos raiz ZFS
14. Solaris Live Upgrade para ZFS com regiões não-globais instaladas
A. Solução de problemas (Tarefas)
B. Requisitos de embalagem SVR4 adicionais (Referência)
Este capítulo fornece instruções passo-a-passo para migrar de um sistema de arquivos raiz UFS (/) a um grupo raiz ZFS em um sistema com regiões não-globais instaladas. Nenhuma região não global está em um sistema de arquivos compartilhado no sistema de arquivos UFS.
O comando lucreate cria um ambiente de inicialização de um grupo raiz ZFS a partir de um sistema de arquivos de raiz UFS (/). Um grupo raiz ZFS deve existir antes da operação lucreate e deve ser criado com segmentos em vez dos discos inteiros a serem atualizados e inicializados. Este procedimento mostra como uma região não global existente associada com o sistema de arquivos raiz UFS (/) é copiado para o novo ambiente de inicialização em um grupo raiz ZFS.
No exemplo a seguir, a região não global existente, myzone, tem sua raiz de região não global em um sistema de arquivos raiz UFS (/). A região zzone possui sua raiz de região em um sistema de arquivos ZFS no grupo de armazenamento do ZFS existente, pool. O Solaris Live Upgrade é utilizado para migrar um ambiente de inicialização UFS, c2t2d0s0, a um ambiente de inicialização ZFS, zfs2BE. A região myzone com base em UFS migra para um novo grupo de armazenamento do ZFS, mpool, que é criado antes da operação com o Solaris Live Upgrade. A região com base em ZFS, não global, zzone, é clonada mas retida no grupo ZFS pool e migrada para o novo ambiente de inicializaçãozfs2BE.
Observação - Utilizando o Solaris Live Upgrade para criar novos ambientes de inicialização ZFS requer pelo menos que a versão Solaris 10 10/08 seja instalada. As versões anteriores não possuem o ZFS e o software Solaris Live Upgrade para executar as tarefas.
Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur eSUNWlucfg, compreendem o software necessário para fazer atualizações utilizando o Solaris Live Upgrade. Estes pacotes incluem o software existente, novos recursos e correções de erros. Se não remover os pacotes existentes e instalar os novos pacotes em seu sistema antes de utilizar o Solaris Live Upgrade, atualizar para a versão de destino irá causar falha.
# pkgrm SUNWlucfg SUNWluu SUNWlur
Certifique-se de possuir a lista de patches atualizada mais recente consultando My Oracle Support. Procure o documento de conhecimento 1004881.1 - Solaris Live Upgrade Software Patch Requirements (antigamente 206844) no My Oracle Support.
Torne-se superusuário ou assuma uma função equivalente.
Observação - Funções contêm autorizações e comandos privilegiados. Para mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services .
Se estiver armazenando as correções em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download das correções para esse diretório.
Obtenha uma lista de patches no site do My Oracle Support.
Altere o diretório da correção.
# cd /var/tmp/lupatches
Instale as correções com o comando patchadd.
# patchadd patch_id
patch_id é o número ou números das correções. Separe vários nomes de patches com um espaço.
Observação - Os patches precisam ser aplicados na ordem especificada no documento de conhecimento 1004881.1 - Solaris Live Upgrade Software Patch Requirements (antigamente 206844) no My Oracle Support.
Reinicialize o sistema, se necessário. Determinadas correções exigem uma reinicialização para tornarem-se efetivas.
apenas x86: é necessário o reinicializar o sistema ou Solaris Live Upgrade irá falhar.
# init 6
O grupo raiz ZFS deve estar em um único segmento a ser inicializado e atualizado.
# zpool create rpool c3t0d0s0
Neste exemplo, o nome do novo ZFS a ser criado é rpool . O grupo é criado em um segmento inicializável,c3t0d0s0.
Para obter informações sobre como criar um novo grupo raiz, consulte o Guia de administração do ZFS Oracle Solaris.
# lucreate [-c ufsBE] -n new-zfsBE -p rpool
Atribui o nome ufsBE ao atual ambiente de inicialização UFS. Esta opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão por você.
Atribui o nome new-zfsBE ao ambiente de inicialização a ser criado. O nome deve ser único no sistema.
Coloque o recém-criado sistema de arquivos raiz ZFS (/) no grupo raiz ZFS definido em rpool.
Todas as regiões não-globais e não compartilhadas são copiadas para o novo ambiente de inicialização junto com os com sistemas críticos de arquivos. A criação do novo ambiente de inicialização ZFS pode levar algum tempo. Os dados do sistema de arquivos UFS estão sendo copiados para o grupo raiz ZFS. Quando o ambiente de inicialização inativo foi criado, é possivel utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.
O comando lustatus informa se a criação do ambiente de inicialização está completa e inicializável.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ ufsBE yes yes yes no - new-zfsBE yes no no yes -
O comando list exibe os nomes de todos os conjuntos de dados no sistema. Neste exemplo, rpool é o nome do grupo ZFS e new-zfsBE é o nome do recém-criado ambiente de inicialização ZFS.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.alt.luupdall.110034 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G -
Os pontos de montagem listados para o novo ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap não são compartilhados com o ambiente original de inicialização UFS, mas são compartilhadas dentro do grupo raiz ZFS e ambientes de inicialização dentro do grupo raiz.
Exemplo 14-1 Migrando de um sistema de arquivo raiz UFS (/) com regiões não-globais instaladas no grupo raiz ZFS
No exemplo a seguir, a região não global existente, myzone, possui sua raiz de região não global em um sistema de arquivos raiz UFS (/). A região zzone possui sua raiz de região em um sistema de arquivos ZFS no grupo de armazenamento ZFS existente, pool. O Solaris Live Upgrade é utilizado para migrar um ambiente de inicialização UFS, c2t2d0s0, a um ambiente de inicialização ZFS, zfs2BE. A região myzone com base em UFS migra para um novo grupo de armazenamento ZFS, mpool, que é criado antes da operação com o Solaris Live Upgrade. A região com base em ZFS, não global, zzone, é clonada, mas mantida no grupo ZFSpool e migrada para o novo ambiente de inicialização zfs2BE.
# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared - myzone installed /zones/myzone native shared - zzone installed /pool/zones native shared # zpool create mpool mirror c3t0d0s0 c4td0s0 # lucreate -c c1t2d0s0 -n zfs2BE -p mpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <c1t2d0s0>. Creating initial configuration for primary boot environment <c1t2d0s0>. The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <c1t2d0s0> PBE Boot Device </dev/dsk/c1t2d0s0>. Comparing source boot environment <c1t2d0s0> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <c1t2d0s0>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful.
Quando a operação lucreate for concluída, utilize o comando lustatus para visualizar o status do ambiente de inicialização como neste exemplo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t2d0s0 yes yes yes no - zfsBE yes no no yes -
# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared - myzone installed /zones/myzone native shared - zzone installed /pool/zones native shared
Em seguida, utilize o comandoluactivate para ativar o novo ambiente de inicialização ZFS. Por exemplo:
# luactivate zfsBE ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Change the boot device back to the original boot environment by typing: setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a 3. Boot to the original boot environment by typing: boot ********************************************************************** Modifying boot archive service Activation of boot environment <ZFSbe> successful.
Reinicialize o sistema para o ZFS BE.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . .
Confirme o novo ambiente de inicialização e o status das regiões migradas como neste exemplo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t2d0s0 yes yes yes no - zfsBE yes no no yes -
Se retroceder para o ambiente de inicialização UFS, então será necessário importar novamente os grupos de armazenamento ZFS que foram criados no ambiente de inicialização ZFS porque eles não estão automaticamente disponíveis no ambiente de inicialização UFS. Você verá mensagens semelhantes à seguinte quando você voltar para o ambiente de inicialização UFS.
# luactivate c1t2d0s0 WARNING: The following files have changed on both the current boot environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>: /etc/zfs/zpool.cache INFORMATION: The files listed above are in conflict between the current boot environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>. These files will not be automatically synchronized from the current boot environment <ZFSbe> when boot environment <c1t2d0s0>