Ignorar Links de Navegao | |
Sair do Modo de Exibio de Impresso | |
![]() |
Oracle Solaris 10 8/11 Installation Guide: Solaris Live Upgrade and Upgrade Planning |
Parte I Atualizando com o Solaris Live Upgrade
1. Onde encontrar informações de planejamento de instalação Solaris
2. Solaris Live Upgrade (visão geral)
3. Solaris Live Upgrade (Planejamento)
4. Utilizando o Solaris Live Upgrade para criar um ambiente de inicialização (tarefas)
5. Atualizando com o Solaris Live Upgrade (Tarefas)
6. Recuperação de falha: retrocesso para o ambiente de inicialização original (tarefas)
7. Fazendo a manutenção de ambientes de inicialização do Solaris Live Upgrade (tarefas)
8. Atualização do SO Oracle Solaris em um sistema com regiões não globais instaladas
9. Solaris Live Upgrade (exemplos)
10. Solaris Live Upgrade (referência de comando)
Parte II Atualizando e migrando com Solaris Live Upgrade para um grupo raiz ZFS
11. Solaris Live Upgrade e ZFS (visão geral)
12. Solaris Live Upgrade para ZFS (planejamento)
13. Criando um ambiente de inicialização para conjuntos raiz ZFS
Migrando um sistema de arquivos UFS para um sistema de arquivos ZFS
How to Migrate a UFS File System to a ZFS File System
Criando um ambiente de inicialização dentro do mesmo conjunto raiz ZFS
Como criar um ambiente de inicialização ZFS dentro do mesmo conjunto raiz ZFS
Criando um ambiente de inicialização em um novo conjunto raiz
Como criar um ambiente de inicialização em um novo conjunto raiz ZFS
Retrocedendo para um ambiente de inicialização ZFS
14. Solaris Live Upgrade para ZFS com regiões não-globais instaladas
A. Solução de problemas (Tarefas)
B. Requisitos de embalagem SVR4 adicionais (Referência)
Se você possuir um conjunto raiz ZFS existente e deseja criar um novo ambiente de inicialização ZFS em um novo conjunto raiz, o procedimento a seguir fornece as etapas. Depois da criação do ambiente de inicialização inativo, o novo ambiente de inicialização pode ser atualizado e ativado de acordo com a sua conveniência. A opção -p é necessária para notar onde colocar o novo ambiente de inicialização. O conjunto raiz ZFS existente deve existir e estar em um segmento separado para ser inicializável e atualizável.
Os últimos pacotes e patches garantem possuir todas as últimas correções de erros e novas funcionalidades na versão. Certifique-se de instalar todos os patches que são relevantes para o sistema antes de prosseguir para criar um novo ambiente de inicialização.
As seguintes subetapas descrevem as etapas no documento de conhecimento 1004881.1 - Solaris Live Upgrade Software Patch Requirements (antigamente 206844) no My Oracle Support.
Observação - Utilizar o Solaris Live Upgrade para criar os novos ambientes de inicialização ZFS exige, pelo menos, que a versão 10 10/08 do Solaris esteja instalada. Versões anteriores não possuem o software Solaris Live Upgrade e ZFS para efetuar as tarefas.
Observação - Funções contêm autorizações e comandos privilegiados. Para obter mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.
Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, incluem o software necessário para atualizar utilizando o Solaris Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se você não remover os pacotes existentes e instalar os novos pacotes no sistema antes de utilizar o Solaris Live Upgrade, a atualização para a versão de destino falha. O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior ao Solaris 10 8/07, não é necessário remover esse pacote.
Observação - O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior, não é necessário removê-lo.
# pkgrm SUNWlucfg SUNWluu SUNWlur
Certifique-se de possuir a lista de patches atualizada mais recente consultando My Oracle Support. Procure o documento de conhecimento 1004881.1 - Solaris Live Upgrade Software Patch Requirements (antigamente 206844) no My Oracle Support.
Se estiver armazenando as correções em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download das correções para esse diretório.
Obtenha uma lista de patches no site do My Oracle Support.
Altere o diretório de patch como neste exemplo.
# cd /var/tmp/lupatches
Instale os patches com o comando patchadd.
# patchadd -M path-to-patches patch_id patch_id
path-to-patches é patch para o diretório de patch como /var/tmp/lupatches. patch_id é o número ou números de patch. Separe vários nomes de patches com um espaço.
Observação - Os patches precisam ser aplicados na ordem especificada no documento de conhecimento 1004881.1 - Solaris Live Upgrade Software Patch Requirements (antigamente 206844) no My Oracle Support.
Reinicialize o sistema, se necessário. Certos patches necessitam de uma reinicialização para ser efetivados.
apenas x86 : se o sistema não for inicializado o Solaris Live Upgrade falha.
# init 6
Agora, você possui os pacotes e os patches necessários para efetuar uma migração com sucesso.
O conjunto raiz ZFS deve estar em um segmento único para ser inicializável e atualizável.
# zpool create rpool2 c0t1d0s5
Nomes do novo conjunto raiz ZFS.
Especifica para colocar rpool2 no segmento inicializável, c0t1d0s5.
Para obter informações sobre como criar um novo conjunto raiz, consulte Guia de administração do ZFS Oracle Solaris.
# lucreate [-c zfsBE] -n new-zfsBE -p rpool2
Atribua o nome zfsBE para o ambiente de inicialização ZFS atual.
Atribua o nome para o ambiente de inicialização a ser criado. O nome deve ser único no sistema.
Coloca o ambiente de inicialização raiz ZFS recém criado no conjunto raiz ZFS definido no rpool2.
A criação do novo ambiente de inicialização ZFS pode demorar. Os dados do sistema de arquivos estão sendo copiados para o novo conjunto raiz ZFS. Quando o ambiente de inicialização inativo for criado, é possível utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.
O comando lustatus informa se a criação do ambiente de inicialização foi concluída e inicializada.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes -
O exemplo a seguir exibe os nomes de todos os conjuntos de dados no sistema. O ponto de montagem listado para o novo ambiente de inicialização é temporário até que o comando luactivate seja executado. O novo ambiente de inicialização compartilha os volumes, rpool2/dump e rpool2/swap, com o ambiente de inicialização ZFS rpool2.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G -
Agora é possível atualizar e ativar o novo ambiente de inicialização. Consulte Exemplo 13-3.
Exemplo 13-3 Criando um ambiente de inicialização em um novo conjunto raiz
Neste exemplo, um novo conjunto raiz ZFS, rpool, é criado em um segmento separado, C0t2d0s5. O comando lucreate cria um novo ambiente de inicialização ZFS, new-zfsBE. A opção -p é necessária porque o ambiente de inicialização está sendo criado em um conjunto raiz diferente.
# zpool create rpool C0t1d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - # lucreate -c rpool -n new-zfsBE -p rpool2 Analyzing system configuration. Current boot environment is named <rpool>. Creating initial configuration for primary boot environment <rpool>. The device </dev/dsk/c0t0d0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <rpool> PBE Boot Device </dev/dsk/rpool>. Comparing source boot environment <rpool> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsBE>. Source boot environment is <rpool>. Creating boot environment <new-zfsBE>. Creating file systems on boot environment <new-zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool2/ROOT/new-zfsBE>. Populating file systems on boot environment <new-zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <new-zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <new-zfsBE> successful. Creation of boot environment <new-zfsBE> successful. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G -