JavaScript is required to for searching.
Ignorar Links de Navegao
Sair do Modo de Exibio de Impresso
Guia de instalação do Oracle Solaris 10 1/13: Live Upgrade e planejamento da atualização     Oracle Solaris 10 1/13 Information Library (Português (Brasil))
search filter icon
search icon

Informação sobre o documento

Prefácio

Parte I Atualizando com o Live Upgrade

1.  Onde encontrar informações de planejamento da instalação Oracle Solaris

2.  Live Upgrade (visão geral)

3.  Live Upgrade (planejamento)

4.  Usando o Live Upgrade para criar um ambiente de inicialização (tarefas)

5.  Fazendo upgrade com o Live Upgrade (tarefas)

6.  Recuperação de falha: retrocesso para o ambiente de inicialização original (tarefas)

7.  Fazendo a manutenção de ambientes de inicialização do Live Upgrade (tarefas)

8.  Atualização do SO Oracle Solaris em um sistema com zonas não globais instaladas

9.  Exemplos do Live Upgrade

Parte II Atualizando e migrando com o Live Upgrade para um pool raiz ZFS

10.  Live Upgrade e ZFS (visão geral)

11.  Live Upgrade para ZFS (planejamento)

12.  Criando um ambiente de inicialização para pools raiz ZFS

Migrando um sistema de arquivos UFS para um sistema de arquivos ZFS

Como migrar um sistema de arquivos UFS para um sistema de arquivos ZFS

Criando um ambiente de inicialização dentro do mesmo pool raiz ZFS

Como criar um ambiente de inicialização ZFS dentro do mesmo pool raiz ZFS

Criando um ambiente de inicialização em um novo pool raiz

Como criar um ambiente de inicialização em um novo pool raiz ZFS

Criando um ambiente de inicialização a partir de uma fonte diferente do sistema atualmente em execução

Retrocedendo para um ambiente de inicialização ZFS

13.  Live Upgrade para ZFS com zonas não globais instaladas

Parte III Apêndices

A.  Referência de comando do Live Upgrade

B.  Solução de problemas (tarefas)

C.  Requisitos de empacotamento SVR4 adicionais (referência)

D.  Utilizando o Patch Analyzer ao atualizar (tarefas)

Glossário

Índice

Criando um ambiente de inicialização em um novo pool raiz

Se você possuir um pool raiz ZFS existente e quiser criar um novo ambiente de inicialização ZFS em um novo pool raiz, o procedimento a seguir fornecerá as etapas. Depois da criação do ambiente de inicialização inativo, o novo ambiente de inicialização pode ser atualizado e ativado de acordo com a sua conveniência. A opção -p é necessária para notar onde colocar o novo ambiente de inicialização. O pool raiz ZFS existente deve existir e estar em um segmento separado para ser inicializável e atualizável.

Como criar um ambiente de inicialização em um novo pool raiz ZFS

  1. Antes de executar o Live Upgrade pela primeira vez, é necessário instalar os pacotes mais recentes do Live Upgrade a partir da mídia de instalação e instalar os patches listados no documento da base de conhecimento. Procure pelo documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no site do My Oracle Support.

    Os últimos pacotes e patches garantem possuir as últimas correções de erros e novas funcionalidades na versão. Verifique se instalou todos os patches relevantes para o seu sistema antes de prosseguir na criação de um novo ambiente de inicialização.

    As subetapas a seguir descrevem as etapas no documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no My Oracle Support.


    Observação - Usar o Live Upgrade para criar novos ambientes de inicialização ZFS requer pelo menos que a versão Solaris 10 10/08 esteja instalada. As versões anteriores não possuem o ZFS e o software do Live Upgrade para executar as tarefas.


    1. Torne-se superusuário ou assuma uma função equivalente.

      Observação - Funções contêm autorizações e comandos privilegiados. Para obter mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.


    2. No site do My Oracle Support, siga as instruções no documento da base de conhecimento 1004881.1 - para remover e adicionar pacotes do Live Upgrade.

      Os três pacotes do Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, contêm o software necessário para atualizar utilizando o Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se você não remover os pacotes existentes e instalar os novos pacotes em seu sistema antes de utilizar o Live Upgrade, a atualização para a versão de destino irá falhar. O pacote SUMWlucfg é um novo, começando com a versão Solaris 10 8/07. Se estiver usando pacotes do Live Upgrade de uma versão anterior ao Solaris 10 8/07, não será necessário remover esse pacote.


      Observação - O pacote SUMWlucfg é novo, começando com a versão Solaris 10 8/07. Se você estiver utilizando os pacotes do Live Upgrade de uma versão anterior, não será necessário removê-lo.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
    3. Instale os novos pacotes do Live Upgrade. Para obter instruções, consulte  Instalando o Live Upgrade.
    4. Antes de executar o Live Upgrade, é necessário instalar os patches a seguir. Esses patches garantem que você tenha as correções de bugs mais recentes e os novos recursos da versão.

      Verifique se tem a lista de patches atualizada mais recente consultando My Oracle Support. Procure pelo documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no My Oracle Support.

      • Se estiver armazenando os patches em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download dos patches para esse diretório.

      • Obtenha uma lista de patches no site do My Oracle Support.

      • Altere o diretório de patch como neste exemplo.

        # cd /var/tmp/lupatches
      • Instale os patches com o comando patchadd.

        # patchadd -M path-to-patches patch_id patch_id

        path-to-patches é o patch para o diretório de patch como /var/tmp/lupatches. patch_id é o número ou números das correções. Separe vários nomes de patches com um espaço.


        Observação - Os patches precisam ser aplicados na ordem especificada no documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no My Oracle Support.


      • Reinicialize o sistema, se necessário. Alguns patches necessitam de uma reinicialização para se tornarem efetivos.

        Somente x86: é necessário reinicializar o sistema ou o Live Upgrade irá falhar.

        # init 6

        Agora, você possui os pacotes e os patches necessários para efetuar uma migração com sucesso.

  2. Crie um pool raiz ZFS.

    O pool raiz ZFS deve estar em um único segmento para ser inicializado e atualizado.

    # zpool create rpool2 c0t1d0s5
    rpool2

    Nomes do novo pool raiz ZFS.

    c0t1d0s5

    Especifica para colocar rpool2 no segmento inicializável, c0t1d0s5.

    Para obter informações sobre como criar um novo pool raiz, consulte o Guia de administração do ZFS Oracle Solaris.

  3. Crie o novo ambiente de inicialização.
    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    zfsBE

    O nome do ambiente de inicialização ZFS atual.

    new-zfsBE

    O nome do ambiente de inicialização a ser criado. O nome deve ser exclusivo no sistema.

    -p rpool2

    Coloca o ambiente de inicialização raiz ZFS recém criado no pool raiz ZFS definido no rpool2.

    A criação do novo ambiente de inicialização ZFS pode levar algum tempo. Os dados do sistema de arquivos estão sendo copiados para o novo pool raiz ZFS. Quando o ambiente de inicialização inativo for criado, é possível utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  4. (Opcional) Verifique se o ambiente de inicialização está concluído.

    O comando lustatus informa se a criação do ambiente de inicialização está completa e inicializável.

    # lustatus
    boot environment Is Active Active Can     Copy 
    Name Complete Now     OnReboot Delete     Status 
    ------------------------------------------------------------------------ 
    zfsBE yes yes yes no - 
    new-zfsBE yes no no yes -
  5. (Opcional) Verifique o conjunto de informações básicas sobre o sistema.

    O exemplo a seguir exibe os nomes de todos os conjuntos de dados no sistema. O ponto de montagem listado para o novo ambiente de inicialização é temporário até que o comando luactivate seja executado. O novo ambiente de inicialização compartilha os volumes, rpool2/dump e rpool2/swap, com o ambiente de inicialização ZFS rpool2.

    # zfs list
    NAME                 USED AVAIL REFER MOUNTPOINT
    rpool                     11.4G 2.95G 31K /rpool
    rpool/ROOT                     4.34G 2.95G 31K legacy
    rpool/ROOT/new-zfsBE                     4.34G 2.95G 4.34G /
    rpool/dump                     2.06G 5.02G 16K -
    rpool/swap                     5.04G 7.99G 16K -

    Agora é possível atualizar e ativar o novo ambiente de inicialização.

Exemplo 12-3 Criando um ambiente de inicialização em um novo pool raiz

Neste exemplo, um novo pool raiz ZFS, newPool, é criado em um fragmento separado, c0t1s0s5. O comando lucreate cria um novo ambiente de inicialização ZFS, new-zfsbe. A opção -p é necessária porque o ambiente de inicialização está sendo criado em um pool raiz diferente.

# zpool create newPool C0t2d0s5
# zfs list
NAME                 USED AVAIL REFER MOUNTPOINT
newPool 92.5K 18.7G 31K /newPool 
rpool                     11.4G 2.95G 31K /rpool
rpool/ROOT                     4.34G 2.95G 31K legacy
rpool/ROOT/zfsBE                     4.34G 2.95G 4.34G /
rpool/dump                     2.06G 5.02G 16K -
rpool/swap                     5.04G 7.99G 16K -
# lucreate -c c0t1d0s5 -n new-zfsbe -p newPool 
Checking GRUB menu...
Analyzing system configuration.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsbe>.
Source boot environment is <c0t1d0s5>.
Creating file systems on boot environment <new-zfsbe>.
Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>.
Populating file systems on boot environment <new-zfsbe>.
Analyzing zones.
Mounting ABE <new-zfsbe>.
Generating file list.
Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>.
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <new-zfsbe>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t1d0s5>.
Making boot environment <new-zfsbe> bootable.
Updating bootenv.rc on ABE <new-zfsbe>.
Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> as <mount-point>//boot/grub/menu.lst.prev.
File </boot/grub/menu.lst> propagation successful
Copied GRUB menu from PBE to ABE
No entry for BE <new-zfsbe> in GRUB menu
Population of boot environment <new-zfsbe> successful.
Creation of boot environment <new-zfsbe> successful. 
# lustatus
Boot Environment Is Active Active Can Copy
Name Complete Now On Reboot Delete Status
-------------------------- -------- ------ --------- ------ ----------
c0t0d0 yes yes yes no -
zfsBE              yes no no yes -
new-zfsbe yes no no yes -

# zfs list
NAME USED AVAIL REFER MOUNTPOINT
newPool 7.15G 11.6G 36K /newPool
newPool/ROOT 4.05G 11.6G 31K legacy
newPool/ROOT/new-zfsbe 4.05G 11.6G 4.05G /
newPool/dump 1.03G 12.6G 16K -
newPool/swap 2.06G 13.6G 16K -
rpool                             11.4G 2.95G 31K /rpool
rpool/ROOT                             4.34G 2.95G 31K legacy
rpool/ROOT/zfsBE                                 4.34G 2.95G 4.34G /
rpool/dump                             2.06G 5.02G 16K -
rpool/swap                             5.04G 7.99G 16K -