Oracle Guia de instalação do Solaris 10 9/10: Solaris Live Upgrade e planejamento da atualização

ProcedureComo criar um ambiente de inicialização em um novo conjunto raiz ZFS

  1. Antes de executar o Solaris Live Upgrade pela primeira vez, é necessário instalar os pacotes do Solaris Live Upgrade mais recentes a partir da mídia de instalação e instalar os patches listados no SunSolve Infodoc 206844. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

    Os pacotes e patches mais recentes garantem que você possua todas as últimas correções de erros e novos recursos dessa versão. Assegure-se de que foram instalados todos os patches que são relevantes para o sistema antes de continuar para criar um novo ambiente de inicialização.

    As subetapas a seguir descrevem as etapas no SunSolve Infodoc 206844.


    Observação –

    Utilizar o Solaris Live Upgrade para criar os novos ambientes de inicialização ZFS exige, pelo menos, que a versão 10 10/08 do Solaris esteja instalada. Versões anteriores não possuem o software Solaris Live Upgrade e ZFS para efetuar as tarefas.


    1. Torne-se superusuário ou assuma uma função equivalente.


      Observação –

      Funções contêm autorizações e comandos privilegiados. Para mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.


    2. Do site SunSolve, siga as instruções no Infodoc 206844 para remover e adicionar pacotes Solaris Live Upgrade.

      Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, incluem o software necessário para atualizar utilizando o Solaris Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se você não remover os pacotes existentes e instalar os novos pacotes no sistema antes de utilizar o Solaris Live Upgrade, a atualização para a versão de destino falha. O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior ao Solaris 10 8/07, não é necessário remover esse pacote.


      Observação –

      O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior, não é necessário removê-lo.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Instale os novos pacotes do Solaris Live Upgrade. Para instruções, consulte  Instalando o Solaris Live Upgrade.

    4. Antes de executar o Solaris Live Upgrade, é necessário instalar os patches a seguir. Esses patches garantem que você possua todas as últimas correções de erros e novos recursos dessa versão.

      Assegure-se de que você possua a lista de patch mais atualizada consultando SunSolve. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

      • Se você estiver armazenando os patches em um disco local, crie um diretório como /var/tmp/lupatches e baixe os patches para este diretório.

      • Obtenha a lista de patches a partir do site SunSolve .

      • Altere para o diretório do patch como neste exemplo.


        # cd /var/tmp/lupatches
        
      • Instale os patches com o comando patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        path-to-patches é patch para o diretório de patch como /var/tmp/lupatches. patch_id é o número ou números de patch. Separe vários nomes de patch com um espaço.


        Observação –

        Os patches precisam ser aplicados na ordem especificada no Infodoc 206844.


      • Reinicialize o sistema se necessário. Certos patches necessitam de uma reinicialização para ser efetivados.

        apenas x86 : se o sistema não for inicializado o Solaris Live Upgrade falha.


        # init 6
        

        Agora, você possui os pacotes e os patches necessários para efetuar uma migração com sucesso.

  2. Crie um conjunto raiz ZFS.

    O conjunto raiz ZFS deve estar em um segmento único para ser inicializável e atualizável.


    # zpool create rpool2 c0t1d0s5
    
    rpool2

    Nomes do novo conjunto raiz ZFS.

    c0t1d0s5

    Especifica para colocar rpool2 no segmento inicializável, c0t1d0s5.

    Para obter informações sobre como criar um novo conjunto raiz, consulte Guia de administração do ZFS Oracle Solaris.

  3. Crie o novo ambiente de inicialização.


    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    
    -c zfsBE

    Atribua o nome zfsBE para o ambiente de inicialização ZFS atual.

    -n new-zfsBE

    Atribua o nome para o ambiente de inicialização a ser criado. O nome deve ser único no sistema.

    -p rpool2

    Coloca o ambiente de inicialização raiz ZFS recém criado no conjunto raiz ZFS definido no rpool2.

    A criação do novo ambiente de inicialização ZFS pode demorar. Os dados do sistema de arquivos estão sendo copiados para o novo conjunto raiz ZFS. Quando o ambiente de inicialização inativo for criado, é possível utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  4. (Opcional) Verifique se o ambiente de inicialização está concluído.

    O comando lustatus informa se a criação do ambiente de inicialização foi concluída e inicializada.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (Opcional) Verifique as informações básicas do conjunto de dados no sistema.

    O exemplo a seguir exibe os nomes de todos os conjuntos de dados no sistema. O ponto de montagem listado para o novo ambiente de inicialização é temporário até que o comando luactivate seja executado. O novo ambiente de inicialização compartilha os volumes, rpool2/dump e rpool2/swap, com o ambiente de inicialização ZFS rpool2.


    # zfs list
    NAME                             USED    AVAIL   REFER   MOUNTPOINT 
    rpool2                           9.29G    57.6G     20K   /rpool2 
    rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
    rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M  /tmp/.new.luupdall.109859
    rpool2/dump                      3.99G        -   3.99G   - 
    rpool2/swap                      3.99G        -   3.99G   - 
    rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
    rpool/ROOT                       5.46G    57.6G     18K   legacy
    rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
    rpool/dump                       3.99G        -   3.99G   - 
    rpool/swap                       3.99G        -   3.99G   - 

    Agora é possível atualizar e ativar o novo ambiente de inicialização. Consulte Exemplo 13–3.


Exemplo 13–3 Criando um ambiente de inicialização em um novo conjunto raiz

Neste exemplo, um novo conjunto raiz ZFS, rpool, é criado em um segmento separado, C0t2d0s5. O comando lucreate cria um novo ambiente de inicialização ZFS, new-zfsBE. A opção -p é necessária porque o ambiente de inicialização está sendo criado em um conjunto raiz diferente.


# zpool create rpool C0t1d0s5
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT					             5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

# lucreate -c rpool -n new-zfsBE -p rpool2
Analyzing system configuration.
Current boot environment is named <rpool>.
Creating initial configuration for primary boot environment <rpool>.
The device </dev/dsk/c0t0d0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <rpool> PBE Boot 
Device </dev/dsk/rpool>.
Comparing source boot environment <rpool> file systems with 
the file system(s) you specified for the new boot environment. 
Determining which file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any 
boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <rpool>.
Creating boot environment <new-zfsBE>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool2/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <new-zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.

# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE                yes      yes     yes        no        - 
new-zfsBE            yes      no      no         yes        -
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                      3.99G        -   3.99G   - 
rpool2/swap                      3.99G        -   3.99G   - 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   -