Oracle Guia de instalação do Solaris 10 9/10: Solaris Live Upgrade e planejamento da atualização

Criando um ambiente de inicialização dentro do mesmo conjunto raiz ZFS

Se você possuir um conjunto raiz ZFS existente e deseja criar um novo ambiente de inicialização ZFS dentro deste conjunto, o procedimento a seguir lhe fornece as etapas. Depois da criação do ambiente de inicialização inativo, o novo ambiente de inicialização pode ser atualizado e ativado de acordo com a sua conveniência. A opção -p não é necessária quando você cria um ambiente de inicialização dentro do mesmo conjunto.

ProcedureComo criar um ambiente de inicialização ZFS dentro do mesmo conjunto raiz ZFS

  1. Antes de executar o Solaris Live Upgrade pela primeira vez, é necessário instalar os pacotes do Solaris Live Upgrade mais recentes a partir da mídia de instalação e instalar os patches listados no SunSolve Infodoc 206844. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

    Os pacotes e patches mais recentes garantem que você possua todas as últimas correções de erros e novos recursos dessa versão. Assegure-se de que foram instalados todos os patches que são relevantes para o sistema antes de continuar para criar um novo ambiente de inicialização.

    As subetapas a seguir descrevem as etapas no SunSolve Infodoc 206844.


    Observação –

    Utilizar o Solaris Live Upgrade para criar os novos ambientes de inicialização ZFS exige, pelo menos, que a versão 10 10/08 do Solaris esteja instalada. Versões anteriores não possuem o software Solaris Live Upgrade e ZFS para efetuar as tarefas.


    1. Torne-se superusuário ou assuma uma função equivalente.


      Observação –

      Funções contêm autorizações e comandos privilegiados. Para mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.


    2. Do site SunSolve, siga as instruções no Infodoc 206844 para remover e adicionar pacotes Solaris Live Upgrade.

      Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, incluem o software necessário para atualizar utilizando o Solaris Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se você não remover os pacotes existentes e instalar os novos pacotes no sistema antes de utilizar o Solaris Live Upgrade, a atualização para a versão de destino falha. O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior ao Solaris 10 8/07, não é necessário remover esse pacote.


      Observação –

      O pacote SUMWlucfg é o novo iniciando com a versão 10 8/07 do Solaris. Se você estiver utilizando os pacotes Solaris Live Upgrade de uma versão anterior, não é necessário removê-lo.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Instale os novos pacotes do Solaris Live Upgrade. Para instruções, consulte  Instalando o Solaris Live Upgrade.

    4. Antes de executar o Solaris Live Upgrade, é necessário instalar os patches a seguir. Esses patches garantem que você possua todas as últimas correções de erros e novos recursos dessa versão.

      Assegure-se de que você possua a lista de patch mais atualizada consultando SunSolve. Pesquise pelo Infodoc 206844 (formalmente 72099) no site SunSolve.

      • Se você estiver armazenando os patches em um disco local, crie um diretório como /var/tmp/lupatches e baixe os patches para este diretório.

      • Obtenha a lista de patches a partir do site SunSolve .

      • Altere para o diretório do patch como neste exemplo.


        # cd /var/tmp/lupatches
        
      • Instale os patches com o comando patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        path-to-patches é patch para o diretório de patch como /var/tmp/lupatches. patch_id é o número ou números de patch. Separe vários nomes de patch com um espaço.


        Observação –

        Os patches precisam ser aplicados na ordem especificada no Infodoc 206844.


      • Reinicialize o sistema se necessário. Certos patches necessitam de uma reinicialização para ser efetivados.

        apenas x86 : se o sistema não for inicializado o Solaris Live Upgrade falha.


        # init 6
        

        Agora, você possui os pacotes de patches necessários para uma criar com sucesso um novo ambiente de inicialização.

  2. Crie o novo ambiente de inicialização.


    # lucreate [-c zfsBE] -n new-zfsBE
    
    -c zfsBE

    Atribua o nome zfsBE para o ambiente de inicialização atual. Essa opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se você executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão.

    -n new-zfsBE

    Atribua o nome para o ambiente de inicialização a ser criado. O nome deve ser único no sistema.

    A criação do novo ambiente de inicialização é quase instantânea. Um instantâneo é criado de cada conjunto de dados no conjunto raiz ZFS e um clone é então criado de cada instantâneo. Instantâneos são espaços de disco muito eficientes e esse processo utiliza um espaço de disco mínimo. Quando o ambiente de inicialização for criado, é possível utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  3. (Opcional) Verifique se o ambiente de inicialização está concluído.

    O comando lustatus informa se a criação do ambiente de inicialização foi concluída e inicializada.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE               yes       yes     yes         no             -
    new-zfsBE           yes       no      no          yes            -
  4. (Opcional) Verifique as informações básicas do conjunto de dados no sistema.

    Neste exemplo, o conjunto raiz ZFS é nomeado rpool e o símbolo @ indica um instantâneo. Os novos pontos de montagem do ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap são compartilhados com o conjunto raiz ZFS e os ambientes de inicialização dentro do conjunto raiz.


    # zfs list
    NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
    rpool                                    9.29G  57.6G    20K  /rpool 
    rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
    rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
    rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  -
    rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197
    rpool/dump                               1.95G      -  1.95G  - 
    rpool/swap                               1.95G      -  1.95G  - 

    Agora é possível atualizar e ativar o novo ambiente de inicialização. Consulte Exemplo 13–2.


Exemplo 13–2 Criando um ambiente de inicialização dentro do mesmo conjunto raiz ZFS

Os comandos a seguir criam um novo ambiente de inicialização ZFS, new-zfsBE . A opção -p não é necessária porque o ambiente de inicialização está sendo criado dentro do mesmo conjunto raiz.


# lucreate [-c zfsBE] -n new-zfsBE
Analyzing system configuration.
Comparing source boot environment <zfsBE> file systems with the file
system(s) you specified for the new boot environment. Determining which
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Creating configuration for boot environment new-zfsBE.
Source boot environment is zfsBE.
Creating boot environment new-zfsBE.
Cloning file systems from boot environment zfsBE to create 
boot environment new-zfsBE.
Creating snapshot for <rpool> on <rpool> Creating clone for <rpool>. 
Setting canmount=noauto for <rpool> in zone <global> on <rpool>. 
Population of boot environment zfsBE successful on <rpool>.
# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	   OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE               yes       yes     yes         no          - 
new-zfsBE           yes       no      no          yes         -
# zfs list
NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
rpool                                    9.29G  57.6G    20K  /rpool 
rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  - 
rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197 
rpool/dump                               1.95G      -  1.95G  - 
rpool/swap                               1.95G      -  1.95G  - 

Agora é possível atualizar e ativar o novo ambiente de inicialização. Para um exemplo de atualização de um ambiente de inicialização ZFS, consulte Exemplo 13–1. Para mais exemplos da utilização do comando luupgrade consulte, Capítulo 5Atualizando com o Solaris Live Upgrade (Tarefas).


# luactivate new-zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <new-zfsBE> successful.

Reinicialize o sistema para o ambiente de inicialização ZFS.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.