JavaScript is required to for searching.
Ignorar Links de Navegao
Sair do Modo de Exibio de Impresso
Guia de instalação do Oracle Solaris 10 1/13: Live Upgrade e planejamento da atualização     Oracle Solaris 10 1/13 Information Library (Português (Brasil))
search filter icon
search icon

Informação sobre o documento

Prefácio

Parte I Atualizando com o Live Upgrade

1.  Onde encontrar informações de planejamento da instalação Oracle Solaris

2.  Live Upgrade (visão geral)

3.  Live Upgrade (planejamento)

4.  Usando o Live Upgrade para criar um ambiente de inicialização (tarefas)

5.  Fazendo upgrade com o Live Upgrade (tarefas)

6.  Recuperação de falha: retrocesso para o ambiente de inicialização original (tarefas)

7.  Fazendo a manutenção de ambientes de inicialização do Live Upgrade (tarefas)

8.  Atualização do SO Oracle Solaris em um sistema com zonas não globais instaladas

9.  Exemplos do Live Upgrade

Parte II Atualizando e migrando com o Live Upgrade para um pool raiz ZFS

10.  Live Upgrade e ZFS (visão geral)

11.  Live Upgrade para ZFS (planejamento)

12.  Criando um ambiente de inicialização para pools raiz ZFS

Migrando um sistema de arquivos UFS para um sistema de arquivos ZFS

Como migrar um sistema de arquivos UFS para um sistema de arquivos ZFS

Criando um ambiente de inicialização dentro do mesmo pool raiz ZFS

Como criar um ambiente de inicialização ZFS dentro do mesmo pool raiz ZFS

Criando um ambiente de inicialização em um novo pool raiz

Como criar um ambiente de inicialização em um novo pool raiz ZFS

Criando um ambiente de inicialização a partir de uma fonte diferente do sistema atualmente em execução

Retrocedendo para um ambiente de inicialização ZFS

13.  Live Upgrade para ZFS com zonas não globais instaladas

Parte III Apêndices

A.  Referência de comando do Live Upgrade

B.  Solução de problemas (tarefas)

C.  Requisitos de empacotamento SVR4 adicionais (referência)

D.  Utilizando o Patch Analyzer ao atualizar (tarefas)

Glossário

Índice

Migrando um sistema de arquivos UFS para um sistema de arquivos ZFS

Esse procedimento descreve como migrar um sistema de arquivos UFS para um sistema de arquivos ZFS. Criar um ambiente de inicialização fornece um método de copiar sistemas de arquivos críticos de um ambiente de inicialização UFS ativo para um pool raiz ZFS. O comando lucreate copia os sistemas de arquivos críticos para um novo ambiente de inicialização em um pool raiz ZFS existente. Sistemas de arquivos (compartilháveis) definidos pelo usuário não são copiados e não são compartilhados com o ambiente de inicialização UFS fonte. Além disso, /swap não é compartilhado entre o sistema de arquivos UFS e o pool raiz ZFS. Para uma visão geral de sistemas de arquivos críticos e compartilháveis, consulte Tipos de sistemas de arquivos.

Como migrar um sistema de arquivos UFS para um sistema de arquivos ZFS


Observação - Para migrar um sistema de arquivos (/) UFS raiz ativo para um pool raiz ZFS, é necessário fornecer o nome do pool raiz. Os sistemas de arquivos críticos são copiados para o pool raiz.


  1. Antes de executar o Live Upgrade pela primeira vez, você deve instalar os pacotes mais recentes do Live Upgrade da mídia de instalação e instalar os patches listados no documento da base de conhecimento do My Oracle Support 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844). Procure pelo documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no site do My Oracle Support.

    Os últimos pacotes e patches garantem possuir todas as últimas correções de erros e novas funcionalidades na versão. Verifique se instalou todos os patches relevantes para o seu sistema antes de prosseguir na criação de um novo ambiente de inicialização.

    As subetapas a seguir descrevem as etapas no documento da base de conhecimento do My Oracle Support 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844).


    Observação - Usar o Live Upgrade para criar novos ambientes de inicialização ZFS requer pelo menos que o Solaris versão 10 10/08 esteja instalado. As versões anteriores não possuem o ZFS e o software do Live Upgrade para executar as tarefas.


    1. Torne-se superusuário ou assuma uma função equivalente.

      Observação - Funções contêm autorizações e comandos privilegiados. Para obter mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services.


    2. No site do My Oracle Support, siga as instruções contidas no documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) para remover e adicionar pacotes do Live Upgrade.

      Os três pacotes do Live Upgrade, SUNWluu, SUNWlur e SUNWlucfg, contêm o software necessário para atualizar utilizando o Live Upgrade. Esses pacotes incluem o software existente, novos recursos e correções de erros. Se você não remover os pacotes existentes e instalar os novos pacotes em seu sistema antes de utilizar o Live Upgrade, a atualização para a versão de destino irá falhar. O pacote SUMWlucfg é um novo, começando com a versão Solaris 10 8/07. Se estiver usando pacotes do Live Upgrade de uma versão anterior ao Solaris 10 8/07, não será necessário remover esse pacote.

      # pkgrm SUNWlucfg SUNWluu SUNWlur
    3. Instale os novos pacotes do Live Upgrade da versão para a qual está atualizando. Para obter instruções, consulte  Instalando o Live Upgrade.
    4. Antes de executar o Live Upgrade, é necessário instalar os patches a seguir. Esses patches garantem que você tenha as correções de bugs mais recentes e os novos recursos da versão.

      Verifique se tem a lista de patches atualizada mais recente consultando My Oracle Support. Procure pelo documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844) no site do My Oracle Support.

      • Se estiver armazenando os patches em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download dos patches para esse diretório.

      • Obtenha uma lista de patches no site do My Oracle Support.

      • Altere para o diretório de patches.

        # cd /var/tmp/lupatches
      • Instale os patches com o comando patchadd.

        # patchadd patch_id

        patch_id é o número do patch. Separe vários nomes de patches com um espaço.


        Observação - Os patches precisam ser aplicados na ordem especificada no documento da base de conhecimento 1004881.1 - Live Upgrade Software Patch Requirements (anteriormente 206844).


      • Reinicialize o sistema, se necessário. Alguns patches necessitam de uma reinicialização para se tornarem efetivos.

        Somente x86: é necessário reinicializar o sistema ou o Live Upgrade irá falhar.

        # init 6

        Agora, você possui os pacotes e os patches necessários para efetuar uma migração com sucesso.

  2. Crie um pool raiz ZFS.

    O pool raiz ZFS deve estar em um único segmento para ser inicializado e atualizado.

    # zpool create rpool c0t1d0s5
    rpool

    Especifique o nome do novo pool raiz ZFS a ser criado.

    c0t1d0s5

    Crie o novo pool raiz no segmento de disco, c0t1d0s5 .

    Para obter informações sobre como criar um novo pool raiz, consulte o Guia de administração do ZFS Oracle Solaris.

  3. Migre o sistema de arquivos raiz UFS(/) para o novo pool raiz ZFS.
    # lucreate [-c ufsBE] -n new-zfsBE -p rpool
    ufsBE

    O nome do ambiente de inicialização UFS atual. Esta opção não é necessária e só é utilizada quando o primeiro ambiente de inicialização é criado. Se executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão por você.

    new-zfsBE

    O nome do ambiente de inicialização a ser criado. O nome deve ser exclusivo no sistema.

    -p rpool

    Coloque o recém-criado sistema de arquivos raiz ZFS (/) no pool raiz ZFS definido em rpool.

    A criação do novo ambiente de inicialização ZFS pode levar algum tempo. Os dados do sistema de arquivos UFS estão sendo copiados para o pool raiz ZFS. Quando o ambiente de inicialização inativo for criado, é possível utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.

  4. (Opcional) Verifique se o ambiente de inicialização está concluído.
    # lustatus
    boot environment Is Active Active Can     Copy 
    Name Complete Now     OnReboot Delete     Status 
    -----------------------------------------------------------------
    ufsBE yes yes yes no -
    new-zfsBE yes no no yes -
  5. (Opcional) Verifique o conjunto de informações básicas sobre o sistema.

    O comando list exibe os nomes de todos os conjuntos de dados no sistema. Neste exemplo, rpool é o nome do pool ZFS e new-zfsBE é o nome do ambiente de inicialização ZFS recém-criado.

    # zfs list
    NAME             USED AVAIL REFER MOUNTPOINT
    rpool                 11.4G 2.95G 31K /rpool
    rpool/ROOT                 4.34G 2.95G 31K legacy
    rpool/ROOT/new-zfsBE                 4.34G 2.95G 4.34G /
    rpool/dump                 2.06G 5.02G 16K -
    rpool/swap                 5.04G 7.99G 16K -

    Os pontos de montagem listados para o novo ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap não são compartilhados com o ambiente original de inicialização UFS, mas são compartilhadas no pool raiz ZFS e em ambientes de inicialização contidos no pool raiz.

    Agora é possível atualizar e ativar o novo ambiente de inicialização.

Exemplo 12-1 Migrando um sistema de arquivos (/) raiz UFS para um pool raiz ZFS

Neste exemplo, o novo pool raiz ZFS, rpool, é criado em um segmento separado, C0t0d0s4. O comando lucreate migra o ambiente de inicialização UFS atualmente em execução, c0t0d0, para o novo ambiente de inicialização ZFS, new-zfsBE, e coloca o novo ambiente de inicialização no rpool.

# zpool create rpool C0t0d0s4

# zfs list
NAME USED AVAIL REFER MOUNTPOINT 
rpool 9.29G 57.6G 20K /rpool
# lucreate -c c0t0d0 -n new-zfsBE -p rpool
Determining types of file systems supported
Validating file system requests
Preparing logical storage devices
Preparing physical storage devices
Configuring physical storage devices
Configuring logical storage devices
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <c0t0d0>.
Creating initial configuration for primary boot environment <c0t0d0>.
INFORMATION: No BEs are configured on this system.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot 
environment; cannot get BE ID.
PBE configuration successful: PBE name <c0t0d0> PBE Boot Device 
</dev/dsk/c1t0d0s0>.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s6> is not a root device for any boot 
environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <c0t0d0>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Analyzing zones.
Mounting ABE <new-zfsBE>.
Generating file list.
Copying data from PBE <c0t0d0> to ABE <new-zfsBE>.
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <new-zfsBE>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t0d0>.
Making boot environment <new-zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-Cjh.mnt
updating /.alt.tmp.b-Cjh.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.


# lustatus
boot environment Is Active Active Can     Copy 
Name Complete Now     OnReboot Delete     Status 
------------------------------------------------------------------------ 
c0t0d0 yes yes yes no - 
new-zfsBE yes no no yes -

# zfs list
NAME             USED AVAIL REFER MOUNTPOINT
rpool                 11.4G 2.95G 31K /rpool
rpool/ROOT                 4.34G 2.95G 31K legacy
rpool/ROOT/new-zfsBE                 4.34G 2.95G 4.34G /
rpool/dump                 2.06G 5.02G 16K -
rpool/swap                 5.04G 7.99G 16K -

Agora é possível atualizar e ativar o novo ambiente de inicialização.

Neste exemplo, o novo ambiente de inicialização é atualizado utilizando o comando luupgrade a partir de uma imagem armazenada no local indicado com a opção -s.

# luupgrade -n zfsBE -u -s /net/install/export/s10/combined.s10
 51135 blocks 
miniroot filesystem is <lofs>
Mounting miniroot at 
</net/install/export/solaris_10/combined.solaris_10_wos
/Solaris_10/Tools/Boot> 
Validating the contents of the media 
</net/install/export/s10/combined.s10>. 
The media is a standard Solaris media. 
The media contains an operating system upgrade image. 
The media contains Solaris version <10_1008>. 
Constructing upgrade profile to use. 
Locating the operating system upgrade program. 
Checking for existence of previously scheduled Live 
Upgrade requests. 
Creating upgrade profile for BE <zfsBE>. 
Determining packages to install or upgrade for BE <zfsBE>. 
Performing the operating system upgrade of the BE <zfsBE>. 
CAUTION: Interrupting this process may leave the boot environment 
unstable or unbootable. 
Upgrading Solaris: 100% completed 
Installation of the packages from this media is complete. 
Adding operating system patches to the BE <zfsBE>. 
The operating system patch installation is complete. 
INFORMATION: The file /var/sadm/system/logs/upgrade_log on boot 
environment <zfsBE> contains a log of the upgrade operation. 
INFORMATION: The file var/sadm/system/data/upgrade_cleanup on boot 
environment <zfsBE> contains a log of cleanup operations required. 
INFORMATION: Review the files listed above. Remember that all 
of the files are located on boot environment <zfsBE>. 
Before you activate boot environment <zfsBE>, determine if any 
additional system maintenance is required or if additional media 
of the software distribution must be installed. 
The Solaris upgrade of the boot environment <zfsBE> is complete.

O novo ambiente de inicialização pode ser ativado a qualquer momento depois de sua criação.

# luactivate new-zfsBE
A Live Upgrade Sync operation will be performed on startup of boot 
environment <new-zfsBE>.

**********************************************************************

The target boot environment has been activated. It will be used when you
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You
MUST USE either the init or the shutdown command when you reboot. If you
do not use either init or shutdown, the system will not boot using the
target BE.

**********************************************************************

In case of a failure while booting to the target BE, the following 
process
needs to be followed to fallback to the currently working boot 
environment:

1. Enter the PROM monitor (ok prompt).

2. Boot the machine to Single User mode using a different boot device
(like the Solaris Install CD or Network). Examples:

 At the PROM monitor (ok prompt):
 For boot to Solaris CD: boot cdrom -s
 For boot to network: boot net -s

3. Mount the Current boot environment root slice to some directory (like
/mnt). You can use the following command to mount:

 mount -Fufs /dev/dsk/c1t0d0s0 /mnt

4. Run <luactivate> utility with out any arguments from the current boot
environment root slice, as shown below:

 /mnt/sbin/luactivate

5. luactivate, activates the previous working boot environment and
indicates the result.

6. Exit Single User mode and reboot the machine.

**********************************************************************

Modifying boot archive service
Activation of boot environment <new-zfsBE> successful.

Reinicialize o sistema para o ambiente de inicialização ZFS.

# init 6
# svc.startd: The system is coming down. Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.

Se você retroceder para o ambiente de inicialização UFS, será necessário importar novamente quaisquer pools de armazenamento ZFS que foram criados no ambiente de inicialização ZFS, porque eles não estão automaticamente disponíveis no ambiente de inicialização UFS. Você verá mensagens semelhantes ao exemplo a seguir quando voltar para o ambiente de inicialização UFS.

# luactivate c0t0d0
WARNING: The following files have changed on both the current boot 
environment <new-zfsBE> zone <global> and the boot environment 
to be activated <c0t0d0>:
 /etc/zfs/zpool.cache
INFORMATION: The files listed above are in conflict between the current 
boot environment <zfsBE> zone <global> and the boot environment to be 
activated <c0t0d0>. These files will not be automatically synchronized 
from the current boot environment <new-zfsBE> when boot environment <c0t0d0>