Este capítulo fornece uma vista geral e procedimentos passo-a-passo para a migração de um sistema de arquivos raiz UFS (/) para um grupo raiz ZFS.
Migrar de um sistema de arquivos raiz UFS (/) para um grupo raiz ZFS ou criar ambientes de inicialização ZFS com o Solaris Live Upgrade é novidade na versão Solaris 10 10/08. Ao executar um Solaris Live Upgrade para um sistema de arquivos UFS, ambos os parâmetros de linha de comando e operação do Solaris Live Upgrade permanecem inalterados. Para executar um Solaris Live Upgrade em um sistema com os sistemas de arquivos UFS, consulte Parte I, Atualizando com o Solaris Live Upgrade deste livro.
É possivel utilizar o Solaris Live Upgrade para migrar seu sistema de arquivos raiz UFS (/) com regiões não-globais instaladas em um grupo raiz ZFS. Todas as regiões não-globais que estão associados com o sistema de arquivos também são copiadas para o novo ambiente de inicialização. São suportados os seguintes cenários de migração de regiões não-globais:
Sistema de arquivos raiz pré-migração e combinação de região |
Sistema de arquivos raiz pós-migração e combinação de região |
---|---|
O sistema de arquivos raiz UFS com o diretório raiz de região não global no sistema de arquivos UFS |
O sistema de arquivos raiz UFS com o diretório raiz de região não global em um grupo raiz ZFS |
|
Grupo raiz ZFS com o diretório de raiz de região não-global no grupo raiz ZFS |
Grupo raiz ZFS com o diretório raiz de região não global em um sistema de arquivos UFS |
|
Sistema de arquivos raiz UFS com uma raiz de região não global em um grupo raiz ZFS |
Grupo raiz ZFS com a raiz de região não-global em um grupo raiz ZFS |
Sistema de arquivos raiz UFS com a raiz de região não global no grupo raiz ZFS |
|
Grupo raiz ZFS com o diretório de raiz de região não-global no grupo raiz ZFS |
Grupo raiz ZFS com o diretório de raiz de região não-global no grupo raiz ZFS |
Em um sistema com um sistema de arquivos raiz UFS ( /) e regiões não-globais instaladas, as regiões não-globais são migradas se a região estiver em um sistema de arquivos não compartilhado como parte da migração de UFS para ZFS. Ou a região é clonada quando estiver atualizando dentro do mesmo grupo ZFS. Se uma região não global existe em um sistema de arquivos compartilhado UFS, para migrar para outro grupo raiz ZFS, é necessário primeiro atualizar a região não global, como nas versões anteriores do Solaris.
Para mais informações de planejamento ao migrar para um grupo raiz ZFS, consulte Requisitos e limitações do sistema ao utilizar o Solaris Live Upgrade.
Para mais limitações sobre ZFS e regiões não-globais, consulte Usando ZFS em um sistema Solaris com regiões instaladas no Guia de administração do ZFS Oracle Solaris.
Este capítulo fornece instruções passo-a-passo para migrar de um sistema de arquivos raiz UFS (/) a um grupo raiz ZFS em um sistema com regiões não-globais instaladas. Nenhuma região não global está em um sistema de arquivos compartilhado no sistema de arquivos UFS.
O comando lucreate cria um ambiente de inicialização de um grupo raiz ZFS a partir de um sistema de arquivos de raiz UFS (/). Um grupo raiz ZFS deve existir antes da operação lucreate e deve ser criado com segmentos em vez dos discos inteiros a serem atualizados e inicializados. Este procedimento mostra como uma região não global existente associada com o sistema de arquivos raiz UFS (/) é copiado para o novo ambiente de inicialização em um grupo raiz ZFS.
No exemplo a seguir, a região não global existente, myzone, tem sua raiz de região não global em um sistema de arquivos raiz UFS (/). A região zzone possui sua raiz de região em um sistema de arquivos ZFS no grupo de armazenamento do ZFS existente, pool. O Solaris Live Upgrade é utilizado para migrar um ambiente de inicialização UFS, c2t2d0s0, a um ambiente de inicialização ZFS, zfs2BE. A região myzone com base em UFS migra para um novo grupo de armazenamento do ZFS, mpool, que é criado antes da operação com o Solaris Live Upgrade. A região com base em ZFS, não global, zzone, é clonada mas retida no grupo ZFS pool e migrada para o novo ambiente de inicializaçãozfs2BE.
Complete as etapas a seguir na primeira vez que executar um Solaris Live Upgrade.
Utilizando o Solaris Live Upgrade para criar novos ambientes de inicialização ZFS requer pelo menos que a versão Solaris 10 10/08 seja instalada. As versões anteriores não possuem o ZFS e o software Solaris Live Upgrade para executar as tarefas.
Exclua os pacotes existentes do Solaris Live Upgrade em seu sistema, se necessário. Se estiver atualizando para uma nova versão, é necessário instalar os pacotes a partir dessa versão.
Os três pacotes Solaris Live Upgrade, SUNWluu, SUNWlur eSUNWlucfg, compreendem o software necessário para fazer atualizações utilizando o Solaris Live Upgrade. Estes pacotes incluem o software existente, novos recursos e correções de erros. Se não remover os pacotes existentes e instalar os novos pacotes em seu sistema antes de utilizar o Solaris Live Upgrade, atualizar para a versão de destino irá causar falha.
# pkgrm SUNWlucfg SUNWluu SUNWlur |
Instale os novos pacotes do Solaris Live Upgrade a partir da versão para a qual está atualizando. Para obter instruções, consulte Instalando o Solaris Live Upgrade.
Antes de instalar ou executar o Solaris Live Upgrade, é solicitado a instalar as seguintes correções. Essas correções garantem que tenha todas as últimas correções de bugs e novos recursos na versão.
Assegure-se de que você tenha a lista de correção mais recentemente atualizada consultando SunSolve. Pesquise por Infodoc 206844 (antigamente, 72099) no site SunSolve.
Torne-se superusuário ou assuma uma função equivalente.
Funções contêm autorizações e comandos privilegiados. Para mais informações sobre funções, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services .
Se estiver armazenando as correções em um disco local, crie um diretório tal como /var/tmp/lupatches e faça download das correções para esse diretório.
A partir do site SunSolve , obtenha a lista de correções.
Altere o diretório da correção.
# cd /var/tmp/lupatches |
Instale as correções com o comando patchadd.
# patchadd patch_id |
patch_id é o número ou números das correções. Separe vários nomes de correção com um espaço.
As correções devem ser aplicadas na ordem em que são especificadas na Infodoc 206844.
Reinicialize o sistema se necessário. Determinadas correções exigem uma reinicialização para tornarem-se efetivas.
apenas x86: é necessário o reinicializar o sistema ou Solaris Live Upgrade irá falhar.
# init 6 |
Crie um grupo raiz ZFS.
O grupo raiz ZFS deve estar em um único segmento a ser inicializado e atualizado.
# zpool create rpool c3t0d0s0 |
Neste exemplo, o nome do novo ZFS a ser criado é rpool . O grupo é criado em um segmento inicializável,c3t0d0s0.
Para obter informações sobre como criar um novo grupo raiz, consulte o Guia de administração do ZFS Oracle Solaris.
Migre seu sistema de arquivos raiz USF (/) para o novo grupo raiz ZFS.
# lucreate [-c ufsBE] -n new-zfsBE -p rpool |
Atribui o nome ufsBE ao atual ambiente de inicialização UFS. Esta opção não é necessária e é utilizada apenas quando o primeiro ambiente de inicialização é criado. Se executar o comando lucreate pela primeira vez e omitir a opção -c, o software cria um nome padrão por você.
Atribui o nome new-zfsBE ao ambiente de inicialização a ser criado. O nome deve ser único no sistema.
Coloque o recém-criado sistema de arquivos raiz ZFS (/) no grupo raiz ZFS definido em rpool.
Todas as regiões não-globais e não compartilhadas são copiadas para o novo ambiente de inicialização junto com os com sistemas críticos de arquivos. A criação do novo ambiente de inicialização ZFS pode levar algum tempo. Os dados do sistema de arquivos UFS estão sendo copiados para o grupo raiz ZFS. Quando o ambiente de inicialização inativo foi criado, é possivel utilizar o comando luupgrade ou luactivate para atualizar ou ativar o novo ambiente de inicialização ZFS.
(Opcional) Verifique se o ambiente de inicialização está concluído.
O comando lustatus informa se a criação do ambiente de inicialização está completa e inicializável.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ ufsBE yes yes yes no - new-zfsBE yes no no yes - |
(Opcional) Verifique o conjunto de informações básicas sobre o sistema.
O comando list exibe os nomes de todos os conjuntos de dados no sistema. Neste exemplo, rpool é o nome do grupo ZFS e new-zfsBE é o nome do recém-criado ambiente de inicialização ZFS.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.alt.luupdall.110034 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
Os pontos de montagem listados para o novo ambiente de inicialização são temporários até que o comando luactivate seja executado. Os volumes /dump e /swap não são compartilhados com o ambiente original de inicialização UFS, mas são compartilhadas dentro do grupo raiz ZFS e ambientes de inicialização dentro do grupo raiz.
No exemplo a seguir, a região não global existente, myzone, possui sua raiz de região não global em um sistema de arquivos raiz UFS (/). A região zzone possui sua raiz de região em um sistema de arquivos ZFS no grupo de armazenamento ZFS existente, pool. O Solaris Live Upgrade é utilizado para migrar um ambiente de inicialização UFS, c2t2d0s0, a um ambiente de inicialização ZFS, zfs2BE. A região myzone com base em UFS migra para um novo grupo de armazenamento ZFS, mpool, que é criado antes da operação com o Solaris Live Upgrade. A região com base em ZFS, não global, zzone, é clonada, mas mantida no grupo ZFSpool e migrada para o novo ambiente de inicialização zfs2BE.
# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared - myzone installed /zones/myzone native shared - zzone installed /pool/zones native shared # zpool create mpool mirror c3t0d0s0 c4td0s0 # lucreate -c c1t2d0s0 -n zfs2BE -p mpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <c1t2d0s0>. Creating initial configuration for primary boot environment <c1t2d0s0>. The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <c1t2d0s0> PBE Boot Device </dev/dsk/c1t2d0s0>. Comparing source boot environment <c1t2d0s0> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <c1t2d0s0>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. |
Quando a operação lucreate for concluída, utilize o comando lustatus para visualizar o status do ambiente de inicialização como neste exemplo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t2d0s0 yes yes yes no - zfsBE yes no no yes - |
# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared - myzone installed /zones/myzone native shared - zzone installed /pool/zones native shared |
Em seguida, utilize o comandoluactivate para ativar o novo ambiente de inicialização ZFS. Por exemplo:
# luactivate zfsBE ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Change the boot device back to the original boot environment by typing: setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a 3. Boot to the original boot environment by typing: boot ********************************************************************** Modifying boot archive service Activation of boot environment <ZFSbe> successful. |
Reinicialize o sistema para o ZFS BE.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . . |
Confirme o novo ambiente de inicialização e o status das regiões migradas como neste exemplo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t2d0s0 yes yes yes no - zfsBE yes no no yes - |
Se retroceder para o ambiente de inicialização UFS, então será necessário importar novamente os grupos de armazenamento ZFS que foram criados no ambiente de inicialização ZFS porque eles não estão automaticamente disponíveis no ambiente de inicialização UFS. Você verá mensagens semelhantes à seguinte quando você voltar para o ambiente de inicialização UFS.
# luactivate c1t2d0s0 WARNING: The following files have changed on both the current boot environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>: /etc/zfs/zpool.cache INFORMATION: The files listed above are in conflict between the current boot environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>. These files will not be automatically synchronized from the current boot environment <ZFSbe> when boot environment <c1t2d0s0> |
Para obter informações adicionais sobre os temas incluídos neste capítulo, consulte os recursos listados no Tabela 14–1.
Tabela 14–1 Recursos adicionais
Recurso |
Local |
---|---|
Para obter informações sobre as regiões não-globais, incluindo a vista geral, planejamento e instruções passo-a-passo | |
Para informações ZFS, incluindo a vista geral, planejamento e instruções passo-a-passo | |
Para obter informações sobre como utilizar o Solaris Live Upgrade em um sistema com os sistemas de arquivos UFS |
Parte I, Atualizando com o Solaris Live Upgrade of this book, including Capítulo 8Atualizando o Solaris OS em um sistema com regiões não globais instaladas |