Este capítulo aborda as tarefas de administração geral e fornece exemplos de uso.
Montagem de sistemas de arquivos em regiões não globais em execução
Adição de acesso a região não global a sistemas de arquivos específicos na região global
Uso de vários caminhos de rede IP em um sistema do Solaris com regiões instaladas
Solaris 10 8/07: administração de links de dados em regiões não globais com IP exclusivo
Uso do fair share scheduler em um sistema do Solaris com regiões instaladas
Esta seção lista novos recursos de produtos e identifica aprimoramentos de documentação neste guia.
Para obter uma lista completa dos novos recursos do Solaris 10 e uma descrição das versões do Solaris, consulte Novidades no Oracle Solaris 10 9/10.
Um novo procedimento para acesso a mídia foi adicionado. Consulte Como adicionar acesso a mídia de CD ou DVD em uma região não global..
Novos procedimentos para backup e restauração de arquivos em regiões foram adicionados. Consulte Backup de um sistema do Solaris com regiões instaladas e Restauração de uma região não global.
Novos procedimentos foram adicionados. Consulte Como montar um sistema de arquivos da região global para uma região não global e Como adicionar um diretório gravável em /usr em uma região não global.
Novos procedimentos foram adicionados. Consulte Como usar DTrace, Solaris 10 8/07: administração de links de dados em regiões não globais com IP exclusivo, Verificação do status de serviços SMF em uma região não global.
Use o utilitário ppriv para exibir os privilégios da região.
Use o utilitário ppriv com a opção -l para listar os privilégios disponíveis no sistema.
No prompt, digite ppriv -l zone para relatar o conjunto de privilégios disponíveis na região.
global# ppriv -l zone |
Você verá uma exibição semelhante a esta:
contract_event contract_observer cpc_cpu . . . |
Use o utilitário ppriv com a opção -l e a expressão zone para listar privilégios da região.
Efetue login na região não global. Este exemplo usa uma região nomeada my-zone.
No prompt, digite ppriv -l zone para relatar o conjunto de privilégios disponíveis na região.
my-zone# ppriv -l zone |
Você verá uma exibição semelhante a esta:
contract_event contract_observer file_chown . . . |
Use o utilitário ppriv com a opção -l, a expressão zone e a opção -v para listar os privilégios da região.
Efetue login na região não global. Este exemplo usa uma região nomeada my-zone.
No prompt, digite ppriv - l -v zone para relatar o conjunto de privilégios disponíveis na região, com uma descrição de cada privilégio.
my-zone# ppriv -l -v zone |
Você verá uma exibição semelhante a esta:
contract_event Allows a process to request critical events without limitation. Allows a process to request reliable delivery of all events on any event queue. contract_observer Allows a process to observe contract events generated by contracts created and owned by users other than the process's effective user ID. Allows a process to open contract event endpoints belonging to contracts created and owned by users other than the process's effective user ID. file_chown Allows a process to change a file's owner user ID. Allows a process to change a file's group ID to one other than the process' effective group ID or one of the process' supplemental group IDs. . . . |
Execute as etapas abaixo para usar a funcionalidade do DTrace, como descrita em Execução do DTrace em uma região não global.
Use a propriedade zonecfg limitpriv para adicionar os privilégios dtrace_proc e dtrace_user.
global# zonecfg -z my-zone zonecfg:my-zone> set limitpriv="default,dtrace_proc,dtrace_user" zonecfg:my-zone> exit |
Dependendo de seus requisitos, você pode adicionar um ou outro privilégio, ou ambos os privilégios.
Inicialize a região.
global# zoneadm -z my-zone boot |
Efetue login na região.
global# zlogin my-zone |
Execute o programa DTrace.
my-zone# dtrace -l |
Para verificar o status de serviços SMF em uma região não global nativa, use o comando zlogin.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
A partir da linha de comando, digite o seguinte para mostrar todos os serviços, inclusive os desativados.
global# zlogin my-zone svcs -a |
Para obter mais informações, consulte o Capítulo 22Login em regiões não globais (tarefas) e svcs(1).
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Efetue login na região.
global# zlogin my-zone |
Execute o comando svcs com a opção -a para mostrar todos os serviços, inclusive os desativados.
my-zone# svcs -a |
Para obter mais informações, consulte o Capítulo 22Login em regiões não globais (tarefas) e svcs(1).
Você pode montar sistemas de arquivos em uma região não global em execução. Os procedimentos a seguir são tratados.
Como administrador global na região global, você pode importar dispositivos básicos e de bloco para a região não global. Após a importação dos dispositivos, o administrador de região tem acesso ao disco. O administrador de região pode em seguida criar um novo sistema de arquivos no disco e executar uma das seguintes ações:
Montar manualmente o sistema de arquivos
Colocar o sistema de arquivos em /etc/vfstab para que seja montado na inicialização da região
Como administrador global, você também pode montar um sistema de arquivos da região global para a região não global.
Este procedimento usada o driver do arquivo lofi, que exporta um arquivo como dispositivo de bloco.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Altere os diretórios para /usr/tmp.
global# cd /usr/tmp |
Crie um novo sistema de arquivos UFS.
global# mkfile 10m fsfile |
Anexe p arquivo como um dispositivo de bloco.
O primeiro slot disponível, que é /dev/lofi/1, se nenhum outro dispositivo lofi foi criado, é usado.
global# lofiadm -a `pwd`/fsfile |
Você também obterá o dispositivo de caracteres necessário.
Importe os dispositivos para a região my-zone .
global# zonecfg -z my-zone zonecfg:my-zone> add device zonecfg:my-zone:device> set match=/dev/rlofi/1 zonecfg:my-zone:device> end zonecfg:my-zone> add device zonecfg:my-zone:device> set match=/dev/lofi/1 zonecfg:my-zone:device> end |
Reinicialize a região.
global# zoneadm -z my-zone boot |
Efetue login na região e verifique se os dispositivos foram importados com êxito.
my-zone# ls -l /dev/*lofi/* |
Você deverá ver uma exibição semelhante a esta:
brw------- 1 root sys 147, 1 Jan 7 11:26 /dev/lofi/1 crw------- 1 root sys 147, 1 Jan 7 11:26 /dev/rlofi/1 |
Para obter mais informações, consulte as páginas do manual lofiadm(1M) e lofi(7D).
Você deve ser o administrador de região e ter o perfil Gerenciamento de região para executar este procedimento. Este procedimento usa o comando newfs, que está descrito na página do manual newfs(1M).
Torne-se superusuário ou tenha o perfil de direitos Gerenciamento de região na lista de perfis.
Na região my-zone, crie um novo sistema de arquivos no disco.
my-zone# newfs /dev/lofi/1 |
Responda sim no prompt.
newfs: construct a new file system /dev/rlofi/1: (y/n)? y |
Você deverá ver uma exibição semelhante a esta:
/dev/rlofi/1: 20468 sectors in 34 cylinders of 1 tracks, 602 sectors 10.0MB in 3 cyl groups (16 c/g, 4.70MB/g, 2240 i/g) super-block backups (for fsck -F ufs -o b=#) at: 32, 9664, 19296, |
Verifique se há erros no sistema de arquivos.
my-zone# fsck -F ufs /dev/rlofi/1 |
Você deverá ver uma exibição semelhante a esta:
** /dev/rlofi/1 ** Last Mounted on ** Phase 1 - Check Blocks and Sizes ** Phase 2 - Check Pathnames ** Phase 3 - Check Connectivity ** Phase 4 - Check Reference Counts ** Phase 5 - Check Cyl groups 2 files, 9 used, 9320 free (16 frags, 1163 blocks, 0.2% fragmentation) |
Monte o sistema de arquivos.
my-zone# mount -F ufs /dev/lofi/1 /mnt |
Verifique a montagem.
my-zone# grep /mnt /etc/mnttab |
Você verá uma exibição semelhante a esta:
/dev/lofi/1 /mnt ufs rw,suid,intr,largefiles,xattr,onerror=panic,zone=foo,dev=24c0001 1073503869 |
Este procedimento é usado para montar o dispositivo de bloco /dev/lofi/1 no caminho do sistema /mnt. O dispositivo de bloco contém um sistema de arquivos UFS. As seguintes opções são usadas:
logging é usado como a opção de montagem.
yes informa o sistema para montar automaticamente o sistema de arquivos quando a região é inicializada.
/dev/rlofi/1 é o dispositivo de caracteres (ou básico). O comando fsck é executado no dispositivo básico, se necessário.
Torne-se superusuário ou tenha o perfil de direitos Gerenciamento de região na lista de perfis.
Na região my-zone, adicione a seguinte linha a /etc/vfstab:
/dev/lofi/1 /dev/rlofi/1 /mnt ufs 2 yes logging |
Suponha que uma região tem zonepath /export/home/my-zone . Você deseja montar o disco /dev/lofi/1 da região global para /mnt na região não global.
É necessário ser administrador global na região global para executar este procedimento.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Para montar o disco em /mnt na região não global, digite o seguinte a partir da região global:
global# mount -F ufs /dev/lofi/1 /export/home/my-zone/root/mnt |
Para obter informações sobre lofi, consulte as páginas do manual lofiadm(1M) e lofi(7D).
Este procedimento permite que você adicione acesso somente leitura à mídia de CD ou DVD em uma região não global. O sistema de arquivos Gerenciamento de volume é usado na região não global para montar a mídia. Um CD ou um DVD pode ser usado para instalar um produto na região não global. Este produto usa um DVD nomeado jes_05q4_dvd.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Determine se o sistema de arquivos Gerenciamento de volume está sendo executado em uma região global.
global# svcs volfs STATE STIME FMRI online Sep_29 svc:/system/filesystem/volfs:default |
(Opcional) Se o sistema de arquivos Gerenciamento de volume não estiver em execução na região global, inicie-o.
global# svcadm volfs enable |
Insira a mídia.
Procure a mídia na unidade.
global# volcheck |
Verifique se o DVD é montado automaticamente.
global# ls /cdrom |
Você verá uma exibição semelhante a esta:
cdrom cdrom1 jes_05q4_dvd |
Faça uma montagem de auto-retorno do sistema de arquivos com as opções ro,nodevices (somente leitura e sem dispositivos) na região não global.
global# zonecfg -z my-zone zonecfg:my-zone> add fs zonecfg:my-zone:fs> set dir=/cdrom zonecfg:my-zone:fs> set special=/cdrom zonecfg:my-zone:fs> set type=lofs zonecfg:my-zone:fs> add options [ro,nodevices] zonecfg:my-zone:fs> end zonecfg:my-zone> commit zonecfg:my-zone> exit |
Reinicialize a região não global.
global# zoneadm -z my-zone reboot |
Use o comando list zoneadm com a opção -v para verificar o status.
global# zoneadm list -v |
Você verá uma exibição semelhante a esta:
ID NAME STATUS PATH BRAND IP 0 global running / native shared 1 my-zone running /export/home/my-zone native shared |
Efetue login na região não global.
global# zlogin my-zone |
Verifique a montagem do DVD-ROM.
my-zone# ls /cdrom |
Você verá uma exibição semelhante a esta:
cdrom cdrom1 jes_05q4_dvd |
Instale o produto como descrito no guia de instalação do produto.
Saia da região não global.
my-zone# exit |
É aconselhável reter o sistema de arquivos /cdrom na região não global. A montagem sempre refletirá o conteúdo atual da unidade de CD-ROM, ou um diretório vazio se a unidade estiver vazia.
(Opcional) Se desejar remover o sistema de arquivos /cdrom da região não global, adote o procedimento abaixo.
global# zonecfg -z my-zone zonecfg:my-zone> remove fs dir=/cdrom zonecfg:my-zone> commit zonecfg:my-zone> exit |
Em uma região raiz esparsa, /usr é montado somente leitura a partir da região global. Você pode usar este procedimento para adicionar um diretório gravável, como /usr/local, em /usr na região.
É necessário ser administrador global na região global para executar este procedimento.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Crie um diretório /usr/local na região global.
global# mkdir -p /usr/local |
Especifique um diretório na região global para servir como armazenamento de apoio para o diretório /usr/local da região.
global# mkdir -p /storage/local/my-zone |
Edite a configuração para a região my-zone.
global# zonecfg -z my-zone |
Adicione o sistema de arquivos montado com auto-retorno.
zonecfg:my-zone> add fs zonecfg:my-zone:fs> set dir=/usr/local zonecfg:my-zone:fs> set special=/storage/local/my-zone zonecfg:my-zone:fs> set type=lofs zonecfg:my-zone:fs> end zonecfg:my-zone> commit zonecfg:my-zone> exit |
Inicialize a região.
Este procedimento é usado para exportar diretórios de início ou outros sistemas de arquivos da região global para regiões não globais no mesmo sistema.
É necessário ser administrador global na região global para executar este procedimento.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Adicione o sistema de arquivos montado com auto-retorno.
global# zonecfg -z my-zone zonecfg:my-zone> add fs zonecfg:my-zone:fs> set dir=/export/home zonecfg:my-zone:fs> set special=/export/home zonecfg:my-zone:fs> set type=lofs zonecfg:my-zone:fs> set options=nodevices zonecfg:my-zone:fs> end zonecfg:my-zone> commit zonecfg:my-zone> exit |
Adicione a seguinte linha no arquivo /etc/auto_home da região:
$HOST:/export/home/& |
Vários caminhos de rede IP (IPMP) em uma região de IP exclusivo é configurada da mesma maneira que na região global.
Você pode configurar uma ou mais interfaces físicas em um grupo de vários caminhos IP, ou grupo IPMP. Após configurar IPMP, o sistema monitora automaticamente as interfaces no grupo IPMP para verificar falhas. Se uma interface no grupo falhar ou for removida para manutenção, IPMP migrará automaticamente, ou falhará, os endereços IP da interface falha. O recipiente desses endereços é uma interface funcional no grupo IPMP da interface falha. O recurso de falha de IPMP preserva a conectividade e impede a interrupção de quaisquer conexões existentes. Adicionalmente, IPMP melhorar o desempenho geral da rede ao propagar automaticamente o tráfego de rede no conjunto de interfaces no grupo IPMP. Este processo é chamado de propagação de carga.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Configure grupos IPMP como descrito em Configuring IPMP Groups no System Administration Guide: IP Services .
Use este procedimento para configurar IPMP na região global e estenda a funcionalidade de IPMP para regiões não globais.
Cada endereço, ou interface lógica, deve ser associada a uma região não global quando você configura a região. Consulte Uso do comando zonecfg e Como configurar a região para obter instruções.
Este procedimento realiza o seguinte:
As placas bge0 e hme0 são configuradas em um grupo.
O endereço 192.168.0.1 é associado à região não global my-zone.
A placa bge0 é defina como interface física. Assim, o endereço IP é hospedado no grupo que contém as placas bge0 e hme0.
Em uma região em execução, você pode usar o comando ifconfig para fazer a associação. Consulte Interfaces de rede com IP compartilhado e a página do manual ifconfig(1M).
É necessário ser administrador global na região global para executar este procedimento.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Na região global, configure grupos IPMP como descrito em Configuring IPMP Groups no System Administration Guide: IP Services.
Use o comando zonecfg para configurar a região. Quando você configurar o recurso net, adicione o endereço 192.168.0.1 e a interface física bge0 e a configuração do roteador padrão à região my-zone:
zonecfg:my-zone> add net zonecfg:my-zone:net> set address=192.168.0.1 zonecfg:my-zone:net> set physical=bge0 zonecfg:my-zone:net> set defrouter=10.0.0.1 zonecfg:my-zone:net> end |
Somente bge0 deve ser visível na região não global my-zone.
Se bge0 falhar subseqüentemente e o endereço de dados bge0 falhar em hme0 na região global, os endereços de my-zone também migrarão.
Se o endereço 192.168.0.1 se mover para hme0, somente hme0 será visível agora na região não global my-zone. Esta placa será associada ao endereço 192.168.0.1 , e bge0 não será mais visível.
O comando dladm é usado a partir da região global para administrar links de dados.
O comando dladm pode ser usado com o subcomando show-linkprop para mostrar a atribuição de links de dados a regiões com IP exclusivo em execução.
É necessário ser administrador global na região global para administrar links de dados.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Mostre a atribuição de links de dados no sistema.
global# dladm show-linkprop |
Na primeira tela, a região 49bge, a que foi atribuído bge0, não foi inicializada
global# dladm show-linkprop LINK PROPERTY VALUE DEFAULT POSSIBLE bge0 zone -- -- -- ath0 channel 6 -- -- ath0 powermode ? off off,fast,max ath0 radio ? on on,off ath0 speed 11 -- 1,2,5.5,6,9,11,12,18,24,36,48,54 ath0 zone -- -- -- |
A região 49bge foi inicializada.
global# zoneadm -z 49bge boot |
O comando dladm show-linkprop é executado novamente. Observe que o link bge0 agora está atribuído a 49bge.
global# dladm show-linkprop LINK PROPERTY VALUE DEFAULT POSSIBLE bge0 zone 49bge -- -- ath0 channel 6 -- -- ath0 powermode ? off off,fast,max ath0 radio ? on on,off ath0 speed 11 -- 1,2,5.5,6,9,11,12,18,24,36,48,54 ath0 zone -- -- -- |
O comando dladm pode ser usado com o subcomando set-linkprop para atribuir temporariamente links de dados a regiões com IP exclusivo em execução. A atribuição persistente deve ser feita através do comando zonecfg.
É necessário ser administrador global na região global para administrar links de dados.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Use dladm set-linkprop com -t para adicionar bge0 a uma região em execução chamada excl.
global# dladm set-linkprop -t -p zone=excl bge0 LINK PROPERTY VALUE DEFAULT POSSIBLE bge0 zone excl -- -- |
A opção -p produz uma exibição usando um formato estável analisável por máquina.
O comando dladm pode ser usado com o subcomando reset-linkprop para redefinir o valor de link bge0 a ser não atribuído.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Use dladm reset-linkprop com -t para desfazer a atribuição de região do dispositivo bge0.
global# dladm reset-linkprop -t -p zone=excl bge0 LINK PROPERTY VALUE DEFAULT POSSIBLE bge0 zone excl -- -- |
A opção -p produz uma exibição usando um formato estável analisável por máquina.
Se a região em execução estiver usando o dispositivo, a reatribuição falhará e uma mensagem de erro será exibida. Consulte Região com IP exclusivo usa dispositivo, por isso dladm reset-linkprop falha.
Limites especificados através do comando prctl não são persistentes. Os limites estão em vigor somente até o sistema ser reinicializado. Para definir compartilhamentos em uma região permanentemente, consulte Como configurar a região e Como definir zone.cpu-shares na região global.
A região global recebe um compartilhamento por padrão. Você pode usar este procedimento para alterar a alocação padrão. Observe que você deve redefinir compartilhamentos alocados através do comando prctl sempre que reinicializar o sistema.
É necessário ser administrador global na região global para executar este procedimento.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Use o utilitário prctl para atribuir dois compartilhamentos à região global:
# prctl -n zone.cpu-shares -v 2 -r -i zone global |
(Opcional) Para verificar o número de compartilhamentos atribuídos à região global, digite:
# prctl -n zone.cpu-shares -i zone global |
Para obter mais informações sobre o utilitário prctl, consulte a página do manual prctl(1).
Esse procedimento pode ser usado para qualquer região, não apenas na região global.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Use o comando prctl para especificar um novo valor para cpu-shares.
# prctl -n zone.cpu-shares -r -v value -i zone zonename |
idtype é zonename ou zoneid. value é o novo valor.
Esta seção trata de tarefas associadas ao uso de perfis de direito em regiões não globais.
O perfil Gerenciamento de região confere o poder para gerenciar todas as regiões não globais no sistema para um usuário.
É necessário ser administrador global na região global para executar este procedimento.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Crie uma função que inclua o perfil de direitos de gerenciamento de região e atribua a função a um usuário.
Para criar e atribuir a função usando o Console de gerenciamento Solaris, consulte Configuring RBAC (Task Map) no System Administration Guide: Security Services . Consulte a tarefa “Como criar e atribuir uma função usando a GUI.”
Para criar e atribuir a função na linha de comando, consulte Managing RBAC no System Administration Guide: Security Services . Consulte a tarefa “Como criar uma função a partir da linha de comando.”
Você pode executar comandos de região em um perfil usando o programa pfexec. O programa executa comandos com os atributos especificados pelos perfis de usuário no banco de dados de exec_attr. O programa é chamado pelos shells de perfil pfksh, pfcsh e pfsh.
Use o programa pfexec para efetuar login em uma região, por exemplo my-zone.
machine$ pfexec zlogin my-zone |
Os procedimentos abaixo podem ser usados para fazer backup de arquivos em regiões. Lembre-se de também fazer backup dos arquivos de configuração das regiões.
Você pode executar backups completos ou incrementais usando o comando ufsdump. Este procedimento faz o backup da região /export/my-zone para /backup/my-zone.ufsdump , onde my-zone é substituído pelo nome de uma região no sistema. Você pode desejar ter um sistema de arquivos separado, por exemplo, um sistema de arquivos montado em /backup, para armazenar os backups.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
(Opcional) Desligue a região para colocar a região em um estado inativo e para evitar a criação de backups de sistemas de arquivos compartilhados.
global# zlogin -S my-zone init 0 |
Verifique o status da região.
global# zoneadm list -cv |
Você verá uma exibição semelhante a esta:
ID NAME STATUS PATH BRAND IP 0 global running / native shared - my-zone installed /export/home/my-zone native shared |
Execute o backup.
global# ufsdump 0f /backup/my-zone.ufsdump /export/my-zone |
Você verá uma exibição semelhante a esta:
DUMP: Date of this level 0 dump: Wed Aug 10 16:13:52 2005 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/rdsk/c0t0d0s0 (bird:/) to /backup/my-zone.ufsdump. DUMP: Mapping (Pass I) [regular files] DUMP: Mapping (Pass II) [directories] DUMP: Writing 63 Kilobyte records DUMP: Estimated 363468 blocks (174.47MB). DUMP: Dumping (Pass III) [directories] DUMP: Dumping (Pass IV) [regular files] DUMP: 369934 blocks (180.63MB) on 1 volume at 432 KB/sec DUMP: DUMP IS DONE |
Inicialize a região.
global# zoneadm -z my-zone boot |
Esta abordagem usa o comando fssnap, que cria uma imagem temporária de um sistema de arquivos destinado a operações de backup.
Este método pode ser usado para fornecer um backup limpo e consistente dos arquivos de região somente, e pode ser executado enquanto regiões estão em execução. No entanto, é recomendável suspender ou fazer ponto de verificação de aplicativos ativos que estão atualizando arquivos quando o instantâneo é criado. Um aplicativo que atualize arquivos quando o instantâneo é criado pode deixar esses arquivos em um estado inconsistente internamente, truncado ou inutilizável.
No procedimento de exemplo abaixo, observe o seguinte:
Há uma região nomeada my-zone em /export/home .
/export/home é um sistema de arquivos separado.
O backup de destino é /backup/my-zone.ufsdump. Você deve criar o diretório backup em /.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Crie um instantâneo.
global# fssnap -o bs=/export /export/home |
Você verá uma exibição semelhante a esta:
dev/fssnap/0 |
Monte o instantâneo.
global# mount -o ro /dev/fssnap/0 /mnt |
Faça backup my-zone a partir do instantâneo.
global# ufsdump 0f /backup/my-zone.ufsdump /mnt/my-zone |
Você verá uma exibição semelhante a esta:
DUMP: Date of this level 0 dump: Thu Oct 06 15:13:07 2005 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/rfssnap/0 (pc2:/mnt) to /backup/my-zone.ufsdump. DUMP: Mapping (Pass I) [regular files] DUMP: Mapping (Pass II) [directories] DUMP: Writing 32 Kilobyte records DUMP: Estimated 176028 blocks (85.95MB). DUMP: Dumping (Pass III) [directories] DUMP: Dumping (Pass IV) [regular files] DUMP: 175614 blocks (85.75MB) on 1 volume at 2731 KB/sec DUMP: DUMP IS DONE |
Desmonte o instantâneo.
global# umount /mnt |
Exclua o instantâneo.
global# fssnap -d /dev/fssnap/0 |
Observe que o instantâneo também é removido do sistema quando o sistema é reinicializado.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Altere diretórios para o diretório raiz.
global# cd / |
Faça backup de arquivos my-zone que não sejam montados com auto-retorno para /backup/my-zone.cpio.
global# find export/my-zone -fstype lofs -prune -o -local | cpio -oc -O /backup/my-zone.cpio type as one line |
Verifique os resultados.
global# ls -l backup/my-zone.cpio |
Você verá uma exibição semelhante a esta:
-rwxr-xr-x 1 root root 99680256 Aug 10 16:13 backup/my-zone.cpio |
Você deve criar arquivos de backup das configurações da região não global. Você pode usar os backups para recriar as regiões mais tarde, se necessário. Crie a cópia da configuração da região depois de ter efetuado login na região pela primeira vez e depois de ter respondido as perguntas de sysidtool. Este procedimento usa uma região nomeada my-zone e um arquivo de backup nomeado my-zone.config para ilustrar o processo.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Imprima a configuração para a região my-zone em um arquivo nomeado my-zone.config.
global# zonecfg -z my-zone export > my-zone.config |
Você pode usar arquivos de backup as configurações da região não global para restaurar regiões não globais, se necessário. Este procedimento usa uma região nomeada my-zone e um arquivo de backup nomeado my-zone.config para ilustrar o processo de restauração de uma região.
Torne-se superusuário ou assuma a função de administrador principal.
Para criar a função e atribuí-la a um usuário, consulte Using the Solaris Management Tools With RBAC (Task Map) no System Administration Guide: Basic Administration .
Especifique que my-zone.config seja usado como o arquivo de comando zonecfg para recriar a região my-zone.
global# zonecfg -z my-zone -f my-zone.config |
Instale a região.
global# zoneadm -z my-zone install |
Para impedir que o sistema exiba as perguntas de sysidtool no login inicial da região, exclua o arquivo zonepath /root/etc/.UNCONFIGURED, por exemplo:
global# rm /export/home/my-zone/root/etc/.UNCONFIGURED |
Se houver arquivos específicos de região para restaurar, como dados de aplicativo, restaure manualmente (e possivelmente mescle manualmente) arquivos a partir de um backup para um sistema de arquivos raiz da região recém-criada.