Création et utilisation d'Oracle® Solaris Zones

Quitter la vue de l'impression

Mis à jour : Mai 2015
 
 

Restrictions de sécurité et comportement du système de fichiers

Le montage de certains systèmes de fichiers au sein d'une zone est soumis à des restrictions de sécurité. et d'autres systèmes de fichiers ont un comportement particulier lorsqu'ils sont montés dans une zone. Les systèmes de fichiers modifiés sont répertoriés ci-dessous.

AutoFS

AutoFS est un service côté client qui monte automatiquement le système de fichiers adéquat. Lorsqu'un client essaie d'accéder à un système de fichiers non monté, le système de fichiers AutoFS intercepte la demande et appelle la commande automountd pour monter le répertoire spécifié. Les montages AutoFS établis au sein d'une zone sont locaux à cette zone. Ils ne sont pas accessibles à partir d'autres zones, pas même de la zone globale. Ils sont supprimés à l'arrêt ou à la réinitialisation de la zone. Pour plus d'informations sur AutoFS, reportez-vous à la section Fonctionnement d’autofs du manuel Gestion des systèmes de fichiers réseau dans Oracle Solaris 11.2 .

Chaque zone exécute sa copie de automountd. L'administrateur de zone contrôle les délais et les cartes automatiques. Vous ne pouvez pas déclencher un montage dans une autre zone en croisant un point de montage AutoFS pour une zone non globale à partir de la zone globale.

Certains montages AutoFS sont créés dans le noyau lors du déclenchement d'un autre montage. Ces montages ne peuvent pas être supprimés à l'aide de l'interface standard umount, car ils doivent être montés ou démontés en tant que groupe. Notez que cette fonctionnalité s'applique à l'arrêt de zone.

MNTFS

MNTFS est un système de fichiers virtuel fournissant au système local l'accès en lecture seule à la table des systèmes de fichiers montés. Le groupe de systèmes de fichiers qui s'affiche lorsque vous exécutez la commande mnttab à l'intérieur d'une zone non globale correspond au groupe de systèmes de fichiers figurant dans la zone, plus une entrée root (/) . Dans le cas des points de montage dotés d'un périphérique spécial inaccessible à l'intérieur de la zone, tel que /dev/rdsk/c0t0d0s0, la configuration du périphérique est identique à celle du point de montage. Tous les montages du système s'affichent dans la table /etc/mnttab de la zone. Pour plus d'informations sur MNTFS, reportez-vous à la section Montage de systèmes de fichiers du manuel Gestion des systèmes de fichiers réseau dans Oracle Solaris 11.2 .

NFS

Les montages NFS établis au sein d'une zone sont locaux à cette zone. Ils ne sont pas accessibles à partir d'autres zones, pas même de la zone globale. Ils sont supprimés à l'arrêt ou à la réinitialisation de la zone.

Au sein d'une zone, les montages NFS se comportent comme s'ils étaient montés à l'aide de l'option nodevices.

La sortie de commande nfsstat appartient uniquement à la zone dans laquelle la commande est exécutée. Par exemple, si la commande est exécutée dans la zone globale, seules les informations concernant la zone globale sont signalées. Pour plus d'informations sur la commande nfsstat, reportez-vous à la page de manuel nfsstat(1M).

PROCFS

Le système de fichiers /proc ou PROCFS fournit la visibilité de processus et les restrictions d'accès, ainsi que les informations concernant l'association de processus au niveau de la zone. Seuls les processus d'une même zone sont visibles par le biais de /proc.

Les processus de la zone globale peuvent observer les processus et les autres objets des zones non globales. Ils disposent ainsi d'une capacité d'observation au niveau de l'ensemble du système.

Au sein d'une zone, les montages, procfs se comportent comme s'ils étaient montés à l'aide de l'option nodevices. Pour plus d'informations sur procfs, reportez-vous à la page de manuel proc(4).

LOFS

La portée du montage par le biais de LOFS se limite à la partie du système de fichiers visible à la zone. Ainsi, aucune restriction ne s'applique aux montages LOFS dans une zone.

UFS, UDFS, PCFS et autres systèmes de fichiers basés sur le stockage

Lorsqu'il utilise la commande zonecfg pour configurer des systèmes de fichiers basés sur le stockage et dotés d'un binaire fsck, comme UFS, l'administrateur de zone doit spécifier un paramètre brut. Ce paramètre indique le périphérique brut (en mode caractère) tel que /dev/rdsk/c0t0d0s7. Le démon zoneadmd exécute automatiquement la commande fsck en mode de lissage (fsck –p), qui vérifie et corrige le système de fichiers de façon non interactive, avant de monter le système de fichiers. En cas d'échec de la commande fsck, la commande zoneadmd ne peut pas préparer la zone. Le chemin spécifié par le paramètre raw ne peut pas être relatif.

Indiquer un périphérique à la commande fsck pour un système de fichiers qui ne fournit pas de binaire fsck dans /usr/lib/fs/fstype/fsck constitue une erreur. Ne pas indiquer un périphérique à la commande fsck si un binaire fsck existe pour ce fichier constitue également une erreur.

Pour plus d'informations, reportez-vous à la section Le démon zoneadmd et à la commande fsck(1M).

ZFS

Outre le jeu de données par défaut décrit dans la section Systèmes de fichiers montés dans une zone du manuel Présentation d’Oracle Solaris Zones , vous pouvez ajouter un jeu de données ZFS à une zone non globale à l'aide de la commande zonecfg avec la ressource add dataset. Le jeu de données est visible et monté dans la zone non globale et est également visible dans la zone globale. L'administrateur de zone peut créer et détruire les systèmes de fichiers à l'intérieur de ce jeu de données et modifier les propriétés de celui-ci.

L'attribut zoned de la commande zfs indique l'ajout d'un jeu de données à une zone non globale.

# zfs get zoned tank/sales
NAME          PROPERTY    VALUE      SOURCE
tank/sales    zoned       on         local

Chaque jeu de données délégué à une zone non globale par l'intermédiaire d'une ressource de jeu de données est associé à un alias. La disposition des jeux de données n'est pas visible dans la zone. Chaque jeu de données contenant l'alias s'affiche dans la zone de la même façon que s'il s'agissait d'un pool. L'alias par défaut d'un jeu de données est le dernier composant du nom du jeu de données. Par exemple, si l'alias par défaut est utilisé pour le jeu de données délégué tank/sales, un pool ZFS virtuel nommé sales est visible dans la zone. Vous pouvez personnaliser l'alias sur une valeur différente en définissant la propriété d'alias dans la ressource de jeu de données.

Un jeu de données nommé rpool existe au sein du jeu de données zonepath de chaque zone non globale. Pour toutes les zones non globales, le jeu de données rpool de cette zone est associé à l'alias rpool.

my-zone# zfs list -o name,zoned,mounted,mountpoint
NAME                ZONED  MOUNTED  MOUNTPOINT
rpool                  on       no  /rpool
rpool/ROOT             on       no  legacy
rpool/ROOT/solaris     on      yes  /
rpool/export           on       no  /export
rpool/export/home      on       no  /export/home

Les alias de jeu de données sont soumis aux mêmes restrictions de nom que les pools ZFS. Ces restrictions sont documentées dans la page de manuel zpool(1M).

Si vous souhaitez partager un jeu de données de la zone globale, vous pouvez ajouter un système de fichiers ZFS monté en LOFS à l'aide de la commande zonecfg et de la sous-commande add fs. L'administrateur global ou un utilisateur disposant des autorisations appropriées est chargé de la configuration et du contrôle des propriétés du jeu de données.

Pour plus d'informations sur ZFS, reportez-vous à la section Chapitre 9, Rubriques avancées Oracle Solaris ZFS du manuel Gestion des systèmes de fichiers ZFS dans OracleSolaris 11.2 .