En esta sección se describen las novedades de ZFS en Developer 1/08.
Uso de los dispositivos de caché en la agrupación de almacenamiento ZFS: en esta versión de Solaris, puede crear una agrupación y especificar dispositivos de caché que se usan para guardar en la caché los datos de la agrupación de almacenamiento.
Los dispositivos de caché ofrecen un nivel adicional de grabación de datos en caché entre la memoria principal y el disco. El uso de dispositivos de caché optimiza el rendimiento en las cargas de trabajo de lectura aleatorias del contenido principalmente estático.
Se pueden especificar uno o más dispositivos de caché al crear la agrupación. Por ejemplo:
# zpool create pool mirror c0t2d0 c0t4d0 cache c0t0d0 # zpool status pool pool: pool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM pool ONLINE 0 0 0 mirror ONLINE 0 0 0 c0t2d0 ONLINE 0 0 0 c0t4d0 ONLINE 0 0 0 cache c0t0d0 ONLINE 0 0 0 errors: No known data errors |
Tras agregar los dispositivos de la caché, gradualmente se llenan con contenido de la memoria principal. Según el tamaño del dispositivo de la caché, puede llevar más de una hora en llenarse. La capacidad y las lecturas se pueden supervisar con el comando zpool iostat del modo siguiente:
# zpool iostat -v pool 5 |
Los dispositivos de la caché se pueden agregar o quitar de la agrupación después de crearse dicha agrupación.
Para obtener más información, consulte zpool(1M) y la Guía de administración de ZFS.
Mejoras en el comando zfs send: esta versión incluye las mejoras siguientes en el comando zfs send.
Envíe todos los flujos de datos incrementales de una instantánea a una instantánea acumulativa. Por ejemplo:
# zfs list NAME USED AVAIL REFER MOUNTPOINT pool 428K 16.5G 20K /pool pool/fs 71K 16.5G 21K /pool/fs pool/fs@snapA 16K - 18.5K - pool/fs@snapB 17K - 20K - pool/fs@snapC 17K - 20.5K - pool/fs@snapD 0 - 21K - # zfs send -I pool/fs@snapA pool/fs@snapD > /snaps/fs@combo |
Envíe todas las instantáneas incrementales entre fs@snapA a fs@snapD a fs@combo.
Envíe un flujo de datos incrementales de la instantánea de origen para crear un clon. Para que se acepte el flujo incremental, la instantánea original ya debe estar en la parte receptora. Por ejemplo:
# zfs send -I pool/fs@snap1 pool/clone@snapA > /snaps/fsclonesnap-I . . # zfs receive -F pool/clone < /snaps/fsclonesnap-I |
Envíe un flujo de replicación de todos los sistemas de archivos descendentes, hasta las instantáneas nombradas. Cuando se reciben, se conservan todas las propiedades, las instantáneas, los sistemas de archivos descendentes y los clones. Por ejemplo:
zfs send -R pool/fs@snap > snaps/fs-R |
Si desea ver un ejemplo más detallado, consulte Sending and Receiving Complex ZFS Snapshot Streams en la Guía de administración de Solaris ZFS.
Envíe un flujo de datos de replicación incremental.
zfs send -R -[iI] @snapA pool/fs@snapD |
Si desea ver un ejemplo más detallado, consulte Sending and Receiving Complex ZFS Snapshot Streams en la Guía de administración de Solaris ZFS.
Para obtener más información, consulte Cómo guardar y restaurar datos de ZFS en la Guía de administración de Solaris ZFS.
Reservas y cuotas de ZFS sólo para los datos del sistema de archivos: además de las funciones de reserva y cuota de ZFS existentes, al calcular el consumo de espacio esta versión tiene en cuenta reservas y cuotas de conjuntos de datos que no incluyen descendentes, por ejemplo instantáneas y clones.
La propiedad refquota limita la cantidad de espacio que un conjunto de datos puede consumir. Esta propiedad impone un límite físico en la cantidad de espacio que se puede usar. Este límite físico no incluye el espacio usado por los descendentes, por ejemplo instantáneas y clones.
La propiedad refreservation establece la cantidad mínima de espacio que se garantiza a un conjunto de datos, sin incluir a sus descendentes.
Por ejemplo, puede establecer 10 GB de refquota para studentA que establezca un límite físico de 10 GB de espacio referenciado. Si desea una flexibilidad adicional, puede establecer una cuota de 20 GB que permita administrar instantáneas de studentA.
# zfs set refquota=10g tank/studentA # zfs set quota=20g tank/studentA |
Si desea más información, consulte Cuotas y reservas de ZFS en Guía de administración de ZFS.
Propiedades del sistema de archivos ZFS para el servicio CIFS de Solaris: esta versión proporciona compatibilidad para el servicio CIFS (Sistema común de archivos de Internet) de Solaris. Este producto posibilita compartir archivos entre los sistemas Solaris y Windows o MacOS.
Para que entre estos sistemas se puedan compartir archivos mediante el servicio CIFS de Solaris, se ofrecen las siguientes propiedades nuevas de ZFS:
Compatibilidad con la distinción entre mayúsculas y minúsculas (casesensitivity)
Cierres obligatorios de no bloqueo (nbmand)
Compatibilidad con compartición de SMB (sharesmb)
Compatibilidad con la normalización de Unicode (normalization)
Compatibilidad con el conjunto de caracteres UTF-8 (utf8only)
Además de las propiedades de ZFS incorporadas para admitir el producto de software CIFS de Solaris, la propiedad vscan está disponible para escanear archivos ZFS si tiene un motor de escaneado de virus de terceros.
Para obtener más información sobre el uso de estas propiedades, consulte Administración de propiedades de ZFS en la Guía de administración de Solaris ZFS.
Para obtener más información sobre el servicio CIFS de Solaris, consulte el manual Solaris CIFS Administration Guide .
Propiedades de la agrupación de almacenamiento ZFS: esta versión ofrece información sobre las propiedades de la agrupación ZFS. Por ejemplo:
# zpool get all users NAME PROPERTY VALUE SOURCE users size 16.8G - users used 217M - users available 16.5G - users capacity 1% - users altroot - default users health ONLINE - users guid 11063207170669925585 - users version 8 default users bootfs - default users delegation on default users autoreplace off default users temporary on local |
Propiedad cachefile: esta versión ofrece la propiedad cachefile, que controla dónde se guarda la información de configuración de la agrupación en la caché. Todos los grupos de la caché se importan automáticamente cuando arranca el sistema. Sin embargo, la instalación y los entornos de administración de clústeres quizá deban almacenar en la caché esta información en otra ubicación para impedir la importación automática de las agrupaciones.
Esta propiedad puede establecerse para que la configuración de la agrupación se guarde en la caché en otra ubicación que luego pueda importarse con el comando zpool import c. Esta propiedad no se utilizar en la mayoría de las configuraciones de ZFS.
La propiedad cachefile no es persistente y no se almacena en el disco. Esta propiedad sustituye a temporary, propiedad que se usó para indicar que la información de la agrupación no debe guardarse en la caché en versiones anteriores de Solaris.
Propiedad failmode: esta versión proporciona la propiedad failmode para determinar el comportamiento de un error grave de agrupación debido a una pérdida de conectividad de dispositivos o al error de todos los dispositivos de la agrupación. La propiedad failmode se puede establecer con los valores wait, continue o panic. El valor predeterminado es wait, lo que significa que debe volver a conectar el dispositivo, o sustituir un dispositivo anómalo y suprimir el error con el comando zpool clear.
La propiedad failmode se establece como otras propiedades configurables de ZFS que se pueden establecer antes o después de crear la agrupación. Por ejemplo:
# zpool set failmode=continue tank # zpool get failmode tank NAME PROPERTY VALUE SOURCE tank failmode continue local |
# zpool create -o failmode=continue |
Si desea ver una descripción de todas las propiedades del grupo ZFS, consulte Administración de propiedades de grupos de almacenamiento de ZFS en la Guía de administración de Solaris ZFS.
Montajes de duplicación del sistema de archivos y ZFS: en esta versión de Solaris se ofrecen mejoras en el montaje de NFSv4 para que los clientes NFS puedan acceder mejor a los sistemas de archivos ZFS.
Cuando se crean sistemas de archivos en el servidor NFS, el cliente NFS puede descubrir automáticamente estos sistemas de archivos recién creados en el montaje existente de un sistema de archivos superior.
Por ejemplo, si el servidor neo ya comparte el sistema de archivos tank y el cliente zee lo tiene montado, /tank/baz se hace visible automáticamente en el cliente después de crearlo en el servidor.
zee# mount neo:/tank /mnt zee# ls /mnt baa bar neo# zfs create tank/baz zee% ls /mnt baa bar baz zee% ls /mnt/baz file1 file2 |
Consulte las siguientes secciones de este documento para obtener información sobre la función ZFS: