JavaScript is required to for searching.
跳过导航链接
退出打印视图
从 Oracle Solaris 10 转换到 Oracle Solaris 11.1     Oracle Solaris 11.1 Information Library (简体中文)
search filter icon
search icon

文档信息

前言

1.  从 Oracle Solaris 10 转换到 Oracle Solaris 11 发行版(概述)

2.  转换到 Oracle Solaris 11 安装方法

3.  管理设备

4.  管理存储功能

5.  管理文件系统

Oracle Solaris 11 文件系统更改

根文件系统要求和更改

挂载文件系统更改

管理 ZFS 文件系统更改

显示 ZFS 文件系统信息

解决 ZFS 文件系统空间报告问题

解决 ZFS 存储池空间报告问题

使 ZFS 文件系统可用

ZFS 文件系统共享更改

传统的 ZFS 共享语法

ZFS 共享迁移/转换问题

ZFS 重复数据删除要求

考虑 ZFS 备份功能

将文件系统数据迁移到 ZFS 文件系统

建议的数据迁移做法

使用 ZFS 影子迁移功能迁移数据

将 UFS 数据迁移到 ZFS 文件系统(ufsdumpufsrestore

6.  管理软件和引导环境

7.  管理网络配置

8.  管理系统配置

9.  管理安全

10.  在虚拟环境中管理 Oracle Solaris 发行版

11.  管理用户帐户和用户环境

12.  管理桌面功能

A.  SPARC 自动化安装方案

管理 ZFS 文件系统更改

Oracle Solaris 10 发行版中不可使用的以下 ZFS 文件系统功能现可用于 Oracle Solaris 11:

显示 ZFS 文件系统信息

安装系统后,请查看 ZFS 存储池和 ZFS 文件系统信息。

使用 zpool status 命令可显示 ZFS 存储池信息。

使用 zfs list 命令可显示 ZFS 文件系统信息。例如:

有关根池组件的说明,请参见安装后查看初始 ZFS BE

解决 ZFS 文件系统空间报告问题

在确定可用的池和文件系统空间方面,zpool listzfs list 命令要比以前的 dfdu 命令出色。使用传统命令,既不能轻易分辨池和文件系统空间,也不能对后代文件系统或快照使用的空间做出解释。

例如,以下根池 (rpool) 有 5.46 GB 的已分配空间和 68.5 GB 的空闲空间。

# zpool list rpool
NAME   SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
rpool   74G  5.46G  68.5G   7%  1.00x  ONLINE  -

如果通过查看各个文件系统的 USED 列来比较池空间核算和文件系统空间核算,则会看到对池空间的说明。例如:

# zfs list -r rpool
NAME                      USED  AVAIL  REFER  MOUNTPOINT
rpool                    5.41G  67.4G  74.5K  /rpool
rpool/ROOT               3.37G  67.4G    31K  legacy
rpool/ROOT/solaris       3.37G  67.4G  3.07G  /
rpool/ROOT/solaris/var    302M  67.4G   214M  /var
rpool/dump               1.01G  67.5G  1000M  -
rpool/export             97.5K  67.4G    32K  /rpool/export
rpool/export/home        65.5K  67.4G    32K  /rpool/export/home
rpool/export/home/admin  33.5K  67.4G  33.5K  /rpool/export/home/admin
rpool/swap               1.03G  67.5G  1.00G  -

解决 ZFS 存储池空间报告问题

zpool list 命令报告的 SIZE 值通常为池中的物理磁盘空间量,具体大小视池的冗余级别而异。请参见下面的示例。zfs list 命令列出了可供文件系统使用的可用空间,该空间等于磁盘空间减去 ZFS 池冗余元数据开销(若有)。

使 ZFS 文件系统可用

在以下方面,使 ZFS 文件系统可用与 Oracle Solaris 10 发行版类似:

ZFS 文件系统共享更改

在 Oracle Solaris 10 中,可以设置 sharenfssharesmb 属性来创建和发布 ZFS 文件系统共享,或者可以使用传统 share 命令。

在 Oracle Solaris 11 中,按如下所述创建 ZFS 文件系统共享,然后发布共享:

新共享的主要差异如下:

在 Oracle Solaris 11.1 中,ZFS 文件系统共享已经改进,主要增强功能如下:

这些文件共享改进功能与池版本 34 相关。有关更多信息,请参见《Oracle Solaris 11.1 管理:ZFS 文件系统》中的"共享和取消共享 ZFS 文件系统"

传统的 ZFS 共享语法

仍将支持传统共享语法,而无需修改 /etc/dfs/dfstab 文件。传统共享由 SMF 服务进行管理。

  1. 可以使用 share 命令共享文件系统。

    例如,要共享某个 ZFS 文件系统:

    # share -F nfs /tank/zfsfs
    # cat /etc/dfs/sharetab
    /tank/zfsfs        -       nfs     rw

    上面的语法与共享 UFS 文件系统的语法完全一致:

    # share -F nfs /ufsfs
    # cat /etc/dfs/sharetab
    /ufsfs  -       nfs     rw      
    /tank/zfsfs     -       nfs     rw      
  2. 您可以创建启用 sharenfs 属性的文件系统,如在先前发行版中一样。Oracle Solaris 11 行为是将为文件系统创建缺省共享。

    # zfs create -o sharenfs=on rpool/data
    # cat /etc/dfs/sharetab
    /rpool/data     rpool_data      nfs     sec=sys,rw

以上文件系统共享会立即发布。

ZFS 共享迁移/转换问题

在本节中查看共享转换问题。

ZFS 重复数据删除要求

在 Oracle Solaris 11 中,可以使用重复数据删除 (dedup) 属性来删除 ZFS 文件系统中的冗余数据。如果文件系统启用了 dedup 属性,则会以同步方式删除重复的数据块。结果是仅存储唯一的数据,在文件之间共享通用组件。例如:

# zfs set dedup=on tank/home

只有在执行了以下步骤确定系统是否支持重复数据删除后,才能启用驻留在生产系统上的文件系统中的 dedup 属性。

  1. 确定数据是否将受益于重复数据删除产生的空间节省。如果不能进行重复数据删除,则启用 dedup 毫无意义。运行以下命令非常占用内存:

    # zdb -S tank
    Simulated DDT histogram:
    bucket              allocated                       referenced          
    ______   ______________________________   ______________________________
    refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
    ------   ------   -----   -----   -----   ------   -----   -----   -----
         1    2.27M    239G    188G    194G    2.27M    239G    188G    194G
         2     327K   34.3G   27.8G   28.1G     698K   73.3G   59.2G   59.9G
         4    30.1K   2.91G   2.10G   2.11G     152K   14.9G   10.6G   10.6G
         8    7.73K    691M    529M    529M    74.5K   6.25G   4.79G   4.80G
        16      673   43.7M   25.8M   25.9M    13.1K    822M    492M    494M
        32      197   12.3M   7.02M   7.03M    7.66K    480M    269M    270M
        64       47   1.27M    626K    626K    3.86K    103M   51.2M   51.2M
       128       22    908K    250K    251K    3.71K    150M   40.3M   40.3M
       256        7    302K     48K   53.7K    2.27K   88.6M   17.3M   19.5M
       512        4    131K   7.50K   7.75K    2.74K    102M   5.62M   5.79M
        2K        1      2K      2K      2K    3.23K   6.47M   6.47M   6.47M
        8K        1    128K      5K      5K    13.9K   1.74G   69.5M   69.5M
     Total    2.63M    277G    218G    225G    3.22M    337G    263G    270G
    
    dedup = 1.20, compress = 1.28, copies = 1.03, dedup * compress / copies = 1.50

    如果估计的重复数据删除比大于 2,则重复数据删除可能会带来空间节省。

    在此示例中,由于重复数据删除比 (dedup = 1.20) 小于 2,因此不建议启用 dedup。

  2. 请确保系统具有足够的内存来支持重复数据删除。

    • 每个核心中重复数据删除表项约为 320 字节。

    • 用分配的块数乘以 320。例如:

      in-core DDT size = 2.63M x 320 = 841.60M
  3. 当重复数据删除表可以完全装入内存时,重复数据删除的性能最佳。如果不得不将重复数据删除表写入磁盘,则性能将降低。如果对内存资源不足的文件系统启用重复数据删除,则在执行与文件系统相关的操作期间,系统性能可能会降低。例如,删除启用了重复数据删除的内存资源不足的大型文件系统时可能会影响系统性能。