关于 Oracle ZFS Storage Appliance
配置 Oracle ZFS Storage Appliance
配置网络 IP 多路径 (IP MultiPathing, IPMP)
创建使用基于探测的故障检测和链路状态故障检测的 IPMP 组
使用 BUI 创建 InfiniBand 分区数据链路和接口
使用 BUI 为群集化控制器创建没有 VLAN ID 的 VNIC
使用 BUI 为群集化控制器创建具有相同 VLAN ID 的 VNIC
通过 CLI 使用自动生成的 IQN 添加 iSCSI 目标
使用 CLI 添加利用特定 IQN 和 RADIUS 验证的 iSCSI 目标
使用 CLI 添加利用 CHAP 验证的 iSCSI 启动器
设置 Oracle ZFS Storage Appliance 首选项
为了在群集中使用而对 Oracle ZFS Storage Appliance 进行大小调整时,另有两个非常重要的注意事项。或许最重要的决定是将所有存储池的所有权分配给同一机头还是在两个机头之间分割。此处有几点要加以权衡,如下表中所示。一般来说,应该在一个机头上配置池,但额定操作期间针对吞吐量优化或故障转移性能不容考虑时除外。处于故障转移状态时性能特征的确切变化在很大程度上取决于工作负荷的性质和大小。一般来说,某个机头沿任何特定轴提供的性能越接近最大值,工作负荷由该机头的对等设备接管时沿该轴的性能下降越明显。当然,如果包含多个池,两种工作负荷的性能都会下降。
请注意,在任一配置中,要使用任何 ReadZilla 设备,必须在分配了相应池所有权的机头上导入将设备分配到的池。也就是说,如果某个池因机头故障而被接管,即使导入该池的机头上也安装了未使用的 ReadZilla,也没有该池的读取缓存。出于这一原因,应按照存储配置中的说明配置主动-被动群集中的 ReadZilla。这不适用于 LogZilla 设备,LogZilla 位于存储结构中,始终可由已导入了池的机头访问。
|
第二个重要的存储注意事项是采用无单点故障 (No Single Point of Failure, NSPF) 的池配置。由于使用群集意味着应用程序非常注重可用性,因此几乎没有充分的理由将存储池配置为允许单个磁盘机框发生故障导致可用性降低。这种方法的缺点是:NSPF 配置所需的磁盘机框数量比使用闪电战故障配置多;当所需容量很小时,为了在所需的 RAID 级别提供 NSPF 而安装足够的磁盘机框可能在经济上并不划算。