注意:

在 Oracle Cloud Infrastructure 上安装和配置 Red Hat OpenShift Data Foundation

简介

Red Hat OpenShift Data Foundation 是一个完全集成的软件定义存储解决方案,旨在为在 Red Hat OpenShift 容器平台上运行的容器化应用程序提供可扩展的持久性存储。它通过统一的接口提供块存储、文件和对象存储选项,简化了跨 Kubernetes 环境的存储管理。

在 Oracle Cloud Infrastructure (OCI) 上部署后,Red Hat OpenShift Data Foundation 利用 OCI 的高性能、低延迟基础设施为现代工作负载提供可靠的高可用性存储。Red Hat OpenShift Data Foundation 使用 OCI Block Volumes,并与 Red Hat OpenShift 平台无缝集成,提供数据持久性、容错和高可用性。

ODF 高级体系结构

本教程将引导您完成在 Oracle Cloud Infrastructure 上设置 Red Hat OpenShift Data Foundation 的过程。

在本教程结束时,您将深入了解如何在 Oracle Cloud Infrastructure 上实施 Red Hat OpenShift Data Foundation,并针对容器化工作负载进行优化。

下图说明工作流。

ODF 安装步骤

注:

目标

在 Oracle Cloud Infrastructure 上安装和配置 Red Hat OpenShift Data Foundation。

先决条件

任务 1:使用 Data Foundation 创建 OpenShift 集群

此任务提供了使用辅助安装程序的 Red Hat OpenShift Data Foundation 的详细信息。

  1. 使用已注册的用户名登录到 Red Hat Hybrid Cloud Console 。如果您是新用户,请创建账户。

  2. 单击 OpenShiftClustersCreate cluster

  3. 选择交互

  4. 群集详细信息中,输入以下信息,然后单击下一步

    • 集群名称::输入集群的名称。
    • 基本域:输入名称解析的 DNS 域名。
    • OpenShift 版本:我们使用了 OpenShift 版本 4.17.0。选择 4.13 版本及更高版本。
    • CPU 体系结构:保留默认值 (x86_64 )。
    • 选择 Oracle Cloud Infrastructure(需要客户清单)

    OCI 平台集成

  5. 群集详细信息中,选择 Install OpenShift Data Foundation ,然后单击 Next

    ODF 选择

  6. 主机搜索中,单击添加主机并按照以下步骤操作:

    1. 预配类型下拉菜单中,选择最小图像文件

    2. 下载在引导时获取内容的 ISO。

    3. SSH Public Key 中,输入密钥值。

    4. 单击 Generate Discovery ISO

    5. ISO 准备下载后,单击 Download Discovery ISO

  7. 使用与 OCI 对象存储交互所需的权限登录 OCI 控制台,并执行以下步骤来获取预先验证的 URL

    1. 导航到 StorageBucket

    2. 创建存储桶或使用现有存储桶。

    3. 上载从任务 1.6 生成的 ISO。

    4. 创建 Pre-Authenticated (PAR) URL 并保存它。

    预先验证的 URL

任务 2:为 OpenShift 创建 OCI 资源

此任务将为 OpenShift 创建必要的 OCI 资源,其中包括控制层、计算 VM/BM、块存储、DNS 区域和负载平衡器。

  1. 下载 GitHub 资源库 oci-openshift zip 包。

  2. 登录到 OCI 控制台并导航到 Developer Services(开发人员服务)Resource Manager(资源管理器)Stacks(堆栈),然后单击 Create Stack(创建堆栈)

  3. 上载 zip 文件,输入必需信息,然后单击 Next

    OCI 快速入门 Terraform 堆栈

  4. 配置变量中,输入以下信息。

    • cluster_name:输入任务 1.4 中的确切名称。
    • compartment_ocid:这是自动填充的,但如果需要,请更改区间 ID。这就是将部署 OpenShift 集群资源的位置。
    • compute_boot_size:每个计算节点的引导卷大小(以 GB 为单位)。
    • compute_boot_volume_vpus_per_gb:每个计算节点每 GB 将应用于此卷的卷性能单元 (VPU) 数量。建议保留默认值。
    • compute_count:集群中的计算节点数(工作进程节点)。
    • compute_memory:每个计算节点的配置可用的内存量(以 GB 为单位)。Red Hat OpenShift Data Foundation 集群所需的最小内存为 27 GB。更新值。
    • compute_ocpu:每个计算节点的配置可用的 OCPU 数。Red Hat OpenShift Data Foundation 集群所需的最小 OCPU 为 10。更新值。
    • compute_shape:计算节点的计算配置。缺省配置是 VM.Standard.E4。弹性域

    计算 VM 规范

    • control_plane_boot_size:每个 control_plane 节点的引导卷大小(以 GB 为单位)。
    • control_plane_boot_volume_vpus_per_gb:每个 control_plane 节点中每 GB 将应用于此卷的 VPU 数。保留默认值。
    • control_plane_count:群集中 control_plane 节点的数量。
    • control_plane_memory:每个 control_plane 节点的配置可用的内存量(以 GB 为单位)。
    • control_plane_ocpu:每个 control_plane 节点的配置可用的 OCPU 数。
    • control_plane_shape:control_plane 节点的计算配置。
    • enable_private_dns:如果 OpenShift 将使用专用 DNS,则选择此项。如果 OpenShift 将与公共 DNS 集成,则取消选择此选项。
    • load_balancer_shape_details_maximum_bandwidth_in_mbps:Mbps 中的带宽,用于确定最大带宽。
    • load_balancer_shape_details_minimum_bandwidth_in_mbps:Mbps 中的带宽,用于确定预配的总带宽。
    • openshift_image_source_uri:输入在任务 1.7 中创建的预先验证的 URL
    • private_cidr:OpenShift 群集的公共子网的 IPv4 CIDR 块。
    • 区域:选择 OCI 区域。
    • tenancy_ocid:这是自动填充的。保留默认值。
    • vcn_cidr:OpenShift 集群的 VCN 的 IPv4 CIDR 块。
    • vcn_dns_label:VCN 的 DNS 标签。
    • zone_dns:输入创建集群页中提供的基本域。

    zone_dns

  5. 单击运行应用并监视堆栈的进度。

任务 3:为 Red Hat OpenShift Data Foundation 创建附加存储

此任务将提供创建 Red Hat OpenShift Data Foundation 存储体系结构所需的其他 OCI 块存储的说明。

  1. 转到 OCI 控制台,导航到存储块存储卷

  2. 基于多 AD 区域的 worker 节点放置,在每个可用性域 (AD) 中创建 OCI 块存储卷。对于单个 AD 区域,只需在默认 AD 中创建它即可。确保为所有 worker 节点选择大小相同的块存储卷,并配置可满足存储需求的 VPU。

  3. 将块存储卷连接到相应的 worker 节点。

    COmpute 节点和可用性域

    块存储卷和可用性域

任务 4:继续群集安装过程

在此任务中,我们将继续在 Red Hat Hybrid Cloud Console 中启动的集群创建任务。

  1. 登录到 Red Hat Hybrid Cloud Console 中的持续群集创建向导。

  2. 您将注意到主机搜索部分中显示的所有计算和控制 VM。

  3. 选择计算节点并将角色更改为工作人员

  4. 选择控制层节点并将角色更改为控制层节点

  5. 所有节点状态都应显示 Ready ,然后单击 Next

    节点主机搜索

  6. 在此存储部分中,计算节点将使用 ODF 用量反映状态。

    存储视图

  7. 单击 Next 并保留 Networking 部分中的默认值。

  8. Custom manifests 部分中,按照以下步骤操作:

    1. 转到 OCI 控制台并打开堆栈作业详细信息

    2. 输出部分中,复制 oci_ccm_config并将其粘贴到集成开发环境 (IDE) 中。

      堆栈输出

    3. 您需要从输出中获取区间 ID、VCN ID、子网 ID 和安全列表 ID。

    4. 提取在任务 2 中下载的 zip 文件。查找并更新 oci-ccm.ymloci-csi.yml 和其他 machineconfig 文件。

      oci-ccm-outpt

    5. oci-ccm-04-cloud-controller-manager-config.yaml 部分下,更新 oci-ccm.yml 文件值。

      oci-ccm.yml

    6. oci-csi-01-config.yaml 部分下,更新 oci-csi.yml 文件值。

      oci-csi.yml

    7. 上载在前面的步骤中更新的清单文件和不受任何修改的 machineconfig 文件。

      清单

  9. 查看详细信息并创建群集。

  10. 安装成功后。获取 OpenShift Web 控制台 URLkubeadmin 身份证明。

    OpenShift 控制台

任务 5:验证 OpenShift StorageClasses

  1. 使用 kubeadmin 凭证登录到 OpenShift 控制台。

  2. 验证 OpenShift StorageClasses。

    存储等级

    您可以从 Red Hat OpenShift Data Foundation 运算符创建的任何 StorageClasses 创建 PersistentVolumeClaims ,并将其用于容器化应用程序。

后续步骤

在 Oracle Cloud Infrastructure (OCI) 上部署 Red Hat OpenShift Data Foundation,为容器化工作负载提供可扩展、可恢复的高性能存储解决方案。Red Hat OpenShift Data Foundation 可确保强大的数据保护和高可用性,并提供可靠的软件定义存储平台来高效支持您的应用。

此外,Red Hat OpenShift Data Foundation 允许应用程序通过 PersistentVolumeClaimsStorageClasses 直接使用块存储、文件和对象存储,从而绕过底层存储复杂性,同时提供对各种存储类型的无缝访问。

确认

更多学习资源

浏览 docs.oracle.com/learn 上的其他实验室,或者访问 Oracle Learning YouTube 渠道上的更多免费学习内容。此外,请访问 education.oracle.com/learning-explorer 成为 Oracle Learning Explorer。

有关产品文档,请访问 Oracle 帮助中心