Nota

Installare e configurare Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure

Introduzione

Red Hat OpenShift Data Foundation è una soluzione di storage software-defined completamente integrata progettata per fornire storage scalabile e persistente per le applicazioni containerizzate in esecuzione su Red Hat OpenShift Container Platform. Semplifica la gestione dello storage negli ambienti Kubernetes fornendo opzioni di storage a blocchi, di file e degli oggetti tramite interfacce unificate.

Quando viene distribuito su Oracle Cloud Infrastructure (OCI), Red Hat OpenShift Data Foundation sfrutta l'infrastruttura a bassa latenza ad alte prestazioni di OCI per fornire uno storage affidabile e ad alta disponibilità per i carichi di lavoro moderni. Red Hat OpenShift Data Foundation utilizza OCI Block Volumes e si integra perfettamente con la piattaforma OpenShift di Red Hat per offrire durabilità dei dati, tolleranza agli errori e alta disponibilità.

Architettura di alto livello ODF

Questa esercitazione descrive il processo di impostazione di Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure.

Alla fine di questa esercitazione, avrai una solida conoscenza di come implementare Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure e ottimizzarlo per i tuoi carichi di lavoro containerizzati.

L'immagine seguente illustra il flusso di lavoro.

Passi di installazione ODF

Nota:

Obiettivi

Installa e configura Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure.

Prerequisiti

Task 1: creare un cluster OpenShift con Data Foundation

Questo task fornisce i dettagli per Red Hat OpenShift Data Foundation utilizzando il programma di installazione assistita.

  1. Eseguire il login a Red Hat Hybrid Cloud Console con un nome utente registrato. Se sei un nuovo utente, crea un account.

  2. Fare clic su OpenShift, Cluster e Crea cluster.

  3. Selezionare Interattivo.

  4. In Dettagli cluster, immettere le informazioni riportate di seguito e fare clic su Successivo.

    • Nome cluster: immettere il nome del cluster.
    • Dominio di base: immettere il nome del dominio DNS per la risoluzione del nome.
    • OpenShift versione: è stata utilizzata OpenShift versione 4.17.0. Selezionare la versione 4.13 e successive.
    • Architettura CPU: conservare il valore predefinito (x86_64).
    • Seleziona Oracle Cloud Infrastructure (richiede un manifesto del cliente).

    Integrazione della piattaforma OCI

  5. In Dettagli cluster, selezionare Installa OpenShift Data Foundation e fare clic su Avanti.

    Selezione ODF

  6. In Ricerca automatica host, fare clic su Aggiungi host e attenersi alla procedura riportata di seguito.

    1. Nel menu a discesa Tipo di provisioning, selezionare File di immagine minima.

    2. Scarica un ISO che recupera il contenuto al boot.

    3. In Chiave pubblica SSH, immettere il valore della chiave.

    4. Fare clic su Genera ISO di ricerca automatica.

    5. Quando l'ISO è pronto per il download, fare clic su Scarica ISO di ricerca automatica.

  7. Eseguire il login a OCI Console con i privilegi necessari per interagire con OCI Object Storage ed eseguire i passi riportati di seguito per ottenere l'URL preautenticato.

    1. Passare a Memorizzazione e Periodo fisso.

    2. Creare un bucket o utilizzarne uno esistente.

    3. Caricare l'ISO generato dal task 1.6.

    4. Creare l'URL PAR (Pre-Authenticated) e salvarlo.

    URL pre-autenticato

Task 2: Creare risorse OCI per OpenShift

Questo task creerà le risorse OCI necessarie per OpenShift che includono il piano di controllo, le VM/BM di calcolo, lo storage a blocchi, le zone DNS e i load balancer.

  1. Scaricare il bundle zip oci-openshift del repository GitHub.

  2. Eseguire il login a OCI Console e passare a Servizi sviluppatore, Resource Manager, Stack, quindi fare clic su Crea stack.

  3. Caricare il file zip, immettere le informazioni necessarie e fare clic su Avanti.

    Avvio rapido di OCI Terraform Stack

  4. In Configura variabile immettere le informazioni riportate di seguito.

    • cluster_name: immettere il nome esatto del task 1.4.
    • compartment_ocid: viene popolato automaticamente, ma cambia l'ID compartimento, se necessario. Questa è la posizione in cui verranno distribuite le risorse del cluster OpenShift.
    • compute_boot_size: la dimensione del volume di avvio di ogni nodo di calcolo in GB.
    • compute_boot_volume_vpus_per_gb: il numero di VPU (Volume Performance Unit) che verranno applicate a questo volume per GB di ogni nodo di calcolo. Si consiglia di mantenere il valore predefinito.
    • compute_count: il numero di nodi di calcolo nel cluster (nodi lavoratore).
    • compute_memory: la quantità di memoria disponibile per la forma di ogni nodo di calcolo, espressa in GB. La memoria minima richiesta per il cluster Red Hat OpenShift Data Foundation è di 27 GB. Aggiornare il valore.
    • compute_ocpu: il numero di OCPU disponibili per la forma di ogni nodo di calcolo. La OCPU minima richiesta per il cluster Red Hat OpenShift Data Foundation è 10. Aggiornare il valore.
    • compute_shape: forma di calcolo dei nodi di calcolo. La forma predefinita è VM.Standard.E4. Flexfield.

    Specifica VM di calcolo

    • control_plane_boot_size: la dimensione del volume di avvio di ciascun nodo control_plane in GB.
    • control_plane_boot_volume_vpus_per_gb: il numero di VPU che verranno applicate a questo volume per GB di ogni nodo control_plane. Conservare il valore predefinito.
    • control_plane_count: il numero di nodi control_plane nel cluster.
    • control_plane_memory: la quantità di memoria disponibile per la forma di ogni nodo control_plane, espressa in GB.
    • control_plane_ocpu: il numero di OCPU disponibili per la forma di ogni nodo control_plane.
    • control_plane_shape: forma di computazione dei nodi control_plane.
    • enable_private_dns: selezionare questa opzione se OpenShift utilizzerà il DNS privato. Deselezionare se OpenShift verrà integrato con il DNS pubblico.
    • load_balancer_shape_details_maximum_bandwidth_in_mbps: larghezza di banda in Mbps che determina la larghezza di banda massima.
    • load_balancer_shape_details_minimum_bandwidth_in_mbps: larghezza di banda in Mbps che determina la larghezza di banda totale di cui è stato precedentemente eseguito il provisioning.
    • openshift_image_source_uri: immettere l'URL preautenticato creato nel task 1.7.
    • private_cidr: i blocchi CIDRIPv4 CIDR IPv4 per la subnet pubblica del cluster OpenShift.
    • regione: selezionare l'area OCI.
    • tenancy_ocid: questo valore viene popolato automaticamente. Conservare il valore predefinito.
    • vcn_cidr: i blocchi CIDRIPv4 CIDR IPv4 per la VCN del cluster OpenShift.
    • vcn_dns_label: un'etichetta DNS per la VCN.
    • zone_dns: immettere il dominio di base fornito nella pagina Crea cluster.

    zone_dns

  5. Fare clic su Esegui applicazione e monitorare lo stato di avanzamento dello stack.

Task 3: Creare storage aggiuntivo per Red Hat OpenShift Data Foundation

Questo task fornirà le istruzioni per creare storage a blocchi OCI aggiuntivo richiesto per l'architettura di storage Red Hat OpenShift Data Foundation.

  1. Andare a OCI Console, andare a Storage e Volumi a blocchi.

  2. Crea un volume a blocchi OCI in ogni dominio di disponibilità (AD) in base ai posizionamenti dei nodi di lavoro per le aree multi-AD. Per una singola area AD, è sufficiente crearla nel dominio AD predefinito. Assicurarsi di selezionare la stessa dimensione dei volumi a blocchi per tutti i nodi di lavoro e configurare una VPU che soddisfi le esigenze di storage.

  3. Collegare i volumi a blocchi ai rispettivi nodi di lavoro.

    Nodi COmpute e dominio di disponibilità

    Volumi a blocchi e dominio di disponibilità

Task 4: Continuare il processo di installazione del cluster

In questo task, si continuerà il task di creazione del cluster avviato in Red Hat Hybrid Cloud Console.

  1. Eseguire il login alla Creazione guidata cluster in corso in Red Hat Hybrid Cloud Console.

  2. Nella sezione Ricerca automatica host verranno visualizzate tutte le VM di computazione e controllo.

  3. Selezionare i nodi di calcolo e modificare il ruolo in Lavoratore.

  4. Selezionare i nodi del piano di controllo e modificare il ruolo in nodo del piano di controllo.

  5. Lo stato di tutti i nodi deve essere Pronto e fare clic su Avanti.

    Ricerca automatica host nodi

  6. In questa sezione Memorizzazione, i nodi di calcolo rifletteranno lo stato con Uso ODF.

    Vista memoria

  7. Fare clic su Avanti e conservare i valori predefiniti nella sezione Rete.

  8. Nella sezione File manifesti personalizzati, effettuare le operazioni riportate di seguito.

    1. Andare a OCI Console e aprire i dettagli del job dello stack.

    2. Nella sezione Output copiare il valore di oci_ccm_config e incollarlo nell'ambiente IDE (Integrated Development Environment).

      Output stack

    3. Dovrai acquisire dall'output l'ID compartimento, l'ID VCN, l'ID subnet e gli ID lista di sicurezza.

    4. Estrarre il file zip scaricato nel task 2. Trovare e aggiornare i file oci-ccm.yml, oci-csi.yml e altri file machineconfig.

      oci-ccm-outpt

    5. Nella sezione oci-ccm-04-cloud-controller-manager-config.yaml, aggiornare i valori del file oci-ccm.yml.

      oci-ccm.yml

    6. Nella sezione oci-csi-01-config.yaml aggiornare i valori del file oci-csi.yml.

      oci-csi.yml

    7. Caricare i file manifest aggiornati nei passi precedenti e i file machineconfig senza alcuna modifica.

      Manifest

  9. Rivedere i dettagli e creare il cluster.

  10. Una volta completata l'installazione. Ottenere le credenziali OpenShift URL della console Web e kubeadmin.

    Console OpenShift

Task 5: convalidare il file OpenShift StorageClasses

  1. Eseguire il login alla console OpenShift utilizzando le credenziali kubeadmin.

  2. Convalidare il file OpenShift StorageClasses.

    classi di memorizzazione

    È possibile creare PersistentVolumeClaims da una qualsiasi delle StorageClasses create dall'operatore Red Hat OpenShift Data Foundation e utilizzarle con le applicazioni containerizzate.

Passi successivi

L'implementazione di Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure (OCI) offre una soluzione di storage scalabile, resiliente e ad alte prestazioni per i carichi di lavoro containerizzati. Red Hat OpenShift Data Foundation garantisce una solida protezione dei dati e un'alta disponibilità, offrendo una piattaforma di storage software-defined affidabile che supporta in modo efficiente le tue applicazioni.

Inoltre, Red Hat OpenShift Data Foundation consente alle applicazioni di utilizzare direttamente lo storage di blocchi, file e oggetti attraverso PersistentVolumeClaims e StorageClasses, bypassando le complessità di storage di base e offrendo al contempo un accesso trasparente a vari tipi di storage.

Conferme

Altre risorse di apprendimento

Esplora altri laboratori su docs.oracle.com/learn o accedi a più contenuti gratuiti sulla formazione su Oracle Learning YouTube channel. Inoltre, visita education.oracle.com/learning-explorer per diventare un Oracle Learning Explorer.

Per la documentazione del prodotto, visita l'Oracle Help Center.