Nota
- Questa esercitazione richiede l'accesso a Oracle Cloud. Per iscriverti a un account gratuito, consulta Inizia a utilizzare Oracle Cloud Infrastructure Free Tier.
- Utilizza valori di esempio per le credenziali, la tenancy e i compartimenti di Oracle Cloud Infrastructure. Al termine del laboratorio, sostituisci questi valori con quelli specifici del tuo ambiente cloud.
Installare e configurare Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure
Introduzione
Red Hat OpenShift Data Foundation è una soluzione di storage software-defined completamente integrata progettata per fornire storage scalabile e persistente per le applicazioni containerizzate in esecuzione su Red Hat OpenShift Container Platform. Semplifica la gestione dello storage negli ambienti Kubernetes fornendo opzioni di storage a blocchi, di file e degli oggetti tramite interfacce unificate.
Quando viene distribuito su Oracle Cloud Infrastructure (OCI), Red Hat OpenShift Data Foundation sfrutta l'infrastruttura a bassa latenza ad alte prestazioni di OCI per fornire uno storage affidabile e ad alta disponibilità per i carichi di lavoro moderni. Red Hat OpenShift Data Foundation utilizza OCI Block Volumes e si integra perfettamente con la piattaforma OpenShift di Red Hat per offrire durabilità dei dati, tolleranza agli errori e alta disponibilità.
Questa esercitazione descrive il processo di impostazione di Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure.
- Preparare l'ambiente e comprendere i prerequisiti OCI.
- Distribuisci Red Hat OpenShift Data Foundation con OCI Block Volumes per le richieste di volume persistenti.
- Configurare le classi di storage per lo storage a blocchi, di file e degli oggetti.
- Garantisci alta disponibilità e ridondanza dei dati utilizzando i domini di disponibilità e i domini di errore di OCI.
Alla fine di questa esercitazione, avrai una solida conoscenza di come implementare Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure e ottimizzarlo per i tuoi carichi di lavoro containerizzati.
L'immagine seguente illustra il flusso di lavoro.
Nota:
- Questo tutorial offre solo istruzioni per l'implementazione di OpenShift con Red Hat OpenShift Data Foundation. L'implementazione di Red Hat OpenShift Data Foundation per l'implementazione esistente sarà disponibile a breve.
- Le attività descritte nell'esercitazione riguardano il metodo di installazione assistita.
Obiettivi
Installa e configura Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure.
Prerequisiti
-
Accedi a Red Hat Hybrid Cloud Console con abbonamento o licenza valida.
-
Accesso a una tenancy OCI con i privilegi necessari per eseguire il provisioning delle risorse.
-
Limiti del servizio OCI per il provisioning di risorse quali OCI Compute VM/BM, OCI Load Balancer, OCI Block Volumes e così via.
-
OpenShift versione 4.13 e successive.
Task 1: creare un cluster OpenShift con Data Foundation
Questo task fornisce i dettagli per Red Hat OpenShift Data Foundation utilizzando il programma di installazione assistita.
-
Eseguire il login a Red Hat Hybrid Cloud Console con un nome utente registrato. Se sei un nuovo utente, crea un account.
-
Fare clic su OpenShift, Cluster e Crea cluster.
-
Selezionare Interattivo.
-
In Dettagli cluster, immettere le informazioni riportate di seguito e fare clic su Successivo.
- Nome cluster: immettere il nome del cluster.
- Dominio di base: immettere il nome del dominio DNS per la risoluzione del nome.
- OpenShift versione: è stata utilizzata OpenShift versione 4.17.0. Selezionare la versione 4.13 e successive.
- Architettura CPU: conservare il valore predefinito (x86_64).
- Seleziona Oracle Cloud Infrastructure (richiede un manifesto del cliente).
-
In Dettagli cluster, selezionare Installa OpenShift Data Foundation e fare clic su Avanti.
-
In Ricerca automatica host, fare clic su Aggiungi host e attenersi alla procedura riportata di seguito.
-
Nel menu a discesa Tipo di provisioning, selezionare File di immagine minima.
-
Scarica un ISO che recupera il contenuto al boot.
-
In Chiave pubblica SSH, immettere il valore della chiave.
-
Fare clic su Genera ISO di ricerca automatica.
-
Quando l'ISO è pronto per il download, fare clic su Scarica ISO di ricerca automatica.
-
-
Eseguire il login a OCI Console con i privilegi necessari per interagire con OCI Object Storage ed eseguire i passi riportati di seguito per ottenere l'URL preautenticato.
-
Passare a Memorizzazione e Periodo fisso.
-
Creare un bucket o utilizzarne uno esistente.
-
Caricare l'ISO generato dal task 1.6.
-
Creare l'URL PAR (Pre-Authenticated) e salvarlo.
-
Task 2: Creare risorse OCI per OpenShift
Questo task creerà le risorse OCI necessarie per OpenShift che includono il piano di controllo, le VM/BM di calcolo, lo storage a blocchi, le zone DNS e i load balancer.
-
Scaricare il bundle zip oci-openshift del repository GitHub.
-
Eseguire il login a OCI Console e passare a Servizi sviluppatore, Resource Manager, Stack, quindi fare clic su Crea stack.
-
Caricare il file zip, immettere le informazioni necessarie e fare clic su Avanti.
-
In Configura variabile immettere le informazioni riportate di seguito.
- cluster_name: immettere il nome esatto del task 1.4.
- compartment_ocid: viene popolato automaticamente, ma cambia l'ID compartimento, se necessario. Questa è la posizione in cui verranno distribuite le risorse del cluster OpenShift.
- compute_boot_size: la dimensione del volume di avvio di ogni nodo di calcolo in GB.
- compute_boot_volume_vpus_per_gb: il numero di VPU (Volume Performance Unit) che verranno applicate a questo volume per GB di ogni nodo di calcolo. Si consiglia di mantenere il valore predefinito.
- compute_count: il numero di nodi di calcolo nel cluster (nodi lavoratore).
- compute_memory: la quantità di memoria disponibile per la forma di ogni nodo di calcolo, espressa in GB. La memoria minima richiesta per il cluster Red Hat OpenShift Data Foundation è di 27 GB. Aggiornare il valore.
- compute_ocpu: il numero di OCPU disponibili per la forma di ogni nodo di calcolo. La OCPU minima richiesta per il cluster Red Hat OpenShift Data Foundation è 10. Aggiornare il valore.
- compute_shape: forma di calcolo dei nodi di calcolo. La forma predefinita è VM.Standard.E4. Flexfield.
- control_plane_boot_size: la dimensione del volume di avvio di ciascun nodo control_plane in GB.
- control_plane_boot_volume_vpus_per_gb: il numero di VPU che verranno applicate a questo volume per GB di ogni nodo control_plane. Conservare il valore predefinito.
- control_plane_count: il numero di nodi control_plane nel cluster.
- control_plane_memory: la quantità di memoria disponibile per la forma di ogni nodo control_plane, espressa in GB.
- control_plane_ocpu: il numero di OCPU disponibili per la forma di ogni nodo control_plane.
- control_plane_shape: forma di computazione dei nodi control_plane.
- enable_private_dns: selezionare questa opzione se OpenShift utilizzerà il DNS privato. Deselezionare se OpenShift verrà integrato con il DNS pubblico.
- load_balancer_shape_details_maximum_bandwidth_in_mbps: larghezza di banda in Mbps che determina la larghezza di banda massima.
- load_balancer_shape_details_minimum_bandwidth_in_mbps: larghezza di banda in Mbps che determina la larghezza di banda totale di cui è stato precedentemente eseguito il provisioning.
- openshift_image_source_uri: immettere l'URL preautenticato creato nel task 1.7.
- private_cidr: i blocchi CIDRIPv4 CIDR IPv4 per la subnet pubblica del cluster OpenShift.
- regione: selezionare l'area OCI.
- tenancy_ocid: questo valore viene popolato automaticamente. Conservare il valore predefinito.
- vcn_cidr: i blocchi CIDRIPv4 CIDR IPv4 per la VCN del cluster OpenShift.
- vcn_dns_label: un'etichetta DNS per la VCN.
- zone_dns: immettere il dominio di base fornito nella pagina Crea cluster.
-
Fare clic su Esegui applicazione e monitorare lo stato di avanzamento dello stack.
Task 3: Creare storage aggiuntivo per Red Hat OpenShift Data Foundation
Questo task fornirà le istruzioni per creare storage a blocchi OCI aggiuntivo richiesto per l'architettura di storage Red Hat OpenShift Data Foundation.
-
Andare a OCI Console, andare a Storage e Volumi a blocchi.
-
Crea un volume a blocchi OCI in ogni dominio di disponibilità (AD) in base ai posizionamenti dei nodi di lavoro per le aree multi-AD. Per una singola area AD, è sufficiente crearla nel dominio AD predefinito. Assicurarsi di selezionare la stessa dimensione dei volumi a blocchi per tutti i nodi di lavoro e configurare una VPU che soddisfi le esigenze di storage.
-
Collegare i volumi a blocchi ai rispettivi nodi di lavoro.
Task 4: Continuare il processo di installazione del cluster
In questo task, si continuerà il task di creazione del cluster avviato in Red Hat Hybrid Cloud Console.
-
Eseguire il login alla Creazione guidata cluster in corso in Red Hat Hybrid Cloud Console.
-
Nella sezione Ricerca automatica host verranno visualizzate tutte le VM di computazione e controllo.
-
Selezionare i nodi di calcolo e modificare il ruolo in Lavoratore.
-
Selezionare i nodi del piano di controllo e modificare il ruolo in nodo del piano di controllo.
-
Lo stato di tutti i nodi deve essere Pronto e fare clic su Avanti.
-
In questa sezione Memorizzazione, i nodi di calcolo rifletteranno lo stato con Uso ODF.
-
Fare clic su Avanti e conservare i valori predefiniti nella sezione Rete.
-
Nella sezione File manifesti personalizzati, effettuare le operazioni riportate di seguito.
-
Andare a OCI Console e aprire i dettagli del job dello stack.
-
Nella sezione Output copiare il valore di
oci_ccm_config
e incollarlo nell'ambiente IDE (Integrated Development Environment). -
Dovrai acquisire dall'output l'ID compartimento, l'ID VCN, l'ID subnet e gli ID lista di sicurezza.
-
Estrarre il file zip scaricato nel task 2. Trovare e aggiornare i file
oci-ccm.yml
,oci-csi.yml
e altri file machineconfig. -
Nella sezione oci-ccm-04-cloud-controller-manager-config.yaml, aggiornare i valori del file
oci-ccm.yml
. -
Nella sezione oci-csi-01-config.yaml aggiornare i valori del file
oci-csi.yml
. -
Caricare i file manifest aggiornati nei passi precedenti e i file machineconfig senza alcuna modifica.
-
-
Rivedere i dettagli e creare il cluster.
-
Una volta completata l'installazione. Ottenere le credenziali OpenShift URL della console Web e
kubeadmin
.
Task 5: convalidare il file OpenShift StorageClasses
-
Eseguire il login alla console OpenShift utilizzando le credenziali
kubeadmin
. -
Convalidare il file OpenShift StorageClasses.
È possibile creare PersistentVolumeClaims da una qualsiasi delle StorageClasses create dall'operatore Red Hat OpenShift Data Foundation e utilizzarle con le applicazioni containerizzate.
Passi successivi
L'implementazione di Red Hat OpenShift Data Foundation su Oracle Cloud Infrastructure (OCI) offre una soluzione di storage scalabile, resiliente e ad alte prestazioni per i carichi di lavoro containerizzati. Red Hat OpenShift Data Foundation garantisce una solida protezione dei dati e un'alta disponibilità, offrendo una piattaforma di storage software-defined affidabile che supporta in modo efficiente le tue applicazioni.
Inoltre, Red Hat OpenShift Data Foundation consente alle applicazioni di utilizzare direttamente lo storage di blocchi, file e oggetti attraverso PersistentVolumeClaims e StorageClasses, bypassando le complessità di storage di base e offrendo al contempo un accesso trasparente a vari tipi di storage.
Collegamenti correlati
Conferme
- Autore - Devendra Gawale (architetto della virtualizzazione cloud)
Altre risorse di apprendimento
Esplora altri laboratori su docs.oracle.com/learn o accedi a più contenuti gratuiti sulla formazione su Oracle Learning YouTube channel. Inoltre, visita education.oracle.com/learning-explorer per diventare un Oracle Learning Explorer.
Per la documentazione del prodotto, visita l'Oracle Help Center.
Install and Configure Red Hat OpenShift Data Foundation on Oracle Cloud Infrastructure
G23212-01
November 2024