Sekundäre Infrastruktur bereitstellen
Sekundäre OCI-Region abonnieren
Um zwischen Regionen zu wechseln, verwenden Sie das Regionskombinationsfeld im oberen Banner der OCI-Konsole.
Netzwerkressource der sekundären Region mit Terraform bereitstellen
Mit Terraform können Sie Ihre Netzwerkressourcen schnell in der sekundären Region bereitstellen. Die Verwendung von Terraform zum Duplizieren Ihrer Netzwerkdefinition auf Ihrer sekundären Site vereinfacht die Aufgabe und eliminiert ein erhebliches Fehlerpotenzial.
Wenn Sie über einen gültigen Terraform-Plan verfügen, stellt die apply
-Funktion von Terraform alle in den .tf
-Dateien definierten Ressourcen bereit, wodurch die Provisioning-Zeit erheblich verkürzt wird.
Sie können den Befehl mit der Terraform-Befehlszeilenschnittstelle oder der Terraform-Schnittstelle der OCI-Konsole ausführen. Beide Ansätze bieten die gleiche Funktionalität.
Hinweis:
Im Folgenden werden die allgemeinen Schritte zum Erstellen Ihrer Netzwerkressourcen mit Terraform beschrieben. Ein Beispiel für die Ermittlung einer Netzwerkkonfiguration in einer Umgebung und die Neuerstellung in einer anderen Umgebung finden Sie unter "Mit Terraform arbeiten".Provisioning der sekundären Region abschließen
Nachdem das Netzwerk eingerichtet wurde, können Sie mit der OCI-Konsole die Compute-Instanzen, den OCI File Storage und Oracle Exadata Database Service on Dedicated Infrastructure für die sekundäre Region bereitstellen. Dies ähnelt dem Provisioning der primären Infrastruktur.
Oracle Exadata Database Service on Dedicated Infrastructure bereitstellen
Mit der Oracle Cloud Infrastructure-(OCI-)Konsole können Sie Ihre Zielumgebung bereitstellen.
Diese Beispielarchitektur verwendet das folgende Oracle Exadata-Modell und die folgende Ausprägung: Oracle Exadata Cloud X6-2 Quarter Rack mit zwei Rechenknoten (domUs) und drei Speicherzellen. Die Availability-Domain ist AD-2.
VM-Cluster in der sekundären Region bereitstellen
Nachdem Ihr Oracle Exadata Database Service on Dedicated Infrastructure erfolgreich bereitgestellt wurde, können Sie das VM-Cluster in der Infrastruktur bereitstellen.
Das Exadata-VM-Cluster ist innerhalb weniger Stunden vollständig hochgefahren, wird ausgeführt und kann aufgerufen werden. Die folgenden Komponenten sind vollständig konfiguriert.
- Zwei domU-Compute-VM-Knoten
- Oracle Clusterware und Oracle Grid Infrastructure
- SCAN-Name mit drei IP-Adressen im Clientsubnetz
- SCAN und Grid VIPs mit den jeweiligen Zuhörern
- ASM-Datenträgergruppen mit hoher Redundanz
Plattengruppenname | Redundanz | Gesamtgröße (MB) | Verwendbar (MB) |
---|---|---|---|
DATAC1 | High | 161.206.272 | 48.055.638 |
RECOC1 | High | 53.747.712 | 16.376.564 |
Andere kleine Datenträgergruppen werden zur Unterstützung von Oracle Advanced Cluster File System (Oracle ACFS) erstellt.
Compute-Instanzen bereitstellen
Die Compute-Instanzen sind Ihre Anwendungs- und Middle Tier-Server. Sie werden für PeopleSoft-Anwendungs- und PeopleSoft Internet Architecture-(PIA-)Webserver verwendet.
Wählen Sie beim Provisioning von Compute-Instanzen die Ausprägung aus, die Ihre Workload am besten unterstützt. OCI bietet verschiedene Ausprägungen zur Auswahl sowie eine Auswahl zwischen Intel- oder AMD-basierten Prozessoren. Sowohl Oracle Linux als auch Microsoft Windows werden unterstützt. Geben Sie beim Provisioning der Compute Nodes der Anwendungsebene das Compartment (psft-app-compartment
) an, in dem die Compute-Instanzressourcen gespeichert werden sollen, und geben Sie das Subnetz für die Anwendungsebenen an (app-private-subnet-ad1
). Die Anwendungsserver hosten:
- Tuxedo-Anwendungsserverdomain
- Tuxedo-Batchprozess-Serverdomain
- MicroFocus COBOL-Compiler und Laufzeitfunktion
Sie können die PIA-Webserver bereitstellen und in demselben Compartment speichern und dasselbe Subnetz wie die Anwendungsserver verwenden. Sie werden Folgendes hosten:
- WebLogic Webserver zum Hosten der PIA-Server
- Coherence*Webcacheserver (optional)
OCI-Compute-Instanzen erstellen
Stellen Sie die Compute-Instanzen in Oracle Cloud Infrastructure (OCI) bereit.
Die Konfiguration unserer Middle Tier-Server war einfach und Standard, wobei nur die Größe der Boot-, Root- und Swap-Dateisysteme angepasst werden musste. Zum Zeitpunkt des Provisionings für unser Boot-Volume war die Standardgröße 46.6GB. Diese Standardgröße enthält die erforderlichen Linux-Dateisysteme, darunter:
- Ein
/boot
-Dateisystem (200 MB) - Ein Root-Dateisystem (
/
) (39 GB) - Ein Swap-Volume (8 GB)
Sowohl für die Anwendungs- als auch für die Web-Tier-Server mussten wir das Boot-Dateisystem auf 128 GB, das Root-Dateisystem auf 100 GB und die gesamte Swap-Größe auf 16 GB erhöhen.
OCI File Storage in der sekundären Region bereitstellen
Sicherheits-Ingress- und Egress-Regeln suchen
Suchen Sie die erforderlichen Sicherheits-Ingress- und -Egress-Regeln, die den entsprechenden Sicherheitslisten hinzugefügt werden sollen, sowie die Befehle, die Sie für jede Anwendung und jeden PeopleSoft Internet Architecture-(PIA-)Server ausgeben müssen. Führen Sie nach dem Provisioning des Dateisystems die folgenden Schritte aus:
Remote-VCN-Peering einrichten
Mit Remote-VCN-Peering können Sie zwei VCNs in verschiedenen Regionen desselben Mandanten verbinden. Mit Peering können die Ressourcen der VCNs sicher über private IP-Adressen kommunizieren, ohne den Traffic über das Internet oder über Ihr On-Premise-Netzwerk zu leiten.
Für die Einrichtung von Remote-VCN-Peering sind folgende Voraussetzungen erforderlich:
- Das dynamische Routinggateway (DRG) muss in jeder Region vorhanden sein.
- Definieren Sie die Paarung zwischen den VCNs in den Regionen, indem Sie jedem DRG eine Remote-Peering-Verbindung (RPC) zuordnen.
- Implementieren Sie eine explizite Vereinbarung als OCI Identity and Access Management-Policy für jedes VCN, das der Peering-Beziehung zustimmt.
- Fügen Sie Routentabellenregeln für jedes VCN hinzu, um Traffic weiterzuleiten. Das DRG verfügt über eine Routentabelle, die für Remote-VCN-Peering spezifisch ist und aktualisiert werden kann.
- Fügen Sie Ingress- und Egress-Regeln für Sicherheitslisten zu Subnetzen hinzu, die Traffic zwischen Regionen haben dürfen.
Aktualisieren Sie beim Einrichten von Remote-VCN-Peering Routentabellen in beiden Regionen, damit Traffic durchlaufen kann. Die folgenden Tabellen enthalten Beispiele. Die Zeilen mit dem Zieltyp "Dynamisches Routinggateway" stellen die Regeln dar, die Traffic über das DRG dieser Region an das DRG in der anderen Region weiterleiten.
Im Folgenden sind die aktualisierten Routentabellen in der Region Ashburn für db-private-RT
und app-private-RT
aufgeführt:
db-private-RT
:
Ziel | Zieltyp | Target |
---|---|---|
0.0.0.0/0 | NAT-Gateway | maa-ngw |
10.10.101.0/24 | Dynamisches Routinggateway | cloudmaa-vcn-DRG |
Alle IAD-Services in Oracle Service Network | Servicegateway | Maa-Iad-sgw |
app-private-RT
:
Ziel | Zieltyp | Target |
---|---|---|
0.0.0.0/0 | NAT-Gateway | maa-ngw |
10.10.106.0/24 | Dynamisches Routinggateway | cloudmaa-vcn-DRG |
Im Folgenden werden die aktualisierten Routentabellen in der Region Phoenix für db-private-RT
und app-private-RT
aufgeführt:
db-private-RT
:
Ziel | Zieltyp | Target |
---|---|---|
0.0.0.0/0 | NAT-Gateway | maa-ngw |
10.0.101.0/24 | Dynamisches Routinggateway | maacloud2-vcn-DRG |
Alle PHX-Services in Oracle Service Network | Servicegateway | Maa-phx-sgw |
app-private-RT
:
Ziel | Zieltyp | Target |
---|---|---|
0.0.0.0/0 | NAT-Gateway | maa-ngw |
10.0.103.0/24 | Dynamisches Routinggateway | maacloud2-vcn-DRG |
Hinweis:
Informationen zum Implementieren von Remote-VCN-Peering für Ihre Umgebung finden Sie unter VCNs in verschiedenen Regionen über ein DRG per Peering verbinden.Überblick über die erforderlichen Schritte:
- RPCs erstellen: Erstellen Sie eine RPC für das DRG jedes VCN.
- Informationen gemeinsam verwenden: Die Administratoren verwenden die grundlegenden erforderlichen Informationen gemeinsam.
- Verbindung herstellen: Zwei RPCs verbinden
- Routentabellen aktualisieren: Aktualisieren Sie die Routentabellen jedes VCN, um den Traffic zwischen den Peer-VCNs zu aktivieren.
- Sicherheitsregeln aktualisieren: Aktualisieren Sie die Sicherheitsregeln jedes VCN, um den Traffic zwischen den Peer-VCNs zu aktivieren.