Sekundäre Infrastruktur bereitstellen

Mit Terraform können Sie die sekundäre Site schnell erstellen und Informationen aus der gerade erstellten primären OCI-Site extrahieren. Terraform vereinfacht das Provisioning des Netzwerks, indem die Netzwerktopologie am sekundären Standort dupliziert wird. Mit der OCI-Konsole können Sie den Rest der Infrastruktur bereitstellen.

Sekundäre OCI-Region abonnieren

Erstellen Sie Ihr DR-Replikat, indem Sie geografisch getrennt von der primären Oracle Cloud Infrastructure-(OCI-)Zielregion eine zweite Region abonnieren. Diese sekundäre Region muss ähnliche Infrastrukturressourcen wie die primäre Region unterstützen. Beispiel: Oracle Exadata Database Service on Dedicated Infrastructure mit derselben oder einer ähnlichen Ausprägung und Anzahl, Compute-Instanzen mit ähnlichen Ausprägungen und Zahlen, OCI File Storage auf beiden Seiten usw.
  1. Melden Sie sich bei der OCI-Konsole für Ihren Mandanten an.
  2. Blenden Sie das Hauptmenü ein, und klicken Sie auf Governance und Administration.
  3. Klicken Sie unter "Accountverwaltung" auf Regionsverwaltung.
    Eine Liste aller verfügbaren Bereiche wird angezeigt. Regionen, die der Mandant derzeit abonniert hat, haben den abonnierten Status Subscribed. Neben anderen Regionen wird die Schaltfläche Abonnieren angezeigt.
  4. Klicken Sie für die Region, die Ihre sekundäre Site sein soll, auf Abonnieren.
    Beispiel: US West (Phoenix), region identifier: us-phoenix-1.

Um zwischen Regionen zu wechseln, verwenden Sie das Regionskombinationsfeld im oberen Banner der OCI-Konsole.

Netzwerkressource der sekundären Region mit Terraform bereitstellen

Mit Terraform können Sie Ihre Netzwerkressourcen schnell in der sekundären Region bereitstellen. Die Verwendung von Terraform zum Duplizieren Ihrer Netzwerkdefinition auf Ihrer sekundären Site vereinfacht die Aufgabe und eliminiert ein erhebliches Fehlerpotenzial.

Wenn Sie über einen gültigen Terraform-Plan verfügen, stellt die apply-Funktion von Terraform alle in den .tf-Dateien definierten Ressourcen bereit, wodurch die Provisioning-Zeit erheblich verkürzt wird.

Sie können den Befehl mit der Terraform-Befehlszeilenschnittstelle oder der Terraform-Schnittstelle der OCI-Konsole ausführen. Beide Ansätze bieten die gleiche Funktionalität.

Hinweis:

Im Folgenden werden die allgemeinen Schritte zum Erstellen Ihrer Netzwerkressourcen mit Terraform beschrieben. Ein Beispiel für die Ermittlung einer Netzwerkkonfiguration in einer Umgebung und die Neuerstellung in einer anderen Umgebung finden Sie unter "Mit Terraform arbeiten".
  1. Führen Sie den Terraform-Befehl discovery aus, um alle oder ausgewählte Ressourcen in der primären Region im Mandanten zu exportieren. Terraform erkennt und exportiert Objekte aus einem bestimmten Compartment. In unserem Fall die psft-network-compartment.
  2. Bearbeiten Sie die Terraform-Dateien (.tf).
  3. Validieren Sie den Terraform-Plan anhand der sekundären Siteregion, und beheben Sie Fehler.

    Hinweis:

    Bei der Bearbeitung des VCN-CIDR ist es wichtig, dass ein sich nicht überschneidender CIDR-Block ausgewählt wird. Beispiel: Wenn das VCN in Ashburn 10.0.0.0/16 lautet, könnte ein CIDR-Block in Phoenix (wie wir ausgewählt haben) 10.10.0.0/16 lauten.

  4. Führen Sie den Terraform-Befehl apply aus, um die Ressourcen auf der Site der sekundären Region bereitzustellen.

Provisioning der sekundären Region abschließen

Nachdem das Netzwerk eingerichtet wurde, können Sie mit der OCI-Konsole die Compute-Instanzen, den OCI File Storage und Oracle Exadata Database Service on Dedicated Infrastructure für die sekundäre Region bereitstellen. Dies ähnelt dem Provisioning der primären Infrastruktur.

Oracle Exadata Database Service on Dedicated Infrastructure bereitstellen

Mit der Oracle Cloud Infrastructure-(OCI-)Konsole können Sie Ihre Zielumgebung bereitstellen.

Diese Beispielarchitektur verwendet das folgende Oracle Exadata-Modell und die folgende Ausprägung: Oracle Exadata Cloud X6-2 Quarter Rack mit zwei Rechenknoten (domUs) und drei Speicherzellen. Die Availability-Domain ist AD-2.

  • Mit der OCI-Konsole können Sie Ihre Oracle Exadata Cloud Infrastructure-Ressource erstellen.
    Unter Exadata Cloud Infrastructure-Instanz erstellen in Oracle Cloud Exadata Database Service on Dedicated Infrastructure wird beschrieben, wie Sie ein Exadata Cloud Infrastructure-Deployment vorbereiten und starten. Außerdem werden die Schritte zum Ausfüllen und Weiterleiten Ihrer Anforderung beschrieben.
    Wählen Sie das Oracle Exadata-Modell und die Oracle Exadata-Ausprägung aus, und geben Sie die Availability-Domain an. Bei Bedarf können Sie die Compute- und Speicherkapazität nach dem Provisioning vertikal skalieren.
Nachdem Sie die Provisioning-Anforderung zur Erstellung von Oracle Exadata Cloud Infrastructure weitergeleitet haben, wird der Status in der Liste "Exadata Infrastructure" mit dem Status "Provisioning wird ausgeführt" angezeigt. Warten Sie, bis das Infrastruktur-Provisioning abgeschlossen ist, bevor Sie fortfahren.

VM-Cluster in der sekundären Region bereitstellen

Nachdem Ihr Oracle Exadata Database Service on Dedicated Infrastructure erfolgreich bereitgestellt wurde, können Sie das VM-Cluster in der Infrastruktur bereitstellen.

  • Mit der OCI-Konsole können Sie eine VM-Clusterinstanz erstellen.
    Die Schritte finden Sie unter So erstellen Sie eine Cloud-VM-Clusterressource in Oracle Cloud Exadata Database Service on Dedicated Infrastructure.

    Die Architektur für dieses VM-Cluster verwendet Folgendes für die sekundäre Phoenix-Region:

    Feldname Datum
    Exadata-VM-Clustername PHX-Exa-VMCluster-1
    Compartment psft_exa_compartment
    Hostnamenpräfix phxexadb
    Subnetz für Oracle Exadata Database Service on Dedicated Infrastructure-Clientnetzwerk exadb_private_subnet-ad1
    Subnetz für Oracle Exadata Database Service on Dedicated Infrastructure-Backups exadb-backup_private_subnet-ad1
    OCPU-Anzahl 22
    Grid Infrastructure-Version 19c RU 19 (19.19.0.0.0)
    Datenbankversion 19c RU 19 (19.19.0.0.0)
    Lokaler Speicher für Backup Nein – Backups werden im regionslokalen Objektspeicher gespeichert
    SPARSE-ASM-Plattengruppe Nein für Production, eventuell Ja für Testdatenbanken

Das Exadata-VM-Cluster ist innerhalb weniger Stunden vollständig hochgefahren, wird ausgeführt und kann aufgerufen werden. Die folgenden Komponenten sind vollständig konfiguriert.

  • Zwei domU-Compute-VM-Knoten
  • Oracle Clusterware und Oracle Grid Infrastructure
  • SCAN-Name mit drei IP-Adressen im Clientsubnetz
  • SCAN und Grid VIPs mit den jeweiligen Zuhörern
  • ASM-Datenträgergruppen mit hoher Redundanz
Plattengruppenname Redundanz Gesamtgröße (MB) Verwendbar (MB)
DATAC1 High 161.206.272 48.055.638
RECOC1 High 53.747.712 16.376.564

Andere kleine Datenträgergruppen werden zur Unterstützung von Oracle Advanced Cluster File System (Oracle ACFS) erstellt.

Compute-Instanzen bereitstellen

Die Compute-Instanzen sind Ihre Anwendungs- und Middle Tier-Server. Sie werden für PeopleSoft-Anwendungs- und PeopleSoft Internet Architecture-(PIA-)Webserver verwendet.

Wählen Sie beim Provisioning von Compute-Instanzen die Ausprägung aus, die Ihre Workload am besten unterstützt. OCI bietet verschiedene Ausprägungen zur Auswahl sowie eine Auswahl zwischen Intel- oder AMD-basierten Prozessoren. Sowohl Oracle Linux als auch Microsoft Windows werden unterstützt. Geben Sie beim Provisioning der Compute Nodes der Anwendungsebene das Compartment (psft-app-compartment) an, in dem die Compute-Instanzressourcen gespeichert werden sollen, und geben Sie das Subnetz für die Anwendungsebenen an (app-private-subnet-ad1). Die Anwendungsserver hosten:

  • Tuxedo-Anwendungsserverdomain
  • Tuxedo-Batchprozess-Serverdomain
  • MicroFocus COBOL-Compiler und Laufzeitfunktion

Sie können die PIA-Webserver bereitstellen und in demselben Compartment speichern und dasselbe Subnetz wie die Anwendungsserver verwenden. Sie werden Folgendes hosten:

  • WebLogic Webserver zum Hosten der PIA-Server
  • Coherence*Webcacheserver (optional)
  • Stellen Sie Ihre Compute-Instanzen bereit, indem Sie die Schritte unter Mit Instanzen arbeiten ausführen.

    Wir haben vier Compute-Instanzen für die PeopleSoft-Anwendung und die Web-Tiers bereitgestellt: zwei zum Hosten des Anwendungsservers und des Prozessplaners und zwei zum Hosten des PIA-Webservers und Coherence*Web. Die folgende Tabelle enthält die Eigenschaften dieser Compute-Instanzen in der sekundären Region Phoenix.

    Hostname Ausprägungstyp OCPU Speicher (GB) Blockspeichergröße (GB) Stufe Subnetz Komponenten
    phx-psft-hcm-app01 VM.Standard2.4 4 60 128 Anwendung app-private-subnet-ad1 Tuxedo: Anwendungsserver, Prozess-Scheduler
    phx-psft-hcm-app02 VM.Standard2.2 4 60 128 Anwendung app-private-subnet-ad1 Tuxedo: Anwendungsserver, Prozess-Scheduler
    phx-psft-hcm-web01 VM.Standard2.4 2 30 128 Web app-private-subnet-ad1 WebLogic: Pure Internet Application Server, Coherence*Web
    phx-psft-hcm-web02 VM.Standard2.2 2 30 128 Web app-private-subnet-ad1 WebLogic: Pure Internet Application Server, Coherence*Web

OCI-Compute-Instanzen erstellen

Stellen Sie die Compute-Instanzen in Oracle Cloud Infrastructure (OCI) bereit.

Die Konfiguration unserer Middle Tier-Server war einfach und Standard, wobei nur die Größe der Boot-, Root- und Swap-Dateisysteme angepasst werden musste. Zum Zeitpunkt des Provisionings für unser Boot-Volume war die Standardgröße 46.6GB. Diese Standardgröße enthält die erforderlichen Linux-Dateisysteme, darunter:

  • Ein /boot-Dateisystem (200 MB)
  • Ein Root-Dateisystem (/) (39 GB)
  • Ein Swap-Volume (8 GB)

Sowohl für die Anwendungs- als auch für die Web-Tier-Server mussten wir das Boot-Dateisystem auf 128 GB, das Root-Dateisystem auf 100 GB und die gesamte Swap-Größe auf 16 GB erhöhen.

  1. Öffnen Sie das Navigationsmenü in der OCI-Konsole.
  2. Klicken Sie auf Compute und dann auf Instanzen.
  3. Click Create Instance, then enter a name for the instance.
    Sie können den Namen später hinzufügen oder ändern. Der Name muss nicht eindeutig sein, weil eine Oracle Cloud-ID (OCID) die Instanz eindeutig identifiziert. Geben Sie dabei keine vertraulichen Informationen ein.
  4. Wählen Sie das Compartment aus, in dem die Instanz erstellt werden soll, und füllen Sie die Felder aus.
  5. Klicken Sie auf Create.
    Der Provisioning-Prozess erstellt die Compute-Instanzen.
  6. Erhöhen Sie die Größe der Root-Partition und des Root-Dateisystems.
    Siehe My Oracle Support-Dokument 2445549.1: So erstellen Sie eine Linux-Instanz mit benutzerdefiniertem Boot-Volume und erweitern die Root-Partition in OCI, um die Root-Partition und dann die Root-Dateisystemgröße um 61 GB zu erhöhen.

    Hinweis:

    Der Prozess, nach dem OCI das größere Boot-Volume durch Provisioning bereitstellt, besteht darin, eine 39-GB-Root-Partition zu erstellen und dann ein paravirtualisiertes Block-Volume für die angeforderte Erhöhung anzuhängen.
  7. Fügen Sie eine 8-GB-Swap-Partition hinzu.
    In My Oracle Support-Dokument 2475325.1: So erhöhen Sie den Swap-Speicher auf Linux-OCI-Instanzen wird beschrieben, wie Sie eine 8-GB-Swappartition hinzufügen, was insgesamt 16 GB Swap-Speicher ergibt.

OCI File Storage in der sekundären Region bereitstellen

Oracle Cloud Infrastructure File Storage stellt die gemeinsamen Dateisysteme für alle Anwendungs- und PIA-Server bereit. Diese Server verwenden NFS, um die gemeinsam genutzten Dateisysteme einzuhängen. Wenn Sie OCI File Storage über die OCI-Konsole bereitstellen, stellen Sie sicher, dass sich der Dateispeicher in derselben Availability-Domain wie die Anwendung und die PIA-Server befindet.
  1. Wählen Sie unter "File Storage" in der OCI-Konsole Storage und dann File Systems aus.
  2. Wählen Sie das Compartment aus, in dem das Dateisystem gespeichert werden soll.
    Beispiel: psft-app-compartment.
  3. Klicken Sie auf Dateisystem erstellen.
  4. Wählen Sie Dateisystem für NFS aus.
  5. Klicken Sie unter "Dateisysteminformationen" auf Details bearbeiten.
    1. Ändern Sie den Standardnamen in einen Namen Ihrer Wahl.
      In diesem Beispiel wird die Region Phoenix als Sekundärregion verwendet. Beispiel: PHX_PSFT_APP_INSTALL oder PHX_PSFT_APP_INTERFACE.
    2. Ändern Sie die Availability-Domain in die Availability-Domain, in der die Compute-Instanzen bereitgestellt werden.
      Beispiel: US-PHOENIX-AD1.
    3. Wählen Sie das Compartment aus, in dem das Dateisystem angezeigt werden soll.
      Beispiel: psft-app-compartment.
    4. Wählen Sie eine Verschlüsselungsoption.
      Beispiel: Oracle Managed Keys.
  6. Klicken Sie unter "Exportinformationen" auf Details bearbeiten.
    1. Geben Sie einen Exportpfad an.
      Beispiel: /export/psftapp oder /export/psftinterface.
    2. Aktivieren Sie bei Bedarf das Kontrollkästchen für sichere Exporte.
      Weitere Informationen finden Sie im Informationssymbol neben dieser Option.
  7. Klicken Sie unter "Informationen zum Mountziel" auf Details bearbeiten.
    1. Wählen Sie entweder die Option Wählen Sie ein vorhandenes Mount-Ziel aus oder Erstellen Sie ein neues Mount-Ziel aus.
    2. Klicken Sie auf Compartment-Auswahl aktivieren.
      Auf diese Weise können Sie das Compartment auswählen, in dem sich das VCN und die Subnetze befinden.
    3. Select the compartment that the mount target will either be created in or already exists in from Create in the Compartment drop-down combo box.
    4. Wählen Sie im Dropdown-Kombinationsfeld Virtuelles Cloud-Netzwerk das Compartment aus, in dem sich das VCN befindet.
    5. Wenn Sie ein neues Mountziel erstellen, geben Sie einen Namen ein.
    6. Wenn Sie ein vorhandenes Mountziel verwenden, wählen Sie im Dropdown-Kombinationsfeld "Subnetz" das Compartment aus, in dem das Mountziel bereitgestellt wurde.
  8. Klicken Sie auf Create.

Sicherheits-Ingress- und Egress-Regeln suchen

Suchen Sie die erforderlichen Sicherheits-Ingress- und -Egress-Regeln, die den entsprechenden Sicherheitslisten hinzugefügt werden sollen, sowie die Befehle, die Sie für jede Anwendung und jeden PeopleSoft Internet Architecture-(PIA-)Server ausgeben müssen. Führen Sie nach dem Provisioning des Dateisystems die folgenden Schritte aus:

  1. Melden Sie sich bei der OCI-Konsole an.
  2. Wählen Sie unter File Storage die Optionen Storage, File Systems aus.
  3. Wählen Sie das Compartment aus, das das Dateisystem enthält.
  4. Wählen Sie den Namen des von Ihnen bereitgestellten Dateisystems aus.
  5. Klicken Sie auf Ziel exportieren.
  6. Klicken Sie auf Mountbefehle.
    In einem Fenster werden die Ingress- und Egress-Regeln sowie die Befehle angezeigt, mit denen das Dateisystem gemountet wird.
  7. Hervorheben und klicken Sie auf Kopieren, um die Mountbefehle zur späteren Verwendung zu kopieren.
  8. Bearbeiten Sie die Sicherheitsliste, die mit dem Subnetz verknüpft ist, mit dem Sie OCI File Storage mounten, um die Ingress- und Egress-Regeln hinzuzufügen.

Remote-VCN-Peering einrichten

Mit Remote-VCN-Peering können Sie zwei VCNs in verschiedenen Regionen desselben Mandanten verbinden. Mit Peering können die Ressourcen der VCNs sicher über private IP-Adressen kommunizieren, ohne den Traffic über das Internet oder über Ihr On-Premise-Netzwerk zu leiten.

Für die Einrichtung von Remote-VCN-Peering sind folgende Voraussetzungen erforderlich:

  • Das dynamische Routinggateway (DRG) muss in jeder Region vorhanden sein.
  • Definieren Sie die Paarung zwischen den VCNs in den Regionen, indem Sie jedem DRG eine Remote-Peering-Verbindung (RPC) zuordnen.
  • Implementieren Sie eine explizite Vereinbarung als OCI Identity and Access Management-Policy für jedes VCN, das der Peering-Beziehung zustimmt.
  • Fügen Sie Routentabellenregeln für jedes VCN hinzu, um Traffic weiterzuleiten. Das DRG verfügt über eine Routentabelle, die für Remote-VCN-Peering spezifisch ist und aktualisiert werden kann.
  • Fügen Sie Ingress- und Egress-Regeln für Sicherheitslisten zu Subnetzen hinzu, die Traffic zwischen Regionen haben dürfen.

Aktualisieren Sie beim Einrichten von Remote-VCN-Peering Routentabellen in beiden Regionen, damit Traffic durchlaufen kann. Die folgenden Tabellen enthalten Beispiele. Die Zeilen mit dem Zieltyp "Dynamisches Routinggateway" stellen die Regeln dar, die Traffic über das DRG dieser Region an das DRG in der anderen Region weiterleiten.

Im Folgenden sind die aktualisierten Routentabellen in der Region Ashburn für db-private-RT und app-private-RT aufgeführt:

db-private-RT:
Ziel Zieltyp Target
0.0.0.0/0 NAT-Gateway maa-ngw
10.10.101.0/24 Dynamisches Routinggateway cloudmaa-vcn-DRG
Alle IAD-Services in Oracle Service Network Servicegateway Maa-Iad-sgw
app-private-RT:
Ziel Zieltyp Target
0.0.0.0/0 NAT-Gateway maa-ngw
10.10.106.0/24 Dynamisches Routinggateway cloudmaa-vcn-DRG

Im Folgenden werden die aktualisierten Routentabellen in der Region Phoenix für db-private-RT und app-private-RT aufgeführt:

db-private-RT:
Ziel Zieltyp Target
0.0.0.0/0 NAT-Gateway maa-ngw
10.0.101.0/24 Dynamisches Routinggateway maacloud2-vcn-DRG
Alle PHX-Services in Oracle Service Network Servicegateway Maa-phx-sgw
app-private-RT:
Ziel Zieltyp Target
0.0.0.0/0 NAT-Gateway maa-ngw
10.0.103.0/24 Dynamisches Routinggateway maacloud2-vcn-DRG

Hinweis:

Informationen zum Implementieren von Remote-VCN-Peering für Ihre Umgebung finden Sie unter VCNs in verschiedenen Regionen über ein DRG per Peering verbinden.

Überblick über die erforderlichen Schritte:

  1. RPCs erstellen: Erstellen Sie eine RPC für das DRG jedes VCN.
  2. Informationen gemeinsam verwenden: Die Administratoren verwenden die grundlegenden erforderlichen Informationen gemeinsam.
  3. Verbindung herstellen: Zwei RPCs verbinden
  4. Routentabellen aktualisieren: Aktualisieren Sie die Routentabellen jedes VCN, um den Traffic zwischen den Peer-VCNs zu aktivieren.
  5. Sicherheitsregeln aktualisieren: Aktualisieren Sie die Sicherheitsregeln jedes VCN, um den Traffic zwischen den Peer-VCNs zu aktivieren.