Netzwerkanforderungen für Kundenstandort

Lesen Sie die Themen in diesem Abschnitt, um Ihre Netzwerkumgebung vor der Ankunft des Oracle Compute Cloud@Customer-Racks vorzubereiten.

Hinweis

Zusätzlich zu den hier aufgeführten Netzwerkanforderungen arbeitet ein Oracle-Beauftragter mit Ihnen zusammen, um sicherzustellen, dass Ihre Data-Center-Netzwerkkonfiguration für Compute Cloud@Customer bereit ist, bevor das Rack eintrifft.

Verwenden Sie die Netzwerkinformationen in diesem Abschnitt mit der Netzwerk-Checkliste, um Ihr Netzwerk vorzubereiten.

Die Oracle Compute Cloud@Customer-Netzwerkarchitektur basiert auf physischer High-Speed-Ethernet-Konnektivität.

Die Netzwerkinfrastruktur in Oracle Compute Cloud@Customer ist integraler Bestandteil und darf nicht geändert werden. Das Netzwerk lässt sich nicht in Data-Center-Management- oder Provisioning-Frameworks wie Cisco ACI, Network Director oder dergleichen integrieren.

Achtung

Änderungen an den Netzwerk-Switches im Compute Cloud@Customer-Rack werden nur unterstützt, wenn Sie von einem Oracle KM-Hinweis oder Oracle-Personal dazu aufgefordert werden.

Netzwerküberblick

Hinweis

Weitere Konzepte zur Netzwerkübersicht werden unter Network Infrastructure beschrieben.

Die Compute Cloud@Customer-Infrastruktur verwendet diese Netzwerke.

  • Datennetzwerk: Die Datenkonnektivität der Infrastruktur basiert auf redundanten 100-Gbit-Switches im zweischichtigen Design, das einer Leaf-Spine-Topologie ähnelt. Eine Infrastruktur enthält zwei Leaf- und zwei Wirbelsäulen-Switches. Die Leaf Switches verbinden die Rackhardwarekomponenten, während die Spine Switches das Rückgrat des Netzwerks bilden und einen Pfad für externen Verkehr bereitstellen.
  • Uplinks: Uplinks sind die Verbindungen zwischen der Infrastruktur und dem Kunden-Data Center. Für die externe Konnektivität werden 5 Ports für jeden Wirbelsäulen-Switch reserviert. Vier Ports stehen zur Verfügung, um die Uplinks zwischen der Infrastruktur und dem Rechenzentrumsnetzwerk herzustellen. Ein Port wird verwendet, um das Administrationsnetzwerk vom Datenverkehr zu trennen.
  • Administrationsnetzwerk: Dieses erforderliche Netzwerk wird als physisch getrenntes Netzwerk vom Datennetzwerk konfiguriert. Dadurch wird der Konfigurations- und Verwaltungsdatenverkehr von der Betriebsaktivität im Datennetzwerk isoliert, indem dedizierte, gesicherte Netzwerkpfade für Administrationsvorgänge bereitgestellt werden. Dieses Netzwerk umfasst alle Komponentenverwaltungsschnittstellen.

    Das Einrichten eines getrennten Administrationsnetzwerks umfasst die folgenden Aktionen:

    • Zusätzliche Ethernetverbindungen von den Netzwerkgeräten des Data Centers der nächsten Ebene zum Port 5 auf jedem der Wirbelsäulen-Switches im Rack.
    • Innerhalb des Administrationsnetzwerks müssen die Wirbelsäulen-Switches jeweils über eine IP-Adresse und eine virtuelle IP verfügen, die beide gemeinsam nutzen.
    • Ein Standardgateway ist erforderlich, um Traffic weiterzuleiten, und NTP- und DNS-Services müssen aktiviert sein.
    • Den Verwaltungsknoten müssen Hostnamen und IP-Adressen im Administrationsnetzwerk zugewiesen werden, jeweils eine für sich und eine für alle drei gemeinsam.

    Ein separates Administrationsnetzwerk kann sowohl mit statischem als auch mit dynamischem Routing verwendet werden. Die Verwendung eines VLAN wird unterstützt, in Kombination mit statischem Routing muss sich die VLAN-ID jedoch von der für das Datennetzwerk konfigurierten ID unterscheiden.

  • Reservierte Netzwerkressourcen: Für die Infrastruktur sind viele IP-Adressen und mehrere VLANs für den internen Betrieb erforderlich.

Anforderungen an die Netzwerkkonfiguration

Auf jedem Wirbelsäulen-Switch können die Ports 1-4 für Uplinks zum Data Center-Netzwerk verwendet werden. Bei Geschwindigkeiten von 10 Gbit/s oder 25 Gbit/s muss der Wirbelsäulenschalter mit einem 4-Wege-Splitter oder Ausbruchkabel geteilt werden. Für höhere Geschwindigkeiten von 40 Gbit/s oder 100 Gbit/s verwendet jeder Switch-Port eine einzige direkte Kabelverbindung.

Die Uplinks werden während der Systeminitialisierung basierend auf den von Ihnen angegebenen Informationen konfiguriert. Nicht verwendete Uplink-Ports für Wirbelsäulenschalter, einschließlich nicht verwendeter Breakout-Ports, werden aus Sicherheitsgründen deaktiviert.

Es ist wichtig, dass beide Wirbelsäulen-Switches dieselben Verbindungen zu den Data Center Switches der nächsten Ebene aufweisen. Diese Konfiguration bietet Redundanz und Lastaufteilung auf der Ebene der Wirbelsäulen-Switches, der Ports und der Data Center Switches. Diese ausgehende Verkabelung hängt von der bereitgestellten Netzwerktopologie ab. Das Verkabelungsmuster ist für die Fortsetzung des Service während Failover-Szenarien unerlässlich.

  • Vor der Installation müssen Sie Netzwerkkabel von der vorhandenen Netzwerkinfrastruktur zum Oracle Compute Cloud@Customer-Rackinstallationsstandort ausführen.

  • Verbinden Sie mindestens 1 High-Speed-Ethernet-Port an jedem Span-Switch mit Ihrem öffentlichen Ethernet-Netzwerk des Data Centers.

  • Zur Konfiguration des erforderlichen Administrationsnetzwerks sind 2 weitere Kabelverbindungen (einer von Port 5 auf den beiden Wirbelsäulen-Switches) zu einem Paar Data Center-Switches der nächsten Ebene erforderlich.

  • Die Uplink-Konnektivität basiert auf Schicht 3 des OSI-Modells.

  • Wenn Sicherheits-Policys die Verwendung von Proxys für alle Internetverbindungen erfordern, können Sie einen HTTP-Proxy verwenden. Dies ist ein passiver/Unternehmensproxy, der für die Verbindung von Compute Cloud@Customer zu Oracle Cloud Infrastructure unterstützt wird. Kunden-HTTPS, Proxy-Challenge und Trafficprüfung werden nicht unterstützt.

  • Ein HTTP-Proxy des Unternehmens zwischen der Compute Cloud@Customer-Infrastruktur und Oracle Cloud Infrastructure wird mit FastConnect nicht empfohlen, da FastConnect bereits ein dediziertes Netzwerk ist. Wenn ein Unternehmensproxy erforderlich ist, muss der Proxy über ein zusätzliches Routing verfügen, um sicherzustellen, dass der Compute Cloud@Customer-Netzwerktraffic über FastConnect gesendet wird.

DNS-Konfiguration

Prüfen Sie die DNS-Informationen zu Oracle Compute Cloud@Customer, um die Konfiguration auszuwählen, die am besten zu Ihrer Netzwerkumgebung passt.

Um die Daten der dedizierten DNS-Zone der Infrastruktur in die DNS-Konfiguration des Data Centers zu integrieren, werden zwei Optionen unterstützt:

Wenn Sie die manuelle Konfiguration wählen, sollten Sie Netzwerkhostnamen und IP-Adressen für das Managementnetzwerk, das Clientnetzwerk und weitere öffentliche Netzwerke im Data Center Domain Name System (DNS) vor der Erstkonfiguration registrieren. Insbesondere müssen alle öffentlichen Adressen, VIP-Adressen und Infrastrukturservices-Endpunkte vor der Installation im DNS registriert werden.

Alle in DNS registrierten Adressen müssen für die Vorwärtsauflösung konfiguriert werden. Die umgekehrte Auflösung wird in der Servicezone nicht unterstützt.

Zonendelegierung (bevorzugt)

Damit die Zonendelegierung funktioniert, müssen die rekursiven Caches des Data Centers den TCP/UDP-Port 53 auf der virtuellen IP-Adresse erreichen können, die von den Compute Cloud@Customer-Verwaltungsknoten gemeinsam verwendet wird. Möglicherweise müssen Sie die Firewallkonfiguration ändern.

Konfigurieren Sie den Data Center-DNS-Server so, dass er als übergeordnete Zone der Compute Cloud@Customer-DNS-Zone verwendet wird. Daher werden alle DNS-Anforderungen für die untergeordnete Zone an den internen DNS-Server von Compute Cloud@Customer delegiert. Fügen Sie in der DNS-Konfiguration des Data Centers einen Namen-Server-Datensatz für die untergeordnete Zone und einen Adressdatensatz für den autoritativen Server dieser Zone hinzu.

Im Beispiel wird davon ausgegangen, dass die DNS-Domain des Data Centers example.com lautet, dass das Compute Cloud@Customer-Rack myccc heißt und dass die virtuelle IP-Adresse des Managementknotenclusters 192.0.2.102 lautet. Der interne Hostname des Compute Cloud@Customer-DNS-Servers lautet ns1.

$ORIGIN example.com.
[...]
myccc       IN    NS    ns1.myccc.example.com.
ns1.myccc   IN    A     192.0.2.102
                     

Manuelle Konfiguration

Fügen Sie manuell DNS-Datensätze für alle Labels oder Hostnamen hinzu, die für Compute Cloud@Customer erforderlich sind. Viele der DNS-Einträge sind für die von Oracle ausgeführte Wartung erforderlich.

In den Beispielen lautet die DNS-Domain des Data Centers example.com, das Compute Cloud@Customer-Rack myccc und die virtuelle IP-Adresse des Managementknotenclusters 192.0.2.102.

Hinweis

Für den Objektspeicher müssen Sie das DNS-Label auf die öffentliche Object Storage-IP verweisen. Dies ist die öffentliche IP-Adresse, die diesem Zweck beim Einrichten der öffentlichen IP-Bereiche des Data Centers während des anfänglichen Setups zugewiesen wird.

In den Beispielen wird davon ausgegangen, dass die Data-Center-DNS-Domain example.com ist, dass die Appliance den Namen myccc hat und dass die virtuelle IP-Adresse des Managementknotenclusters im Datennetzwerk 192.0.2.102 und im Administrationsnetzwerk 203.0.113.12 lautet.

Compute Cloud@Customer-Service

Data-Center-DNS-Datensatz

Data-Center-DNS-Datensatz

Networking, Compute, Block Storage, Arbeitsanforderungsservices

iaas.myccc.example.com

iaas
    A  192.0.2.102
iaas
    A  192.0.2.102

Identity and Access Management-Service

identity.myccc.example.com

identity
    A  192.0.2.102
identity
    A  192.0.2.102

DNS-Service

dns.myccc.example.com

dns
    A  192.0.2.102
dns
    A  192.0.2.102

Object Storage

objectstorage.myccc.example.com

Hinweis: Verwenden Sie die öffentliche Object Storage-IP aus dem anfänglichen Setup der Appliance.

objectstorage
    A  198.51.100.33
objectstorage
    A  198.51.100.33

Dateispeicher

filestorage.myccc.example.com

filestorage
    A  192.0.2.102
filestorage
    A  192.0.2.102

Alertmanager

alertmanager.myccc.example.com

alertmanager
    A  192.0.2.102
alertmanager
    A  203.0.113.12

API

api.myccc.example.com

api
    A  192.0.2.102
api
    A  203.0.113.12

OKE-Service

containerengine.myccc.example.com

containerengine
    A  192.0.2.102
containerengine
    A  192.0.2.102

Resource-Principal-Service

rps.myccc.example.com

rps
    A  192.0.2.102
rps
    A  203.0.113.12

Compute Cloud@Customer-Konsole

console.myccc.example.com

console
    A  192.0.2.102
console
    A  192.0.2.102

Konfigurationshinweise für Data Center-Switch

Wenn Sie die Data Center Switches so konfigurieren, dass eingehende Compute Cloud@Customer-Uplinks akzeptiert werden (Standard-Uplinks sowie benutzerdefinierte Uplinks, die Sie definieren), berücksichtigen Sie diese Hinweise.

  • Alle Uplinks (Standard und Kunde) sind für die Verwendung der Linkaggregation (LACP) konfiguriert. Alle Switch-Ports, die in einer Uplink-Konfiguration enthalten sind, müssen zur selben Linkaggregationsgruppe (LAG) gehören. Die Switch-Ports auf der Data Center-Seite der Uplinks müssen entsprechend konfiguriert werden.

  • Compute Cloud@Customer unterstützt Layer-3-basierte Uplink-Konnektivität zum Kunden-Data Center. Statisches Routing und BGP4-basiertes dynamisches Routing werden in Layer 3 unterstützt.

  • Für Uplink-Ports ist keine automatische Verhandlung verfügbar. Die Übertragungsgeschwindigkeit muss am Ende der Kunden-Switches angegeben werden.

Weitere Informationen finden Sie unter Uplinks und Uplink-Protokolle.