Requisiti di rete sede cliente

Rivedere gli argomenti di questa sezione per preparare l'ambiente di rete prima dell'arrivo del rack Compute Cloud@Customer.

Nota

Oltre ai requisiti di rete elencati qui, un rappresentante Oracle collabora con te per garantire che la configurazione di rete del tuo data center sia pronta per ospitare Compute Cloud@Customer prima dell'arrivo del rack.

Usare le informazioni di rete in questa sezione nella Lista di controllo per l'installazione iniziale del sistema per preparare la rete.

L'architettura di rete di Oracle Compute Cloud@Customer si basa sulla connettività Ethernet ad alta velocità fisica.

L'infrastruttura di rete in Compute Cloud@Customer è fondamentale e non deve essere modificata. Il networking non si integra in alcun data center management o framework di provisioning come Cisco ACI, Network Director o simili.

Attenzione

Non sono supportate modifiche agli switch di rete nel rack Compute Cloud@Customer, a meno che non vengano fornite da un documento di Supporto Oracle (nota KM) o dal personale Oracle.

Panoramica sulla rete

Nota

Ulteriori concetti generali sulla rete sono descritti in Compute Cloud@Customer Network Infrastructure.

L'infrastruttura Compute Cloud@Customer utilizza queste reti.

  • Rete di dati: la connettività dei dati dell'infrastruttura si basa su switch ridondanti a 100 Gbit in un design a due livelli simile a una topologia foglia. Un'infrastruttura contiene due switch foglia e due spine. Gli switch foglia collegano i componenti hardware del rack, mentre gli switch spina dorsale formano la spina dorsale della rete e forniscono un percorso per il traffico esterno.
  • Uplink: gli upplink sono le connessioni tra l'infrastruttura e il data center del cliente. Per la connettività esterna, su ogni switch spine sono riservate 5 porte. Sono disponibili quattro porte per stabilire i collegamenti di uplink tra l'infrastruttura e la rete del data center; una porta viene utilizzata per separare la rete di amministrazione dal traffico dati.
  • Rete di amministrazione: questa rete necessaria è configurata come rete separata fisicamente dalla rete dati. In questo modo si isola il traffico di configurazione e gestione dall'attività operativa sulla rete dati fornendo percorsi di rete sicuri dedicati per le operazioni di amministrazione. Questa rete include tutte le interfacce di gestione dei componenti.

    L'impostazione di una rete di amministrazione segregata implica le azioni riportate di seguito.

    • Connessioni Ethernet aggiuntive dai dispositivi di rete del centro dati di livello successivo alla porta 5 su ciascuno degli switch sulla colonna vertebrale nel rack.
    • All'interno della rete di amministrazione, gli switch spine devono avere ciascuno un indirizzo IP e un IP virtuale condiviso tra i due.
    • Per instradare il traffico è necessario un gateway predefinito e i servizi NTP e DNS devono essere abilitati.
    • Ai nodi di gestione devono essere assegnati nomi host e indirizzi IP nella rete di amministrazione, uno singolarmente e uno condiviso tra tutti e tre.

    È possibile utilizzare una rete di amministrazione separata con routing statico e dinamico. L'uso di una VLAN è supportato, ma quando combinato con l'instradamento statico, l'ID VLAN deve essere diverso da quello configurato per la rete dati.

  • Risorse di rete prenotate: l'infrastruttura richiede molti indirizzi IP e diverse VLAN per il funzionamento interno.

Requisiti per la configurazione di rete

Su ciascun switch sul dorso, è possibile utilizzare le porte da 1 a 4 per i collegamenti verso la rete del centro dati. Per velocità di 10-Gbps o 25-Gbps, la porta dello switch della colonna vertebrale deve essere divisa utilizzando uno splitter a 4 vie o un cavo di interruzione. Per velocità più elevate di 40-Gbps o 100-Gbps ogni porta switch utilizza una singola connessione via cavo diretta.

I collegamenti di uplink vengono configurati durante l'inizializzazione del sistema, in base alle informazioni fornite. Le porte di uplink dello switch spine non utilizzate, incluse le porte di breakout non utilizzate, sono disabilitate per motivi di sicurezza.

È di fondamentale importanza che entrambi gli switch sulla colonna vertebrale abbiano le stesse connessioni agli switch del centro dati di livello successivo. Questa configurazione fornisce ridondanza e suddivisione del carico a livello degli switch sul dorso, delle porte e degli switch del centro dati. Questo cablaggio in uscita dipende dalla topologia di rete distribuita. Il modello di cablaggio è essenziale per la continuazione del servizio durante gli scenari di failover.

  • Prima dell'installazione, è necessario eseguire i cavi di rete dall'infrastruttura di rete esistente al sito di installazione del rack Compute Cloud@Customer.

  • Pianificare la connessione di almeno 1 porta Ethernet ad alta velocità su ciascun switch spine alla rete Ethernet pubblica del centro dati.

  • La configurazione della rete di amministrazione richiesta richiede altre 2 connessioni via cavo (una delle quali dalla porta 5 sui due switch spine) a una coppia di switch centro dati di livello successivo.

  • La connettività Uplink si basa sul livello 3 del modello OSI.

  • Se si dispone di criteri di sicurezza che richiedono l'uso di proxy per tutte le connessioni Internet, è possibile utilizzare un proxy HTTP. Questo è un proxy passivo/aziendale supportato per la connessione da Compute Cloud@Customer a Oracle Cloud Infrastructure. Il cliente HTTPS, il proxy di richiesta di verifica e l'ispezione del traffico non sono supportati.

  • Un proxy HTTP aziendale tra l'infrastruttura Compute Cloud@Customer e Oracle Cloud Infrastructure non è consigliato con FastConnect perché FastConnect è già una rete dedicata. Se è necessario un proxy aziendale, il proxy deve disporre di un instradamento aggiuntivo per garantire che il traffico di rete di Compute Cloud@Customer venga inviato tramite FastConnect.

Configurazione DNS del data center per Compute Cloud@Customer

Rivedi le informazioni DNS di Compute Cloud@Customer per selezionare la configurazione più adatta al tuo ambiente di rete.

Per integrare i dati della zona DNS dedicata dell'infrastruttura nella configurazione DNS del centro dati, sono supportate due opzioni:

Se si seleziona la configurazione manuale, è consigliabile registrare i nomi host di rete e gli indirizzi IP per la rete di gestione, la rete client e altre reti pubbliche nel sistema DNS (Domain Name System) del data center prima della configurazione iniziale. In particolare, tutti gli indirizzi pubblici, gli indirizzi VIP e gli endpoint dei servizi di infrastruttura devono essere registrati nel DNS prima dell'installazione.

Tutti gli indirizzi registrati in DNS devono essere configurati per la risoluzione in avanti; la risoluzione inversa non è supportata nella zona servizi.

Delega zona (preferita)

Affinché la delega delle zone funzioni, le cache ricorsive del data center devono essere in grado di raggiungere la porta TCP/UDP 53 sull'indirizzo IP virtuale condiviso dai nodi di gestione di Compute Cloud@Customer. Potrebbe essere necessario modificare la configurazione del firewall.

Configurare il server DNS del data center in modo che funzioni come zona padre della zona DNS Compute Cloud@Customer. Pertanto, tutte le richieste DNS per la zona figlio vengono delegate al server DNS interno di Compute Cloud@Customer. Nella configurazione DNS del centro dati aggiungere un record del server dei nomi per la zona figlio e un record di indirizzo per il server affidabile di tale zona.

Nell'esempio si presume che il dominio DNS del data center sia example.com, che il rack Compute Cloud@Customer sia denominato myccc e che l'indirizzo IP virtuale del cluster del nodo di gestione sia 192.0.2.102. Il nome host del server DNS interno Compute Cloud@Customer è ns1.

$ORIGIN example.com.
[...]
myccc       IN    NS    ns1.myccc.example.com.
ns1.myccc   IN    A     192.0.2.102

Configurazione manuale

Aggiungere manualmente record DNS per tutte le etichette o i nomi host richiesti da Compute Cloud@Customer. Molte delle voci DNS sono necessarie per la manutenzione eseguita da Oracle.

Negli esempi, il dominio DNS del data center è example.com, il rack Compute Cloud@Customer è denominato myccc e l'indirizzo IP virtuale del cluster del nodo di gestione è 192.0.2.102.

Nota

Per lo storage degli oggetti, devi puntare l'etichetta DNS all'IP pubblico dello storage degli oggetti. Questo è l'indirizzo IP pubblico assegnato a questo scopo durante l'impostazione degli intervalli IP pubblici del centro dati durante l'impostazione iniziale.

Gli esempi presuppongono che il dominio DNS del data center sia example.com, che l'infrastruttura sia denominata myccc e che l'indirizzo IP virtuale del cluster del nodo di gestione sia 192.0.2.102 nella rete dati e 203.0.113.12 nella rete di amministrazione.

Servizio Compute Cloud@Customer

Record DNS centro dati

Record DNS centro dati

Servizio di amministrazione

admin.myccc.example.com

admin
    A  192.0.2.102
admin
    A  203.0.113.12

Servizi di networking, computazione, storage a blocchi, richieste di lavoro

iaas.myccc.example.com

iaas
    A  192.0.2.102
iaas
    A  192.0.2.102

servizio di gestione identità e accessi

identity.myccc.example.com

identity
    A  192.0.2.102
identity
    A  192.0.2.102

Servizio DNS

dns.myccc.example.com

dns
    A  192.0.2.102
dns
    A  192.0.2.102

Storage degli oggetti

objectstorage.myccc.example.com

Nota: utilizzare l'IP pubblico di storage degli oggetti dall'impostazione iniziale dell'appliance.

objectstorage
    A  198.51.100.33
objectstorage
    A  198.51.100.33

Storage dei file

filestorage.myccc.example.com

filestorage
    A  192.0.2.102
filestorage
    A  192.0.2.102

Manager avvisi

alertmanager.myccc.example.com

alertmanager
    A  192.0.2.102
alertmanager
    A  203.0.113.12

API

api.myccc.example.com

api
    A  192.0.2.102
api
    A  203.0.113.12

Servizio OKE

containerengine.myccc.example.com

containerengine
    A  192.0.2.102
containerengine
    A  192.0.2.102

Servizio principal risorsa

rps.myccc.example.com

rps
    A  192.0.2.102
rps
    A  203.0.113.12

Grafana

grafana.myccc.example.com

grafana
    A  192.0.2.102
grafana
    A  203.0.113.12

Prometheus

prometheus.myccc.example.com

prometheus
    A  192.0.2.102
prometheus
    A  203.0.113.12

Prometheus-gw

prometheus-gw.myccc.example.com

prometheus-gw
    A  192.0.2.102
prometheus-gw
    A  203.0.113.12

Interfaccia utente Web servizio

adminconsole.myccc.example.com

adminconsole
    A  192.0.2.102
adminconsole
    A  203.0.113.12

Console Compute Cloud@Customer

console.myccc.example.com

console
    A  192.0.2.102
console
    A  192.0.2.102

Note configurazione switch data center

Quando si configurano gli switch del data center per accettare i collegamenti di uplink di Compute Cloud@Customer in entrata (uplink predefiniti e qualsiasi uplink personalizzato definito dall'utente), tenere conto di queste note.

  • Tutti gli uplink, predefiniti e cliente, sono configurati per utilizzare l'aggregazione dei collegamenti (LACP). Tutte le porte switch incluse in una configurazione uplink devono appartenere allo stesso gruppo di aggregazione collegamenti (LAG). È necessario configurare di conseguenza le porte dello switch sul lato centro dati dei collegamenti ipertestuali.

  • Compute Cloud@Customer supporta la connettività di uplink basata sul layer 3 al data center del cliente. L'instradamento statico e l'instradamento dinamico basato su BGP4 sono supportati nel livello 3.

  • Autonegoziazione non disponibile per le porte uplink. La velocità di trasferimento deve essere specificata alla fine degli switch cliente.

Per ulteriori informazioni, vedere Uplinks e Uplink Protocols.