Exigences relatives au réseau du site client
Consultez les rubriques de cette section pour préparer votre environnement réseau avant l'arrivée du rack Oracle Compute Cloud@Customer.
Outre les exigences réseau répertoriées ici, un représentant Oracle travaille avec vous pour vous assurer que la configuration réseau de votre centre de données est prête à prendre en charge Compute Cloud@Customer avant l'arrivée du rack.
Utilisez les informations réseau de cette section avec la liste de contrôle Networking pour préparer votre réseau.
L'architecture réseau Oracle Compute Cloud@Customer s'appuie sur la connectivité Ethernet haut débit physique.
L'infrastructure réseau dans Oracle Compute Cloud@Customer fait partie intégrante et ne doit pas être modifiée. Le réseau ne s'intègre à aucune structure de gestion ou de provisionnement de centre de données telle que Cisco ACI, Network Director ou autre.
Aucune modification des commutateurs réseau dans le rack Compute Cloud@Customer n'est prise en charge, sauf instruction contraire d'une note Oracle KM ou du personnel Oracle.
Présentation de Network
L'infrastructure Compute Cloud@Customer utilise ces réseaux.
- Réseau de données : la connectivité de données de l'infrastructure repose sur des commutateurs 100 Gbits redondants de conception à deux couches, semblable à une topologie feuille-spine. Une infrastructure contient deux commutateurs Leaf et deux commutateurs Spine. Les commutateurs Leaf interconnectent les composants matériels du rack, tandis que les commutateurs Spine forment la colonne vertébrale du réseau et fournissent un chemin pour le trafic externe.
- Liaisons montantes : les liaisons montantes sont les connexions entre l'infrastructure et le centre de données client. Pour la connectivité externe, 5 ports sont réservés sur chaque commutateur Spine. Quatre ports sont disponibles pour établir les liaisons montantes entre l'infrastructure et le réseau de centre de données. Un port est utilisé pour séparer le réseau d'administration du trafic de données.
- Réseau d'administration : ce réseau requis est configuré en tant que réseau physiquement séparé du réseau de données. Cela isole le trafic de configuration et de gestion de l'activité opérationnelle sur le réseau de données en fournissant des chemins réseau sécurisés dédiés pour les opérations d'administration. Ce réseau inclut toutes les interfaces de gestion des composants.
La configuration d'un réseau d'administration séparé implique les actions suivantes :
- Connexions Ethernet supplémentaires des périphériques réseau du centre de données de niveau suivant au port 5 sur chacun des commutateurs Spine du rack.
- A l'intérieur du réseau d'administration, les commutateurs Spine doivent avoir chacun une adresse IP et une adresse IP virtuelle partagées entre les deux.
- Une passerelle par défaut est requise pour acheminer le trafic, et les services NTP et DNS doivent être activés.
- Les noeuds de gestion doivent se voir attribuer des noms d'hôte et des adresses IP dans le réseau d'administration, un chacun individuellement, et un partagé entre les trois.
Un réseau d'administration distinct peut être utilisé avec le routage statique et dynamique. L'utilisation d'un VLAN est prise en charge, mais lorsqu'il est combiné avec le routage statique, l'ID VLAN doit être différent de celui configuré pour le réseau de données.
- Ressources réseau réservées : l'infrastructure nécessite de nombreuses adresses IP et plusieurs VLAN pour son fonctionnement interne.
Configuration réseau requise
Sur chaque commutateur Spine, les ports 1 à 4 peuvent être utilisés pour les liaisons montantes vers le réseau du centre de données. Pour des vitesses de 10 Gbit/s ou 25 Gbits/s, le port du commutateur Spine doit être divisé à l'aide d'un séparateur à 4 voies ou d'un câble de rupture. Pour des vitesses plus élevées de 40 Gbit/s ou 100 Gbits/s, chaque port de commutateur utilise une seule connexion par câble direct.
Les liaisons montantes sont configurées lors de l'initialisation du système, en fonction des informations que vous fournissez. Les ports de liaison montante inutilisés du commutateur Spine, y compris les ports de rupture inutilisés, sont désactivés pour des raisons de sécurité.
Il est essentiel que les deux commutateurs Spine aient les mêmes connexions aux commutateurs de centre de données de niveau suivant. Cette configuration assure la redondance et la répartition de la charge au niveau des commutateurs Spine, des ports et des commutateurs de centre de données. Ce câblage sortant dépend de la topologie réseau que vous déployez. Le modèle de câblage est essentiel à la poursuite du service lors des scénarios de basculement.
-
Avant l'installation, vous devez exécuter les câbles réseau de votre infrastructure réseau existante vers le site d'installation en rack Oracle Compute Cloud@Customer.
-
Prévoyez de connecter au moins 1 port Ethernet haut débit sur chaque commutateur spine au réseau Ethernet public de votre centre de données.
-
La configuration du réseau d'administration requis nécessite 2 connexions de câble supplémentaires (une à partir du port 5 sur les deux commutateurs Spine) vers une paire de commutateurs de centre de données de niveau suivant.
-
La connectivité de liaison montante est basée sur la couche 3 du modèle OSI.
-
Si vous disposez de stratégies de sécurité nécessitant l'utilisation de proxies pour toutes les connexions Internet, vous pouvez utiliser un proxy
HTTP
. Il s'agit d'un proxy passif/d'entreprise pris en charge pour la connexion de Compute Cloud@Customer à Oracle Cloud Infrastructure. Le proxy de vérification,HTTPS
client et l'inspection du trafic ne sont pas pris en charge. - Un proxy HTTP d'entreprise entre l'infrastructure Compute Cloud@Customer et Oracle Cloud Infrastructure n'est pas recommandé avec FastConnect, car FastConnect est déjà un réseau dédié. Si un proxy d'entreprise est requis, il doit disposer d'un routage supplémentaire pour garantir l'envoi du trafic réseau de Compute Cloud@Customer via FastConnect.
Configuration DNS
Consultez les informations DNS d'Oracle Compute Cloud@Customer pour sélectionner la configuration qui convient le mieux à votre environnement réseau.
Pour intégrer les données de la zone DNS dédiée de l'infrastructure dans la configuration DNS du centre de données, deux options sont prises en charge :
Si vous sélectionnez une configuration manuelle, il est recommandé d'enregistrer les noms d'hôte et les adresses IP du réseau de gestion, du réseau client et d'autres réseaux publics dans le DNS (Domain Name System) du centre de données avant la configuration initiale. En particulier, toutes les adresses publiques, les adresses VIP et les adresses de services d'infrastructure doivent être enregistrées dans le DNS avant l'installation.
Toutes les adresses inscrites dans le DNS doivent être configurées pour la résolution aval ; la résolution inverse n'est pas prise en charge dans la zone de services.
Délégation de zone (préférée)
Pour que la délégation de zone fonctionne, les caches récursifs du centre de données doivent pouvoir atteindre le port TCP/UDP 53 sur l'adresse IP virtuelle partagée par les noeuds de gestion Compute Cloud@Customer. Il peut être nécessaire de modifier la configuration de votre pare-feu.
Configurez le serveur DNS du centre de données de sorte qu'il fonctionne en tant que zone parent de la zone DNS Compute Cloud@Customer. Par conséquent, toutes les demandes DNS de la zone enfant sont déléguées au serveur DNS interne de Compute Cloud@Customer. Dans la configuration DNS du centre de données, ajoutez un enregistrement de serveur de noms pour la zone enfant et un enregistrement d'adresse pour le serveur faisant autorité de cette zone.
Dans cet exemple, il est supposé que le domaine DNS du centre de données est example.com
, que le rack Compute Cloud@Customer est nommé myccc
et que l'adresse IP virtuelle du cluster de noeuds de gestion est 192.0.2.102. Le nom d'hôte du serveur DNS interne Compute Cloud@Customer est ns1
.
$ORIGIN example.com.
[...]
myccc IN NS ns1.myccc.example.com.
ns1.myccc IN A 192.0.2.102
Configuration manuelle
Ajoutez manuellement des enregistrements DNS pour tous les libellés ou noms d'hôte requis par Compute Cloud@Customer. La plupart des entrées DNS sont requises pour la maintenance effectuée par Oracle.
Dans les exemples, le domaine DNS du centre de données est example.com
, le rack Compute Cloud@Customer est nommé myccc
et l'adresse IP virtuelle du cluster de noeuds de gestion est 192.0.2.102.
Pour le stockage d'objets, vous devez pointer le libellé DNS vers l'adresse IP publique Object Storage. Il s'agit de l'adresse IP publique affectée à cet effet lors de la configuration des plages d'adresses IP publiques du centre de données lors de la configuration initiale.
Les exemples supposent que le domaine DNS du centre de données est example.com
, que l'appareil est nommé myccc
et que l'adresse IP virtuelle du cluster de noeuds de gestion est 192.0.2.102 dans le réseau de données et 203.0.113.12 dans le réseau d'administration.
Service Compute Cloud@Customer |
Enregistrement DNS de centre de données |
Enregistrement DNS de centre de données |
---|---|---|
Services de mise en réseau, de calcul, de stockage de blocs, de demandes de travail
|
iaas A 192.0.2.102 |
iaas A 192.0.2.102 |
Service de gestion des identités et des accès
|
identity A 192.0.2.102 |
identity A 192.0.2.102 |
Service DNS
|
dns A 192.0.2.102 |
dns A 192.0.2.102 |
Object Storage
Remarque : utilisez l'adresse IP publique Object Storage à partir de la configuration initiale de l'appliance. |
objectstorage A 198.51.100.33 |
objectstorage A 198.51.100.33 |
File Storage
|
filestorage A 192.0.2.102 |
filestorage A 192.0.2.102 |
Gestionnaire d'alertes
|
alertmanager A 192.0.2.102 |
alertmanager A 203.0.113.12 |
API
|
api A 192.0.2.102 |
api A 203.0.113.12 |
Service OKE
|
containerengine A 192.0.2.102 |
containerengine A 192.0.2.102 |
Service principal de ressource
|
rps A 192.0.2.102 |
rps A 203.0.113.12 |
Console Compute Cloud@Customer
|
console A 192.0.2.102 |
console A 192.0.2.102 |
Notes de configuration du commutateur de centre de données
Lors de la configuration des commutateurs de centre de données pour accepter les liaisons montantes Compute Cloud@Customer entrantes (liaisons montantes par défaut ainsi que toutes les liaisons montantes personnalisées que vous définissez), tenez compte de ces remarques.
-
Toutes les liaisons montantes, par défaut et client, sont configurées pour utiliser le groupement de liaisons (LACP). Tous les ports de commutateur inclus dans une configuration de liaison montante doivent appartenir au même groupe d'agrégation de liens (LAG). Les ports de commutateur du côté centre de données des liaisons montantes doivent être configurés en conséquence.
-
Compute Cloud@Customer prend en charge la connectivité de liaison montante basée sur la couche 3 au centre de données client. Le routage statique et le routage dynamique basé sur BGP4 sont pris en charge dans la couche 3.
-
La négociation automatique n'est pas disponible pour les ports de liaison montante. La vitesse de transfert doit être spécifiée à l'extrémité des commutateurs client.
Pour plus d'informations, reportez-vous aux sections Uplinks et Uplink Protocols.