Exigences relatives au réseau du site client
Consultez les rubriques de cette section pour préparer votre environnement réseau avant l'arrivée du rack Compute Cloud@Customer.
Outre les exigences réseau répertoriées ici, un représentant Oracle travaille avec vous pour s'assurer que la configuration réseau de votre centre de données est prête à prendre en charge Compute Cloud@Customer avant l'arrivée du rack.
Utilisez les informations réseau de cette section avec la liste de contrôle de l'installation initiale du système pour préparer votre réseau.
L'architecture réseau d'Oracle Compute Cloud@Customer s'appuie sur une connectivité Ethernet haute vitesse physique.
L'infrastructure réseau dans Compute Cloud@Customer fait partie intégrante et ne doit pas être modifiée. Le réseau ne s'intègre à aucune structure de gestion ou de provisionnement de centre de données telle que Cisco ACI, Network Director ou autre.
Aucune modification des commutateurs réseau dans le rack Compute Cloud@Customer n'est prise en charge, sauf indication contraire d'un document du support technique Oracle ou du personnel Oracle.
Présentation du réseau
D'autres concepts de présentation du réseau sont décrits dans Infrastructure réseau Compute Cloud@Customer.
L'infrastructure Compute Cloud@Customer utilise ces réseaux.
- Réseau de données : la connectivité des données de l'infrastructure est basée sur des commutateurs redondants de 100 Gb dans une conception à deux couches similaire à une topologie feuille-spine. Une infrastructure contient deux commutateurs Leaf et deux commutateurs Spine. Les commutateurs Leaf interconnectent les composants matériels du rack, tandis que les commutateurs Spine forment l'épine dorsale du réseau et fournissent un chemin pour le trafic externe.
- Liaisons montantes : les liaisons montantes sont les connexions entre l'infrastructure et le centre de données client. Pour la connectivité externe, 5 ports sont réservés sur chaque commutateur Spine. Quatre ports sont disponibles pour établir les liaisons montantes entre l'infrastructure et le réseau du centre de données ; un port est utilisé pour séparer le réseau d'administration du trafic de données.
- Réseau d'administration : ce réseau requis est configuré en tant que réseau physiquement séparé du réseau de données. Ceci isole le trafic de configuration et de gestion de l'activité opérationnelle sur le réseau de données en fournissant des chemins réseau sécurisés dédiés pour les opérations d'administration. Ce réseau inclut toutes les interfaces de gestion des composants.
La configuration d'un réseau d'administration séparé implique les actions suivantes :
- Connexions Ethernet supplémentaires des périphériques réseau de centre de données de niveau supérieur au port 5 sur chacun des commutateurs Spine du rack.
- A l'intérieur du réseau d'administration, les commutateurs Spine doivent chacun avoir une adresse IP et une adresse IP virtuelle partagées entre les deux.
- Une passerelle par défaut est requise pour acheminer le trafic, et les services NTP et DNS doivent être activés.
- Les noeuds de gestion doivent se voir attribuer des noms d'hôte et des adresses IP dans le réseau d'administration, un individuellement et un partagé entre les trois.
Un réseau d'administration distinct peut être utilisé avec le routage statique et dynamique. L'utilisation d'un VLAN est prise en charge, mais lorsqu'elle est combinée avec le routage statique, l'ID du VLAN doit être différent de celui configuré pour le réseau de données.
- Ressources réseau réservées : l'infrastructure nécessite de nombreuses adresses IP et plusieurs VLAN pour un fonctionnement interne.
Configuration réseau requise
Sur chaque commutateur Spine, les ports 1 à 4 peuvent être utilisés pour les liaisons montantes vers le réseau du centre de données. Pour les vitesses de 10 Gbits/s ou 25 Gbits/s, le port du commutateur Spine doit être divisé à l'aide d'un diviseur à 4 voies ou d'un câble de séparation. Pour des vitesses plus élevées de 40 Gbits/s ou 100 Gbits/s, chaque port de commutateur utilise une seule connexion par câble direct.
Les liaisons montantes sont configurées pendant l'initialisation du système, en fonction des informations que vous fournissez. Les ports de liaison montante de commutateur Spine inutilisés, y compris les ports de coupure inutilisés, sont désactivés pour des raisons de sécurité.
Il est essentiel que les deux commutateurs Spine aient les mêmes connexions aux commutateurs de centre de données de niveau supérieur. Cette configuration assure la redondance et le fractionnement de la charge au niveau des commutateurs Spine, des ports et des commutateurs de centre de données. Ce câblage sortant dépend de la topologie réseau que vous déployez. Le modèle de câblage est essentiel pour la poursuite du service lors des scénarios de basculement.
-
Avant l'installation, vous devez exécuter des câbles réseau de votre infrastructure réseau existante vers le site d'installation en rack Compute Cloud@Customer.
-
Prévoyez de connecter au moins 1 port Ethernet haut débit sur chaque commutateur spine au réseau Ethernet public de votre centre de données.
-
La configuration du réseau d'administration requis nécessite 2 connexions de câble supplémentaires (une à partir du port 5 sur les deux commutateurs Spine) à une paire de commutateurs de centre de données de niveau supérieur.
-
La connectivité des liaisons montantes est basée sur la couche 3 du modèle OSI.
-
Si vous disposez de stratégies de sécurité nécessitant l'utilisation de proxies pour toutes les connexions Internet, vous pouvez utiliser un proxy
HTTP
. Proxy passif/d'entreprise pris en charge pour la connexion entre Compute Cloud@Customer et Oracle Cloud Infrastructure. Le proxy de vérification,HTTPS
client et l'inspection des échanges ne sont pas pris en charge. - Un proxy HTTP d'entreprise entre l'infrastructure Compute Cloud@Customer et Oracle Cloud Infrastructure n'est pas recommandé avec FastConnect car FastConnect est déjà un réseau dédié. Si un proxy d'entreprise est fortement demandé, il doit disposer d'un routage supplémentaire pour garantir l'envoi du trafic réseau Compute Cloud@Customer via FastConnect.
Configuration DNS de centre de données pour Compute Cloud@Customer
Consultez les informations DNS de Compute Cloud@Customer pour sélectionner la configuration qui convient le mieux à votre environnement réseau.
Pour intégrer les données de la zone DNS dédiée de l'infrastructure dans la configuration DNS du centre de données, deux options sont prises en charge :
Si vous sélectionnez une configuration manuelle, il est recommandé d'enregistrer les noms d'hôte et les adresses IP du réseau de gestion, du réseau client et d'autres réseaux publics dans le système de noms de domaine (DNS) du centre de données avant la configuration initiale. En particulier, toutes les adresses publiques, les adresses IP virtuelles et les adresses de services d'infrastructure doivent être enregistrées dans le DNS avant l'installation.
Toutes les adresses enregistrées dans DNS doivent être configurées pour la résolution aval ; la résolution inverse n'est pas prise en charge dans la zone de services.
Délégation de zone (préférée)
Pour que la délégation de zone fonctionne, les caches récursifs du centre de données doivent pouvoir atteindre le port TCP/UDP 53 sur l'adresse IP virtuelle partagée par les noeuds de gestion Compute Cloud@Customer. Il peut être nécessaire de modifier votre configuration de pare-feu.
Configurez le serveur DNS du centre de données de sorte qu'il fonctionne en tant que zone parent de la zone DNS Compute Cloud@Customer. Ainsi, toutes les demandes DNS pour la zone enfant sont déléguées au serveur DNS interne Compute Cloud@Customer. Dans la configuration DNS du centre de données, ajoutez un enregistrement de serveur de noms pour la zone enfant et un enregistrement d'adresse pour le serveur faisant autorité de cette zone.
Dans cet exemple, il est supposé que le domaine DNS du centre de données est example.com
, que le rack Compute Cloud@Customer est nommé myccc
et que l'adresse IP virtuelle du cluster de noeuds de gestion est 192.0.2.102. Le nom d'hôte du serveur DNS interne Compute Cloud@Customer est ns1
.
$ORIGIN example.com.
[...]
myccc IN NS ns1.myccc.example.com.
ns1.myccc IN A 192.0.2.102
Configuration manuelle
Ajoutez manuellement des enregistrements DNS pour tous les libellés ou noms d'hôte requis par Compute Cloud@Customer. La plupart des entrées DNS sont requises pour la maintenance effectuée par Oracle.
Dans les exemples, le domaine DNS du centre de données est example.com
, le rack Compute Cloud@Customer est nommé myccc
et l'adresse IP virtuelle du cluster de noeuds de gestion est 192.0.2.102.
Pour le stockage d'objets, vous devez pointer le libellé DNS vers l'adresse IP publique Object Storage. Il s'agit de l'adresse IP publique affectée à cette fin lors de la configuration des plages d'adresses IP publiques du centre de données lors de la configuration initiale.
Les exemples supposent que le domaine DNS du centre de données est example.com
, que l'infrastructure est nommée myccc
et que l'adresse IP virtuelle du cluster de noeuds de gestion est 192.0.2.102 dans le réseau de données et 203.0.113.12 dans le réseau d'administration.
Service Compute Cloud@Customer |
Enregistrement DNS de centre de données |
Enregistrement DNS de centre de données |
---|---|---|
Networking, calcul, stockage de blocs, services de demandes de travail
|
iaas A 192.0.2.102 |
iaas A 192.0.2.102 |
Service Identity and Access Management
|
identity A 192.0.2.102 |
identity A 192.0.2.102 |
DNS Service
|
dns A 192.0.2.102 |
dns A 192.0.2.102 |
Object Storage
Remarque : utilisez l'adresse IP publique Object Storage à partir de la configuration initiale de l'appliance. |
objectstorage A 198.51.100.33 |
objectstorage A 198.51.100.33 |
File Storage
|
filestorage A 192.0.2.102 |
filestorage A 192.0.2.102 |
Gestionnaire d'alertes
|
alertmanager A 192.0.2.102 |
alertmanager A 203.0.113.12 |
API
|
api A 192.0.2.102 |
api A 203.0.113.12 |
Service OKE
|
containerengine A 192.0.2.102 |
containerengine A 192.0.2.102 |
Service principal de ressource
|
rps A 192.0.2.102 |
rps A 203.0.113.12 |
Console Compute Cloud@Customer
|
console A 192.0.2.102 |
console A 192.0.2.102 |
Notes de configuration du commutateur du centre de données
Lorsque vous configurez les commutateurs de centre de données pour qu'ils acceptent les liaisons montantes Compute Cloud@Customer entrantes (liaisons montantes par défaut ainsi que toutes les liaisons montantes personnalisées que vous définissez), tenez compte de ces remarques.
-
Toutes les liaisons montantes, par défaut et client, sont configurées pour utiliser le groupement de liaisons (LACP). Tous les ports de commutateur inclus dans une configuration de liaison montante doivent appartenir au même groupe de groupement de liaisons (LAG). Les ports de commutateur situés du côté centre de données des liaisons montantes doivent être configurés en conséquence.
-
Compute Cloud@Customer prend en charge la connectivité de liaison montante basée sur la couche 3 au centre de données client. Le routage statique et le routage dynamique basé sur BGP4 sont pris en charge dans la couche 3.
-
La négociation automatique n'est pas disponible pour les ports de liaison montante. La vitesse de transfert doit être spécifiée à l'extrémité des commutateurs client.
Pour plus d'informations, reportez-vous aux sections Uplinks et Uplink Protocols.