Exigences relatives au réseau du site du client
Consultez les rubriques de cette section pour préparer votre environnement réseau avant l'arrivée du bâti Compute Cloud@Customer.
En plus des exigences réseau répertoriées ici, un représentant d'Oracle collabore avec vous pour vous assurer que la configuration réseau de votre centre de données est prête à prendre en charge Compute Cloud@Customer avant l'arrivée du bâti.
Utilisez les informations de réseau de cette section avec la liste de vérification initiale de l'installation du système pour préparer votre réseau.
L'architecture réseau d'Oracle Compute Cloud@Customer repose sur une connectivité Ethernet physique à haute vitesse.
L'infrastructure réseau de Compute Cloud@Customer est intégrale et ne doit pas être modifiée. Le réseau ne s'intègre dans aucun cadre de gestion ou de provisionnement de centre de données tel que Cisco ACI, Network Director, ou similaire.
Aucune modification des commutateurs de réseau dans le bâti Compute Cloud@Customer n'est prise en charge, sauf indication contraire dans un document Oracle Support (note KM) ou dans le personnel Oracle.
Aperçu du réseau
D'autres concepts d'aperçu du réseau sont décrits dans Infrastructure de réseau Compute Cloud@Customer.
L'infrastructure Compute Cloud@Customer utilise ces réseaux.
- Réseau de données : La connectivité de données de l'infrastructure est basée sur des commutateurs redondants de 100 Go dans une conception à deux couches similaire à une topologie feuille. Une infrastructure contient deux commutateurs feuille et deux commutateurs colonne vertébrale. Les commutateurs feuille interconnectent les composants matériels du rack, tandis que les commutateurs colonne vertébrale forment l'épine dorsale du réseau et fournissent un chemin pour le trafic externe.
- Liaisons montantes : Les liaisons montantes sont les connexions entre l'infrastructure et le centre de données du client. Pour la connectivité externe, 5 ports sont réservés sur chaque commutateur de colonne vertébrale. Quatre ports sont disponibles pour établir les liaisons montantes entre l'infrastructure et le réseau du centre de données; un port est utilisé pour séparer le réseau d'administration du trafic de données.
- Réseau d'administration : Ce réseau requis est configuré en tant que réseau physiquement séparé du réseau de données. Cela isole le trafic de configuration et de gestion de l'activité opérationnelle sur le réseau de données en fournissant des chemins de réseau sécurisés dédiés aux opérations d'administration. Ce réseau comprend toutes les interfaces de gestion des composants.
La configuration d'un réseau d'administration séparé implique les actions suivantes :
- Connexions Ethernet supplémentaires entre les périphériques réseau du centre de données de niveau supérieur et le port 5 sur chacun des commutateurs de colonne vertébrale du bâti.
- À l'intérieur du réseau d'administration, les commutateurs de colonne vertébrale doivent avoir chacun une adresse IP et une adresse IP virtuelle partagées entre les deux.
- Une passerelle par défaut est requise pour acheminer le trafic, et les services NTP et DNS doivent être activés.
- Les noeuds de gestion doivent se voir attribuer des noms d'hôte et des adresses IP dans le réseau d'administration, un chacun individuellement et un partagé entre les trois.
Un réseau d'administration distinct peut être utilisé avec un routage statique et dynamique. L'utilisation d'un VLAN est prise en charge, mais lorsqu'il est combiné avec un routage statique, l'ID VLAN doit être différent de celui configuré pour le réseau de données.
- Ressources de réseau réservées : L'infrastructure nécessite de nombreuses adresses IP et plusieurs réseaux VLAN pour le fonctionnement interne.
Configuration du réseau requise
Sur chaque commutateur de colonne vertébrale, les ports 1 à 4 peuvent être utilisés pour les liaisons montantes vers le réseau du centre de données. Pour les vitesses de 10 Gbit/s ou 25 Gbit/s, le port du commutateur de la colonne vertébrale doit être divisé à l'aide d'un séparateur à 4 voies ou d'un câble de séparation. Pour des vitesses plus élevées de 40 Gbit/s ou 100 Gbit/s, chaque port de commutateur utilise une seule connexion directe par câble.
Les liaisons montantes sont configurées lors de l'initialisation du système, en fonction des informations que vous fournissez. Les ports de liaison montante du commutateur de colonne vertébrale inutilisés, y compris les ports de répartition inutilisés, sont désactivés pour des raisons de sécurité.
Il est essentiel que les deux commutateurs de colonne vertébrale aient les mêmes connexions aux commutateurs de centre de données de niveau suivant. Cette configuration assure la redondance et le fractionnement de la charge au niveau des commutateurs de colonne vertébrale, des ports et des commutateurs de centre de données. Ce câblage sortant dépend de la topologie de réseau que vous déployez. Le modèle de câblage est essentiel à la poursuite du service pendant les scénarios de basculement.
-
Avant l'installation, vous devez exécuter des câbles réseau de votre infrastructure réseau existante vers le site d'installation du bâti Compute Cloud@Customer.
-
Prévoyez de connecter au moins 1 port Ethernet haut débit sur chaque commutateur spine à votre réseau Ethernet public de centre de données.
-
La configuration du réseau d'administration requis nécessite 2 connexions par câble supplémentaires (une depuis le port 5 sur les deux commutateurs de colonne vertébrale) vers une paire de commutateurs de centre de données de niveau suivant.
-
La connectivité de liaison montante est basée sur la couche 3 du modèle OSI.
-
Si vous avez des politiques de sécurité nécessitant l'utilisation de mandataires pour toutes les connexions Internet, vous pouvez utiliser un mandataire
HTTP. Mandataire passif/d'entreprise pris en charge pour la connexion de Compute Cloud@Customer à Oracle Cloud Infrastructure. Le mandataireHTTPS, l'identification et l'inspection du trafic du client ne sont pas pris en charge. - Un mandataire HTTP d'entreprise entre l'infrastructure Compute Cloud@Customer et Oracle Cloud Infrastructure n'est pas recommandé avec FastConnect, car FastConnect est déjà un réseau dédié. Si un mandataire d'entreprise est requis, ce dernier doit disposer d'un routage supplémentaire pour garantir que le trafic du réseau Cloud@Customer du service de calcul est envoyé sur FastConnect.
Configuration du DNS du centre de données pour Compute Cloud@Customer
Vérifiez les informations DNS de Compute Cloud@Customer pour sélectionner la configuration qui convient le mieux à votre environnement réseau.
Pour intégrer les données de la zone DNS dédiée de l'infrastructure dans la configuration DNS du centre de données, deux options sont prises en charge :
Si vous sélectionnez une configuration manuelle, il est recommandé d'enregistrer les noms d'hôte et les adresses IP du réseau de gestion, du réseau client et d'autres réseaux publics dans le centre de données Domain Name System (DNS) avant la configuration initiale. En particulier, toutes les adresses publiques, adresses IP virtuelles et points d'extrémité des services d'infrastructure doivent être enregistrés dans le DNS avant l'installation.
Toutes les adresses enregistrées dans DNS doivent être configurées pour la résolution aval; la résolution inverse n'est pas prise en charge dans la zone des services.
Délégation de zone (privilégiée)
Pour que la délégation de zone fonctionne, les caches récursifs du centre de données doivent pouvoir atteindre le port TCP/UDP 53 sur l'adresse IP virtuelle partagée par les noeuds de gestion Compute Cloud@Customer. Il peut être nécessaire de modifier la configuration de votre pare-feu.
Configurez le serveur DNS du centre de données afin qu'il fonctionne en tant que zone parent de la zone DNS Compute Cloud@Customer. Ainsi, toutes les demandes DNS pour la zone enfant sont déléguées au serveur DNS interne de Compute Cloud@Customer. Dans la configuration DNS du centre de données, ajoutez un enregistrement de serveur de noms pour la zone enfant et un enregistrement d'adresse pour le serveur faisant autorité de cette zone.
Dans l'exemple, il est supposé que le domaine DNS du centre de données est example.com, que le bâti Compute Cloud@Customer est nommé myccc et que l'adresse IP virtuelle de la grappe de noeuds de gestion est 192.0.2.102. Le nom d'hôte interne du serveur DNS Compute Cloud@Customer est ns1.
$ORIGIN example.com.
[...]
myccc IN NS ns1.myccc.example.com.
ns1.myccc IN A 192.0.2.102
Configuration manuelle
Ajouter manuellement des enregistrements DNS pour toutes les étiquettes ou tous les noms d'hôte requis par Compute Cloud@Customer. Plusieurs entrées DNS sont requises pour la maintenance effectuée par Oracle.
Dans les exemples, le domaine DNS du centre de données est example.com, le bâti Compute Cloud@Customer est nommé myccc et l'adresse IP virtuelle de la grappe de noeuds de gestion est 192.0.2.102.
Pour le stockage d'objets, vous devez pointer l'étiquette DNS vers l'adresse IP publique du stockage d'objets. Il s'agit de l'adresse IP publique affectée à cet effet lors de la configuration des intervalles d'adresses IP publiques du centre de données lors de la configuration initiale.
Les exemples supposent que le domaine DNS du centre de données est example.com, que l'infrastructure est nommée myccc et que l'adresse IP virtuelle de la grappe de noeuds de gestion est 192.0.2.102 dans le réseau de données et 203.0.113.12 dans le réseau d'administration.
|
Service Compute Cloud@Customer |
Enregistrement DNS du centre de données |
Enregistrement DNS du centre de données |
|---|---|---|
|
Service d'administration
|
admin
A 192.0.2.102
|
admin
A 203.0.113.12
|
|
Services de réseau, de calcul, de stockage par blocs, de demandes de travail
|
iaas
A 192.0.2.102
|
iaas
A 192.0.2.102
|
|
Le service de gestion des identités et des accès
|
identity
A 192.0.2.102
|
identity
A 192.0.2.102
|
|
Service DNS
|
dns
A 192.0.2.102
|
dns
A 192.0.2.102
|
|
Stockage d'objets
Note : Utilisez l'adresse IP publique du stockage d'objets à partir de la configuration initiale du boîtier. |
objectstorage
A 198.51.100.33
|
objectstorage
A 198.51.100.33
|
|
Stockage de fichiers
|
filestorage
A 192.0.2.102
|
filestorage
A 192.0.2.102
|
|
Gestionnaire d'alertes
|
alertmanager
A 192.0.2.102
|
alertmanager
A 203.0.113.12
|
|
API
|
api
A 192.0.2.102
|
api
A 203.0.113.12
|
|
Service OKE
|
containerengine
A 192.0.2.102
|
containerengine
A 192.0.2.102
|
|
Service principal de ressource
|
rps
A 192.0.2.102
|
rps
A 203.0.113.12
|
|
Grafana
|
grafana
A 192.0.2.102
|
grafana
A 203.0.113.12
|
|
Prometheus
|
prometheus
A 192.0.2.102
|
prometheus
A 203.0.113.12
|
|
Prométhée
|
prometheus-gw
A 192.0.2.102
|
prometheus-gw
A 203.0.113.12
|
|
Interface utilisateur Web du service
|
adminconsole
A 192.0.2.102
|
adminconsole
A 203.0.113.12
|
|
Console Compute Cloud@Customer
|
console
A 192.0.2.102
|
console
A 192.0.2.102
|
Notes de configuration du commutateur de centre de données
Lors de la configuration des commutateurs de centre de données pour accepter les liaisons montantes entrantes Compute Cloud@Customer (liens montants par défaut ainsi que tous les liens montants personnalisés que vous définissez), tenez compte de ces notes.
-
Tous les liens montants, par défaut et client, sont configurés pour utiliser l'agrégation de liens (LACP). Tous les ports de commutateur inclus dans une configuration de liaison montante doivent appartenir au même groupe d'agrégation de liens (agrégation de liens). Les ports de commutation côté centre de données des liaisons montantes doivent être configurés en conséquence.
-
Compute Cloud@Customer prend en charge la connectivité de liaison montante basée sur la couche 3 vers le centre de données du client. Le routage statique et le routage dynamique basé sur BGP4 sont pris en charge dans la couche 3.
-
La négociation automatique n'est pas disponible pour les ports de liaison montante. La vitesse de transfert doit être spécifiée à l'extrémité des commutateurs clients.
Pour plus d'informations, voir Liens montants et Protocoles de liaison montante.