Configuration du réseau du site du client
Consultez les rubriques de cette section pour préparer votre environnement réseau avant l'arrivée du bâti Oracle Compute Cloud@Customer.
En plus des exigences de réseau indiquées ici, un représentant d'Oracle travaille avec vous pour vous assurer que la configuration du réseau de votre centre de données est prête à prendre en charge Compute Cloud@Customer avant l'arrivée du bâti.
Utilisez les informations de réseau de cette section avec la liste de vérification pour le service de réseau pour préparer votre réseau.
L'architecture réseau d'Oracle Compute Cloud@Customer repose sur la connectivité Ethernet à grande vitesse physique.
L'infrastructure réseau d'Oracle Compute Cloud@Customer est intégrale et ne doit pas être modifiée. Le réseau ne s'intègre dans aucun cadre de gestion ou de provisionnement de centre de données tel que Cisco ACI, Network Director, ou similaire.
Aucune modification apportée aux commutateurs de réseau dans le bâti Compute Cloud@Customer n'est prise en charge, sauf indication contraire d'une note d'Oracle KM ou du personnel d'Oracle.
Aperçu du réseau
L'infrastructure Compute Cloud@Customer utilise ces réseaux.
- Réseau de données : La connectivité de données de l'infrastructure est basée sur des commutateurs redondants de 100 bits dans une conception à deux couches similaire à une topologie de colonne vertébrale. Une infrastructure contient deux commutateurs feuille et colonne vertébrale. Les commutateurs feuille interconnectent les composants matériels du rack, tandis que les commutateurs colonne vertébrale forment l'épine dorsale du réseau et fournissent un chemin pour le trafic externe.
- Liaisons montantes : Les liaisons montantes sont les connexions entre l'infrastructure et le centre de données du client. Pour la connectivité externe, 5 ports sont réservés sur chaque commutateur de colonne vertébrale. Quatre ports sont disponibles pour établir les liaisons montantes entre l'infrastructure et le réseau du centre de données; un port est utilisé pour séparer le réseau d'administration du trafic de données.
- Réseau d'administration : Ce réseau requis est configuré en tant que réseau physiquement séparé du réseau de données. Cela isole le trafic de configuration et de gestion de l'activité opérationnelle sur le réseau de données en fournissant des chemins réseau sécurisés dédiés pour les opérations d'administration. Ce réseau comprend toutes les interfaces de gestion des composants.
La configuration d'un réseau d'administration séparé implique les actions suivantes :
- Connexions Ethernet supplémentaires des périphériques réseau du centre de données de niveau supérieur au port 5 sur chacun des commutateurs de colonne vertébrale du bâti.
- Dans le réseau d'administration, les commutateurs de colonne vertébrale doivent chacun avoir une adresse IP et une adresse IP virtuelle partagées entre les deux.
- Une passerelle par défaut est requise pour acheminer le trafic, et les services NTP et DNS doivent être activés.
- Les noeuds de gestion doivent se voir attribuer des noms d'hôte et des adresses IP dans le réseau d'administration, un chacun individuellement, et un partagé entre les trois.
Un réseau d'administration distinct peut être utilisé avec le routage statique et dynamique. L'utilisation d'un VLAN est prise en charge, mais lorsqu'elle est combinée à un routage statique, l'ID VLAN doit être différent de celui configuré pour le réseau de données.
- Ressources de réseau réservées : L'infrastructure nécessite de nombreuses adresses IP et plusieurs réseaux VLAN pour un fonctionnement interne.
Configuration du réseau requise
Sur chaque commutateur de colonne vertébrale, les ports 1 à 4 peuvent être utilisés pour les liaisons montantes vers le réseau du centre de données. Pour des vitesses de 10 Gbit/s ou de 25 Gbit/s, le port du commutateur de colonne vertébrale doit être divisé à l'aide d'un séparateur à 4 voies ou d'un câble de rupture. Pour des vitesses plus élevées de 40 Gbit/s ou de 100 Gbit/s, chaque port de commutateur utilise une seule connexion directe par câble.
Les liaisons montantes sont configurées lors de l'initialisation du système, en fonction des informations que vous fournissez. Les ports de liaison montante de commutateur de colonne vertébrale non utilisés, y compris les ports de rupture non utilisés, sont désactivés pour des raisons de sécurité.
Il est essentiel que les deux commutateurs de colonne vertébrale aient les mêmes connexions aux commutateurs de centre de données de niveau suivant. Cette configuration assure la redondance et le fractionnement de la charge au niveau des commutateurs de colonne vertébrale, des ports et des commutateurs de centre de données. Ce câblage sortant dépend de la topologie réseau que vous déployez. Le modèle de câblage est essentiel à la poursuite du service lors des scénarios de basculement.
-
Avant l'installation, vous devez exécuter des câbles réseau depuis votre infrastructure réseau existante vers le site d'installation du bâti Oracle Compute Cloud@Customer.
-
Planifiez la connexion d'au moins 1 port Ethernet haut débit sur chaque commutateur spine au réseau Ethernet public de votre centre de données.
-
La configuration du réseau d'administration requis nécessite 2 connexions de câble supplémentaires (une à partir du port 5 sur les deux commutateurs à colonne vertébrale) vers une paire de commutateurs de centre de données de niveau suivant.
-
La connectivité Uplink est basée sur la couche 3 du modèle OSI.
-
Si vous avez des politiques de sécurité nécessitant l'utilisation de mandataires pour toutes les connexions Internet, vous pouvez utiliser un mandataire
HTTP
. Il s'agit d'un mandataire passif/d'entreprise pris en charge pour la connexion de Compute Cloud@Customer à Oracle Cloud Infrastructure. Le mandataireHTTPS
client, le mandataire d'identification et l'inspection du trafic ne sont pas pris en charge. - Il n'est pas recommandé d'utiliser un mandataire HTTP d'entreprise entre l'infrastructure Cloud@Customer du service de calcul et Oracle Cloud Infrastructure avec FastConnect, car FastConnect est déjà un réseau dédié. Si un mandataire d'entreprise est requis, il doit disposer d'un routage supplémentaire pour garantir que le trafic du réseau Compute Cloud@Customer est envoyé sur FastConnect.
Configuration DNS
Vérifiez les informations DNS d'Oracle Compute Cloud@Customer pour sélectionner la configuration qui convient le mieux à votre environnement réseau.
Pour intégrer les données de la zone DNS dédiée de l'infrastructure dans la configuration DNS du centre de données, deux options sont prises en charge :
Si vous sélectionnez une configuration manuelle, il est recommandé d'enregistrer les noms d'hôte et les adresses IP réseau pour le réseau de gestion, le réseau client et d'autres réseaux publics dans le système de noms de domaine (DNS) du centre de données avant la configuration initiale. En particulier, toutes les adresses publiques, adresses IP virtuelles et points d'extrémité de services d'infrastructure doivent être enregistrés dans DNS avant l'installation.
Toutes les adresses enregistrées dans le DNS doivent être configurées pour la résolution en aval; la résolution en sens inverse n'est pas prise en charge dans la zone des services.
Délégation de zone (privilégiée)
Pour que la délégation de zone fonctionne, les caches récursifs du centre de données doivent pouvoir atteindre le port TCP/UDP 53 sur l'adresse IP virtuelle partagée par les noeuds de gestion Compute Cloud@Customer. Il peut être nécessaire de modifier la configuration de votre pare-feu.
Configurez le serveur DNS du centre de données afin qu'il fonctionne en tant que zone parent de la zone DNS Compute Cloud@Customer. Ainsi, toutes les demandes DNS pour la zone enfant sont déléguées au serveur DNS interne de Compute Cloud@Customer. Dans la configuration DNS du centre de données, ajoutez un enregistrement de serveur de noms pour la zone enfant et un enregistrement d'adresse pour le serveur faisant autorité de cette zone.
Dans l'exemple, il est supposé que le domaine DNS du centre de données est example.com
, que le bâti Compute Cloud@Customer est nommé myccc
et que l'adresse IP virtuelle de la grappe du noeud de gestion est 192.0.2.102. Le nom d'hôte du serveur DNS interne de Compute Cloud@Customer est ns1
.
$ORIGIN example.com.
[...]
myccc IN NS ns1.myccc.example.com.
ns1.myccc IN A 192.0.2.102
Configuration manuelle
Ajouter manuellement des enregistrements DNS pour toutes les étiquettes ou tous les noms d'hôte requis par Compute Cloud@Customer. Plusieurs entrées DNS sont requises pour la maintenance effectuée par Oracle.
Dans les exemples, le domaine DNS du centre de données est example.com
, le bâti Compute Cloud@Customer est nommé myccc
et l'adresse IP virtuelle de la grappe de noeuds de gestion est 192.0.2.102.
Pour le stockage d'objets, vous devez pointer l'étiquette DNS vers l'adresse IP publique du stockage d'objets. Il s'agit de l'adresse IP publique affectée à cet effet lors de la configuration des intervalles d'adresses IP publiques du centre de données lors de la configuration initiale.
Les exemples supposent que le domaine DNS du centre de données est example.com
, que le boîtier est nommé myccc
et que l'adresse IP virtuelle de la grappe de noeuds de gestion est 192.0.2.102 dans le réseau de données et 203.0.113.12 dans le réseau d'administration.
Service Compute Cloud@Customer |
Enregistrement DNS du centre de données |
Enregistrement DNS du centre de données |
---|---|---|
Services de réseau, de calcul, de stockage par blocs, de demandes de travail
|
iaas A 192.0.2.102 |
iaas A 192.0.2.102 |
Service de gestion des identités et des accès
|
identity A 192.0.2.102 |
identity A 192.0.2.102 |
Service DNS
|
dns A 192.0.2.102 |
dns A 192.0.2.102 |
Stockage d'objets
Note : Utilisez l'adresse IP publique du stockage d'objets à partir de la configuration initiale du boîtier. |
objectstorage A 198.51.100.33 |
objectstorage A 198.51.100.33 |
Stockage des fichiers
|
filestorage A 192.0.2.102 |
filestorage A 192.0.2.102 |
Gestionnaire d'alertes
|
alertmanager A 192.0.2.102 |
alertmanager A 203.0.113.12 |
API
|
api A 192.0.2.102 |
api A 203.0.113.12 |
Service OKE
|
containerengine A 192.0.2.102 |
containerengine A 192.0.2.102 |
Service principal de ressource
|
rps A 192.0.2.102 |
rps A 203.0.113.12 |
Console Compute Cloud@Customer
|
console A 192.0.2.102 |
console A 192.0.2.102 |
Notes de configuration du commutateur de centre de données
Lors de la configuration des commutateurs de centre de données pour accepter les liens montants entrants Compute Cloud@Customer (liens montants par défaut ainsi que tous les liens montants personnalisés que vous définissez) prenez ces notes en compte.
-
Tous les liens ascendants, par défaut et client, sont configurés pour utiliser l'agrégation de liens (LACP). Tous les ports de commutateur inclus dans une configuration de liaison montante doivent appartenir au même groupe d'agrégation de liens (LAG). Les ports de commutation côté centre de données des liaisons montantes doivent être configurés en conséquence.
-
Compute Cloud@Customer prend en charge la connectivité de liaison montante basée sur la couche 3 au centre de données du client. Le routage statique et le routage dynamique basé sur BGP4 sont pris en charge dans la couche 3.
-
La négociation automatique n'est pas disponible pour les ports de liaison montante. La vitesse de transfert doit être spécifiée à l'extrémité des commutateurs du client.
Pour plus d'informations, voir Liens montants et Protocoles de liaison montante.