Requisitos de red de sitio de cliente

Revise los temas de esta sección para preparar el entorno de red antes de la llegada del rack de Oracle Compute Cloud@Customer.

Nota

Además de los requisitos de red que se muestran aquí, un representante de Oracle trabaja con usted para asegurarse de que la configuración de red del centro de datos esté preparada para alojar Compute Cloud@Customer antes de que llegue el rack.

Utilice la información de red de esta sección con la Lista de comprobación de redes para preparar la red.

La arquitectura de red de Oracle Compute Cloud@Customer se basa en la conectividad Ethernet física de alta velocidad.

La infraestructura de red en Oracle Compute Cloud@Customer es integral y no debe modificarse. Las redes no se integran en ningún marco de gestión o aprovisionamiento de centros de datos, como Cisco ACI, Network Director o similares.

Atención

No se admiten cambios en los conmutadores de red del rack de Compute Cloud@Customer a menos que lo indique una nota del módulo de conocimiento de Oracle o el personal de Oracle.

Visión general de red

Nota

En Infraestructura de red se describen conceptos adicionales de visión general de red.

La infraestructura de Compute Cloud@Customer utiliza estas redes.

  • Red de datos: la conectividad de datos de la infraestructura se basa en conmutadores redundantes de 100 Gbit con un diseño de dos capas similar a una topología de eje de hoja. Una infraestructura contiene dos switches de interconexión de módulos y dos switches de interconexión de racks. Los conmutadores de hoja interconectan los componentes de hardware del bastidor, mientras que los conmutadores medulares forman la columna vertebral de la red y proporcionan una ruta para el tráfico externo.
  • Enlaces ascendentes: los enlaces ascendentes son las conexiones entre la infraestructura y el centro de datos del cliente. Para la conectividad externa, se reservan 5 puertos en cada switch de interconexión de racks. Hay cuatro puertos disponibles para establecer los enlaces ascendentes entre la infraestructura y la red del centro de datos; se utiliza un puerto para separar la red de administración del tráfico de datos.
  • Red de administración: esta red necesaria está configurada como una red separada físicamente de la red de datos. Esto aísla el tráfico de configuración y gestión de la actividad operativa en la red de datos al proporcionar rutas de red seguras dedicadas para operaciones de administración. Esta red incluye todas las interfaces de gestión de componentes.

    La configuración de una red de administración segregada implica las siguientes acciones:

    • Conexiones Ethernet adicionales desde los dispositivos de red del centro de datos de siguiente nivel hasta el puerto 5 en cada uno de los conmutadores medulares del rack.
    • Dentro de la red de administración, los conmutadores medulares deben tener una dirección IP y una IP virtual compartidas entre ambos.
    • Se necesita una puerta de enlace por defecto para enrutar el tráfico, y los servicios NTP y DNS deben estar activados.
    • Los nodos de gestión deben tener asignados nombres de host y direcciones IP en la red de administración, uno individual y otro compartido entre los tres.

    Se puede utilizar una red de administración independiente con enrutamiento estático y dinámico. Se admite el uso de una VLAN, pero cuando se combina con el enrutamiento estático, el ID de VLAN debe ser diferente del configurado para la red de datos.

  • Recursos de red reservados: la infraestructura requiere muchas direcciones IP y varias VLAN para el funcionamiento interno.

Requisitos de configuración de red

En cada switch de interconexión de racks, los puertos 1 a 4 se pueden utilizar para enlaces ascendentes a la red del centro de datos. Para velocidades de 10 Gbps o 25 Gbps, el puerto del switch de interconexión de racks debe dividirse mediante un divisor de 4 vías o un cable de ruptura. Para velocidades más altas de 40 Gbps o 100 Gbps, cada puerto de conmutador utiliza una única conexión de cable directo.

Los enlaces ascendentes se configuran durante la inicialización del sistema, según la información que proporcione. Los puertos de enlace superior del switch de interconexión de racks no utilizados, incluidos los puertos de interrupción no utilizados, están desactivados por motivos de seguridad.

Es fundamental que ambos conmutadores medulares tengan las mismas conexiones con los conmutadores del centro de datos de siguiente nivel. Esta configuración proporciona redundancia y división de carga en el nivel de los switches de interconexión de racks, los puertos y los switches del centro de datos. Este cableado saliente depende de la topología de red que despliegue. El patrón de cableado es esencial para la continuación del servicio durante los escenarios de failover.

  • Antes de realizar la instalación, debe ejecutar cables desde la infraestructura de red existente hasta el sitio de instalación de rack de Oracle Compute Cloud@Customer.

  • Planifique conectar al menos 1 puerto Ethernet de alta velocidad en cada conmutador spine a la red Ethernet pública del centro de datos.

  • La configuración de la red de administración requerida requiere 2 conexiones de cables más (una desde el puerto 5 en los dos conmutadores medulares) a un par de conmutadores de centro de datos de siguiente nivel.

  • La conectividad de enlace ascendente se basa en la capa 3 del modelo OSI.

  • Si tiene políticas de seguridad que requieren el uso de proxies para todas las conexiones de Internet, puede utilizar un proxy HTTP. Se trata de un proxy pasivo/corporativo soportado para la conexión desde Compute Cloud@Customer a Oracle Cloud Infrastructure. El HTTPS de cliente, el proxy de comprobación y la inspección del tráfico no están soportados.

  • No se recomienda un proxy HTTP corporativo entre la infraestructura Compute Cloud@Customer y Oracle Cloud Infrastructure con FastConnect porque FastConnect ya es una red dedicada. Si se necesita un proxy corporativo, el proxy debe tener un enrutamiento adicional para garantizar que el tráfico de red de Compute Cloud@Customer se envíe a través de FastConnect.

Configuración de DNS

Revise la información de DNS de Oracle Compute Cloud@Customer para seleccionar la configuración que mejor se adapte a su entorno de red.

Para integrar los datos de la zona de DNS dedicado de la infraestructura en la configuración de DNS del centro de datos, se admiten dos opciones:

Si selecciona la configuración manual, se recomienda registrar los nombres de host de red y las direcciones IP para la red de gestión, la red de cliente y más redes públicas en el sistema de nombres de dominio (DNS) del centro de datos antes de la configuración inicial. En particular, todas las direcciones públicas, direcciones VIP y puntos finales de servicios de infraestructura se deben registrar en DNS antes de la instalación.

Todas las direcciones registradas en DNS se deben configurar para la resolución directa; la resolución inversa no se admite en la zona de servicios.

Delegación de zona (preferida)

Para que funcione la delegación de zona, las cachés recursivas del centro de datos deben poder alcanzar el puerto TCP/UDP 53 en la dirección IP virtual compartida por los nodos de gestión de Compute Cloud@Customer. Puede que sea necesario cambiar la configuración del firewall.

Configure el servidor DNS del centro de datos para que funcione como la zona principal de la zona DNS de Compute Cloud@Customer. Por lo tanto, todas las solicitudes de DNS para la zona secundaria se delegan en el servidor DNS interno de Compute Cloud@Customer. En la configuración de DNS del centro de datos, agregue un registro de servidor de nombres para la zona secundaria y un registro de dirección para el servidor autorizado de esa zona.

En el ejemplo, se supone que el dominio DNS del centro de datos es example.com, que el rack de Compute Cloud@Customer se denomina myccc y que la dirección IP virtual del cluster de nodo de gestión es 192.0.2.102. El nombre de host del servidor DNS interno de Compute Cloud@Customer es ns1.

$ORIGIN example.com.
[...]
myccc       IN    NS    ns1.myccc.example.com.
ns1.myccc   IN    A     192.0.2.102
                     

Configuración Manual

Agregue manualmente registros DNS para todas las etiquetas o nombres de host requeridos por Compute Cloud@Customer. Muchas de las entradas de DNS son necesarias para el mantenimiento realizado por Oracle.

En los ejemplos, el dominio DNS del centro de datos es example.com, el rack de Compute Cloud@Customer se denomina myccc y la dirección IP virtual del cluster de nodo de gestión es 192.0.2.102.

Nota

Para el almacenamiento de objetos, debe apuntar la etiqueta DNS a la IP pública del almacenamiento de objetos. Esta es la dirección IP pública asignada a este fin al configurar los rangos de IP públicas del centro de datos durante la configuración inicial.

En los ejemplos se asume que el dominio DNS del centro de datos es example.com, que el dispositivo se denomina myccc y que la dirección IP virtual del cluster del nodo de gestión es 192.0.2.102 en la red de datos y 203.0.113.12 en la red de administración.

Servicio Compute Cloud@Customer

Registro DNS del centro de datos

Registro DNS del centro de datos

Servicios de redes, recursos informáticos, almacenamiento de bloques, solicitudes de trabajo

iaas.myccc.example.com

iaas
    A  192.0.2.102
iaas
    A  192.0.2.102

Servicio Identity and Access Management

identity.myccc.example.com

identity
    A  192.0.2.102
identity
    A  192.0.2.102

Servicio DNS

dns.myccc.example.com

dns
    A  192.0.2.102
dns
    A  192.0.2.102

Object Storage

objectstorage.myccc.example.com

Nota: Utilice la IP pública de Object Storage de la configuración inicial del dispositivo.

objectstorage
    A  198.51.100.33
objectstorage
    A  198.51.100.33

Almacenamiento de archivos

filestorage.myccc.example.com

filestorage
    A  192.0.2.102
filestorage
    A  192.0.2.102

Gestor de alertas

alertmanager.myccc.example.com

alertmanager
    A  192.0.2.102
alertmanager
    A  203.0.113.12

API

api.myccc.example.com

api
    A  192.0.2.102
api
    A  203.0.113.12

Servicio OKE

containerengine.myccc.example.com

containerengine
    A  192.0.2.102
containerengine
    A  192.0.2.102

Servicio de entidad de recurso

rps.myccc.example.com

rps
    A  192.0.2.102
rps
    A  203.0.113.12

Consola de Compute Cloud@Customer

console.myccc.example.com

console
    A  192.0.2.102
console
    A  192.0.2.102

Notas de configuración de conmutador de centro de datos

Al configurar los conmutadores del centro de datos para aceptar enlaces ascendentes entrantes de Compute Cloud@Customer (enlaces ascendentes predeterminados, así como cualquier enlace ascendente personalizado que defina) tenga en cuenta estas notas.

  • Todos los enlaces ascendentes, predeterminados y de cliente, están configurados para usar la agregación de enlaces (LACP). Todos los puertos de conmutador incluidos en una configuración de enlace superior deben pertenecer al mismo grupo de agregación de enlaces (LAG). Los puertos del conmutador del lado del centro de datos de los enlaces ascendentes se deben configurar según corresponda.

  • Compute Cloud@Customer soporta la conectividad de enlace ascendente basada en capa 3 al centro de datos del cliente. El enrutamiento estático y el enrutamiento dinámico basado en BGP4 están soportados en la capa 3.

  • La negociación automática no está disponible para los puertos de enlace superior. La velocidad de transferencia debe especificarse en el extremo de los conmutadores del cliente.

Para obtener más información, consulte Uplinks y Uplink Protocols.