Créer

Créez votre réseau, vos clusters et configurez l'environnement.

Avant de commencer

Avant de commencer, configurez la mise en réseau dans le VCN segmenté par objectif :
  • Les sous-réseaux publics prennent en charge l'équilibreur de charge de service et les adresses de service/API OKE.
  • Les sous-réseaux privés hébergent les noeuds de processus actif et les pods.
  • Un sous-réseau privé dédié héberge une instance Oracle Autonomous AI Database.

Tenez compte des éléments suivants pour planifier les plages CIDR de sous-réseau :

  • Choisissez des plages CIDR qui ne se chevauchent pas (par exemple, VCN 10.0.0.0/16 ; sous-réseaux /24s tels que les noeuds 10.0.10.0/24, les pods 10.0.20.0/24 et la base de données 10.0.30.0/24).
  • Veillez à ne pas chevaucher les CIDR de noeud/pod, le CIDR de service Kubernetes ou le CIDR de cluster.
Pour créer et personnaliser votre VCN, procédez comme suit :
  1. Créez un nouveau VCN à l'aide de l'assistant VCN. Le VCN inclut les passerelles et sous-réseaux suivants :
    • Une passerelle Internet, une passerelle NAT et une passerelle de service pour le VCN.
    • Sous-réseau public régional avec routage vers la passerelle Internet. Les instances d'un sous-réseau public sont susceptibles d'avoir des adresses IP publiques.
    • Sous-réseau privé régional avec routage vers les passerelles NAT et de service (et donc vers l'Oracle Services Network). Les instances d'un sous-réseau privé Ne peuvent pas disposer d'adresses IP publiques.
    Suivez les étapes décrites dans Création d'un VCN avec connectivité Internet dans la documentation OCI.
  2. Personnalisez et renommez les sous-réseaux pour plus de clarté et de fonctionnalité, par exemple :
    • service-lb-public (public)
    • database-private-subner (private)

Créer des ressources réseau

L'assistant VCN a créé un sous-réseau privé et public pour vous.
Vous devez maintenant créer trois sous-réseaux supplémentaires :
  • Créez un sous-réseau public supplémentaire pour l'API OKE/le service OKE. Par exemple, oke-api-service-public.
  • Créez deux sous-réseaux privés supplémentaires dans le même VCN pour le noeud et le pod avec une sortie vers Internet via la passerelle NAT du VCN pour les pods Dify. Par exemple, node-private-subnet et pod-private-subnet.
Pour créer chaque sous-réseau, procédez comme suit :
  1. Créez une table de routage privée indépendante pour le sous-réseau de noeud.
    1. Créez une table de routage (par exemple, rt-node-private) dans le même VCN.
    2. Ajoutez une route par défaut avec la destination 0.0.0.0/0 qui cible la passerelle NAT créée ci-dessus.
    Pour plus d'informations, reportez-vous à Création d'une table de routage dans la documentation OCI.
  2. Créez un groupe de sécurité réseau (NSG) de sous-réseau pour le sous-réseau Node (par exemple, nsg-node-private) et créez les règles appropriées selon vos besoins. Utilisez des règles avec conservation de statut à moins que vos normes ne requièrent l'absence de conservation de statut.
    Pour plus d'informations, reportez-vous à Création d'un groupe de sécurité réseau dans la documentation OCI.
  3. Créez une liste de sécurité de sous-réseau (par exemple, sl-node-private) et ouvrez les ports nécessaires pour le sous-réseau de noeud si vous ne voulez pas utiliser de groupes de sécurité réseau.

    Conseil :

    Oracle recommande de préférer les groupes de sécurité réseau aux listes de sécurité.
    Pour plus d'informations, reportez-vous à Création d'une liste de sécurité dans la documentation OCI.
  4. Créez le sous-réseau privé régional de noeuds et attachez la table de routage et la liste de sécurité.
    1. Sur la page de liste Réseaux cloud virtuels, sélectionnez le VCN que vous avez créé.
    2. Sur la page de détails, sélectionnez Créer un sous-réseau.
    3. Créez un sous-réseau régional (par exemple, node-private-subnet) avec le CIDR planifié dans le compartiment approprié.
    4. Interdire les adresses IP publiques sur les cartes d'interface réseau virtuelles (marquez le sous-réseau comme privé).
    5. Associez le sous-réseau à la table de routage indépendante (par exemple, rt-node-private) qui pointe 0.0.0.0/0 vers la passerelle NAT.
    6. Associez la liste de sécurité ou le groupe de sécurité réseau.
    7. Sélectionnez les options DHCP ; utilisez le DNS VCN si vous utilisez la résolution DNS OCI.
    1. Créez un sous-réseau privé supplémentaire pour le pod, un sous-réseau public pour le service OKE/API et attachez la table de routage et la liste de sécurité ou le groupe de sécurité réseau appropriés en répétant ces étapes.
      Exemple :
      • node-private-subnet : private, associate rt-node-private, attachement nsg-nodes.
      • pod-private-subnet : privé, associez rt-pod-private et attachez nsg-pods.
      • oke-api-service-public : public, limitez les entrées aux plages d'adresses IP d'administration à l'aide de votre SL ou de votre groupe de sécurité réseau. Lorsque vous créez le sous-réseau public pour oke-api-service-public, connectez-le à la passerelle Internet.
    Pour plus d'informations, reportez-vous à Création d'un sous-réseau dans la documentation OCI.

Créer un cluster OKE

Créez un cluster, sélectionnez le VCN configuré et affectez les sous-réseaux de noeud de processus actif et de pod désignés à l'API Kubernetes.
Pour créer et configurer un cluster, procédez comme suit :
  1. Dans la console OCI, assurez-vous que vous êtes dans la location et la région appropriées.
  2. Cliquez sur Services de développement, puis sur Clusters Kubernetes (OKE).
  3. Sur la page Créer un cluster, sélectionnez Création personnalisée, puis cliquez sur Poursuivre.
  4. A l'étape Configuration réseau, sélectionnez le compartiment cible, sélectionnez le VCN configuré et cliquez sur Suivant.
    1. Affectez le sous-réseau de l'adresse d'API Kubernetes et sélectionnez l'option permettant d'affecter une adresse IP publique.
    2. Cliquez sur Suivant.
  5. Dans la section Sous-réseaux d'équilibreur de charge, sélectionnez l'option Spécifier les sous-réseaux d'équilibreur de charge, puis sélectionnez votre sous-réseau d'équilibreur de charge et cliquez sur Suivant.
  6. Sur la page Pool de noeuds, indiquez les détails de configuration du premier pool de noeuds du cluster. Configurez les paramètres de noeud pour la disponibilité, le stockage et l'accès.
    1. Dans la section Configuration du placement de noeud, sélectionnez le sous-réseau de noeud de processus actif que vous avez créé.
      Par exemple, node-private-subnet.
    2. Sélectionnez le type de noeud géré pour la gestion des noeuds de processus actifs dans le pool de noeuds.
    3. Définissez le nombre de noeuds sur 3 pour la haute disponibilité.
      Le cas échéant, répartissez les noeuds entre les domaines de disponibilité ou de pannes.
    4. Définissez la taille de volume d'initialisation sur au moins 50 GB.
      Augmentation par défaut pour éviter les pénuries de stockage pour les images, les journaux et les charges de travail.
    5. Téléchargez la clé publique SSH pour la gestion ultérieure des noeuds.
      Collez le contenu de votre fichier .pub pour activer l'accès SSH sécurisé pour le dépannage et l'administration.
    6. Dans la section Communication de pod, sélectionnez le sous-réseau de pod.
      Par exemple, pod-private-subnet.
      Sélectionnez le sous-réseau privé régional pour les pods (pour le réseau de pod natif VCN) ; assurez-vous que sa table de routage pointe vers une passerelle NAT et que la sortie nécessaire est autorisée.
  7. Vérifiez vos sélections et créez le cluster. Vérifiez les sélections de VCN et de sous-réseau pour l'adresse d'API Kubernetes, les noeuds de processus actif, l'équilibreur de charge de service et les pods.
    Confirmez que le nombre de noeuds est 3, que la taille du volume d'initialisation est ≥ 50 GB et que la clé publique SSH est correcte. Cliquez sur Créer une grappe.
  8. Validez la configuration après sa création.
    1. Ouvrez la page Détails du cluster et vérifiez que l'adresse d'API Kubernetes, les noeuds de processus actif et les pods sont associés aux sous-réseaux prévus.
    2. Vérifiez les tailles de volume d'initialisation de noeud de processus actif dans les détails Block Storage ou Compute (≥ 50 GB).
    3. (Facultatif) Connectez-vous via SSH à un noeud de processus actif à l'aide de la clé publique SSH téléchargée pour vérifier l'accès (sujet à votre modèle d'accès).
Pour plus d'informations sur la création de clusters, reportez-vous à Création personnalisée de workflow pour créer un cluster dans la documentation OCI.

Configuration de l'environnement et de l'accès Dify

Configurez l'accès à l'environnement Dify pour le préparer au déploiement afin d'initialiser la plate-forme :

Préparation environnementale

  1. Téléchargez le package d'installation de Dify Enterprise Edition via Helm.
  2. Modifiez la configuration values.yaml.
  3. Si vous utilisez un composant PostgreSQL, Redis et MinIO auto-construit, activez les configurations de composant externe telles que externalPostgres et externalRedis.
  4. Dans le même temps, créez une demande de volume persistant locale et allouez le stockage 50G pour la persistance des données.
  5. Exécutez la commande kubectl pour terminer la création.

Configuration de l'accès externe

  1. Déployez un contrôleur d'entrée d'équilibrage de charge en exécutant helm install ingress-nginx.
  2. Une fois que l'entrée a obtenu une adresse IP externe, configurez DNS.
  3. Vous pouvez ensuite accéder à la console Dify et à la plate-forme de gestion d'entreprise via le Web pour effectuer l'enregistrement de la licence, la création initiale de l'utilisateur et l'installation du module d'extension, par exemple le module d'extension de modèle LLM et le module d'extension de requête de base de données.