Pipeline erstellen

Erstellen Sie eine Data Science-Pipeline, um eine Aufgabe auszuführen.

Stellen Sie sicher, dass Sie die erforderlichen Einstellungen für Policys, Authentifizierung und Autorisierung für Pipelines eingerichtet haben.

Wichtig

Stellen Sie sicher, dass Sie die folgende Regel zu einer Policy für dynamische Gruppen hinzugefügt haben, um die Skriptschritte ordnungsgemäß auszuführen:

all {resource.type='datasciencepipelinerun', resource.compartment.id='<pipeline-run-compartment-ocid>'}

Bevor Sie beginnen:

Sie können Pipelines mit dem ADS-SDK, der OCI-Konsole oder dem OCI-SDK erstellen.

Die Verwendung von ADS zum Erstellen von Pipelines kann die Entwicklung der Pipeline, der Schritte und der Abhängigkeiten vereinfachen. ADS unterstützt das Lesen und Schreiben der Pipeline in und aus einer YAML-Datei. Mit ADS können Sie eine visuelle Darstellung der Pipeline anzeigen. Es wird empfohlen, die Pipeline mit ADS mit Code zu erstellen und zu verwalten.

    1. Wählen Sie auf der Seite "Pipelines" die Option Pipeline erstellen aus. Wenn Sie Hilfe beim Suchen der Liste der Pipelines benötigen, finden Sie weitere Informationen unter Pipelines auflisten.
    2. (Optional) Wählen Sie ein anderes Compartment für die Pipeline aus.
    3. (Optional) Geben Sie einen Namen und eine Beschreibung für die Pipeline ein (max. 255 Zeichen). Wenn Sie keinen Namen angeben, wird automatisch ein Name generiert.

      Beispiel: pipeline2022808222435.

    4. Wählen Sie Pipelineschritte hinzufügen aus, um mit der Definition des Workflows für die Pipeline zu beginnen.
    5. Wählen Sie im Bereich Pipelineschritt hinzufügen eine der folgenden Optionen aus, und beenden Sie die Pipelineerstellung:
    Aus einem Job

    Von einem Job

    Der Pipelineschritt verwendet einen vorhandenen Job. Wählen Sie einen der Jobs im Mandanten aus.

    1. Geben Sie einen eindeutigen Namen für den Schritt ein. Sie können einen Schrittnamen in einer Pipeline nicht wiederholen.
    2. (Optional) Geben Sie eine Schrittbeschreibung ein, mit der Sie Schrittabhängigkeiten finden können.
    3. (Optional) Wenn dieser Schritt von einem anderen Schritt abhängt, wählen Sie mindestens einen Schritt aus, der vor diesem Schritt ausgeführt werden soll.
    4. Wählen Sie den Job für den auszuführenden Schritt aus.
    5. (Optional) Geben Sie einen der folgenden Werte ein, oder wählen Sie einen der folgenden Werte aus, um diesen Pipelineschritt zu steuern:
      Schlüssel und Wert der benutzerdefinierten Umgebungsvariablen

      Die Umgebungsvariablen für diesen Pipelineschritt.

      Wert

      Der Wert für den Variablenschlüssel der benutzerdefinierten Umgebung.

      Sie können Zusätzlicher benutzerdefinierter Umgebungsschlüssel auswählen, um weitere Variablen anzugeben.

      Befehlszeilenargumente

      Die Befehlszeilenargumente, die Sie zum Ausführen des Pipelineschritts verwenden möchten.

      Maximale Laufzeit (in Minuten)

      Die maximale Anzahl von Minuten, die der Pipelineschritt ausgeführt werden darf. Der Service storniert die Pipelineausführung, wenn die Laufzeit den angegebenen Wert überschreitet. Die maximale Laufzeit beträgt 30 Tage (43.200 Minuten). Es wird empfohlen, eine maximale Laufzeit für alle Pipelineausführungen zu konfigurieren, um nicht erfolgreiche Pipelineausführungen zu verhindern.

    6. Wählen Sie Speichern aus, um den Schritt hinzuzufügen und zur Seite Pipeline erstellen zurückzukehren.
    7. (Optional) Wählen Sie +Add-Pipelineschritte aus, um weitere Schritte zum Abschließen des Workflows hinzuzufügen, und wiederholen Sie die vorherigen Schritte.
    8. (Optional) Erstellen Sie eine Standard-Pipelinekonfiguration, die bei der Ausführung der Pipeline verwendet wird, indem Sie Umgebungsvariable, Befehlszeilenargumente und maximale Laufzeitoptionen eingeben. Eine Erläuterung dieser Felder finden Sie in Schritt 5.
    9. (Optional) Wählen Sie eine Compute-Ausprägung aus, indem Sie Auswählen auswählen und die folgenden Schritte ausführen:
      1. Wählen Sie einen Instanztyp aus.
      2. Wählen Sie eine Ausprägungsreihe aus.
      3. Wählen Sie eine der unterstützten Compute-Ausprägungen in der Serie aus.
      4. Wählen Sie die Ausprägung aus, die am besten zur gewünschten Verwendung der Ressource passt. Bei der AMD-Ausprägung können Sie den Standardwert verwenden oder die Anzahl der OCPUs und die Arbeitsspeichermenge festlegen.

        Wählen Sie für jede OCPU bis zu 64 GB Arbeitsspeicher und eine maximale Summe von 512 GB aus. Der zulässige Mindestarbeitsspeicher ist entweder 1 GB oder ein Wert, der mit der Anzahl der OCPUs übereinstimmt, je nachdem, welcher Wert größer ist.

      5. Wählen Sie Ausprägung auswählen aus.
    10. Geben Sie unter Block Storage die Speichermenge ein, die Sie zwischen 50 GB und 10, 240 GB (10 TB) verwenden möchten. Sie können den Wert in 1-GB-Inkrementen ändern. Der Standardwert ist 100 GB.
    11. (Optional) Um Logging zu verwenden, wählen Sie Auswählen aus, und stellen Sie sicher, dass Logging aktivieren ausgewählt ist.
      1. Wählen Sie eine Loggruppe in der Liste aus. Sie können zu einem anderen Compartment wechseln, um eine Loggruppe in einem anderen Compartment als dem des Jobs anzugeben.
      2. Wählen Sie eine der folgenden Optionen aus, um alle stdout- und stderr-Meldungen zu speichern:
        Automatische Logerstellung aktivieren

        Data Science erstellt automatisch ein Log, wenn der Job gestartet wird.

        Log auswählen

        Wählen Sie das gewünschte Log aus.

      3. Wählen Sie Auswählen aus, um zur Erstellungsseite für den Joblauf zurückzukehren.
    12. (Optional) Wählen Sie Erweiterte Optionen anzeigen aus, um der Pipeline Tags hinzuzufügen.
    13. (Optional) Fügen Sie im Abschnitt Tags dem <resourceType> mindestens ein Tag hinzu. Wenn Sie über Berechtigungen zum Erstellen einer Ressource verfügen, sind Sie auch berechtigt, Freiformtags auf diese Ressource anzuwenden. Um ein definiertes Tag anzuwenden, müssen Sie über die Berechtigungen verfügen, den Tag-Namespace zu verwenden. Weitere Informationen zu Tagging finden Sie unter Ressourcentags. Wenn Sie nicht sicher sind, ob Sie Tags anwenden sollen, überspringen Sie diese Option, oder fragen Sie einen Administrator. Sie können Tags später anwenden.
    14. Klicken Sie auf Erstellen.

      Nachdem die Pipeline aktiv ist, können Sie Pipelineausführungen verwenden, um die Pipeline wiederholt auszuführen.

    Aus einem Skript

    Aus einem Skript

    Der Schritt verwendet ein Skript zur Ausführung. Sie müssen das Artefakt hochladen, das den gesamten Code für den auszuführenden Schritt enthält.

    1. Geben Sie einen eindeutigen Namen für den Schritt ein. Sie können einen Schrittnamen in einer Pipeline nicht wiederholen.
    2. (Optional) Geben Sie eine Schrittbeschreibung ein, mit der Sie Schrittabhängigkeiten finden können.
    3. (Optional) Wenn dieser Schritt von einem anderen Schritt abhängt, wählen Sie mindestens einen Schritt aus, der vor diesem Schritt ausgeführt werden soll.
    4. Ziehen Sie eine Jobschrittdatei in das Feld, oder wählen Sie Datei auswählen aus, um zur Datei zur Auswahl zu navigieren.
    5. Wählen Sie unter Einstiegspunkt eine Datei als Einstiegspunkt für den Schritt aus. Dies ist nützlich, wenn Sie viele Dateien haben.
    6. (Optional) Geben Sie einen der folgenden Werte ein, oder wählen Sie einen der folgenden Werte aus, um diesen Pipelineschritt zu steuern:
      Schlüssel und Wert der benutzerdefinierten Umgebungsvariablen

      Die Umgebungsvariablen für diesen Pipelineschritt.

      Wert

      Der Wert für den Variablenschlüssel der benutzerdefinierten Umgebung.

      Sie können Zusätzlicher benutzerdefinierter Umgebungsschlüssel auswählen, um weitere Variablen anzugeben.

      Befehlszeilenargumente

      Die Befehlszeilenargumente, die Sie zum Ausführen des Pipelineschritts verwenden möchten.

      Maximale Laufzeit (in Minuten)

      Die maximale Anzahl von Minuten, die der Pipelineschritt ausgeführt werden darf. Der Service storniert die Pipelineausführung, wenn die Laufzeit den angegebenen Wert überschreitet. Die maximale Laufzeit beträgt 30 Tage (43.200 Minuten). Es wird empfohlen, eine maximale Laufzeit für alle Pipelineausführungen zu konfigurieren, um nicht erfolgreiche Pipelineausführungen zu verhindern.

    7. (Optional) Erstellen Sie eine Standard-Pipelinekonfiguration, die bei der Ausführung der Pipeline verwendet wird, indem Sie Umgebungsvariable, Befehlszeilenargumente und maximale Laufzeitoptionen eingeben. Eine Erläuterung dieser Felder finden Sie in Schritt 6.
    8. Geben Sie unter Block Storage die Speichermenge ein, die Sie zwischen 50 GB und 10, 240 GB (10 TB) verwenden möchten. Sie können den Wert in 1-GB-Inkrementen ändern. Der Standardwert ist 100 GB.
    9. Wählen Sie Speichern aus, um den Schritt hinzuzufügen und zur Seite Pipeline erstellen zurückzukehren.
    10. (Optional) Verwenden Sie +Add-Pipelineschritte, um weitere Schritte zum Abschließen des Workflows hinzuzufügen, indem Sie die vorherigen Schritte wiederholen.
    11. (Optional) Erstellen Sie eine Standard-Pipelinekonfiguration, die bei der Ausführung der Pipeline verwendet wird, indem Sie Umgebungsvariable, Befehlszeilenargumente und maximale Laufzeitoptionen eingeben. Eine Erläuterung dieser Felder finden Sie in Schritt 6.
    12. Geben Sie unter Block Storage die Speichermenge ein, die Sie zwischen 50 GB und 10, 240 GB (10 TB) verwenden möchten. Sie können den Wert in 1-GB-Inkrementen ändern. Der Standardwert ist 100 GB.
    13. Wählen Sie eine der folgenden Optionen, um den Netzwerktyp zu konfigurieren:
      • Standardmäßiges Networking: Die Workload wird mit einer sekundären VNIC an ein vorkonfiguriertes, serviceverwaltetes VCN und Subnetz angehängt. Mit diesem bereitgestellten Subnetz können Sie über ein NAT-Gateway E-Mails zum öffentlichen Internet und über ein Servicegateway auf andere Oracle Cloud-Services zugreifen.

        Wenn Sie nur Zugriff auf das öffentliche Internet und die OCI-Services benötigen, wird empfohlen, diese Option zu verwenden. Damit müssen Sie keine Netzwerkressourcen erstellen oder Policys für Netzwerkberechtigungen schreiben.

      • Benutzerdefiniertes Networking: Wählen Sie das VCN und das Subnetz aus, die Sie für die Ressource (Notebooksession oder Job) verwenden möchten.

        Verwenden Sie für den Egress-Zugriff auf das öffentliche Internet ein privates Subnetz mit einer Route zu einem NAT-Gateway.

        Wenn das zu verwendende VCN oder Subnetz nicht angezeigt wird, wählen Sie Compartment ändern und dann das Compartment mit dem VCN oder Subnetz aus.

        Wichtig

        Benutzerdefiniertes Networking muss verwendet werden, um einen Dateispeicher-Mount zu verwenden.

    14. (Optional) Um Logging zu verwenden, wählen Sie Auswählen aus, und stellen Sie sicher, dass Logging aktivieren ausgewählt ist.
      1. Wählen Sie eine Loggruppe in der Liste aus. Sie können zu einem anderen Compartment wechseln, um eine Loggruppe in einem anderen Compartment als dem des Jobs anzugeben.
      2. Wählen Sie eine der folgenden Optionen aus, um alle stdout- und stderr-Meldungen zu speichern:
        Automatische Logerstellung aktivieren

        Data Science erstellt automatisch ein Log, wenn der Job gestartet wird.

        Log auswählen

        Wählen Sie das gewünschte Log aus.

      3. Wählen Sie Auswählen aus, um zur Erstellungsseite für den Joblauf zurückzukehren.
    15. (Optional) Wählen Sie Erweiterte Optionen anzeigen aus, um der Pipeline Tags hinzuzufügen.
    16. (Optional) Fügen Sie im Abschnitt Tags dem <resourceType> mindestens ein Tag hinzu. Wenn Sie über Berechtigungen zum Erstellen einer Ressource verfügen, sind Sie auch berechtigt, Freiformtags auf diese Ressource anzuwenden. Um ein definiertes Tag anzuwenden, müssen Sie über die Berechtigungen verfügen, den Tag-Namespace zu verwenden. Weitere Informationen zu Tagging finden Sie unter Ressourcentags. Wenn Sie nicht sicher sind, ob Sie Tags anwenden sollen, überspringen Sie diese Option, oder fragen Sie einen Administrator. Sie können Tags später anwenden.
    17. Klicken Sie auf Erstellen.

      Nachdem die Pipeline aktiv ist, können Sie Pipelineausführungen verwenden, um die Pipeline wiederholt auszuführen.

    Von Container

    Ausgangscontainer

    Optional können Sie bei der Definition von Pipelineschritten Eigenen Container bereitstellen verwenden.
    1. Wählen Sie Aus Container aus.
    2. Wählen Sie im Abschnitt Containerkonfiguration die Option Konfigurieren aus.
    3. Wählen Sie im Bereich Containerumgebung konfigurieren ein Repository aus der Liste aus. Wenn sich das Repository in einem anderen Compartment befindet, wählen Sie Compartment ändern aus.
    4. Wählen Sie ein Image aus der Liste.
    5. (Optional) Geben Sie einen Einstiegspunkt ein. Um einen weiteren hinzuzufügen, wählen Sie Parameter +Add aus.
    6. (Optional) Geben Sie eine CMD ein. Um einen weiteren hinzuzufügen, wählen Sie Parameter +Add aus.
      Verwenden Sie CMD als Argumente für ENTRYPOINT oder den einzigen Befehl, der ohne ENTRYPOINT ausgeführt wird.
    7. (Optional) Geben Sie einen Imagedigest ein.
    8. (Optional) Wenn Sie die Signaturverifizierung verwenden, geben Sie die OCID der Imagesignatur ein.
      Beispiel, ocid1.containerimagesignature.oc1.iad.aaaaaaaaab....
    9. (Optional) Laden Sie das Schrittartefakt hoch, indem Sie es in das Feld ziehen.
      Hinweis

      Dieser Schritt ist nur optional, wenn BYOC konfiguriert ist.
  • Diese Umgebungsvariablen steuern die Pipelineausführung.

    Mit der OCI-CLI können Sie eine Pipeline wie in diesem Python-Beispiel erstellen:

    1. Pipeline erstellen:

      Die folgenden Parameter können in der Payload verwendet werden:

      Parametername Erforderlich Beschreibung
      Pipeline (oberste Ebene)
      projectId Erforderlich Die Projekt-OCID zum Erstellen der Pipeline.
      compartmentId Erforderlich Die Compartment-OCID zum Erstellen der Pipeline in.
      displayName Optional Der Name der Pipeline.
      infrastructureConfigurationDetails Optional

      Standardinfrastruktur-(Compute-)Konfiguration, die für alle Pipelinenschritte verwendet werden soll. Details zu den unterstützten Parametern finden Sie unter infrastructureConfigurationDetails.

      Kann von der Pipelineausführungskonfiguration überschrieben werden.

      logConfigurationDetails Optional

      Standardlog, das für alle Pipeleschritte verwendet werden soll. Details zu den unterstützten Parametern finden Sie unter logConfigurationDetails.

      Kann von der Pipelineausführungskonfiguration überschrieben werden.

      configurationDetails Optional

      Standardkonfiguration für die Pipelineausführung. Details zu unterstützten Parametern finden Sie unter configurationDetails.

      Kann von der Pipelineausführungskonfiguration überschrieben werden.

      freeformTags Optional Tags, die der Pipelineressource hinzugefügt werden sollen.
      stepDetails
      stepName Erforderlich Name des Schritts. Muss in der Pipeline eindeutig sein.
      description Optional Freitextbeschreibung für den Schritt.
      stepType Erforderlich CUSTOM_SCRIPT oder ML_JOB
      jobId Erforderlich* Bei ML_JOB-Schritten ist dies die Job-OCID, die für die Schrittausführung verwendet werden soll.
      stepInfrastructureConfigurationDetails Optional*

      Die Standardinfrastrukturkonfiguration (Compute), die für diesen Schritt verwendet werden soll, finden Sie unter infrastructureConfigurationDetails für Details zu den unterstützten Parametern.

      Kann von der Pipelineausführungskonfiguration überschrieben werden.

      *Muss auf mindestens einer Ebene definiert werden (Priorität basierend auf Priorität, wobei 1 am höchsten ist):

      1 Pipeline-Lauf und/oder

      2 Schritte und/oder

      3 Pipeline

      stepConfigurationDetails Optional*

      Die Standardkonfiguration für die Schrittausführung finden Sie unter configurationDetails für Details zu unterstützten Parametern.

      Kann von der Pipelineausführungskonfiguration überschrieben werden.

      *Muss auf mindestens einer Ebene definiert werden (Priorität basierend auf Priorität, wobei 1 am höchsten ist):

      1 Pipeline-Lauf und/oder

      2 Schritte und/oder

      3 Pipeline

      dependsOn Optional Liste der Schritte, die abgeschlossen werden müssen, bevor dieser Schritt beginnt. Dadurch wird das Diagramm für Pipelineworkflowabhängigkeiten erstellt.
      infrastructureConfigurationDetails
      shapeName Erforderlich Name der zu verwendenden Compute-Ausprägung. Beispiel: VM.Standard2.4.
      blockStorageSizeInGBs Erforderlich Anzahl der GBs, die als angehängter Speicher für die VM verwendet werden sollen.
      logConfigurationDetails
      enableLogging Erforderlich Definieren Sie die Verwendung von Logging.
      logGroupId Erforderlich Loggruppen-OCID für die Logs. Die Loggruppe muss erstellt und verfügbar sein, wenn die Pipeline ausgeführt wird
      logId Optional* Log-OCID, die für die Logs verwendet werden soll, wenn der Parameter enableAutoLogCreation nicht verwendet wird.
      enableAutoLogCreation Optional Wenn dieser Wert auf True gesetzt ist, wird ein Log für jede Pipelineausführung erstellt.
      configurationDetails
      type Erforderlich Nur DEFAULT wird unterstützt.
      maximumRuntimeInMinutes Optional Zeitlimit in Minuten für die Ausführung der Pipeline.
      environmentVariables Optional

      Umgebungsvariablen, die für die Ausführung des Pipelineschritts bereitgestellt werden sollen.

      Beispiel:

      "environmentVariables": {
      
       "CONDA_ENV_TYPE": "service"
      
      }

      Prüfen Sie die Liste der von Services unterstützten Umgebungsvariablen.

      pipeline_payload = {
          "projectId": "<project_id>",
          "compartmentId": "<compartment_id>",
          "displayName": "<pipeline_name>",
          "pipelineInfrastructureConfigurationDetails": {
              "shapeName": "VM.Standard2.1",
              "blockStorageSizeInGBs": "50"
          },
          "pipelineLogConfigurationDetails": {
              "enableLogging": True,
              "logGroupId": "<log_group_id>",
              "logId": "<log_id>"
          },
          "pipelineDefaultConfigurationDetails": {
              "type": "DEFAULT",
              "maximumRuntimeInMinutes": 30,
              "environmentVariables": {
                  "CONDA_ENV_TYPE": "service",
                  "CONDA_ENV_SLUG": "classic_cpu"
              }
          },
          "stepDetails": [
              {
                  "stepName": "preprocess",
                  "description": "Preprocess step",
                  "stepType": "CUSTOM_SCRIPT",
                  "stepInfrastructureConfigurationDetails": {
                      "shapeName": "VM.Standard2.4",
                      "blockStorageSizeInGBs": "100"
                  },
                  "stepConfigurationDetails": {
                      "type": "DEFAULT",
                      "maximumRuntimeInMinutes": 90
                      "environmentVariables": {
                          "STEP_RUN_ENTRYPOINT": "preprocess.py",
                          "CONDA_ENV_TYPE": "service",
                          "CONDA_ENV_SLUG": "onnx110_p37_cpu_v1"
                  }
              },
              {
                  "stepName": "postprocess",
                  "description": "Postprocess step",
                  "stepType": "CUSTOM_SCRIPT",
                  "stepInfrastructureConfigurationDetails": {
                      "shapeName": "VM.Standard2.1",
                      "blockStorageSizeInGBs": "80"
                  },
                  "stepConfigurationDetails": {
                      "type": "DEFAULT",
                      "maximumRuntimeInMinutes": 60
                  },
                  "dependsOn": ["preprocess"]
              },
          ],
          "freeformTags": {
              "freeTags": "cost center"
          }
      }
      pipeline_res = dsc.create_pipeline(pipeline_payload)
      pipeline_id = pipeline_res.data.id

      Bis alle Artefakte der Pipelineschritte hochgeladen sind, befindet sich die Pipeline im Status CREATING.

    2. Schrittartefakt hochladen:

      Nachdem ein Artefakt hochgeladen wurde, kann es nicht mehr geändert werden.

      fstream = open(<file_name>, "rb")
       
      dsc.create_step_artifact(pipeline_id, step_name, fstream, content_disposition=f"attachment; filename={<file_name>}")
    3. Pipeline aktualisieren:

      Sie können eine Pipeline nur aktualisieren, wenn sie sich im Status ACTIVE befindet.

      update_pipeline_details = {
      "displayName": "pipeline-updated"
      }
      self.dsc.update_pipeline(<pipeline_id>, <update_pipeline_details>)
    4. Pipelineausführung starten:
      pipeline_run_payload = {
      "projectId": project_id,
      "displayName": "pipeline-run",
      "pipelineId": <pipeline_id>,
      "compartmentId": <compartment_id>,
      }
      dsc.create_pipeline_run(pipeline_run_payload)
  • Das ADS-SDK ist auch eine öffentlich verfügbare Python-Library, die Sie mit diesem Befehl installieren können:

    pip install oracle-ads

    Mit dem ADS-SDK können Sie Pipelines erstellen und ausführen.

Benutzerdefiniertes Networking

Verwenden Sie ein benutzerdefiniertes Netzwerk, das Sie bereits in der Pipeline erstellt haben, um Ihnen zusätzliche Flexibilität im Netzwerk zu bieten.

Pipelines mit benutzerdefiniertem Networking erstellen

Sie können festlegen, dass beim Erstellen einer Pipeline benutzerdefiniertes Networking verwendet wird.

Hinweis

Der Wechsel von benutzerdefiniertem Networking zu verwaltetem Networking wird nach dem Erstellen der Pipeline nicht unterstützt.
Tipp

Wenn das Banner angezeigt wird: The specified subnet is not accessible. Select a different subnet. Erstellen Sie eine Netzwerkzugriffs-Policy, wie im Abschnitt Pipeline-Policys beschrieben.

Konsole verwenden

Wählen Sie diese Option aus, um benutzerdefiniertes Networking im Bereich Pipeline erstellen zu verwenden.

Wenn Sie Standardnetzwerke auswählen, verwendet das System das vorhandene serviceverwaltete Netzwerk. Wenn Sie die benutzerdefinierte Networkingoption auswählen, werden Sie aufgefordert, ein VCN und ein Subnetz auszuwählen.

Wählen Sie das VCN und das Subnetz aus, die Sie für die Ressource verwenden möchten. Verwenden Sie für den Egress-Zugriff auf das öffentliche Internet ein privates Subnetz mit einer Route zu einem NAT-Gateway. Wenn das zu verwendende VCN oder Subnetz nicht angezeigt wird, wählen Sie Compartment ändern und dann das Compartment mit dem VCN oder Subnetz aus.

APIs verwenden

Geben Sie subnet-id in infrastructure-configuration-details an, um ein benutzerdefiniertes Subnetz auf Pipelineebene zu verwenden. Beispiel:
"infrastructure-configuration-details": {
      "block-storage-size-in-gbs": 50,
      "shape-config-details": {
        "memory-in-gbs": 16.0,
        "ocpus": 1.0
      },
      "shape-name": "VM.Standard.E4.Flex",
      "subnet-id": "ocid1.subnet.oc1.iad.aaaaaaaa5lzzq3fyypo6x5t5egplbfyxf2are6k6boop3vky5t4h7g35xkoa"
}
Oder in den Schritt-Container-Konfigurationsdetails, um ein benutzerdefiniertes Subnetz für einen bestimmten Schritt zu verwenden. Beispiel:
"step-infrastructure-configuration-details": {
          "block-storage-size-in-gbs": 50,
          "shape-config-details": {
            "memory-in-gbs": 16.0,
            "ocpus": 1.0
          },
          "shape-name": "VM.Standard.E4.Flex",
          "subnet-id": "ocid1.subnet.oc1.iad.aaaaaaaa5lzzq3fyypo6x5t5egplbfyxf2are6k6boop3vky5t4h7g35xkoa"
},