Fehler in der Datenintegration suchen

Mit Informationen zur Fehlerbehebung können Sie allgemeine Probleme identifizieren und beheben, die beim Arbeiten mit Data Integration auftreten können.

Siehe auch Bekannte Probleme bei Data Integration.

Informationen zur Fehlerbehebung:

Policy-Nachrichten

Im Folgenden werden einige Fehlermeldungen aufgeführt, die bei fehlenden Policys auftreten können.

Siehe auch Policy-Beispiele.

Autorisierung war nicht erfolgreich, oder angeforderte Ressource wurde nicht gefunden

Mögliche Meldungen:

Authorization failed or requested resource not found.
(404, NotAuthorizedOrNotFound, false) Authorization failed or requested resource not found (opc-request-id: <some-id>)
(404, NotAuthorizedOrNotFound, false) Authorization failed or requested resource not found.

Speicherort und Behebung der Meldung:

  • In Data Integration auf der Seite "Workspaces" oder im Dialogfeld "Ressource zu einem anderen Compartment verschieben":

    Die Berechtigung manage dis-workspaces fehlt für das ausgewählte Compartment. Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.
    allow group <group-name> to manage dis-workspaces in compartment <compartment-name>
  • Im Dialogfeld "Ressource zu einem anderen Compartment verschieben":

    Im Service fehlt die Berechtigung inspect compartment für das ausgewählte Ziel Compartment. Fügen Sie der Service-Policy die folgende Anweisung hinzu.
    allow service dataintegration to inspect compartments in compartment <target-compartment-name>
  • Auf der Seite mit den Details eines Object Storage-Datenassets, wenn Sie eine Verbindung testen:

    Die Berechtigung inspect compartments für den Mandanten fehlt. Fügen Sie der Service-Policy die folgende Anweisung hinzu.
    allow group <group-name> to inspect compartments in tenancy
  • Auf der Seite für Veröffentlichungen in Oracle Cloud Infrastructure Data Flow oder auf der Seite mit der Veröffentlichungshistorie des Data Flow-Service für eine Aufgabe, wenn Sie versuchen, die Data Flow-Serviceanwendung anzuzeigen, die nach dem erfolgreichen Veröffentlichen einer Aufgabe im Data Flow-Service erstellt wurde:

    Die Berechtigung read dataflow-anwendung fehlt für das ausgewählte Compartment. Fügen Sie der Compartment-Policy die folgende minimale Policy-Anweisung hinzu.
    allow group <group-name> to read dataflow-application in compartment <compartment-name>
  • Auf der Seite der Data Flow-Serviceanwendung, die für eine in mit Data Integration veröffentlichte Aufgabe erstellt wurde, beim Ausführen der Anwendung:

    Die Berechtigung manage dataflow-run fehlt für das ausgewählte Compartment. Fügen Sie der Compartment-Policy die folgende minimale Policy-Anweisung hinzu.
    allow group <group-name> to manage dataflow-run in compartment <compartment-name>
  • Wenn Sie ein privates Netzwerk aktivieren, sind auf der Seite "Workspace erstellen" die folgenden Policys für Benutzer ohne Administratorrechte erforderlich:
    allow group <group-name> to use virtual-network-family in compartment <compartment-name>
    allow group <group-name> to inspect instance-family in compartment <compartment-name>
Keine Elemente gefunden

Mögliche Meldungen:

No items found.
No items found.

(404, BucketNotFound, false) Either the bucket named '<bucket-name>' does not exist in the namespace '<namespace>' or you are not authorized to access it (opc-request-id: <some-id>)
No items found.

DIS_DATA_XPLORER_0008 - Error in getting interactive job run for opcRequestID: <some-id>.

Caused by: java.lang.RuntimeException: java.io.IOException: Unable to determine if path is a directory.

Speicherort und Behebung der Meldung:

  • Auf der Detailseite eines Object Storage-Datenassets unter "Buckets":

    Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.
    allow group <group-name> to use buckets in compartment <compartment-name>
    
  • In Object Storage im Bereich "Datenentity auswählen", nachdem Sie ein Compartment und einen Bucket ausgewählt haben:

    Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.
    allow group <group-name> to use objects in compartment <compartment-name>
    
  • Im Designer auf der Registerkarte "Daten" für einen Operatorknoten:

    Fügen Sie der Compartment-Policy die folgenden Anweisungen hinzu.

    allow any-user to manage objects in compartment <compartment-name>
     where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}
    allow any-user to use buckets in compartment <compartment-name>
     where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}
Keine Daten verfügbar

Mögliche Meldungen:

Error fetching data. No data available.
No data available

Speicherort und Behebung der Meldung:

  • Auf der Seite "Workspace erstellen" in den Feldern "VCN auswählen" und "Subnetz auswählen":

    Die Berechtigung virtuelle Netzwerkfamilie verwenden fehlt für das ausgewählte Compartment. Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.

    allow group <group-name> to use virtual-network-family in compartment <compartment-name>
  • In Object Storage im Bereich "Datenentity auswählen" im Feld "Bucket":

    Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.

    allow group <group-name> to use buckets in compartment <compartment-name>
    
Null Prozent abgeschlossen ohne Schritte

Mögliche Meldung:

0% completed with no steps mentioned

Speicherort und Behebung der Meldung:

  • Im Dialogfeld "Workspace-Status" in der Liste der Data Integration-Workspaces:

    Die Berechtigung manage dis-work-requests fehlt für das ausgewählte Compartment. Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.

    allow group <group-name> to manage dis-work-requests in compartment <compartment-name>
Schemareferenz kann nicht aufgelöst werden

Mögliche Meldungen:

Cannot resolve schema reference for key <some-key>, when resolving bound data entity for operator <operator-name>.

Cannot find the schema when preparing data access operator <operator-name>.
Cannot resolve schema reference for key <some-key>, when resolving bound data entity for operator <operator-name>.

Cannot find the schema when preparing data access operator <operator-name>.

Execution of the task <task-type> <task-name> failed.

Speicherort und Behebung der Meldung:

  • Im Designer auf der Registerkarte "Validierung":

    Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.
    allow any-user to use buckets in compartment <compartment-name>
     where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}
  • Auf der Seite "Aufgabenausführungen" im Bereich "Logmeldung" nach Ausführung einer Integrationsaufgabe:

    Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.
    allow any-user to use buckets in compartment <compartment-name>
     where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}
Problem mit dem Datenentityoperator

Mögliche Meldungen:

There was an issue with the Data Entity for operator: <operator-name>. Either no data entity was selected or you no longer have access to the selected data entity, connection, schema, or data asset. Check the operator or data asset details.
There was an issue with the Data Entity for operator: <operator-name>. Either no data entity was selected or you no longer have access to the selected data entity, connection, schema, or data asset. Check the operator or data asset details. 

Execution of the task <task-type> <task-name> failed.

Speicherort und Behebung der Meldung:

  • Im Designer im Bereich "Validierung":

    Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.

    allow any-user to manage objects in compartment <compartment-name>
     where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}
  • Auf der Seite "Aufgabenausführungen" im Bereich "Logmeldung" nach Ausführung einer Integrationsaufgabe:

    Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.

    allow any-user to manage objects in compartment <compartment-name>
     where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}
Ausführung der Aufgabe nicht erfolgreich

Mögliche Meldungen:

Task execution failed

Caused by: com.oracle.dicom.connectivity. framework.iface.exception.ConnectorException: (404,BucketNotFound, false) Either the bucket named '<bucket-name>' does not exist in the namespace '<namespace>' or you are not authorized to access it (opc-request-id: <some-id>)

Speicherort und Behebung der Meldung:

  • Wenn Sie auf der Seite "Aufgabenausführungen" eine Aufgabe ausführen, die ein Ziel als autonome Datenbank enthält:

    Fügen Sie der Compartment-Policy die folgende Anweisung hinzu.

    allow any-user {PAR_MANAGE} in compartment <compartment-name>
     where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}
Veröffentlichung in OCI Data Flow nicht möglich

Mögliche Meldungen:

DIS_SPL_0301 - Cannot publish to OCI Dataflow com.oracle.dicom.spark.execution.exceptions.SparkApplicationExecutionException:

DIS_SPL_0301 - Cannot publish to OCI Dataflow com.oracle.bmc.model.BmcException: (404, NotAuthorizedOrNotFound, false) Authorization failed or requested resource not found.
DIS_SPL_0301 - Cannot publish to OCI Dataflow com.oracle.dicom.spark.execution.exceptions.SparkApplicationExecutionException:

DIS_SPL_0301 - Cannot publish to OCI Dataflow com.oracle.bmc.model.BmcException: (404, NotAuthorizedOrNotFound, false) Unknown resource Unable to find bucket '<bucket-name>' in object storage namespace '<namespace>'. Please refer to the documentation and ensure that a bucket is available and configured. {ResultCode: UNABLE_TO_FIND_BUCKET, Parameters: [<bucket-name>,<namespace>]}

Speicherort und Behebung der Meldung:

  • Auf der Seite für Veröffentlichungen in Oracle Cloud Infrastructure Data Flow oder auf der Seite mit der Veröffentlichungshistorie des Data Flow-Service für eine Aufgabe, nachdem Sie versucht haben, eine Aufgabe in einer Anwendung im Data Flow-Service zu veröffentlichen:

    Die Berechtigung manage dataflow-anwendung fehlt für das ausgewählte Compartment. Fügen Sie der Compartment-Policy die folgende Anweisung mit minimalem Geltungsbereich hinzu.

    allow any-user to manage dataflow-application in compartment <compartment-name>
     where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace_ocid>'}
  • Auf der Seite für Veröffentlichungen in Oracle Cloud Infrastructure Data Flow oder auf der Seite mit der Veröffentlichungshistorie des Data Flow-Service für eine Aufgabe, nachdem Sie versucht haben, eine Aufgabe in einer Anwendung im Data Flow-Service zu veröffentlichen:

    Erstellen Sie einen Bucket mit dem Namen "<bucket-name>" in dem Compartment, auf das Data Integration im Mandanten (Namespace) Zugriff hat.

Extraktion aus Oracle Fusion Applications

Beheben Sie allgemeine Extraktionsprobleme bei der Arbeit mit Oracle Fusion Applications-Daten in Data Integration-Datenassets, -Datenflüssen und -Aufgaben.

BICC Fusion-Anwendungen

Wenn Sie auf der Registerkarte "Daten" Daten aus einem Oracle Business Intelligence Cloud Connector-(BICC-)Datenasset anzeigen, treten möglicherweise Lese- oder Ladefehler auf.

JSON-Statusdateien und Logdateien prüfen

Im Objektspeicher-Bucket, den Sie als externen Speicherort für das Staging extrahierter Daten verwenden, können Sie die erstellten JSON-Statusdateien prüfen.

Sie können die BICC-Konsole auch verwenden, um Diagnoseinformationen zu suchen, die Sie bei der Behebung von Extraktionsfehlern unterstützen.

  1. Melden Sie sich bei der BICC-Konsole an.
  2. Wählen Sie im Menü Hilfe die Option Logs herunterladen aus.
  3. Prüfen Sie die Datei biee_extractor.log in der ZIP-Datei des Logs.

Wert ist zu groß für die Spalte

Beispielmeldung:

ORA-12899: Value too large for column

Mögliche Ursache: Wenn Daten für das Laden von Forward-Engineering-Zielen in Data Integration extrahiert werden, gibt BICC möglicherweise falsche Spaltenlängeninformationen für mindestens ein View-Objekt zurück. Wenn die Datenwerte für das Laden länger sind als die maximale Spaltenlänge im Ziel, verläuft das Laden der Daten nicht erfolgreich.

Lösung: Erstellen Sie die Zielentity manuell mit größeren Spaltenlängen.

BIP Fusion-Anwendungen

Wenn Sie auf der Registerkarte "Daten" Daten aus einem Oracle Business Intelligence Publisher-(BIP-)Datenasset anzeigen, treten möglicherweise Lese- oder Ladefehler auf.

Datenvorschau kann für eine Datenentity nicht geladen werden

Beispielmeldung:

DICOM_CONNECTIVITY_0144 - Exception in data-access manager while reading sample-dataset

Mögliche Ursache: Wenn Sie in Data Integration die Details eines BIP Fusion Applications-Datenassets anzeigen und "Attribute" auswählen, werden die Datenentityattribute zurückgegeben. Wenn Sie jedoch "Daten" auswählen, kann der Bericht nicht geladen werden. Die Fehlermeldung gibt an, dass beim Abrufen von Beispieldaten im Bericht ein Fehler aufgetreten ist.

Lösung: Testen Sie das Datenmodell in BIP. Wenn das Datenmodell erfolgreich in BIP ausgeführt wird, speichern Sie es als Beispieldaten. Hängen Sie die Beispieldaten an das Datenmodell an.

Aufgabenausführungen

Beheben Sie allgemeine Ausführungsprobleme bei der Arbeit mit Autonomous Data Warehouse- oder Autonomous Transaction Processing-Datenquellen in Data Integration-Datenflüssen und -Aufgaben.

Beispiel: Eine Aufgabe kann aufgrund eines Ladeproblems nicht erfolgreich ausgeführt werden.

Ladevorgang nicht erfolgreich

Beispielmeldung:

ORA-20003: Reject limit reached, query table "ADMIN"."COPY$23_LOG"

Mögliche Ursache: Datenfehler, wie z.B. unterschiedliche Datenlängen oder -typen, können dazu führen, dass Staging und Laden nicht erfolgreich sind.

Lösung: Sie können mit der Logtabelle der autonomen Datenbank, die während der Ausführung generiert wurde, den oder die Datenfehler ermitteln. Wählen Sie "Log anzeigen", um die Fehlermeldung oder -meldungen anzuzeigen. Fragen Sie die Logtabelle (z.B. "ADMIN"."COPY$23_LOG") ab, um weitere Informationen abzurufen, einschließlich detaillierter Logs für den Ladevorgang.

Erstellen der Zieldatenentity nicht erfolgreich

Beispielmeldung:

ORA-20000: KUP-04050: error while attempting to allocate 1073741823 bytes of memory

Mögliche Ursache: In Autonomous Data Warehouse ist eine VARCHAR2-Spalte auf 4000 Byte begrenzt. Beispiel: Wenn eine VARCHAR2-Quellspalte JSON-Daten mit einem Genauigkeitswert von 1073741823 enthält, kann die Aufgabenausführung die ADW-Zieldatenentity nicht erstellen.

Lösung: Die Konvertierung zwischen TEXT und CLOB wird in Data Integration nicht unterstützt. Um beide Einschränkungen zu umgehen, erstellen Sie eine Tabelle in ADW mit dem CLOB-Datentyp. Geben Sie dann im ADW-Ziel im Datenfluss an, dass die vorhandene Datenentity verwendet werden soll, anstatt eine neue Datenentity zu erstellen. Stellen Sie sicher, dass die Spaltenzuordnung angemessen ist.

Verbindungen

Beheben Sie allgemeine Verbindungsprobleme beim Arbeiten mit Datenquellen in Data Integration-Datenflüssen und -Aufgaben.

Bevor Sie mit der Fehlerbehebung beginnen, finden Sie im Abschnitt Policy-Nachrichten relevante Fehlermeldungen.

So suchen Sie die Servicekonsolenlogs und opc-request-id

Wenn ein Fehler in der Konsole auftritt und in der Fehlermeldung nicht die opc-request-id angezeigt wird, können Sie die ID mit den folgenden Schritten suchen.

  1. Klicken Sie auf der Seite der Servicekonsole im Browser mit der rechten Maustaste, und wählen Sie Prüfen aus. Alternativ können Sie das Symbol mit den drei Punkten auswählen und Weitere Tools auswählen und dann Entwicklertools auswählen.
  2. Wählen Sie in der Symbolleiste des Bereichs "Entwicklertools" die Registerkarte Netzwerk aus.
  3. Wählen Sie XHR-Abruf filtern aus, um nur die API-Aufrufe anzuzeigen, die über die Konsole ausgeführt wurden.
  4. Führen Sie eine Aktivität auf der Seite "Service Console" aus. Wählen Sie dann im Bereich "Entwicklertools" ein Element aus, das in der Spalte Name von Interesse ist.
  5. Unter Header werden Anforderungsheader und Antwortheader angezeigt. Die opc-request-ids werden in den Headern aufgelistet.
  6. Um die Servicekonsolenlogs anzuzeigen, wählen Sie auf der Registerkarte Netzwerk das Symbol mit den drei Punkten aus, und wählen Sie Konsolenschublade anzeigen. Sie finden die opc-request-id im Fehlerblock.

Datenbankanmeldung nicht erfolgreich

Beispielnachrichten:

DICOM_CONNECTIVITY_0070 - OraError : ORA-28001: the password has expired
DICOM_CONNECTIVITY_0070 - OraError : ORA-01017: invalid username/password

Mögliche Ursache: Das Kennwort ist abgelaufen, oder es wurde ein falsches Paar aus Benutzername und Kennwort verwendet.

Lösung: Stellen Sie sicher, dass Sie über einen gültigen Benutzernamen und ein gültiges Kennwort verfügen. Prüfen Sie, ob die Verbindungsdetails im Datenasset den gültigen Benutzernamen und das gültige Kennwort enthalten. Ändern Sie gegebenenfalls das Kennwort des Datenbankbenutzers, und aktualisieren Sie dann das Kennwort in den Verbindungsdetails des Datenassets.

Wenn die Verbindungsdetails korrekt sind, wiederholen Sie die Verbindung zu einem späteren Zeitpunkt.

Verbindungstest nicht erfolgreich

Beispielmeldung:

Timeout on polling the AgentManager Service for response of work request <request id>

Mögliche Ursache: Je nach Typ des Datenassets (z.B. Object Storage oder autonome Datenbank) sind mögliche Ursachen eine fehlende Netzwerkkonfiguration in einem Workspace, der für die Verwendung eines privaten Netzwerks aktiviert ist, oder Sie versuchen, über einen Workspace, der nicht für ein privates Netzwerk aktiviert ist, auf eine private IP-Ressource zuzugreifen.

Um zu prüfen, ob ein Workspace für ein privates Netzwerk aktiviert ist, wählen Sie auf der Homepage des Workspace die Option Konfigurationen aus. Wenn diese Option aktiviert ist, zeigt das private Netzwerk Enabled an, und die VCN und Subnetz, die beim Erstellen des Workspace angehängt wurden, werden ebenfalls auf der Seite angezeigt. Das verwendete Subnetz muss ein regionales Subnetz sein.

Auflösung: Prüfen Sie in einem Workspace, der für ein privates Netzwerk aktiviert ist, in der Routentabelle des Subnetzes, ob ein NAT-Gateway oder ein Servicegateway vorhanden ist. Prüfen Sie für das Servicegateway, ob das Gateway so eingestellt ist, dass es die Alle <region_name>-Zieldienste in Oracle Services Network verwendet. Stellen Sie außerdem sicher, dass das VCN über eine Egress-Regel für die entsprechenden Ports verfügt.

Wenn die Netzwerkeinstellungen korrekt sind, versuchen Sie später erneut, die Verbindung zu testen.

Weitere Informationen zur Identifizierung anderer Optionen finden Sie in diesem Blog: VCN-Konfiguration für Data Integration.

ADW-Testverbindung nicht erfolgreich

Mögliche Ursache: Eine Ursache für einen ADW-Testverbindungsfehler kann ein Problem mit dem vollqualifizierten Domainnamen (FQDN) des Hosts sein.

Lösung: Versuchen Sie es erneut mit einer IP-Adresse.

Fehlercodereferenz

Wenn in Data Integration ein Fehler oder eine Warnung auftritt, helfen Sie in den Fehlermeldungen weiter.

Fehlercodes sind nach Feature organisiert. Wählen Sie ein Feature aus, um die Liste der Codes anzuzeigen:

Datenfluss

Fehlercode Meldung Lösung
DIS_DATAFLOW_0001 Datenfluss mit ID {} in Workspace {} kann nicht abgerufen werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Metadatenobjekt mit Schlüssel " nicht gefunden" angezeigt wird, ist der Datenfluss entweder nicht vorhanden oder wurde möglicherweise gelöscht. Verwenden Sie einen gültigen Datenfluss.
DIS_DATAFLOW_0002 Datenfluss {} kann nicht in Workspace {} gespeichert werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Aggregator {}, der für Objekt {} ausgewählt wurde, ist nicht vorhanden" angezeigt wird, ist das ausgewählte Projekt oder der ausgewählte Ordner nicht vorhanden. Verwenden Sie ein gültiges Projekt oder einen gültigen Ordner.
DIS_DATAFLOW_0003 Datenfluss mit ID {} in Workspace {} kann nicht aktualisiert werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Metadatenobjekt mit Schlüssel " nicht gefunden" angezeigt wird, ist der Datenfluss entweder nicht vorhanden oder wurde möglicherweise gelöscht. Verwenden Sie einen gültigen Datenfluss.
DIS_DATAFLOW_0004 Datenfluss mit ID {} in Workspace {} kann nicht gelöscht werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Metadatenobjekt mit Schlüssel " nicht gefunden" angezeigt wird, ist der Datenfluss entweder nicht vorhanden oder wurde möglicherweise gelöscht. Verwenden Sie einen gültigen Datenfluss.
DIS_DATAFLOW_0005 Aufgabe mit ID {} in Workspace {} kann nicht abgerufen werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Metadatenobjekt mit Schlüssel " nicht gefunden" angezeigt wird, ist die Aufgabe entweder nicht vorhanden oder wurde möglicherweise gelöscht. Verwenden Sie eine gültige Aufgabe.
DIS_DATAFLOW_0006 Aufgabe {} in Workspace {} kann nicht gespeichert werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Aggregator {}, der für Objekt {} ausgewählt wurde, ist nicht vorhanden" angezeigt wird, ist das ausgewählte Projekt oder der ausgewählte Ordner nicht vorhanden. Verwenden Sie ein gültiges Projekt oder einen gültigen Ordner.
DIS_DATAFLOW_0007 Aufgabe mit ID {} in Workspace {} kann nicht aktualisiert werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Metadatenobjekt mit Schlüssel " nicht gefunden" angezeigt wird, ist die Aufgabe entweder nicht vorhanden oder wurde möglicherweise gelöscht. Verwenden Sie eine gültige Aufgabe.
DIS_DATAFLOW_0008 Aufgabe mit ID {} in Workspace {} kann nicht gelöscht werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Metadatenobjekt mit Schlüssel " nicht gefunden" angezeigt wird, ist die Aufgabe entweder nicht vorhanden oder wurde möglicherweise gelöscht. Verwenden Sie eine gültige Aufgabe.
DIS_DATAFLOW_0009 Datenflüsse für Aggregator {} in Workspace {} können nicht aufgelistet werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Aggregator {}, der für Objekt {} ausgewählt wurde, ist nicht vorhanden" angezeigt wird, ist das ausgewählte Projekt oder der ausgewählte Ordner nicht vorhanden. Verwenden Sie ein gültiges Projekt oder einen gültigen Ordner.
DIS_DATAFLOW_0010 Aufgaben für Aggregator {} in Workspace {} können nicht aufgelistet werden. Mögliche Ursache: {}. Prüfen Sie die mögliche Ursache. Wenn beispielsweise "Aggregator {}, der für Objekt {} ausgewählt wurde, ist nicht vorhanden" angezeigt wird, ist das ausgewählte Projekt oder der ausgewählte Ordner nicht vorhanden. Verwenden Sie ein gültiges Projekt oder einen gültigen Ordner.
DIS_DATAFLOW_0011 Aufgabenvalidierung kann nicht abgeschlossen werden. Mögliche Ursache: {}. Wenden Sie sich an Oracle Support.
DIS_DATAFLOW_0012 Aufgabenvalidierung kann nicht abgeschlossen werden. Datenfluss für {} ist nicht vorhanden. Wählen Sie einen Datenfluss aus, und führen Sie den Vorgang erneut aus. Der beim Erstellen einer Aufgabe ausgewählte Datenfluss ist nicht vorhanden. Bearbeiten Sie die Aufgabe, und wählen Sie einen anderen Datenfluss aus.
DIS_DATAFLOW_0013 Aufgabenvalidierung kann nicht abgeschlossen werden. Validierung für Aufgabentyp {} wird nicht unterstützt. Validierung wird für diesen Aufgabentyp nicht unterstützt.
DIS_DATAFLOW_0014 Datenfluss kann nicht validiert werden. Sie müssen einen Datenfluss hinzufügen und konfigurieren. Führen Sie den Vorgang dann erneut aus. Der ausgewählte Datenfluss ist nicht vorhanden. Wählen Sie einen gültigen Datenfluss aus.
DIS_DATAFLOW_0015 Datenfluss kann nicht validiert werden. Bei der Verarbeitung der Anforderung ist ein Fehler aufgetreten. Wenden Sie sich an Oracle Support.
DIS_DATAFLOW_0016 Datenfluss kann nicht validiert werden. Datenfluss mit ID {} kann nicht gefunden werden. Der ausgewählte Datenfluss ist nicht vorhanden. Wählen Sie einen gültigen Datenfluss aus.
DIS_DATAFLOW_0017 Datenflussvalidierung kann nicht abgeschlossen werden. Ungültige ID {} angegeben. Wenden Sie sich an Oracle Support.

Data Xplorer (Registerkarte "Daten")

Fehlercode Meldung Lösung
DIS_DATA_XPLORER_0001 Die folgenden Parameter dürfen nicht Null sein: {} {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0002 {} ist ungültig. Öffnen Sie den Datenfluss erneut, und wiederholen Sie denselben Vorgang. Wenn das Problem weiterhin besteht, wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0003 Ungültige Nachrichten-ID von Data Gateway zurückgegeben. Wiederholen Sie den Vorgang, oder wenden Sie sich an Oracle Support. Wiederholen Sie denselben Vorgang. Wenn das Problem weiterhin besteht, wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0004 Data Gateway mit workspaceID {} wurde nicht gefunden. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0005 Verbindung zu Data Gateway mit workspaceID {} kann nicht hergestellt werden. Öffnen Sie den Datenfluss erneut, und wiederholen Sie denselben Vorgang. Wenn das Problem weiterhin besteht, wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0006 Fehler beim Abrufen der interaktiven Session für interactiveSessionId = {}, opcRequestID: {}, verursacht durch: {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0007 opcRequestID: {}, verursacht durch: {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0008 Fehler beim Abrufen des interaktiven Joblaufs für opcRequest-ID: {}, verursacht durch: {}. Öffnen Sie den Datenfluss erneut, und wiederholen Sie denselben Vorgang. Wenn das Problem weiterhin besteht, wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0009 Die Wallet-Datei der autonomen Datenbank kann nicht entschlüsselt werden: {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0010 Verbindungskennwort kann nicht entschlüsselt werden. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0011 Fehler beim Deserialisieren der Ausführungsergebnisantwort von Data Gateway für agentuuid {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0012 Interaktive Session für agentId {} konnte nicht erstellt werden. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0013 Deserialisierungsfehler in Data Gateway-Antwort zum Abrufen der interaktiven Session für agentID {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0014 Jobausführung nicht erfolgreich für agentId {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0015 Code für Knoten {} konnte nicht generiert werden. DataFlow-ID {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0016 Die folgenden Parameter können nur Null sein: {} {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0017 FlowNode {} ist nicht in DataFlow {} vorhanden. Öffnen Sie den Datenfluss erneut, und wiederholen Sie denselben Vorgang. Wenn das Problem weiterhin besteht, wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0018 Data Gateway-Fehler: {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0019 Codedekorationsfehler für pipeLineName {}. Wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0020 Aufruf von Data Gateway nicht erfolgreich für ID {}. Wiederholen. Öffnen Sie den Datenfluss erneut, und wiederholen Sie denselben Vorgang. Wenn das Problem weiterhin besteht, wenden Sie sich an Oracle Support.
DIS_DATA_XPLORER_0021 Der Versuch, das Ergebnis des interaktiven Joblaufs abzurufen, war nicht erfolgreich. Ungültige Payload: {}. -

Datenausführung

Kennung Meldung Lösung
DIS_EXEC_0001 Workflow mit ID {} kann nicht abgerufen werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0002 Workflow mit ID {} kann nicht aktualisiert werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0003 Workflow mit ID {} kann nicht gelöscht werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0004 Workflow {} kann nicht erstellt werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0005 Workflowobjekt ist im Repository für die angegebene Aufgaben-ID {} nicht verfügbar. Wenden Sie sich an Oracle Support.
DIS_EXEC_0006 Aufgabe {} in Anwendung mit ID {} kann nicht abgerufen werden. Prüfen Sie, ob die korrekte Anwendungs-ID und Aufgaben-ID verwendet wurden.
DIS_EXEC_0007 Referenzierung für Aufgabe {} kann nicht aufgehoben werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0008 Anwendungen können nicht aufgelistet werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0009 Übersicht für Aufgabe {} kann nicht abgerufen werden. Prüfen Sie, ob die korrekte Aufgaben-ID angegeben wurde.
DIS_EXEC_0010 Beim Abrufen von ApplicationMetrics mit mehreren Threads für diesen Workspace ist eine Ausnahme aufgetreten. Wenden Sie sich an Oracle Support.
DIS_EXEC_0011 Beim Aktualisieren der Aktionsausführung {} ist eine Ausnahme aufgetreten. Wiederholen. Wenden Sie sich an Oracle Support.
DIS_EXEC_0012 Aufgabenausführung {} kann nicht beendet werden. Beendigung wird für eine Aufgabenausführung mit dem Status {} nicht unterstützt. Sie können eine Aufgabenausführung mit dem Status TERMINATING oder NOT_STARTED nicht beenden.
DIS_EXEC_0013 TaskRun konnte nicht aktualisiert werden. Ein weiterer Aktualisierungsversuch wird unternommen. Wenden Sie sich an Oracle Support.
DIS_EXEC_0014 Status von Aufgabenausführung {} kann nicht in {} aktualisiert werden. Ein weiterer Aktualisierungsversuch wird unternommen. Wenden Sie sich an Oracle Support.
DIS_EXEC_0015 Keine zugeordneten Agents für Instanz {} vorhanden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0016 Aufgabenausführungslogs für Aufgabenausführung {} können nicht abgerufen werden. Prüfen Sie, ob die korrekte Aufgaben-ID verwendet wurde.
DIS_EXEC_0017 Der Operator ist kein SparkExecutor-Operator. Wenden Sie sich an Oracle Support.
DIS_EXEC_0018 Aufgabenausführung {} mit Status {} kann nicht beendet werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0019 Workflow {} enthält keine Knoten. Mindestens ein zerlegbarer Aufgabenoperator wird erwartet. Wenden Sie sich an Oracle Support.
DIS_EXEC_0020 Agent mit ID {} kann nicht gefunden werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0021 Agents können nicht aufgelistet werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0022 Aufgabenausführung {} kann nicht beendet werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0023 Nachricht kann nicht an Agent {} gesendet werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0024 Der ausführbare Workflow für die Aufgabenausführung mit ID {} ist Null. Wenden Sie sich an Oracle Support.
DIS_EXEC_0025 Zerlegter Workflow für Aufgabe {} kann nicht generiert werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0026 Instanz der Klasse {} konnte nicht erstellt werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0027 Die Aggregator-ID für die Aufgabe {} ist Null. Wenden Sie sich an Oracle Support.
DIS_EXEC_0028 GZIP-Komprimierung kann nicht ausgeführt werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0029 Objekt {} kann nicht serialisiert werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0030 In SparkRuntimeDTO ist ein Problem mit den Konfigurationsprovidern aufgetreten. Wenden Sie sich an Oracle Support.
DIS_EXEC_0031 Workflowausführung {} kann nicht erstellt werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0032 TaskRun-Objekt für Aufgabe {} kann nicht erstellt werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0033 Agent-Nachrichten-Payload für agentId {} und workspaceId {} kann nicht serialisiert werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0034 Beendigungsanforderung kann für Aufgabenausführung {} nicht an den Agent weitergeleitet werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0035 TaskRunLog-Objekt für Aufgabenausführung {} kann nicht erstellt werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0036 Workflowlöschungsvalidator für Workspace {} kann nicht erstellt werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0037 Workflowlöschungsvalidator für Workspace {} kann nicht abgerufen werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0038 Fehler beim Abrufen von Aufgabe {}, die in Anwendung {} in Workspace {} veröffentlicht wurde. Wenden Sie sich an Oracle Support.
DIS_EXEC_0039 Fehler beim Abrufen von Pipelineobjekten während der Ausführung von Aufgabe {}, die in Anwendung {} in Workspace {} veröffentlicht wurde. Wenden Sie sich an Oracle Support.
DIS_EXEC_0040 Fehler beim Abrufen der Konnektivitätsparameter {Datenassets/Verbindungen/Datenentitys} für Aufgabe mit UUID {}, die in Anwendung {} in Workspace {} veröffentlicht wurde.

Validierungsfehler: {}

Wenden Sie sich an Oracle Support.
DIS_EXEC_0041 Nachricht kann nicht an Agent gesendet werden. Wiederholungsversuch mit anderem Agent wurde ebenfalls überschritten. Wenden Sie sich an Oracle Support.
DIS_EXEC_0042 Aufgabenausführungen können nicht in der Anwendung aufgelistet werden. Wenden Sie sich an Oracle Support.
DIS_EXEC_0043 Aufgabenausführung mit ID {} kann nicht abgerufen werden. Prüfen Sie, ob die korrekte Aufgabenausführungs-ID verwendet wurde.
DIS_EXEC_0044 InstanceMetric-Objekt für Aufgabenausführung {} kann nicht erstellt werden. Prüfen Sie, ob die korrekte Aufgabenausführungs-ID verwendet wurde.