Mit Verbindungen arbeiten

Mit Verbindungen können Sie Data Transforms mit verschiedenen Technologien verbinden, die über Ihr OCI-Netzwerk erreichbar sind.

In diesem Abschnitt werden die allgemeinen Schritte zum Erstellen einer Verbindung beschrieben. Die angezeigten Verbindungsdetailoptionen können je nach ausgewähltem Verbindungstyp variieren.

Neben den unter Unterstützte Verbindungstypen aufgeführten Verbindungstypen können Sie benutzerdefinierte Connectors erstellen, mit denen Sie Data Transforms mit beliebigen JDBC- unterstützten Datenquellen verbinden können. Siehe Benutzerdefinierte Connectors erstellen.

So erstellen Sie eine neue Verbindung:

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.

    Die Seite Verbindungen wird angezeigt.

  2. Klicken Sie auf Verbindung erstellen.

    Die Seite Verbindung erstellen wird angezeigt.

  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie den Typ für die Verbindung, die Sie erstellen möchten.
      • Datenbanken - Ermöglicht die Konfiguration aller Verbindungstypen für unterstützte Datenbanktypen.
      • Anwendungen - Ermöglicht die Konfiguration aller Verbindungstypen für unterstützte Anwendungen.
      • Services - Ermöglicht die Konfiguration aller Verbindungstypen für unterstützte Services.
  4. Klicken Sie nach der Auswahl des gewünschten Verbindungstyps auf Weiter.

    Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Sie können diesen Wert ändern.

  5. Geben Sie unter Verbindungsdetails die Verbindungsdetails für den ausgewählten Typ an. Beispiel:
    • Verbindung-
      • JDBC-URL - Die URL für die Verbindung zum Datenserver. Beispiele:
        jdbc:weblogic:sqlserver://hostname:port[;property=value[;...]]
        Hinweis

        Wenn Sie von einer Autonomous Database auf einen öffentlichen Endpunkt auf Datentransformationen zugreifen, sind die zulässigen Portnummern 2484, 1521-1525, 1708, 3306, 80.

        Geben Sie für Connectors, die einen autoREST-Treiber verwenden, der die Modelldateien zusammen mit dem Treiber bereitstellt, den Servernamen und andere Eigenschaften an, die für die Verbindung mit dieser Datenquelle erforderlich sind. Beispiele:

        jdbc:weblogic:autorest://servername;[property=value[;...]]

      • Benutzer - Der Benutzername, falls erforderlich, für die Verbindung mit dem Server.
      • Kennwort - Das Kennwort für die Verbindung zum Server.
    • Erweiterte Optionen
      • Array-Fetch-Größe - Wenn große Datenmengen von einem Datenserver gelesen werden, ruft Oracle Data Transforms aufeinander folgende Datensatz-Batches ab. Bei diesem Wert handelt es sich um die Anzahl der Zeilen (der gelesenen Datensätze), die von Oracle Data Transforms bei jeder Kommunikation mit dem Datenserver angefordert werden.
      • Batchaktualisierungsgröße - Wenn große Datenmengen auf einen Datenserver geschrieben werden, überträgt Oracle Data Transforms aufeinander folgende Datensatz-Batches. Bei diesem Wert handelt es sich um die Anzahl der Zeilen (der geschrieben Datensätze) in einem einzelnen INSERT-Befehl von Oracle Data Transforms.
        Hinweis

        Setzen Sie die Batchaktualisierungsgröße auf maximal 1000, um Tabellen mit BLOB-Datentypspalten zu laden.
      • Parallelitätsgrad für Ziel - Dieser Wert gibt die Anzahl der Threads an, die für eine Ladeaufgabe zulässig sind. Der Standardwert ist 1. Es sind maximal 99 Threads zulässig.
      Hinweis

      Verbindungsdetails sind spezifisch, und die obigen Optionen hängen vom ausgewählten Verbindungstyp ab. Für die Standardverbindung, die beim Provisioning erstellt wird, können nur die Felder "Benutzer" und "Kennwort" bearbeitet werden. Alle anderen Felder sind deaktiviert.
  6. Nachdem Sie alle erforderlichen Verbindungsdetails angegeben haben, klicken Sie auf Verbindung testen, um die Verbindung zu testen.
    Wenn die Testverbindung nicht erfolgreich verläuft, führen Sie einen der folgenden Schritte aus:
  7. Klicken Sie auf Erstellen.

    Die neue Verbindung wird hergestellt.

Die neu erstellten Verbindungen werden auf der Seite Verbindungen angezeigt.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Schema löschen aus, um Schemas zu löschen.
  • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

Sie können auch nach der erforderlichen Verbindung suchen, um die zugehörigen Details anhand der folgenden Filter zu ermitteln:

  • Name der Verbindung.
  • Technologie, die mit der erstellten Verbindung verknüpft ist.

Themen

Unterstützte Verbindungstypen

In diesem Thema werden die Verbindungstypen aufgeführt, die für die Verbindung mit Datentransformationen unterstützt werden.

Government Cloud-Regionen sind erforderlich, um FIPS-Konformitätsstandards für den Datenschutz zu unterstützen. Datentransformationen in Government Realms sind FIPS 140-2 Level 1-konform. Stellen Sie sicher, dass die Verbindungsquellen FIPS-konform sind, um eine sichere Kommunikation zwischen den Servern zu gewährleisten.

Hinweis

Gilt für: Anwendbar Datentransformationen, die als separater Eintrag im Marketplace "Data Integrator: Web Edition" verfügbar sind.
  • Bei den Connectors, für die eine Treiberinstallation erforderlich ist, müssen Sie die JAR-Dateien in das Verzeichnis /u01/oracle/transforms_home/userlibs kopieren, bevor Sie die Verbindung hinzufügen.
  • Neben den hier aufgelisteten Verbindungstypen können Sie benutzerdefinierte Connectors erstellen, mit denen Sie Data Transforms mit beliebigen JDBC-basierten Datenquellen verbinden können. Siehe Benutzerdefinierte Connectors erstellen.
Name Typ Unterstützt in Data Integrator: Web Edition In Autonomous Database integrierte Datentransformationen unterstützt In OCI GoldenGate integrierte Datentransformationen unterstützt Unterstützt Schreibvorgang Authentifizierungsmodus: Beispiel für Verbindungs-URL Hinweise
Aha! Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=https://{yourdomain}.aha.io; AuthenticationMethod=OAuth2; clientid=**********;clientsecret=*************; authuri=https://{yourdomain}.aha.io/oauth/authorize; tokenuri=https://{yourdomain}.aha.io/oauth/token; redirectUri=http://localhost;  
Ahrefs Application Ja Ja Ja Nein URLParameter: jdbc:weblogic:autorest:ServerName=https://apiv2.ahrefs.com;AuthenticationMethod=URLParameter;SecurityToken=xxxxxxxx;AuthParam=token;  
Amazon Aurora Datenbank Ja Ja Ja Ja
  • userIDPassword: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=userIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=kerberos;ServicePrincipalName=servicePrincipalName;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • EntraIDPassword: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=EntraIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • EntraIDServicePrincipal: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=EntraIDServicePrincipal; ServicePrincipal=your_service_principal;Secret=your_client_secret; [property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Amazon EMR Hive Datenbank Ja Ja Ja Nein
  • delegationToken: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=delegationToken;DelegationToken=delegationToken;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • userIdPassword: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • keine: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=none;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Amazon Redshift Datenbank Ja Ja Ja Ja jdbc:weblogic:redshift://server_name:port_number;DatabaseName=database_name;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]  
Apache Hive Datenbank Ja Ja Ja Nein
  • delegationToken: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=delegationToken;DelegationToken=delegationToken;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • userIdPassword: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • keine: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=none;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Apache Iceberg Datenbank Ja Ja Ja Ja

Unterstützte Authentifizierungsmodi sind "Keine", "Einfach" und "OAuth2.0".

http://<host>:<port>/iceberg
Informationen zum Erstellen einer Verbindung mit Apache Iceberg finden Sie unter Apache Iceberg-Verbindung erstellen.
Apache Impala Datenbank Ja Ja Ja Nein
  • userIdPassword: jdbc:weblogic:impala://servername:port;DatabaseName=databaseName;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:impala://servername:port;DatabaseName=databaseName;AuthenticationMethod=kerberos;ServicePrincipleName=serviceprincipalname;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • keine: jdbc:weblogic:impala://servername:port;DatabaseName=databaseName;AuthenticationMethod=none;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Apache Spark-SQL Datenbank Ja Ja Ja Nein
  • kerberos: jdbc:weblogic:sparksql://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • userIdPassword: jdbc:weblogic:sparksql://servername:port;DatabaseName=database;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
AWS S3 Datenbank Ja Ja Ja Nein AWS: jdbc:weblogic:autorest:AuthenticationMethod=AWS;servicename=s3;accesskey=*******;secretkey=*******;  
Azure-Abrechnung Application Ja Ja Ja Nein jdbc:weblogic:autorest://servername;[property=value[;...]];  
Azure Compute Datenbank Ja Ja Ja Nein jdbc:weblogic:autorest://servername;[property=value[;...]]  
Azure Data Lake Storage Datenbank Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest: ServerName=https://{accountName}.dfs.core.windows.net;AuthenticationMethod=OAuth2;ClientID=xxxxxxxx;ClientSecret=xxxxxxxx; RefreshToken=xxxxxxxx;Scope=https://storage.azure.com/user_impersonation offline_access;TokenURI=https://login.microsoftonline.com/{tenantID}/oauth2/v2.0/token;AuthorizationURI=https://login.microsoftonline.com/{tenantID}/oauth2/v2.0/authorize;RedirectURI: http://localhost;  
Reservierte Azure-VM-Instanzen Datenbank Ja Ja Ja Nein jdbc:weblogic:autorest://servername;[property=value[;...]];  
Azure-Ressourcenzustand Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:ServerName=https://management.azure.com;AuthenticationMethod=OAuth2;TenantId=xxxxxxxx;ClientID=xxxxxxxx;ClientSecret=xxxxxxxx;AccessToken=xxxxxxxx;RefreshToken=xxxxxxxx;Scope=https://management.azure.com/.default offline_access;TokenURI=https://login.microsoftonline.com/{tenantId}/oauth2/token;RedirectURI=http://localhost/;  
Azure SQL Database Datenbank Ja Ja Ja Ja
  • activeDirectoryPassword: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=activeDirectoryPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • ActiveDirectoryServicePrincipal: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=ActiveDirectoryServicePrincipal;ServicePrincipal=clientID;Secret=clientSecret;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • Automatisch: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=auto;[property=value[;...]]; User: [Optional] Password: [Optional]
  • kerberos: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipalName=service_principal_name; [property=value[;...]]; User: [Ignored] Password: [Ignored]
  • ntlm: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=ntlm;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • ntlmjava: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=ntlmjava;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • ntlm2java: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=ntlm2java;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • userIdPassword: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Azure Synapse Analytics Datenbank Ja Ja Ja Ja
  • activeDirectoryPassword: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=activeDirectoryPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • ActiveDirectoryServicePrincipal: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=ActiveDirectoryServicePrincipal;ServicePrincipal=clientID;Secret=clientSecret;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • Automatisch: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=auto;[property=value[;...]]; User: [Optional] Password: [Optional]
  • kerberos: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipalName=service_principal_name; [property=value[;...]]; User: [Ignored] Password: [Ignored]
  • ntlm: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=ntlm;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • ntlmjava: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=ntlmjava;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • ntlm2java: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=ntlm2java;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • userIdPassword: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
BigCommerce Application Ja Ja Ja Nein HTTPHeader: jdbc:weblogic:autorest:servername=https://api.bigcommerce.com/stores/{store_hash};AuthenticationMethod=HTTPHeader;securitytoken=**************;authheader=X-Auth-Token;  
Cassandra Datenbank Ja Ja Ja Ja
  • userIdPassword: jdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • keine: jdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;AuthenticationMethod=none;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
Cloudera CDH Hive Datenbank Ja Ja Ja Nein
  • delegationToken: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=delegationToken;DelegationToken=delegationToken;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • userIdPassword: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • keine: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=none;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Confluence-Cloud Datenbank Ja Ja Ja Nein Basis: jdbc:weblogic:autorest:servername=https://<your-domain.atlassian.net>;authenticationmethod=Basic;  
Datentransformationen Dienst Ja Ja Ja Nein - Anweisungen zum Herstellen einer Verbindung zu einer vorhandenen Data Transforms-Instanz finden Sie unter Verbindung für Datentransformationen zum Remote-Dataload erstellen.
DataStax Application Ja Ja Ja Ja
  • userIdPassword: jdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • keine: jdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;AuthenticationMethod=none;[property=value[;...]]; User: [Ignored] Password: [Ignored]

jdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;[property=value[;...]]

wobei KeyspaceName den Standardnamen des Cassandra-Keyspace angibt, mit dem sich der Treiber verbindet.

Delta-Aktie Application Ja Ja Ja Nein - Anweisungen zum Erstellen einer Verbindung mit Delta Share finden Sie unter Delta Share-Verbindung erstellen.
DocuSign Datenbank Ja Ja Ja Nein
  • userIdPasswordjdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • keine: jdbc:weblogic:cassandra://server:port;KeyspaceName=keyspace;AuthenticationMethod=none;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
eBay Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:ServerName=https://api.eBay.com;AuthenticationMethod=OAuth2;ClientID=NameHere-APIUserA-BCD-1234e5f6g-h7i8j890;ClientSecret=xxxxxxxx;AccessToken=xxxxxxxx;RefreshToken=xxxxxxxx;Scope=https://api.eBay.com/oauth/api_scopeTokenURI=https://api.eBay.com/identity/v1/oauth2/tokenRedirectURI=http://localhost/;  
EnterpriseDB Datenbank Ja Ja Ja Ja
  • userIDPassword: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=userIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=kerberos;ServicePrincipalName=servicePrincipalName;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • EntraIDPassword: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=EntraIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • EntraIDServicePrincipal: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=EntraIDServicePrincipal; ServicePrincipal=your_service_principal;Secret=your_client_secret; [property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
FinancialForce Application Ja Ja Ja Ja
  • userIDPassword: jdbc:weblogic:sforce://servername;AuthenticationMethod=userIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • oauth2.0: jdbc:weblogic:sforce://servername;AccessToken=your_access_token;AuthenticationMethod=oauth2.0;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
FourSquare Application Ja Ja Ja Nein
  • URLParameter: jdbc:weblogic:autorest:servername=https://api.foursquare.com;AuthenticationMethod=URLParameter;securitytoken=**********;authparam=oauth_token;
 
Generische Restrukturierung Application Ja Ja Ja Nein - Informationen zum Herstellen einer Verbindung zu einem beliebigen REST-Serviceendpunkt zum Erstellen einer Verbindung finden Sie unter REST-Serververbindung erstellen.
Generische Restkonfiguration Application Ja Nein Nein Nein OAuth2: jdbc:weblogic:autorest: ServerName=https://{accountName}.dfs.core.windows.net;AuthenticationMethod=OAuth2;ClientID=xxxxxxxx;ClientSecret=xxxxxxxx; RefreshToken=xxxxxxxx;Scope=https://storage.azure.com/user_impersonation offline_access;TokenURI=https://login.microsoftonline.com/{tenantID}/oauth2/v2.0/token;AuthorizationURI=https://login.microsoftonline.com/{tenantID}/oauth2/v2.0/authorize;RedirectURI: http://localhost; Informationen zum Herstellen einer Verbindung zu einem beliebigen REST-Serviceendpunkt zum Erstellen einer Verbindung finden Sie unter REST-Serververbindung erstellen.
GitHub Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:clientId=123a4b567c8901234567d8901e234fg5;clientSecret=**************;authUri=https://github.com/login/oauth/authorize;AuthenticationMethod=OAuth2; tokenUri=https://github.com/login/oauth/access_token;redirectUri=http://localhost;authenticationMethod=OAuth2;refreshtoken=**************;  
Google Ads Application Ja Nein Nein Abhängig vom Fahrer jdbc:weblogic:autorest://servername;[property=value[;...]]; Erfordert Treiberinstallation
Google-Adresse AdSense Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=https://adsense.googleapis.com/v2;clientId=123456789012-abc123def456ghi789jkl012mno345pq.apps.googleusercontent.com;clientSecret=**************;authUri=https://accounts.google.com/o/oauth2/auth;tokenUri=https://oauth2.googleapis.com/token;redirectUri=http://localhost;AuthenticationMethod=OAuth2;scope=https://www.googleapis.com/auth/adsense;refreshtoken=**************;  
Google Analytics Application Ja Ja Ja Nein
  • OAuth2: jdbc:weblogic:googleanalytics4:AddTables='{myTableDefinitionString}';ClientID=clientID;ClientSecret=client_secret;AuthenticationMethod=OAuth2;RefreshToken=refresh_token;Scope=scope;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
Google BigQuery Datenbank Ja Ja Ja Nein
  • oauth2: jdbc:weblogic:googlebigquery:Project=project;Dataset=dataset;AccessToken=accesstoken;RefreshToken=refreshtoken;ClientID=clientid;ClientSecret=clientsecret;AuthenticationMethod=oauth2;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • Serviceaccount: jdbc:weblogic:googlebigquery:Project=project;Dataset=dataset;ServiceAccountEmail=serviceAccountEmail;ServiceAccountPrivateKey=serviceAccountPrivateKey.json;AuthenticationMethod=serviceaccount;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
Google Kalender Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=https://www.googleapis.com/calendar/v3; clientId=123456789012-abc123def456ghi789jkl012mno345pq.apps.googleusercontent.com; clientSecret=**************; authUri=https://accounts.google.com/o/oauth2/auth; tokenUri=https://accounts.google.com/o/oauth2/token; redirectUri=http://localhost; AuthenticationMethod=OAuth2; scope=https://www.googleapis.com/auth/calendar https://www.googleapis.com/auth/calendar.readonly https://www.googleapis.com/auth/calendar.eventshttps://www.googleapis.com/auth/calendar.events.readonly https://www.googleapis.com/auth/calendar.settings.readonly https://www.googleapis.com/auth/calendar.addons.execute; authuri=https://accounts.google.com/o/oauth2/auth; tokenuri=https://accounts.google.com/o/oauth2/token; refreshtoken=**************;  
Google-Kampagnenmanager Application Ja Ja Ja Nein jdbc:weblogic:autorest://servername;[property=value[;...]];  
Google Kontakte Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=people.googleapis.com/v1; clientId=123456789012-abc123def456ghi789jkl012mno345pq.apps.googleusercontent.com; clientSecret=**************; authUri=https://accounts.google.com/o/oauth2/auth; tokenUri=https://accounts.google.com/o/oauth2/token; redirectUri=http://localhost; AuthenticationMethod=OAuth2; scope=https://www.googleapis.com/auth/contacts.other.readonly https://www.googleapis.com/auth/contactshttps://www.googleapis.com/auth/contacts.readonly https://www.googleapis.com/auth/directory.readonlyhttps://www.googleapis.com/auth/profile.agerange.read https://www.googleapis.com/auth/profile.emails.readhttps://www.googleapis.com/auth/profile.language.read https://www.googleapis.com/auth/user.addresses.readhttps://www.googleapis.com/auth/user.birthday.read https://www.googleapis.com/auth/user.emails.readhttps://www.googleapis.com/auth/user.gender.read https://www.googleapis.com/auth/user.organization.readhttps://www.googleapis.com/auth/user.phonenumbers.read https://www.googleapis.com/auth/userinfo.emailhttps://www.googleapis.com/auth/userinfo.profile; refreshtoken: **************;  
Google Drive Datenbank Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=https://www.googleapis.com/drive/v3; clientId=123456789012-abc123def456ghi789jkl.apps.googleusercontent.com;clientSecret=**************; authUri=https://accounts.google.com/o/oauth2/auth;tokenUri=https://accounts.google.com/o/oauth2/token; redirectUri=http://localhost;AuthenticationMethod=OAuth2;scope=https://www.googleapis.com/auth/drive; refreshtoken=**************;  
Google-Suchanzeigen 360 Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=https://www.googleapis.com/doubleclicksearch/; clientId: 372185870949-v1f1h94mvnad4hkajr4tonlia51vtj2n.apps.googleusercontent.com; clientSecret: **************; authUri: https://accounts.google.com/o/oauth2/auth; tokenUri: https://oauth2.googleapis.com/token; redirectUri: http://localhost;AuthenticationMethod:OAuth2; scope: https://www.googleapis.com/auth/doubleclicksearch; refreshtoken: **************;  
Greenplum Datenbank Ja Ja Ja Nein
  • userIdPassword: jdbc:weblogic:greenplum://servername:port;KeyspaceName=keyspace; AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:greenplum://servername:port;DatabaseName=databaseName;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
Hortonworks Hive Datenbank Ja Ja Ja Nein
  • delegationToken: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=delegationToken;DelegationToken=delegationToken;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • userIdPassword: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • keine: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=none;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
HubSpot Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:hubspot:AuthenticationMethod=OAuth2;ClientID=<CLIENT_ID>;ClientSecret=<CLIENT_SECRET>;AccessToken=<ACCESS_TOKEN>;  
Hypersonic SQL Datenbank Ja Ja Ja Ja jdbc:hsqldb:.;ifexists=true[;<property>=<value>...]  
IBM BigInsights Datenbank Ja Ja Ja Nein
  • delegationToken: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=delegationToken;DelegationToken=delegationToken;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • userIdPassword: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • keine: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=none;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
IBM DB2 Gehostet Datenbank Ja Ja Ja Ja
  • cleartext: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=cleartext;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • Client: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=client;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • encryptedPassword: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedPasswordAES: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedPasswordAES;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedUIDPassword: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedUIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedUIDPasswordAES: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedUIDPasswordAES;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal; [property=value[;...]]; User: [Ignored] Password: [Ignored]
  • pluginSecurity: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=pluginSecurity;PluginName=pluginName; [property=value[;...]]; User: [Ignored] Password: [Ignored]
 
IBM DB2 UDB Datenbank Ja Ja Ja Ja
  • cleartext: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=cleartext;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • Client: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=client;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • encryptedPassword: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedPasswordAES: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedPasswordAES;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedUIDPassword: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedUIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedUIDPasswordAES: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedUIDPasswordAES;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal; [property=value[;...]]; User: [Ignored] Password: [Ignored]
  • pluginSecurity: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=pluginSecurity;PluginName=pluginName;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
IBM DB2 Warehouse Datenbank Ja Ja Ja Ja
  • cleartext: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=cleartext;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • Client: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=client;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • encryptedPassword: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedPasswordAES: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedPasswordAES;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedUIDPassword: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedUIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedUIDPasswordAES: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedUIDPasswordAES;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal; [property=value[;...]]; User: [Ignored] Password: [Ignored]
  • pluginSecurity: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=pluginSecurity;PluginName=pluginName; [property=value[;...]]; User: [Ignored] Password: [Ignored]
 
IBM DB2/400 Datenbank Ja Ja Ja Ja
  • cleartext: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=cleartext;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • Client: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=client;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • encryptedPassword: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedPasswordAES: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedPasswordAES;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedUIDPassword: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedUIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • encryptedUIDPasswordAES: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=encryptedUIDPasswordAES;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • pluginSecurity: jdbc:weblogic:db2://servername:port;DatabaseName=database;AuthenticationMethod=pluginSecurity;PluginName=pluginName;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
Informix Datenbank Ja Ja Ja Nein
  • jdbc:weblogic:informix://servername:port;InformixServer=informixserver; Database=databasename;[property=value[;...]]; Benutzer: [Obligatorisch] Kennwort: [Obligatorisch]
  • jdbc:weblogic:informix://servername:port;InformixServer=informixserver;DatabaseName=databasename; AlternateServers=(alternateserver);ConnectionRetryCount=connectionretrycount;ConnectionRetryDelay=connectionretrydelay;[property=value[;...]]; Benutzer: [Obligatorisch] Kennwort: [Obligatorisch]
 
Jira Application Ja Ja Ja Nein Basis: jdbc:weblogic:autorest:servername=https://your-domain.atlassian.net;AuthenticationMethod=Basic;  
Klaviyo Application Ja Ja Ja Nein URLParameter: jdbc:weblogic:autorest:servername=https://a.klaviyo.com/api;AuthenticationMethod=URLParameter;securitytoken=*****;authparam=api_key;  
Magento Application Ja Nein Nein Abhängig vom Fahrer jdbc:weblogic:autorest://servername;[property=value[;...]]; Erfordert Treiberinstallation
Mailchimp Application Ja Ja Ja Nein BearerToken: jdbc:weblogic:autorest:servername=us20.api.mailchimp.com;AuthenticationMethod=BearerToken;securitytoken=*******;  
MapR Hive Datenbank Ja Ja Ja Nein
  • delegationToken: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=delegationToken;DelegationToken=delegationToken;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • userIdPassword: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • keine: jdbc:weblogic:hive://servername:port;DatabaseName=database;AuthenticationMethod=none;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Marketo Application Ja Ja Ja Nein
  • OAuth2: jdbc:weblogic:autorest:servername=https://{api_id}.mktorest.com;AuthenticationMethod=OAuth2;clientid=a1234bc5-67d8-9e01-f23g-4h567ijk89l0;clientsecret=******************;tokenuri=https://{api_id}.mktorest.com/identity/oauth/token;
 
Microsoft Dynamics 365 Application Ja Ja Ja Ja
  • OAuth2: jdbc:weblogic:dynamics365:ServiceURL=serviceurl; AuthenticationMethod=OAuth2;ClientID=client_id; ClientSecret=client_secret;TokenURI=token_uri;RefreshToken=refresh_token; [property=value[;...]]; User: [Ignored] Password: [Ignored]
  • NTLM: jdbc:weblogic:dynamics365:ServiceURL=serviceurl; AuthenticationMethod=NTLM;NTLMDomain=nTLMDomain;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Microsoft SharePoint Application Ja Ja Ja Ja Basis: jdbc:weblogic:sharepoint:ServiceURL=serviceurl; AuthenticationMethod=Basic;ClientID=client_id; ClientSecret=client_secret;TokenURI=token_uri;RefreshToken=refresh_token; [property=value[;...]]; User: [Ignored] Password: [Ignored]  
Microsoft SQL Server Datenbank Ja Ja Ja Ja
  • activeDirectoryPassword: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database; AuthenticationMethod=activeDirectoryPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • ActiveDirectoryServicePrincipal: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database; AuthenticationMethod=ActiveDirectoryServicePrincipal; ServicePrincipal=clientID;Secret=clientSecret;[property=value[;...]];User: [Ignored] Password: [Ignored]
  • Automatisch: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database; AuthenticationMethod=auto;[property=value[;...]]; User: [Optional] Password: [Optional]
  • kerberos: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database; AuthenticationMethod=kerberos;ServicePrincipalName=service_principal_name; [property=value[;...]]; User: [Ignored] Password: [Ignored]
  • ntlm: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database; AuthenticationMethod=ntlm;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • ntlmjava: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database; AuthenticationMethod=ntlmjava;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • ntlm2java: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database; AuthenticationMethod=ntlm2java;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • userIdPassword: jdbc:weblogic:sqlserver://hostname:port;DatabaseName=database; AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Mongo-DB Datenbank Ja Ja Ja Ja
  • Keine: jdbc:weblogic:mongodb://host:port;AuthenticationDatabase=auth_db; AuthenticationMethod=None;[property=value[;...]]; User: [Ignored] Password: [Ignored]
  • UserIDPassword: jdbc:weblogic:mongodb://host:port;AuthenticationDatabase=auth_db; AuthenticationMethod=UserIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • Nur: jdbc:weblogic:mongodb://host:port;AuthenticationDatabase=auth_db; AuthenticationMethod=Plain;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • Kerberos: jdbc:weblogic:mongodb://host:port;AuthenticationDatabase=auth_db; AuthenticationMethod=Kerberos;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
MySQL Datenbank Ja Ja Ja Ja jdbc:mysql://<host>[:<port>]/[<database>]?relaxAutoCommit=true&useCursorFetch=true[&<property>=<value>...] Stellen Sie sicher, dass die Systemvariableneigenschaft sql_require_primary_key auf OFF gesetzt ist. Andernfalls kann eine ADW-zu-MySQL-Zuordnung mit dem Fehler "Tabelle ist nicht vorhanden" nicht erfolgreich verlaufen.
MySQL Hitzewelle Datenbank Ja Ja Ja Ja jdbc:mysql://<host>[:<port>]/[<database>]?relaxAutoCommit=true&useCursorFetch=true[&<property>=<value>...]

Wenn die Heatwave-Datenbank MySQL mit High Availability erstellt wird, wird der Schreibvorgang nicht unterstützt.

Stellen Sie sicher, dass die Systemvariableneigenschaft sql_require_primary_key auf OFF gesetzt ist. Andernfalls kann ein ADW-zu-MySQL-Heatwave-Mapping mit dem Fehler "Tabelle ist nicht vorhanden" nicht erfolgreich verlaufen.

Netezza Datenbank Ja Nein Nein Abhängig vom Fahrer - Oracle Data Transforms stellt mithilfe von Netezza JDBC eine Verbindung zu einer NCR Netezza-Datenbank her. Dieser Treiber muss im Verzeichnis userlibs der Datentransformationen installiert sein. Sie können den Netezza JDBC-Treiber von der IBM-Website herunterladen.
Oracle Datenbank Ja Ja Ja Ja
  • jdbc:oracle:thin:@<host>:<port>:<sid>
  • jdbc:oracle:thin:@<host>:<port/ServiceName>
  • jdbc:oracle:thin:@(DESCRIPTION=(ADDRESS=(PROTOCOL=tcps)(HOST=<host>)(PORT=<port>))(CONNECT_DATA=(SERVICE_NAME=<Service Name>)))
Bei Data Integrator Web Edition wird der Schreibvorgang nur auf Oracle-Cloud-Datenbankzielen unterstützt. Einzelheiten finden Sie in den Oracle-Nutzungsbedingungen, bevor Sie das Image aus dem OCI-Marktplatz bereitstellen.
Oracle Analytics Cloud Application Ja Ja Ja Nein -  
Oracle Business Intelligence Cloud-(BICC-)Connector Application Ja Ja Ja Nein - Informationen zum Erstellen einer Verbindung mit dem Oracle Business Intelligence Cloud-(BICC-)Connector finden Sie unter Oracle Business Intelligence Cloud Connector-Verbindung erstellen.
Oracle EBS Application Ja Ja Ja Ja jdbc:oracle:thin:@<host>:<port>:<sid>  
Oracle ERP Cloud Application Ja Ja Nein Nein   Informationen zum Erstellen einer Verbindung mit Oracle ERP Cloud finden Sie unter Oracle Enterprise Resource Planning Cloud-Verbindung erstellen.
Oracle Financials Cloud Application Ja Ja Ja Nein - Informationen zum Erstellen einer Verbindung mit Oracle Financials Cloud finden Sie unter Oracle Financials Cloud-Verbindung erstellen.
Oracle Fusion ERP Application Ja Ja Ja Nein -  
Oracle Fusion Sales Application Ja Ja Ja Nein -  
Oracle Fusion Service Application Ja Ja Ja Nein -  
Oracle GoldenGate - OCI Dienst Ja Ja Ja Ja -  
Oracle Marketing Cloud Application Ja Ja Ja Ja jdbc:weblogic:eloqua:Company=<company_id>;[;property=value[;...]]  
Oracle NetSuite Application Ja Ja Ja Nein jdbc:ns://{Server Host}:{Server Port};ServerDataSource={Server Data Source}; Informationen zum Erstellen einer Verbindung mit Oracle Netsuite finden Sie unter Oracle NetSuite-Verbindung erstellen und verwenden.
Oracle Object Storage Datenbank Ja Ja Ja Ja - Informationen zum Erstellen einer Verbindung mit Oracle Object Storage finden Sie unter Oracle Object Storage-Verbindung erstellen.
Oracle Mitarbeiter - Soft Application Ja Ja Ja Nein jdbc:oracle:thin:@<host>:<port>:<sid>  
Oracle Sales Cloud Application Ja Ja Ja Nein jdbc:weblogic:oraclesalescloud://<base_url>;WSCompressData=none  
Oracle Service Cloud Application Ja Ja Ja Nein jdbc:weblogic:oracleservicecloud:loginHost=host;[property=value[;...]]

Wenn Sie mehrere JDBC-Verbindungen für Oracle Service Cloud in Oracle Data Transforms verwenden, stellen Sie sicher, dass jede Verbindung eindeutig identifiziert wird, um Konflikte zu vermeiden. Fügen Sie dazu die Eigenschaft DatabaseName zur JDBC-URL hinzu.

Beispiel:

jdbc:weblogic:oracleservicecloud:loginHost=host;DatabaseName=<UniqueValue>;

wobei <UniqueValue> ein eindeutiger Wert für jede Umgebung ist. Beispiel: DevConnection oder ProdConnection.

Dadurch können für jede Umgebung separate Konfigurationsdateien erstellt werden.

Oracle SIEBEL Application Ja Ja Ja Nein jdbc:oracle:thin:@<host>:<port>:<sid>  
PayPal Application Ja Ja Ja Nein Basis: jdbc:weblogic:autorest: ServerName=https://api-m.sandbox.paypal.com;AuthenticationMethod=Basic;  
Pivotal HD Datenbank Ja Ja Ja Nein -  
Zweite HDB Datenbank Ja Ja Ja Nein
  • userIdPassword: jdbc:weblogic:greenplum://servername:port;KeyspaceName=keyspace;AuthenticationMethod=userIdPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:greenplum://servername:port;DatabaseName=databaseName;AuthenticationMethod=kerberos;ServicePrincipal=servicePrincipal; [property=value[;...]];User: [Ignored] Password: [Ignored]
 
PostgreSQL Datenbank Ja Ja Ja Ja
  • userIDPassword: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=userIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • kerberos: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=kerberos;ServicePrincipalName=servicePrincipalName; [property=value[;...]]; User: [Ignored] Password: [Ignored]
  • EntraIDPassword: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=EntraIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • EntraIDServicePrincipal: jdbc:weblogic:postgresql://servername:port;AuthenticationMethod=EntraIDServicePrincipal;ServicePrincipal=servicePrincipal;Secret=secret;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
 
Qmetry Application Ja Ja Ja Nein URLParameter: jdbc:weblogic:autorest:servername=https://qtmcloud.qmetry.com;AuthenticationMethod=URLParameter;securitytoken=*****;authparam=apiKey;  
QuickBooks Online Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=https://sandbox-quickbooks.api.intuit.com/v3/company/+++++; clientId: AB8oHGUgVpXQnqKehrhBrnnIEQ7vNa7YI4UOr6LEX1Ja6dx0CL; clientSecret: **************; authUri: https://appcenter.intuit.com/connect/oauth2; tokenUri: https://oauth.platform.intuit.com/oauth2/v1/tokens/bearer; redirectUri: http://localhost; AuthenticationMethod: OAuth2; refreshtoken: **************;  
QuickBooks Zahlungen Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=https://sandbox.api.intuit.com; clientId=ABCd1efGH2Ijkl3mN4OPQrsTu5vWxyZa6bCdEFgHijk7LMnOpQ;clientSecret=**************; authUri=https://appcenter.intuit.com/connect/oauth2; tokenUri=https://oauth.platform.intuit.com/oauth2/v1/tokens/bearer;redirectUri=http://localhost; AuthenticationMethod=OAuth2;scope=com.intuit.quickbooks.payment;refreshtoken=**************;  
Quora Anzeigen Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:ServerName=api.quora.com/ads;AuthenticationMethod=OAuth2;ClientID=xxxxxxxx;ClientSecret=xxxxxxxx;AccessToken=xxxxxxxx;Scope=ads_read;  
Sage Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=api.accounting.sage.com;clientId:************;clientSecret:**************;authUri:https://www.sageone.com/oauth2/auth/central?filter=apiv3.1;tokenUri:https://oauth.accounting.sage.com/token,redirectUri: http://localhost;AuthenticationMethod: OAuth2; scope: full_access; refreshtoken: **************;  
Salesforce-Chatter Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=progresscom4-dev-ed.my.salesforce.com/services/data/v52.0; AuthenticationMethod=OAuth2; clientid=3MVG9SOw8KERNN08IkuAFNRo0MZbipoL4zeEhQzdT4IrNnqW7_UBvm1K7vZ4Y_OzbNxFn0.nJSfVBdqQuh4IL; clientsecret=**************; refreshtoken=**************; scope=full refresh_token; authuri=https://login.salesforce.com/services/oauth2/authorize; tokenuri=https://login.salesforce.com/services/oauth2/token;  
Salesforce.com Application Ja Ja Ja Ja
  • userIDPassword: jdbc:weblogic:sforce://servername;AuthenticationMethod=userIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • OAuth2: jdbc:weblogic:sforce://servername;AccessToken=your_access_token;AuthenticationMethod=userIDPassword;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
SAP BW/4HANA Datenbank Ja Ja Ja Nein
  • Basis: jdbc:weblogic:s4hana:ServerName=servername;AuthenticationMethod=Basic;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • HTTPHeader: jdbc:weblogic:s4hana:ServerName=servername;AccessToken=your_access_token;AuthenticationMethod=HTTPHeader;AuthHeader=api_key;SecurityToken=security_token;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
SAP HANA Application Ja Ja Ja Nein
  • Basis: jdbc:weblogic:s4hana:ServerName=servername;AuthenticationMethod=Basic;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • HTTPHeader: jdbc:weblogic:s4hana:ServerName=servername;AccessToken=your_access_token;AuthenticationMethod=HTTPHeader;AuthHeader=api_key;SecurityToken=security_token;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
SAP NetWeaver Datenbank Ja Ja Ja Nein
  • Basis: jdbc:weblogic:s4hana:ServerName=servername;AuthenticationMethod=Basic;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • HTTPHeader: jdbc:weblogic:s4hana:ServerName=servername;AccessToken=your_access_token;AuthenticationMethod=HTTPHeader;AuthHeader=api_key;SecurityToken=security_token;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
SAP S/4HANA-Cloud Application Ja Ja Ja Nein
  • Basis: jdbc:weblogic:s4hana:ServerName=servername;AuthenticationMethod=Basic;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • HTTPHeader: jdbc:weblogic:s4hana:ServerName=servername;AccessToken=your_access_token;AuthenticationMethod=HTTPHeader;AuthHeader=api_key;SecurityToken=security_token;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
Semrush Application Ja Ja Ja Nein jdbc:weblogic:autorest://servername;[property=value[;...]];  
ServiceNow Dienst Ja Ja Ja Nein OAuth2:jdbc:weblogic:autorest:servername=instance.service-now.com/api; clientId=123a4b567c8901234567d8901e234fg5;clientSecret=**************; authUri=https://instance.service-now.com/oauth_auth.do; tokenUri=https://instance.service-now.com/oauth_token.do;redirectUri=http://localhost; AuthenticationMethod=OAuth2;refreshtoken=**************;  
Shopify Application Ja Ja Ja Nein jdbc:weblogic:autorest://servername;[property=value[;...]];  
Schneeflocke Datenbank Ja Ja Ja Ja Basis: jdbc:weblogic:snowflake:AccountName=account_name;DatabaseName=database_name;Schema=schema_name;Warehouse=warehouse_name;[property=value[;...]];  
Quadratisch Application Ja Ja Ja Nein BearerToken: jdbc:weblogic:autorest:servername=sandbox.api.intuit.com;AuthenticationMethod:BearerToken;securitytoken=**************************;  
Stripe Application Ja Ja Ja Nein BearerToken: jdbc:weblogic:autorest:servername=https://api.stripe.com;AuthenticationMethod=BearerToken;securitytoken=**************************;  
SAP Sybase ASE Datenbank Ja Ja Ja Ja jdbc:weblogic:sybase://hostname:port[;property=value[;...]]  
SAP Sybase IQ Datenbank Ja Ja Ja Ja jdbc:weblogic:sybase://hostname:port[;property=value[;...]]  
Sybase As Anywhere Datenbank Ja Ja Ja Ja jdbc:weblogic:sybase://hostname:port[;property=value[;...]]  
TeamCity Application Ja Ja Ja Nein BearerToken: jdbc:weblogic:autorest:ServerName=https://{your_teamcity_servername}.com;AuthenticationMethod=BearerToken;SecurityToken=Ab12cdEfG3HIJkL.MNOpQRStuvWX4yZabcD56cD7eF8GHiJ90Klm.nOpqRst2u3VWxYZabC4DEfGhIjk;  
Teradata Datenbank Ja Nein Nein Abhängig vom Fahrer jdbc:weblogic:teradata://<host>:<port>/<database>[;property=value[;...]] Datentransformationen verwenden den Teradata JDBC-Treiber, um eine Verbindung zu einer Teradata-Datenbank herzustellen. Um Teradata als Datenquelle zu verwenden, muss das Teradata Gateway für JDBC ausgeführt werden. Dieser Treiber muss im Verzeichnis userlibs der Datentransformationen installiert sein. Sie können den JDBC-Treiber von der Teradata-Website herunterladen.
Teradata 17+ Datenbank Ja Nein Nein Abhängig vom Fahrer - Datentransformationen verwenden den Teradata JDBC-Treiber, um eine Verbindung zu einer Teradata-Datenbank herzustellen. Um Teradata als Datenquelle zu verwenden, muss das Teradata Gateway für JDBC ausgeführt werden. Dieser Treiber muss im Verzeichnis userlibs der Datentransformationen installiert sein. Sie können den JDBC-Treiber von der Teradata-Website herunterladen.
Tumblr Application Ja Ja Ja Nein jdbc:weblogic:autorest://servername;[property=value[;...]]  
Veeva CRM Application Ja Ja Ja Ja
  • userIDPassword: jdbc:weblogic:sforce://servername;AuthenticationMethod=userIDPassword;[property=value[;...]]; User: [Mandatory] Password: [Mandatory]
  • oauth2.0: jdbc:weblogic:sforce://servername;AccessToken=your_access_token;AuthenticationMethod=oauth2.0;[property=value[;...]]; User: [Ignored] Password: [Ignored]
 
Volusion Application Ja Ja Ja Nein jdbc:weblogic:autorest://servername;[property=value[;...]]  
Wistia Application Ja Ja Ja Nein Basis: jdbc:weblogic:autorest:servername=https://api.wistia.com;authenticationmethod=Basic;  
WooCommerce Application Ja Nein Nein Abhängig vom Fahrer jdbc:weblogic:autorest://servername;[property=value[;...]]; Erfordert Treiberinstallation
WordPress Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=public-api.wordpress.com/rest/v1.1;AuthenticationMethod=OAuth2;clientid=*****;clientsecret=*********;accesstoken=**********;scope=global;oauthcode=**********;authuri=https://public-api.wordpress.com/oauth2/authorize;tokenuri=https://public-api.wordpress.com/oauth2/token;  
Workday Application Ja Nein Nein Abhängig vom Fahrer jdbc:weblogic:autorest://servername;[property=value[;...]]; Erfordert Treiberinstallation
X Application Ja Ja Ja Nein -  
Xero Application Ja Ja Ja Nein jdbc:weblogic:autorest://servername;[property=value[;...]]  
Yelp Application Ja Ja Ja Nein BearerToken: jdbc:weblogic:autorest:servername=https://api.yelp.com/v3;AuthenticationMethod=BearerToken;securitytoken=**************************;  
Zendesk Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=https://example.zendesk.com;AuthenticationMethod=OAuth2;clientid=client_id_zendesk; clientsecret=********; scope=read write;authuri=/oauth/authorizations/new; tokenuri=/oauth/tokens;  
Zoho-CRM Application Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:AuthenticationMethod=OAuth2;clientid=a1234bc567d89e01f23g; clientsecret: ******************;scope=ZohoCRM.settings.ALL,ZohoCRM.modules.ALL,ZohoCRM.notifications.ALL,ZohoCRM.org.READ,ZohoCRM.users.READ,ZohoCRM.settings.roles.READ,ZohoCRM.settings.profiles.READ,ZohoCRM.modules.Contacts.READ, ZohoSearch.securesearch.READ; authuri=https://accounts.zoho.com/oauth/v2/auth;tokenuri=https://accounts.zoho.com/oauth/v2/token;redirecturi=http://localhost; refreshToken=********************;  
Zoom Anwendung Ja Ja Ja Nein OAuth2: jdbc:weblogic:autorest:servername=https://api.zoom.us/v2;clientId=0aBcDeF_GhI2j_KlMnOpQr;clientSecret=**************;authUri=https://zoom.us/oauth/authorize;tokenUri=https://zoom.us/oauth/token;redirectUri=http://localhost;AuthenticationMethod=OAuth2;accesstoken:**************;  

Benutzerdefinierte Connectors erstellen

Gilt für: Anwendbar Datentransformationen, die als separater Eintrag im Marketplace "Data Integrator: Web Edition" verfügbar sind.

Auf der Seite "Benutzerdefinierte Verbindungen" der Registerkarte "Administration" von Oracle Data Transforms können Sie benutzerdefinierte Connectors erstellen, die auf JDBC-unterstützte Datenquellen verweisen.
Die benutzerdefinierten Connectors werden auf der Seite "Verbindung erstellen" aufgeführt. Auf dieser Seite können Sie Datenquellen mit Datentransformationen verbinden. Weitere Informationen finden Sie unter Mit Verbindungen arbeiten.

So erstellen Sie einen neuen Connector:

  1. Klicken Sie im linken Fensterbereich auf Administration.

    Eine Warnmeldung wird angezeigt.

  2. Klicken Sie auf Weiter.
  3. Klicken Sie im linken Fensterbereich auf Benutzerdefinierte Verbindungen.

    Das Fenster "Benutzerdefinierte Verbindungen" wird angezeigt.

  4. Klicken Sie auf Verbindungstyp erstellen.

    Die Seite "Verbindungstyp erstellen" wird angezeigt.

  5. Wählen Sie in der Dropdown-Liste Kategorie den Verbindungstyp aus, den Sie erstellen möchten, ob Datenbank, Anwendung oder Service.
  6. Geben Sie einen Namen für die Verbindung ein.
  7. Geben Sie den Namen des JDBC-Treibers der Quellverbindung ein. Beispiel: oracle.jdbc.OracleDriver.
    Hinweis

    Bei Connectors, die eine Treiberinstallation erfordern, müssen Sie die JAR-Dateien in das Verzeichnis /u01/oracle/transforms_home/userlibs kopieren, bevor Sie die Verbindung hinzufügen.
  8. Klicken Sie auf OK.

Die neu erstellte benutzerdefinierte Verbindung wird in der Liste angezeigt und ist auf der Seite "Verbindung erstellen" verfügbar.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Löschen aus, um die erstellte Verbindung zu löschen.
    Hinweis

    Benutzerdefinierte Connectors mit vorhandenen Verbindungen können nicht gelöscht werden.

Datentransformationsverbindung für Remote-Dataload erstellen

Sie können eine Verbindung zu einer vorhandenen Data Transforms-Instanz herstellen und einen Dataload remote ausführen.

Um diese Verbindung zu erstellen, müssen Sie die URL der Data Transforms-Instanz zusammen mit dem Namen der ODI-Rest-API angeben, von der aus Sie den Dataload ausführen möchten.

So definieren Sie eine Data Transformations-Verbindung:

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.
    Die Seite Verbindungen wird angezeigt.
  2. Klicken Sie auf Verbindung erstellen.
    Die Seite Verbindung erstellen wird angezeigt.
  3. Unter Typ auswählen:
    • Geben Sie in das Feld Name den Namen der neu erstellten Verbindung ein.
    • Wählen Sie Services als Verbindungstyp, den Sie erstellen möchten.
  4. Geben Sie im Textfeld Endpunkt-URL die URL der ODI-Rest-API ein, von der aus Sie den Dataload ausführen möchten. Geben Sie die URL im Format http://<host-ip-address>:<port>/odi-rest ein.
  5. Geben Sie in das Textfeld Benutzer den Benutzernamen SUPERVISOR ein.
  6. Geben Sie in das Textfeld Kennwort das ODI-Supervisor-Kennwort ein.
  7. Nachdem Sie alle erforderlichen Verbindungsdetails angegeben haben, klicken Sie auf Verbindung testen, um die eingerichtete Verbindung zu testen.
  8. Klicken Sie auf Erstellen.
    Die neue Verbindung wird hergestellt.

Die neu erstellten Verbindungen werden auf der Seite Verbindungen angezeigt.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Schema löschen aus, um Schemas zu löschen.
  • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

Sie können auch nach der erforderlichen Verbindung suchen, um die zugehörigen Details anhand der folgenden Filter zu ermitteln:

  • Name der Verbindung.
  • Technologie, die mit der erstellten Verbindung verknüpft ist.

Apache-Eisberg-Verbindung erstellen

Apache Iceberg ist ein offenes Standardtabellenformat, das für die Verwaltung großer Analysedatensätze optimiert ist. Datentransformationen unterstützen die Verwendung von Apache Iceberg als Ziel zum Laden von Daten aus beliebigen SQL-basierten Datenquellen.

Datentransformationen unterstützen Oracle Object Storage (S3-Kompatibilität) und AWS S3-Speicherservices zum Speichern der Parkettdateien für die Apache Iceberg-Tabellen.

Der Apache Iceberg Connector für Datentransformationen erfordert, dass bereits ein REST-Katalog vorhanden ist. Dieser REST-Katalog basiert auf Apache Gravitino (externer Link) mit Iceberg Open API-Spezifikation.

Hinweis

Datentransformationen unterstützen die Verwendung von Apache Gravitino Version 0.7.0-Inkubation oder niedriger, um den REST-Service aufzurufen.

Apache-Eisberg-Verbindungen erstellen

Sie können eine Apache Iceberg-Verbindung mit dem Iceberg REST-Katalog konfigurieren, indem Sie die REST-URL und Authentifizierungsdetails wie Benutzername und Kennwort angeben. Sie können die Verbindung auch mit der sichereren OAuth 2.0-Authentifizierung erstellen.

So erstellen Sie eine Apache Iceberg-Verbindung:

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.

    Die Seite Verbindungen wird angezeigt.

  2. Klicken Sie auf Verbindung erstellen.

    Die Seite Verbindung erstellen wird angezeigt.

  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie die Registerkarte Datenbanken aus.
  4. Wählen Sie als Verbindungstyp Apache Iceberg aus.
  5. Klicken Sie auf Weiter.
  6. Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Sie können diesen Wert ändern.
  7. Geben Sie im Textfeld Katalogname einen Namen ein.
  8. Geben Sie im Textfeld Rest-URL die URL des REST-Servers ein. Geben Sie den Wert im Format <host>:<port>/<ServiceName>/iceberg ein.
  9. Führen Sie im Dropdown-Abschnitt Authentifizierung einen der folgenden Schritte aus:
    • Wählen Sie Keine aus.
    • Wählen Sie Einfach aus, und geben Sie Benutzer wiederherstellen und Kennwort wiederherstellen ein.
    • Wählen Sie OAuth aus, und geben Sie die folgenden Details ein:
      • Lagerstandort: Der Speicherort, an dem die Daten gespeichert werden sollen. Beispiel: s3://my-bucket/my/table/location
      • Token-URI: Die URL zum Abrufen des OAuth-Tokens im Format http://<host>:<port>
      • Tokenpfad: Der Pfad zum Token OAuth. Beispiel: /oauth2/token.
      • Client-ID: Die OAuth-Client-ID.
      • Client Secret: Das OAuth-Client Secret.
      • Authentifizierungsumfang: Die Berechtigungen, die einem Client beim Zugriff auf den Gravitino-Server erteilt werden. Beispiel: Ein Wert für test Auth Scope zeigt an, dass der Client autorisiert ist, auf Ressourcen zuzugreifen, die sich auf den Geltungsbereich "test" in Gravitino beziehen. [Optional]
      • Zugriffstyp: Die Methode, mit der der Autorisierungsserver das Zugriffstoken ausgeben soll. Beispiel: client_credentials und authorization_code. [Optional]
  10. Klicken Sie auf Verbindung testen, um die eingerichtete Verbindung zu testen.
  11. Nachdem Sie alle erforderlichen Verbindungsdetails angegeben haben, klicken Sie auf Erstellen.

    Die Apache Iceberg-Verbindung ist mit REST Catalog konfiguriert, in dem die Iceberg-Daten in Oracle Object Storage gespeichert werden.

Die neu erstellten Verbindungen werden auf der Seite Verbindungen angezeigt.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Schema löschen aus, um Schemas zu löschen.
  • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

Sie können auch nach der erforderlichen Verbindung suchen, um die zugehörigen Details anhand der folgenden Filter zu ermitteln:

  • Name der Verbindung.
  • Technologie, die mit der erstellten Verbindung verknüpft ist.

Apache Iceberg-Dataloads erstellen und ausführen

Sie können einen Dataload für jede SQL-basierte Quelldatenquelle, wie Oracle, erstellen, um Daten in Apache Iceberg-Zieltabellen zu laden. Um Apache Iceberg als Zieldatenquelle zu verwenden, müssen Sie den Namen der Verbindung und den Namespace angeben. Ein Namespace in Apache Iceberg ähnelt dem Schema in relationalen Datenbanken.

Nachdem Sie den Dataload erstellt haben, werden alle Tabellen im Quellschema auf der Seite "Detail für Dataload" sowie Optionen zum inkrementellen Laden, Anhängen und Zusammenführen der Daten für jede der ausgewählten Quelltabellen aufgeführt. Wenn der Dataload-Lauf abgeschlossen ist, können Sie die Daten aus den Iceberg-Tabellen lesen. Sie können den Dataload als Schritt in einem Workflow hinzufügen und einen Zeitplan erstellen, um die Workflows in einem vordefinierten Zeitintervall auszuführen. Siehe Neuen Workflow erstellen.

So erstellen und führen Sie Apache Iceberg Data Load aus:

  1. Führen Sie einen der folgenden Schritte aus:
    • Klicken Sie auf der Homepage auf Daten laden. Der Assistent "Daten laden" wird angezeigt.

      Geben Sie auf der Registerkarte "Dataload erstellen" einen Namen ein, wenn Sie den Standardwert ersetzen, eine Beschreibung hinzufügen und ein Projekt aus der Dropdown-Liste auswählen möchten.

    • Klicken Sie auf der Homepage auf Projekte und dann auf die erforderliche Projektkachel. Klicken Sie im linken Fensterbereich auf Dataloads und dann auf Dataload erstellen. Der Assistent "Daten laden" wird angezeigt.
  2. Geben Sie einen Namen ein, wenn Sie den Standardwert ersetzen und eine Beschreibung hinzufügen möchten.
  3. Führen Sie für die Ladeverarbeitung einen der folgenden Schritte aus:
    • Aktivieren Sie das Optionsfeld Intern, und wählen Sie in der Dropdown-Liste Deployment-Typ die Option Datentransformationen (Batch) aus.
    • Aktivieren Sie das Optionsfeld Delegieren, und wählen Sie in der Dropdown-Liste Deployment-Typ die Option "OCI GoldenGate" aus. Wählen Sie in der GoldenGate-Deployment-Verbindung eine Verbindung aus.
  4. Klicken Sie auf Weiter.
  5. In der Registerkarte "Quellverbindung",
    1. Wählen Sie in der Dropdown-Liste Verbindungstyp eine SQL-basierte Datenquelle aus.
    2. Wählen Sie in der Dropdown-Liste Verbindung die erforderliche Verbindung aus, über die Sie die Dateneinheiten hinzufügen möchten.
    3. Klicken Sie auf Weiter.
  6. In der Registerkarte "Zielverbindung",
    1. Wählen Sie in der Dropdown-Liste Verbindungstyp die Option Apache Iceberg als Verbindungstyp aus.
    2. Wählen Sie in der Dropdown-Liste Verbindung die Verbindung aus, in die Sie die Daten laden möchten.
    3. Geben Sie den Namespace an. Sie können entweder einen vorhandenen Namespace auswählen oder einen neuen Namespace erstellen.
    4. Klicken Sie auf Speichern.

    Die Seite "Detail für Dataload" wird mit allen Quelltabellen angezeigt.

  7. Wählen Sie die zu ladenden Tabellen und den entsprechenden Dataload-Vorgang aus. Die Dataload-Optionen, die Sie verwenden können, sind "Inkrementelle Zusammenführung", "Inkrementell anhängen", "Anhängen" und "Nicht laden".
  8. Klicken Sie auf Symbol "Speichern", um die Änderungen zu speichern. Ein grünes Häkchen (grünes Häkchensymbol) in der Zeile gibt an, dass die Änderungen gespeichert werden.
  9. Klicken Sie auf Symbol "Ausführen", um den Dataload auszuführen.

    Wenn der Ladevorgang erfolgreich gestartet wurde, wird ein Bestätigungs-Prompt angezeigt.

Informationen zum Prüfen des Status des Dataloads finden Sie im Bereich "Dataload-Status" rechts unter den Details des Zielschemas. Weitere Informationen zum Bereich finden Sie unter Status von Dataloads, Datenflüssen und Workflows überwachen. In diesem Bereich werden Links zu den Jobs angezeigt, die zum Ausführen dieses Dataloads ausgeführt werden. Klicken Sie auf den Link, um den Fortschritt auf der Seite "Jobdetails" zu überwachen. Weitere Informationen zu Jobs finden Sie unter Jobs erstellen und verwalten.

Alle geladenen Tabellen und ihre Details werden auf der Seite "Datenentitys" aufgeführt. Um die Statistiken der Datenentitys anzuzeigen, klicken Sie neben der Datenentity auf das Symbol Aktionen (Symbol "Aktionen"), klicken auf Vorschau, und wählen Sie die Registerkarte Statistiken aus. Weitere Informationen finden Sie unter Statistiken von Datenentitys anzeigen.

Delta Share-Verbindung erstellen

Databricks Delta Share ist ein offenes Protokoll für eine sichere Datenfreigabe. Oracle Data Transforms lässt sich in Delta Share integrieren, um Daten in Oracle Autonomous Database zu laden. Mit der Delta Share-Verbindung können Sie Daten aus Databricks oder Oracle Data Share laden.

Um Databricks als Quelle zu verwenden, müssen Sie die URL des Delta Sharing-Servers zusammen mit dem Bearer-Token angeben, mit dem Sie auf den Delta Lake-Freigabeserver zugreifen können. Um Oracle Data Share als Quelle zu verwenden, müssen Sie die URL für den Tokenendpunkt zusammen mit einer Client-ID und dem Secret Key angeben.

Delta Share-Verbindung erstellen

So definieren Sie eine Delta Share-Verbindung:

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.

    Die Seite Verbindungen wird angezeigt.

  2. Klicken Sie auf Verbindung erstellen.

    Die Seite Verbindung erstellen wird angezeigt.

  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie die Registerkarte Datenbanken aus.
  4. Wählen Sie Delta Share als Verbindungstyp aus.
  5. Klicken Sie auf Weiter.
  6. Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Sie können diesen Wert ändern.
  7. Geben Sie im Textfeld Endpunkt-URL gemeinsam verwenden die URL des Delta Sharing-Servers ein. Geben Sie den Wert im Format <host>:<port>/<shareEndpoint>/ ein.
  8. Führen Sie im Abschnitt "Verbindung" einen der folgenden Schritte aus:
    • Wählen Sie Oracle Data Share aus, und geben Sie die Tokenendpunkt-URL, die Client-ID und das Client Secret für den Zugriff auf die Freigabe an.

      Sie können diese Informationen aus dem Delta Share Profile JSON-Dokument abrufen, das Sie von dem Share Provider herunterladen müssen. (Hier erhalten sie auch die URL für den Freigabeendpunkt.)

      Sie können diese Informationen aus dem Delta Share Profile JSON-Dokument abrufen, das Sie über den Aktivierungslink herunterladen können, der vom Data Share-Provider bereitgestellt wird, um auf deren Freigabe zuzugreifen.

    • Wählen Sie Databricks aus, und geben Sie im Textfeld Bearer-Token das Token für die Verbindung mit dem Delta Sharing-Server ein.
  9. Wenn Sie einen Proxy für den Zugriff auf Delta Share Server oder Delta Share Storage verwenden müssen, konfigurieren Sie die folgenden Einstellungen:
    • Geben Sie im Textfeld Proxyhost den Hostnamen des für die Verbindung zu verwendenden Proxyservers ein.
    • Geben Sie im Textfeld Proxyport die Portnummer des Proxy-Servers ein.
    • Aktivieren Sie die folgenden Kontrollkästchen, je nachdem, wo der Proxy erforderlich ist:
      • Mit Proxy auf Delta Share Server zugreifen
      • Mit Proxy auf Delta Share Storage zugreifen
  10. Klicken Sie auf Verbindung testen, um die eingerichtete Verbindung zu testen.
  11. Nachdem Sie alle erforderlichen Verbindungsdetails angegeben haben, klicken Sie auf Erstellen.

    Die neue Verbindung wird hergestellt.

Die neu erstellten Verbindungen werden auf der Seite Verbindungen angezeigt.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Schema löschen aus, um Schemas zu löschen.
  • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

Sie können auch nach der erforderlichen Verbindung suchen, um die zugehörigen Details anhand der folgenden Filter zu ermitteln:

  • Name der Verbindung.
  • Technologie, die mit der erstellten Verbindung verknüpft ist.

Delta Share-Daten laden erstellen und ausführen

Um Daten aus Delta Share in Oracle Autonomous Database zu laden, muss der Oracle-Verbindungsbenutzer ein Admin-Benutzer sein. Admin-Berechtigungen sind erforderlich, damit der Oracle-Benutzer Daten erstellen und in Tabellen in einem anderen Schema einfügen kann.

Wenn Sie den Dataload ausführen, werden die Daten in Datentransformationen in eine entsprechende Tabelle im Zielschema geladen. Der Dataload wird inkrementell ausgeführt. Wenn Sie zum ersten Mal einen Dataload ausführen, werden alle Daten in Datentransformationen in neue Tabellen kopiert. Bei jeder nachfolgenden Dataload-Ausführung werden nur die Änderungen hochgeladen. Alle Hinzufügungen oder Löschungen in den Datensätzen werden in den Zieltabellen wiedergegeben. Wenn sich Metadaten in der Tabelle ändern, z.B. eine Spalte hinzugefügt wird, erstellt Data Transforms eine neue Tabelle, in der die Daten auf den Zielserver geladen werden. Sie können einen Workflow erstellen, den Dataload als Schritt hinzufügen und einen Zeitplan erstellen, um die Workflows in einem vordefinierten Zeitintervall auszuführen. Siehe Neuen Workflow erstellen.

So erstellen und führen Sie einen Delta Share-Dataload aus:

  1. Führen Sie einen der folgenden Schritte aus:
    • Klicken Sie auf der Homepage auf Daten laden. Der Assistent zum Erstellen von Dataloads wird angezeigt.

      Geben Sie auf der Registerkarte "Dataload erstellen" einen Namen ein, wenn Sie den Standardwert ersetzen, eine Beschreibung hinzufügen und ein Projekt aus der Dropdown-Liste auswählen möchten.

    • Klicken Sie auf der Homepage auf Projekte, und klicken Sie dann auf die erforderliche Projektkachel. Klicken Sie im linken Bereich auf Dataloads und dann auf Dataload erstellen. Der Assistent zum Erstellen von Dataloads wird angezeigt.

      Geben Sie auf der Registerkarte "Dataload erstellen" einen Namen ein, wenn Sie den Standardwert ersetzen und eine Beschreibung hinzufügen möchten.

  2. Klicken Sie auf Weiter.
  3. In der Registerkarte "Source Connection"
    1. Wählen Sie im Dropdown-Menü Verbindungstyp die Option Delta Share aus.
    2. Wählen Sie in der Dropdown-Liste Verbindung die erforderliche Verbindung aus, aus der Sie die Datenentitys hinzufügen möchten.
    3. Wählen Sie in der Dropdown-Liste Gemeinsam verwenden die Freigabe aus, die Sie laden möchten. In der Dropdown-Liste werden alle Shares für die ausgewählte Verbindung aufgeführt.
    4. Klicken Sie auf Weiter.
  4. In der Registerkarte "Zielverbindung"
    1. Wählen Sie in der Dropdown-Liste Verbindungstyp die Option Oracle als Verbindungstyp aus.
      Hinweis

      In dieser Dropdown-Liste werden nur JDBC-Verbindungen aufgeführt.
    2. Wählen Sie in der Dropdown-Liste Verbindung die erforderliche Verbindung zum Laden der Datenentitys aus.
    3. Geben Sie einen eindeutigen Namen in das Textfeld Schema ein.
    4. Klicken Sie auf Speichern.
    Die Seite "Dataload-Details" wird mit einer Liste aller Tabellen im ausgewählten Share und ihren Schemanamen angezeigt.
    Hinweis

    Beim Laden von Delta Share-Daten enthält die Seite "Dataload-Details" nur die Option Symbol "Ausführen". Sie können keine anderen Aktionen auf die Datenentitys anwenden - inkrementelle Zusammenführung, inkrementelles Anhängen, Neuerstellen, Leeren, Anhängen -, bevor Sie sie in das Zielschema laden. Dadurch wird sichergestellt, dass die Daten zwischen dem Delta Sharing-Server und dem Zielschema konsistent sind.
  5. Klicken Sie auf Symbol "Ausführen", um den Dataload auszuführen.

    Wenn der Dataload erfolgreich gestartet wird, wird eine Bestätigungsaufforderung angezeigt.

Den Status des Ladens können Sie im Statusbereich rechts unter den Details zum Zielschema prüfen. Einzelheiten zum Statusbereich finden Sie unter Status von Data Loads, Data Flows und Workflows überwachen. In diesem Bereich werden Links zu den Jobs angezeigt, die zur Ausführung dieses Ladens ausgeführt werden. Klicken Sie auf den Link, um den Fortschritt auf der Seite "Jobdetails" zu überwachen. Weitere Informationen über Jobs finden Sie in Jobs erstellen und verwalten.

Alle geladenen Datenentitys sowie ihre Details werden auf der Seite "Datenentitys" aufgeführt. Um die Statistiken der Datenentitys anzuzeigen, klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der Datenentity, klicken Sie auf Vorschau, und wählen Sie die Registerkarte Statistiken aus. Weitere Informationen finden Sie unter Statistiken von Datenentitys anzeigen.

Oracle Business Intelligence Cloud Connector-Verbindung erstellen

Mit Oracle Business Intelligence Cloud Connector (BICC) können Sie Geschäftsdaten aus einer Datenquelle extrahieren und in Autonomous Database laden.

Um eine Oracle BICC-Verbindung zu erstellen, müssen Sie zuerst externen Speicher auf der Registerkarte "OCI Object Storage-Verbindung" in der BICC-Konsole konfigurieren. Sie müssen diese Verbindungsdetails angeben, wenn Sie die Verbindung in Oracle Data Transforms definieren.

Mit der BICC-Verbindung können Sie die Angebote auswählen, deren Datenspeicher Sie extrahieren möchten. Data Transforms verwendet einen Oracle Object Storage-Datenserver, mit dem Oracle BICC die extrahierten Dateien bereitstellt, die Sie dann als Quelle für die Zuordnung verwenden können. Beachten Sie, dass Sie keine Oracle BICC-Verbindung als Ziel für die Zuordnung verwenden können.

Um eine Oracle BICC-Verbindung zu definieren,

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.
    Die Seite Verbindungen wird angezeigt.
  2. Klicken Sie auf Verbindung erstellen.
    Die Seite Verbindung erstellen wird angezeigt.
  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie die Registerkarte Anwendungen aus.
  4. Wählen Sie als Verbindungstyp Oracle BI Cloud Connector aus.
  5. Klicken Sie auf Weiter.
  6. Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Sie können diesen Wert ändern.
  7. Geben Sie die URL in das Textfeld BI Cloud Connector Service-URL ein.
  8. Geben Sie im Abschnitt Verbindung die folgenden Details ein:
    • Geben Sie im Textfeld Benutzer den in der Oracle BI Cloud Connector-Konsole konfigurierten Benutzernamen ein.
    • Geben Sie in das Textfeld Kennwort das in der Oracle BI Cloud Connector-Konsole konfigurierte Kennwort ein.
  9. Geben Sie im Abschnitt Speicher die folgenden Details ein:
    • Geben Sie im Textfeld Externer Speicher - BICC-Name den Namen des externen Speichers ein, wie er in der Oracle BI Cloud Connector-Konsole angezeigt wird.
    • Geben Sie im Textfeld Externer Speicher-Bucket den Bucket an, in den Extrakte hochgeladen werden. Bucket-Namen werden in der OCI-Konsole abgerufen.
    • Geben Sie im Textfeld Externer Speicherplatz den Namespace an. Namespace wird in der OCI-Konsole abgerufen.
    • Geben Sie im Textfeld Externe Speicherregion die OCI Object Storage-Region ein.
    • Geben Sie im Textfeld Externer Speicherbenutzer Ihren Oracle Cloud Infrastructure-Benutzernamen ein.
    • Geben Sie im Textfeld Externes Speichertoken das Authentifizierungstoken ein.
  10. Klicken Sie auf Verbindung testen, um die eingerichtete Verbindung zu testen.
  11. Klicken Sie auf Erstellen.
    Die neue Verbindung wird hergestellt.

Die neu erstellten Verbindungen werden auf der Seite Verbindungen angezeigt.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Schema löschen aus, um Schemas zu löschen.
  • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

Sie können auch nach der erforderlichen Verbindung suchen, um die zugehörigen Details anhand der folgenden Filter zu ermitteln:

  • Name der Verbindung.
  • Technologie, die mit der erstellten Verbindung verknüpft ist.

Oracle Cloud Infrastructure Generative AI-Verbindung erstellen und verwenden

Mit der generativen KI von Oracle Cloud Infrastructure (OCI) können Unternehmen die Textzusammenfassung und dynamische Inhaltsgenerierung automatisieren. Data Transforms lässt sich in OCI Generative AI integrieren, um die Verwendung von Vektoren in einen Datenfluss zu unterstützen.

Bevor Sie eine OCI Generative AI-Verbindung erstellen, erstellen Sie eine Oracle Database 23ai-Verbindung. Datentransformationen verwenden diese Verbindung, um die OCI Generative AI-Verbindung zu testen. Um die OCI Generative AI-Verbindung zu erstellen, müssen Sie Details wie OCI-URL, Benutzer-OCID, Mandanten-OCID, Compartment-OCID, Private Key und Fingerprint-Informationen angeben.
Informationen dazu, wie Sie mit dieser Verbindung Vektoreinbettungen in einem Datenfluss hinzufügen, finden Sie unter Texteinbettungsvektor in einem Datenfluss verwenden.

So definieren Sie eine Oracle Cloud Infrastructure Generative AI-Verbindung:

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.

    Die Seite Verbindungen wird angezeigt.

  2. Klicken Sie auf Verbindung erstellen.

    Die Seite Verbindung erstellen wird angezeigt.

  3. Für Typ auswählen:
    • Geben Sie im Feld Name den Namen der neu erstellten Verbindung ein.
    • Wählen Sie Services als Verbindungstyp aus.
  4. Wählen Sie OCI Generative AI und Weiter aus.
  5. Geben Sie unter Verbindungsdetails die folgenden Details an:
    • OCI-URL: Die Endpunkt-URL des OCI Generative AI-Service.
    • Benutzer-OCID: Die Benutzer-OCID aus der Oracle Cloud Infrastructure-Konsole.
    • Mandanten-OCID: Die Mandanten-OCID aus der Oracle Cloud Infrastructure-Konsole.
    • Compartment-OCID: Die Compartment-OCID aus der Oracle Cloud Infrastructure-Konsole.
    • Private Key: Der Private Key im PEM-Format. Geben Sie den Pfad zur heruntergeladenen Private-Key-Datei an.
    • Fingerprint: Der Fingerprint des gerade hinzugefügten Schlüssels.
  6. Nachdem Sie alle erforderlichen Verbindungsdetails nachgewiesen haben, klicken Sie auf Erstellen.

    Die neue Verbindung wird hergestellt.

  7. Klicken Sie auf Verbindung testen, um die eingerichtete Verbindung zu testen.

    In einem Popup-Fenster werden die von Ihnen konfigurierten Oracle Database 23ai-Verbindungen aufgeführt. Wählen Sie die Option aus, die Sie zum Testen dieser Verbindung verwenden möchten.

    Hinweis

    Wenn die Testverbindung nicht erfolgreich verläuft, finden Sie unter Fehlerbehebung bei OCI Generative AI-Verbindungsproblemen Anweisungen zur Behebung des Problems.

Die neu erstellte Verbindung wird auf der Seite "Verbindungen" angezeigt.

Fehlerbehebung bei OCI Generative AI-Verbindungsproblemen

Wenn die Verbindung testen für eine OCI Generative AI-Verbindung nicht erfolgreich verläuft, führen Sie die folgenden Schritte aus, um das Problem zu beheben:

  1. Stellen Sie sicher, dass Sie alle Verbindungsinformationen korrekt eingegeben haben. Beispiel:
    • OCI-URL-Beispiel: https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/20231130/actions/embedText
    • Private Key-Beispiel: MIIEvg......beE/
  2. Wenn Sie auf Verbindung testen klicken, werden Sie aufgefordert, eine Oracle-Verbindung auszuwählen. Stellen Sie sicher, dass es sich um eine Oracle 23ai-Verbindung handelt.
  3. Melden Sie sich als Administrator bei dieser Oracle 23ai-Datenbank an, und führen Sie die folgende Abfrage aus, um sicherzustellen, dass die Statuswerte gültig sind:
    SELECT object_name, object_type, status
    FROM dba_objects
    WHERE object_name = 'DBMS_VECTOR_CHAIN' AND owner = 'CTXSYS';
  4. Prüfen Sie, ob der folgende plsql-Block in Ihrer Datenbank funktioniert. Datentransformationen verwenden den plsql-Block, um die Verbindung testen auszuführen.
    exec dbms_vector_chain.drop_credential('OCI_CRED');
    declare
      jo json_object_t;
    begin
      -- create an OCI credential
      jo := json_object_t();
      jo.put('user_ocid', '<your user ocid>');
      jo.put('tenancy_ocid', '<your tenancy ocid');
      jo.put('compartment_ocid', '<your compartment ocid');
      jo.put('private_key', '<your private key');
      jo.put('fingerprint', '<your fingerprint>');
      dbms_output.put_line(jo.to_string);
      dbms_vector_chain.create_credential(
        credential_name => 'OCI_CRED',
        params => json(jo.to_string));
    end; 
    select dbms_vector_chain.utl_to_embedding('hello', JSON('{"provider": "ocigenai","credential_name" : "OCI_CRED", "url": "https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/20231130/actions/embedText","model": "cohere.embed-english-light-v2.0"}')) from dual;
    Wenn beim Ausführen der plsql-Blockabfrage ein HTTP request failed-Fehler auftritt, versuchen Sie, Ihrem Benutzer Netzwerkzugriff zu erteilen:
    BEGIN
        DBMS_NETWORK_ACL_ADMIN.APPEND_HOST_ACE(
            host => '*',
            ace => xs$ace_type(privilege_list => xs$name_list('connect'),
                               principal_name => '<your username>',
                               principal_type => xs_acl.ptype_db));
    END;

Oracle Enterprise Resource Planning Cloud-Verbindung erstellen

Oracle Enterprise Resource Planning (ERP) Cloud ist eine cloudbasierte End-to-End-Software-as-a-Service-(SaaS-)Suite, mit der Funktionen wie Buchhaltung, Finanzmanagement, Projektmanagement, Beschaffung und Risikomanagement verwaltet werden können. Mit dem Oracle ERP Cloud-Connector "Daten transformieren" können Sie Berichtsdaten aus einem ERP Cloud-Server extrahieren und in Autonomous Database laden.
Um eine Oracle ERP Cloud-Verbindung in Datentransformationen zu verwenden, benötigen Sie die URL des BI Publisher-Webservice, der für die Oracle ERP Cloud-Instanz und die BI Publisher-Berichtsdatei verwendet wird, die im Datenformat (CSV) ausgegeben wird.
Hinweis:
  • Sie können keine Oracle ERP Cloud-Verbindung als Ziel für die Zuordnung verwenden.
  • Dataload wird für Oracle ERP Cloud-Verbindungen nicht unterstützt.

Oracle ERP Cloud-Serververbindung erstellen

Um diese Verbindung zu erstellen, müssen Sie die WSDL-URL des Berichtsservice und den Benutzernamen und das Kennwort angeben, um eine Verbindung zur ERP Cloud-Instanz herzustellen.

So definieren Sie eine Oracle ERP Cloud-Serververbindung:

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.

    Die Seite Verbindungen wird angezeigt.

  2. Klicken Sie auf Verbindung erstellen.

    Die Seite Verbindung erstellen wird angezeigt.

  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie die Registerkarte Anwendungen aus.
  4. Wählen Sie Oracle ERP Cloud als Verbindungstyp aus.
  5. Klicken Sie auf Weiter.
  6. Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Sie können diesen Wert ändern.
  7. Geben Sie im Textfeld WSDL-URL die URL des BI Publisher-Webservice ein, der für die Oracle ERP Cloud-Instanz verwendet wird. Das Format der URL lautet BI Publisher Hostname/xmlpserver/services/PublicReportWSSService?wsdl.

    Beispiel: https://fa-eudu-saasfademo1.ds-fa.oraclepdemos.com/xmlpserver/services/PublicReportWSSService?wsdl.

  8. Geben Sie im Textfeld Proxyhost den Hostnamen des für die Verbindung zu verwendenden Proxyservers ein.
  9. Geben Sie im Textfeld Proxyport die Portnummer des Proxy-Servers ein.
  10. Geben Sie im Textfeld Benutzer den Benutzernamen für die Verbindung zur Oracle ERP Cloud-Instanz ein.
  11. Geben Sie in das Textfeld Kennwort das Kennwort für die Verbindung zur Oracle ERP Cloud-Instanz ein.
  12. Nachdem Sie alle erforderlichen Verbindungsdetails angegeben haben, klicken Sie auf Verbindung testen, um die Verbindung zu testen.
  13. Klicken Sie auf Erstellen.

    Die neu erstellte Verbindung wird auf der Seite Verbindungen angezeigt.

    Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

    • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
    • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
    • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
    • Wählen Sie Schema löschen aus, um Schemas zu löschen.
    • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

    Sie können auch nach der erforderlichen Verbindung suchen, um die zugehörigen Details anhand der folgenden Filter zu ermitteln:

    • Name der Verbindung.
    • Technologie, die mit der erstellten Verbindung verknüpft ist.

Datenentitydefinitionen aus einem Oracle ERP Cloud-Server importieren

Für Oracle ERP Cloud-Verbindungen erfordert die Seite "Datenentitys importieren" die Eingabe in Schlüssel/Wert-Paare. Um Daten zu importieren, müssen Sie den Schlüssel BIPReportLocation angeben, der sich auf den Speicherort des BI Publisher-Berichts auf dem BI-Server bezieht. Diese Informationen finden Sie auf dem BI-Server, wenn der entsprechende Bericht geöffnet ist.

So importieren Sie Datenentitys aus Oracle ERP Cloud:
  1. Klicken Sie im linken Fensterbereich der Homepage auf die Registerkarte Datenentitys.

    Die Seite "Datenentitys" wird angezeigt.

  2. Klicken Sie auf Datenentitys importieren. Die Seite "Datenentitys importieren" wird angezeigt.
  3. Wählen Sie in der Dropdown-Liste Verbindung die Oracle ERP Cloud-Verbindung aus, die Sie unter Oracle ERP Cloud-Serververbindung erstellen erstellt haben. Die Optionen auf der Seite ändern sich, sodass nur das Feld Entityname angezeigt wird.
  4. Geben Sie im Feld Entityname einen Namen für die Datenentity ein.
  5. Geben Sie BIPReportLocation in das Feld Schlüssel ein.
  6. Geben Sie den Speicherort der BI Publisher-Berichtsdatei in das Feld Wert ein, der dem Schlüssel entspricht. Geben Sie den Pfad bis zum Namen der Datei ReportFile.xdo an.
  7. Klicken Sie auf Starten.

    Ein Job wird erstellt, und die entsprechende Job-ID wird angezeigt, damit Sie die Session verfolgen können. Klicken Sie auf die Job-ID, um die Details des Jobs anzuzeigen. Nach erfolgreicher Ausführung des Jobs wird die Datenentity auf der Seite "Datenentitys" angezeigt.

  8. Klicken Sie neben der ausgewählten Datenentity auf das Symbol Aktionen (Symbol "Aktionen"), und wählen Sie Bearbeiten aus.
    Die Seite Datenentity bearbeiten wird angezeigt, auf der eine Tabelle mit den folgenden Informationen angezeigt wird:
    • Name
    • Datentyp
    • Länge
    • Skalierung
    • Nicht null

    Prüfen Sie den Datentyp und die Länge für die importierten Entitys. Oracle Data Transforms bestimmt die Datentypen und die Länge ab dem ersten Datensatz der Datei, kann jedoch Standardwerte (z.B. 50 für die Länge des Zeichenfolgenfeldes) oder falsche Datentypen festlegen. Bei einem leeren Feld wird der Datentyp auf "Zeichenfolge" mit der Länge 50 gesetzt.

  9. Klicken Sie auf Speichern.

Oracle Financials Cloud-Verbindung erstellen

Sie können Echtzeittransaktionsdaten aus REST-Endpunkten von Oracle Financials Cloud abrufen, die Datenentitys in Datentransformationen importieren und als Quelle in einem Datenfluss verwenden.

Um eine Oracle Financials Cloud-Verbindung zu erstellen, müssen Sie ein temporäres Schema auswählen, in dem Data Transforms Datenentitys nach dem Reverse Engineering-Vorgang erstellen kann.

Um eine Oracle Financials Cloud-Verbindung zu definieren,

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.
    Die Seite Verbindungen wird angezeigt.
  2. Klicken Sie auf Verbindung erstellen.
    Die Seite Verbindung erstellen wird angezeigt.
  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie die Registerkarte Anwendungen aus.
  4. Wählen Sie als Verbindungstyp Oracle Financials Cloud aus.
  5. Klicken Sie auf Weiter.
  6. Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Sie können diesen Wert ändern.
  7. Geben Sie im Textfeld REST-Service-URL die URL des Endpunkts für die REST-Ressourcen ein.
  8. Geben Sie im Textfeld Proxyhost den Hostnamen des Proxyservers für die Verbindung ein.
  9. Geben Sie im Textfeld Proxyport die Portnummer des Proxyservers ein.
  10. Geben Sie den Benutzernamen für die Verbindung zum REST-Endpunkt in das Textfeld Benutzer ein.
  11. Geben Sie im Textfeld Kennwort das Kennwort für die Verbindung zum REST-Endpunkt ein.
  12. Wählen Sie in der Dropdown-Liste Staging-Verbindung eine Verbindung aus. In der Liste werden nur vorhandene Autonomous Database-Verbindungen angezeigt. Um eine andere Verbindung zu verwenden, erstellen Sie die Verbindung, bevor Sie diese Seite erreichen.
  13. Nachdem Sie alle erforderlichen Verbindungsdetails angegeben haben, klicken Sie auf Erstellen.
    Die neue Verbindung wird hergestellt.
  14. Klicken Sie auf Verbindung testen, um die eingerichtete Verbindung zu testen.

Die neu erstellten Verbindungen werden auf der Seite Verbindungen angezeigt.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Schema löschen aus, um Schemas zu löschen.
  • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

Sie können auch nach der erforderlichen Verbindung suchen, um die zugehörigen Details anhand der folgenden Filter zu ermitteln:

  • Name der Verbindung.
  • Technologie, die mit der erstellten Verbindung verknüpft ist.

Oracle NetSuite-Verbindung erstellen und verwenden

Sie können den Oracle NetSuite JDBC-Treiber oder die OAuth 2.0-Authentifizierung verwenden, um eine Verbindung zur Oracle NetSuite-Anwendung herzustellen. Bei Oracle NetSuite-Verbindungen können Sie mit Data Transforms vordefinierte Datenflüsse und Workflows laden, die Sie ausführen können, um Daten von NetSuite in Ihr Zielschema zu übertragen.

Erforderliche Zugriffsberechtigungen für das Erstellen von Data Warehouse konfigurieren

Bevor Sie eine NetSuite-Verbindung erstellen oder den Assistenten zum Erstellen von Data Warehouse in Datentransformationen verwenden, müssen Sie sich als Administrator bei NetSuite anmelden, SuiteAnalytics Connect aktivieren, eine benutzerdefinierte Rolle erstellen und die Zugriffsberechtigungen festlegen, die für das Erstellen des Data Warehouse NetSuite erforderlich sind.

So konfigurieren Sie Zugriffsberechtigungen:

  1. Melden Sie sich bei NetSuite als Administrator mit der folgenden URL an:

    https://system.netsuite.com/pages/customerlogin.jsp

  2. Prüfen Sie, ob die SUITEANALYTICS CONNECT-Funktion aktiviert ist.

    Gehen Sie zu Setup > Unternehmen > Features aktivieren. Klicken Sie auf die Registerkarte Analysen, und prüfen Sie, ob das Kontrollkästchen SuiteAnalytics Connect aktiviert ist.

  3. Benutzerdefinierte Rolle hinzufügen.

    Gehen Sie zu Setup > Benutzer/Rollen > Benutzerverwaltung > Rollen verwalten. Klicken Sie auf Neue Rolle, fügen Sie die erforderlichen Details hinzu, und klicken Sie auf Speichern, um eine benutzerdefinierte Rolle zu erstellen.

  4. Weisen Sie der benutzerdefinierten Rolle die erforderlichen Berechtigungen zu.

    Gehen Sie zu Setup > Benutzer/Rollen > Benutzerverwaltung > Rollen verwalten. Klicken Sie neben dem Namen der benutzerdefinierten Rolle, für die Sie die Berechtigung "SuiteAnalytics Connect" hinzufügen möchten, auf Anpassen.

    Klicken Sie auf die Registerkarte Transaktionen unter der Registerkarte Berechtigungen, und weisen Sie die folgenden Berechtigungen zu:

    • Accountdetails
    • Buchhaltungslisten
    • Buchhaltungsmanagement
    • Accounts
    • Verbindlichkeiten
    • Grafikerstellung für Verbindlichkeiten
    • Verbindlichkeiten
    • Forderungen
    • Diagramm zu Forderungen
    • Forderungen
    • Bestand berichtigen
    • Inventurarbeitsblatt berichtigen
    • Abgrenzungsberichte
    • Abgrenzungspläne
    • Audittrail
    • Bilanz
    • Bankkonten
    • Bestellungen fakturieren
    • Abrechnungspläne
    • Rechnungen
    • Arbeitsblatt Einlagerungsstrategie
    • Lagerplatztransfer
    • Blankobestellung
    • Baugruppen montieren
    • CRM-Gruppen
    • Kalender
    • Barverkauf
    • Barverkaufsrückerstattung
    • Gebühr
    • Gebühr - Ausführungsregeln
    • Abrechnungsregel
    • Prüfen
    • Klassen
    • Setup Provisionsfeature
    • Provisionsberichte
    • Aufträge zusagen
    • Entgeltabrechnung festschreiben
    • Konkurrenten
    • Komponentenverwendung
    • Kontakte
    • Inventur zählen
    • Kostenumlagepläne erstellen
    • Kreditkarte
    • Kreditkartenrückerstattung
    • Kreditkartenregister
    • Gutschrift
    • Gutschriftenretouren
    • Currency
    • Währungsneubewertung
    • Benutzerdefinierter Realisierungsereignistyp
    • Kundeneinzahlung
    • Kundenzahlung
    • Kundenrückerstattung
    • Customers
    • Abgegrenzte Spesenabrechnungen
    • Gelöschte Datensätze
    • Abteilungen
    • Einzahlung
    • Einzahlungsanwendung
    • Dokumente und Dateien
    • Prognose bearbeiten
    • Managerprognose bearbeiten
    • E-Mail-Vorlage
    • Mitarbeiterprovisionstransaktion
    • Genehmigung von Mitarbeiterprovisionstransaktionen
    • Mitarbeiterdatensatz
    • Mitarbeitererinnerungen
    • Mitarbeiter
    • Anfangssalden eingeben
    • Lieferantengutschriften eingeben
    • Eigenkapital
    • Quoten einrichten
    • Schätzen
    • Veranstaltungen
    • Ausgabenbericht
    • Spesenabrechnung
    • Listen exportieren
    • Zeitwertdimension
    • Zeitwertformel
    • Zeitwertpreis
    • Jahresabschlüsse
    • Transaktion suchen
    • Anlagevermögen
    • Aufträge ausliefern
    • Auslieferungsanforderung
    • Hauptbuch
    • Preislisten generieren
    • Kontoauszüge generieren
    • Importierte Mitarbeiterspesen
    • Eingehende Sendung
    • Ertrag
    • Gewinn- und Verlustrechnung
    • Bestand
    • Bestandsstatusänderung
    • Ausgangsrechnung
    • Rechnungsgenehmigung
    • Kundenaufträge fakturieren
    • Auslieferung
    • Wareneingang
    • Artikelumsatzkategorie
    • Artikel
    • Lead-Snapshot/-erinnerungen
    • Standorte
    • Langfristige Verbindlichkeiten
    • Journalbuchung vornehmen
    • Buchungsperioden verwalten
    • Entgeltabrechnung verwalten
    • Globale Aktualisierungen
    • Wiederkehrende Transaktionen
    • Mobilgerätezugriff
    • Reinvermögen
    • Nicht zu buchende Kassen
    • Registerkarte "Notizen"
    • Verkaufsprojekt
    • Sonstige Vermögensgegenstände
    • Sonstiges Umlaufvermögen
    • Sonstige kurzfristige Verbindlichkeiten
    • Sonstige Listen
    • Sonstige Namen
    • Eigentumsübertragung
    • Eingangsrechnungen bezahlen
    • Umsatzsteuer zahlen
    • Steuerverbindlichkeiten bezahlen
    • Lohnscheckjournalbuchung
    • Entgeltelemente
    • Suche ausführen
    • Telefonanrufe
    • Lieferantenrechnungsabweichungen buchen
    • Buchungsperiode für Transaktionen
    • Preislisten
    • Preispläne
    • Personalabrechnung verarbeiten
    • Projekterlösregeln
    • Einkaufskontrakt
    • Bestellung
    • Bestellberichte
    • Käufe
    • Abstimmen
    • Bericht abstimmen
    • Retouren erstatten
    • Berichtsanpassung
    • Berichtsplanung
    • Angebotsanforderung
    • Antrag
    • Ressource
    • Retourengenehmigung
    • Bestandskosten neu bewerten
    • Erlösarrangement
    • Erlösarrangementgenehmigung
    • Erlöselement
    • Mapping für Feld "Erlösrealisierung"
    • Erlösrealisierungsplan
    • Erlösrealisierungsberichte
    • Regel für die Erlösrealisierung
    • Erlösrealisierungspläne
    • SOAP-Webservices
    • Sales
    • Umsatz nach Partner
    • Umsatz nach Promotion
    • Kundenauftrag
    • Kundenauftragsgenehmigung
    • Kundenauftragsauslieferung - Berichte
    • Kundenauftragsberichte
    • Kundenauftragstransaktion - Bericht
    • Budgets einrichten
    • SOAP-Webservices einrichten
    • Sammelrechnung
    • Statistische Konten
    • Auslieferung per Shopabholung
    • Abonnementänderungsaufträge
    • Abonnementplan
    • Subscriptions
    • Tochtergesellschaften
    • SuiteAnalytics Connect
    • SuiteAnalytics Arbeitsmappe
    • Aufgaben
    • Tax
    • Nachrichten verfolgen
    • Transaktionsdetail
    • Überweisungen tätigen
    • Ersatzteil transferieren
    • Transferauftrag
    • Genehmigung für Transferauftrag
    • Vorläufige Bilanz
    • Nicht fakturierte Forderungen
    • Baugruppen auflösen
    • Einheiten
    • Genehmigung von Lieferantenrechnungen
    • Genehmigung der Lieferantenzahlung
    • Lieferantenangebot
    • Lieferantenretourenautorisierung. Genehmigung
    • Lieferantenretourengenehmigung
    • Lieferantenrücksendungen
    • Hersteller
    • Arbeitskalender
    • Fertigungsauftrag
    • Fertigungsauftragsabschluss
    • Fertigmeldung des Fertigungsauftrags
    • Entnahme für Fertigungsauftrag
  5. Fügen Sie die Berechtigung SuiteAnalytics Connect - Alle lesen hinzu.

    Klicken Sie auf der Registerkarte Berechtigungen auf die Registerkarte Setup, wählen Sie SuiteAnalytics Connect - Alle lesen aus der Dropdown-Liste aus, und klicken Sie auf Hinzufügen.

  6. Klicken Sie auf Speichern, um diese Berechtigungen auf die benutzerdefinierte Rolle anzuwenden.
  7. Weisen Sie einem Benutzer eine benutzerdefinierte Rolle zu. Wenn Sie eine Verbindung zu NetSuite aus Datentransformationen erstellen, müssen Sie die Zugangsdaten dieses Benutzers eingeben, um eine Verbindung zum Datenserver herzustellen. Informationen zum Erstellen der Verbindung finden Sie unter Oracle NetSuite-Verbindung erstellen.

    Um dem Benutzer die benutzerdefinierte Rolle zuzuweisen, gehen Sie zu Setup > Benutzer/Rollen > Benutzer verwalten. Klicken Sie neben dem Namen des Benutzers auf Bearbeiten, weisen Sie die benutzerdefinierte Rolle zu, und klicken Sie auf Speichern.

  8. Um die Zugriffsberechtigungen zu prüfen, melden Sie sich als der Benutzer an, dem die benutzerdefinierte Rolle zugewiesen ist.

    Gehen Sie zu Analysen > Datensets. Klicken Sie auf Neues Dataset. Auf dieser Seite werden alle Tabellen und Datensatztypen aufgelistet, auf die der Benutzer Zugriff hat. Suchen Sie nach der Tabelle "Transaktion", um beispielsweise zu prüfen, ob der Benutzer Zugriff auf die Transaktionstabelle hat.

Oracle NetSuite-Verbindung erstellen

Sie können eine Oracle NetSuite-Verbindung mit JDBC-Konnektivität oder OAuth 2.0-Authentifizierung erstellen.

So definieren Sie eine Oracle NetSuite-Verbindung:

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.

    Die Seite Verbindungen wird angezeigt.

  2. Klicken Sie auf Verbindung erstellen.

    Die Seite Verbindung erstellen wird angezeigt.

  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie die Registerkarte Anwendungen aus.
  4. Wählen Sie Oracle NetSuite als Verbindungstyp aus.
  5. Klicken Sie auf Weiter.
  6. Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Sie können diesen Wert ändern.
  7. Um die Verbindungsdetails anzugeben, führen Sie einen der folgenden Schritte aus:
    • Um die JDBC-Konnektivität zu verwenden, geben Sie die folgenden Details an:
      • JDBC-URL: Geben Sie die URL des SuiteAnalytics Connect-Servers ein, der für die Verbindung verwendet werden soll.
      • Benutzer: Geben Sie den Benutzernamen für die Verbindung mit dem Datenserver ein.
      • Geben Sie im Textfeld Kennwort das Kennwort für eine Verbindung mit dem Datenserver ein.
      • Geben Sie im Textfeld Account-ID die Account-ID für die Verbindung mit dem Datenserver ein.
      • Geben Sie im Textfeld Rollen-ID die Rollen-ID für die Verbindung mit dem Datenserver ein.
    • Um die OAuth 2.0-Authentifizierung zu verwenden, klicken Sie auf den Schalter OAuth 2.0, und geben Sie dann die folgenden Details an:
      • Benutzername: Geben Sie den Namen des Benutzers ein, der über Rollenzugriff für die Anmeldung bei NetSuite mit der Verbindung OAuth 2.0 verfügt. Dies ist der Benutzer, dem Sie die benutzerdefinierte Rolle unter Zugriffsberechtigungen konfigurieren, die für das Erstellen von Data Warehouse erforderlich sind zugewiesen haben.
      • Account-ID: Geben Sie die Account-ID für die Verbindung zum Datenserver ein. Sie können diese Informationen abrufen, indem Sie sich beim Account NetSuite anmelden und die Verbindungsinformationen für SuiteAnalytics anzeigen.
      • Rollen-ID: Geben Sie die Rollen-ID für die Verbindung mit dem Datenserver ein. Sie können diese Informationen abrufen, indem Sie sich beim Account NetSuite anmelden und die Verbindungsinformationen für SuiteAnalytics anzeigen.
      • Client-ID: Geben Sie die Client-ID für die Verbindung mit dem Datenserver ein.

        Um die Client-ID abzurufen, erstellen Sie einen Integrationsdatensatz in NetSuite, indem Sie den Ablauf "OAuth 2.0 Clientzugangsdaten" aktivieren. Kopieren und speichern Sie die Client-ID, die beim erfolgreichen Erstellen des Integrationsdatensatzes angezeigt wird.

        Hinweis

        NetSuite unterstützt das RSA PKCSv1.5-Schema für die Tokensignierung für den Clientzugangsdatenfluss in NetSuite OAuth 2.0 nicht mehr. Alle Integrationen, die auf dem RSA PKCSv1.5-Schema basieren, müssen aktualisiert werden, um das RSA-PSS-Schema verwenden zu können. Weitere Informationen finden Sie in der Oracle NetSuite-Dokumentation.
      • Öffentliches Zertifikat und Private Key: Generieren Sie das Schlüsselpaar mit den Befehlen OpenSSL im erforderlichen PEM-Format. Beispiel:

        openssl req -new -x509 -newkey rsa:4096 -keyout private.pem -sigopt rsa_padding_mode:pss -sha256 -sigopt rsa_pss_saltlen:64 -out public.pem -nodes -days 365

        Fügen Sie den Inhalt von public.pem in das Feld "Öffentliches Zertifikat" ein. Fügen Sie den Inhalt von private.pem in das Feld "Private Key" ein.

      • Zertifikats-ID: Geben Sie die Zertifikats-ID für die Verbindung mit dem Datenserver ein.

        Um die Zertifikats-ID abzurufen, verwenden Sie das Setup NetSuite OAuth 2.0 Client Credentials (M2M), um die öffentliche Zertifikatsdatei (auth-cert.pem) zur Zertifikatsschlüsselliste hinzuzufügen und die generierte Zertifikats-ID zu kopieren.

  8. Wenn die Quelle, die Sie für die Zuordnung verwenden möchten, eine gespeicherte Suche ist, müssen Sie auch die folgenden Details in der Extraktion gespeicherter Suchen angeben:
    • Anwendungs-ID: Geben Sie die Anwendungs-ID NetSuite für Datentransformationen ein.
    • Version: Geben Sie die NetSuite-Versionsnummer ein.
  9. Aktivieren Sie das Kontrollkästchen unter Datenmodell erstellen, um vordefinierte Datenflüsse und Workflows zu installieren, die Sie ausführen können, um Daten aus NetSuite zu extrahieren und mit dem Assistenten "Data Warehouse erstellen" in Ihr Oracle-Zielschema zu verschieben.
  10. Klicken Sie auf Verbindung testen, um die hergestellte Verbindung zu testen.
  11. Nachdem Sie alle erforderlichen Verbindungsdetails angegeben haben, klicken Sie auf Erstellen.

    Die neue Verbindung wird hergestellt.

Die neu erstellten Verbindungen werden auf der Seite Verbindungen angezeigt.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
  • Wählen Sie Data Warehouse erstellen aus, um die Funktionsbereiche auszuwählen und das NetSuite Data Warehouse im Zielschema zu erstellen. Weitere Informationen finden Sie unter Build Data Warehouse-Assistent verwenden.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Schema löschen aus, um das Schema zu löschen.
  • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

Sie können auch nach der erforderlichen Verbindung suchen, um die zugehörigen Details anhand der folgenden Filter zu ermitteln:

  • Name der Verbindung.
  • Technologie, die mit der erstellten Verbindung verknüpft ist.

Build Data Warehouse Wizard verwenden

Daten in Ihrem NetSuite-Account werden in Geschäfts- oder Themenbereiche im Analytics Warehouse gruppiert. Mit dem Assistenten "Data Warehouse erstellen" können Sie die Bereiche auswählen, die Sie in das neu erstellte Data Warehouse aufnehmen möchten.

So verwenden Sie den Assistenten zum Erstellen von Data Warehouse:

  1. Klicken Sie auf der Homepage auf die Registerkarte Verbindungen. Die Seite Verbindungen wird angezeigt.
  2. Klicken Sie auf das Aktionssymbol (Symbol "Aktionen") neben der Oracle NetSuite-Verbindung, die Sie zum Erstellen des Data Warehouse verwenden möchten, und klicken Sie auf Data Warehouse erstellen.

    Der Assistent "Data Warehouse erstellen" wird geöffnet.

  3. Wählen Sie in der Dropdown-Liste Verbindung die Autonomous Database-Verbindung aus, in der sich das Zielschema befindet.
  4. In der Dropdown-Liste Staging-Schema werden alle Schemas, die der ausgewählten Verbindung entsprechen, in zwei Gruppen aufgeführt:
    • Vorhandenes Schema (solche, die Sie in Oracle Data Transforms importiert haben)
    • Neues Datenbankschema (solche, die noch nicht importiert wurden)
    Wählen Sie das gewünschte Schema in der Dropdown-Liste aus.
  5. Wählen Sie auch das Zielschema aus.
  6. Klicken Sie auf Weiter.
  7. Wählen Sie die NetSuite-Geschäftsbereiche aus, mit denen Sie Daten aus dem Data Warehouse NetSuite in das Zielschema übertragen möchten.
  8. Klicken Sie auf Speichern.

    Data Transforms startet den Prozess zum Erstellen des Data Warehouse. Klicken Sie im linken Bereich der Homepage auf Jobs, um den Fortschritt des Prozesses zu überwachen. Wenn der Job erfolgreich abgeschlossen wurde, erstellt Data Transforms einen Projektordner, der alle vordefinierten Workflows und Datenflüsse enthält, die Sie ausführen können, um Daten von der NetSuite-Verbindung zu Ihrem Zielschema zu übertragen. Weitere Informationen finden Sie unter Vordefinierte Workflows zum Laden von Daten in das Zielschema ausführen.

Vordefinierte Workflows zum Laden von Daten in das Zielschema ausführen

Wenn der Assistent "Data Warehouse erstellen" erfolgreich abgeschlossen wird, erstellt Data Transforms ein Projekt, das alle vordefinierten Datenflüsse und Workflows enthält, die Sie ausführen können, um Daten aus einer NetSuite-Verbindung zu extrahieren und in das Zielschema zu laden.

So zeigen Sie vordefinierte Workflows an und führen sie aus:

  1. Klicken Sie im linken Bereich der Homepage auf Projekte, und wählen Sie das neu erstellte NetSuite-Projekt aus.
  2. Klicken Sie im linken Fensterbereich auf Workflows. Die folgenden vordefinierten Workflows werden auf der Seite "Projektdetails" aufgeführt:
    • Quelle NetSuite in SDS bereitstellen
    • Transaktion exportieren - Primärschlüssel
    • SDS in Lager laden
    • Löschvorgänge anwenden
    • Alle Workflows
  3. Klicken Sie auf das Symbol "Aktionen" (Symbol "Aktionen") neben dem Workflow, den Sie ausführen möchten, und klicken Sie auf Starten.

    Oracle empfiehlt, dass Sie Alle Workflows ausführen, um alle vordefinierten Workflows auszuführen.

    Um den Status des Workflows anzuzeigen, klicken Sie im linken Fensterbereich des aktuellen Projekts auf Jobs. Wenn der Job erfolgreich abgeschlossen wurde, werden alle Daten aus der NetSuite-Verbindung in das Zielschema geladen.

Oracle Object Storage-Verbindung erstellen

Mit Datentransformationen können Sie Daten aus Oracle Object Storage in Autonomous Database hochladen.

Mit dem Feature für dedizierte OCI Object Storage-Endpunkte können OCI-Kunden sicher auf die Speicher-Buckets zugreifen. Weitere Informationen finden Sie unter Dedizierte Object Storage-Endpunkte. Sie müssen das neue URL-Format verwenden, wenn Sie Object Storage-Verbindungen in Datentransformationen erstellen. Für Benutzer, die bereits eine Object Storage-Verbindung haben, wird die vorhandene URL automatisch auf das neue URL-Format aktualisiert.

Um eine Oracle Object Storage-Verbindung zu erstellen, benötigen Sie einen Oracle Cloud Infrastructure-Benutzernamen und ein Authentifizierungstoken. Informationen zum Generieren des Authentifizierungstokens finden Sie unter Authentifizierungstoken abrufen. Sie müssen diese Details angeben, wenn Sie die Verbindung in Oracle Data Transforms definieren.

Beachten Sie Folgendes:

  • Um Daten mit einer Oracle Object Storage-Verbindung in Datentransformationen zu importieren, müssen Sie eine öffentliche IP-Adresse für den Zugriff auf den Compute Node verwenden. Wenn Sie eine private IP-Adresse für den Zugriff auf den Object Storage-Service verwenden möchten, stellen Sie sicher, dass Sie Zugriff auf das Internet haben.
  • Das unterstützte Dateiformat zum Laden von Daten aus Oracle Object Storage in Autonomous Database und umgekehrt ist CSV.
  • Die unterstützten Datentypen sind "Numerisch", "Doppelt", "Zeichenfolge" und "Datum".
  • Dataloads werden für Oracle Object Storage-Verbindungen nicht unterstützt.
  • Um eine Zuordnung zu Object Storage zu erstellen, muss die Quelltechnologie das Package DBMS_CLOUD unterstützen. Andernfalls verläuft die Zuordnung nicht erfolgreich.
  • Datentransformationen unterstützen keine Realm-übergreifende Konnektivität für Object Storage. Beispiel: Sie können keine Verbindung von Datentransformationen herstellen, die in einer Government Cloud-Region konfiguriert sind, zu Object Storage, das sich in einer kommerziellen Realm befindet.

So definieren Sie eine Oracle Object Storage-Verbindung:

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.
    Die Seite Verbindungen wird angezeigt.
  2. Klicken Sie auf Verbindung erstellen.
    Die Seite Verbindung erstellen wird angezeigt.
  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie die Registerkarte Datenbanken aus.
  4. Wählen Sie Oracle Object Storage als Verbindungstyp aus.
  5. Klicken Sie auf Weiter.
  6. Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Sie können diesen Wert ändern.
  7. Geben Sie die URL in das Textfeld Objektspeicher-URL ein. Sie können die URL in einem der folgenden Formate eingeben:
    • URL mit vollqualifiziertem Domainnamen.

      Beispiel:

      https://<namespace>.swiftobjectstorage.<your-region>.oci.customer-oci.com/v1/<your-namespace>/<your-bucket>
      https://<namespace>.objectstorage.<your-region>.oci.customer-oci.com/n/<your-namespace>/b/<your-bucket>/o
    • Wenn Sie die von der OCI-Konsole bereitgestellte URL verwenden möchten, geben Sie die URL nur bis zum Namen des Buckets an.

      Beispiel:

      https://<namespace>.swiftobjectstorage.<your-region>.oci.customer-oci.com/v1/<your-namespace>/<your-bucket>
      https://<namespace>.objectstorage.<your-region>.oci.customer-oci.com/n/<your-namespace>/b/<your-bucket>/o
    • Wenn Sie Zugangsdaten als Verbindungsmodus (siehe Schritt 6) auswählen, geben Sie die URL bis bucketname/o an

      Beispiel:

      https://<namespace>.objectstorage.<your-region>.oci.customer-oci.com/n/<your-namespace>/b/<your-bucket>/o/
      Hinweis

      Der Zugangsdatenmodus ist nur für Datentransformationen verfügbar, die als separate Listung im Marketplace mit dem Namen Data Integrator: Web Edition verfügbar sind.
    Die Werte für Region, Namespace und Bucket werden basierend auf der angegebenen URL automatisch aufgefüllt.
  8. Führen Sie eine der folgenden Aktionen aus, um den Verbindungsmodus auszuwählen:
    • Wählen Sie Swift-Konnektivität aus, und geben Sie die folgenden Details an:
      • Geben Sie in das Textfeld Benutzername Ihren Oracle Cloud Infrastructure-Benutzernamen ein. Geben Sie für Mandanten, die Identitätsdomains unterstützen, den Domainnamen zusammen mit dem Benutzernamen an. Beispiel: <identity-domain-name>/<username>.
      • Geben Sie im Textfeld Token das Authentifizierungstoken ein.
    • (Dies gilt nur für Datentransformationen, die als separate Listung im Marketplace mit der Bezeichnung Data Integrator: Web Edition verfügbar sind.) Wählen Sie Zugangsdaten aus, und geben Sie die ODI-Zugangsdaten im Textfeld Zugangsdaten eingeben an.

      Sie müssen die Zugangsdaten im Repository und in der Autonomous Database erstellen, die Sie beim Erstellen der Instanz erstellt haben. Wenn Sie einen Datenfluss zum Zuordnen von Daten aus Object Storage zu Autonomous Database erstellen, müssen Sie auch die ODI-Zugangsdaten im Zielschema erstellen. Bevor Sie das Mapping ausführen, müssen Sie den Schritt auswählen und im Bereich "Eigenschaften" die KM-Option Zugangsdaten erstellen auf false setzen. Andernfalls verläuft die auf Zugangsdaten basierende Verbindung nicht erfolgreich.

      Um die Zugangsdaten zu erstellen, führen Sie das folgende Skript aus:

      begin DBMS_CLOUD.create_credential( credential_name => '<Credential name>',
            username => '<oci username>', password => '<auth token>' ); end;
  9. Klicken Sie auf Erstellen.
    Die neue Verbindung wird hergestellt.
  10. Klicken Sie auf Verbindung testen, um die hergestellte Verbindung zu testen.

Die neu erstellten Verbindungen werden auf der Seite Verbindungen angezeigt.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Schema löschen aus, um Schemas zu löschen.
  • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

Sie können auch nach der erforderlichen Verbindung suchen, um deren Details anhand der folgenden Filter zu ermitteln:

  • Name der Verbindung.
  • Technologie, die der erstellten Verbindung zugeordnet ist.

REST-Serververbindungen erstellen

Sie können eine Verbindung zu einem beliebigen REST-Serviceendpunkt herstellen, die Datenentitys in Datentransformationen importieren und sie als Quelle in einem Datenfluss verwenden.

Um einen generischen REST-Connector zu erstellen, müssen Sie die JDBC-URL, den Benutzernamen und das Kennwort angeben, um eine Verbindung zum Endpunkt herzustellen. Sie können auch eine Konfigurationsdatei erstellen und hochladen, die Informationen wie die Authentifizierungsmethoden, Endpunkte und Tabellen enthält, aus denen Sie Datenentitys importieren möchten.

Die Registerkarte Anwendung auf der Seite Verbindung erstellen enthält zwei Verbindungsoptionen zum Erstellen einer generischen REST-Verbindung: "Allgemeine REST- und generische REST-Konfiguration". Dieses Thema enthält die folgenden Abschnitte:

Die neu erstellten Verbindungen werden auf der Seite Verbindungen angezeigt.

Klicken Sie auf das Symbol Aktionen (Symbol "Aktionen") neben der ausgewählten Verbindung, um die folgenden Vorgänge auszuführen:

  • Wählen Sie Bearbeiten aus, um die angegebenen Verbindungsdetails zu bearbeiten.
  • Wählen Sie Verbindung testen aus, um die erstellte Verbindung zu testen.
  • Klicken Sie auf Exportieren, um die Verbindung zu exportieren. Siehe Objekte exportieren.
  • Wählen Sie Schema löschen aus, um Schemas zu löschen.
  • Wählen Sie Verbindung löschen aus, um die erstellte Verbindung zu löschen.

Sie können auch nach der erforderlichen Verbindung suchen, um ihre Details anhand der folgenden Filter zu ermitteln:

  • Name der Verbindung.
  • Technologie, die der erstellten Verbindung zugeordnet ist.

Generische REST-Verbindung erstellen

Um diese Verbindung zu erstellen, müssen Sie die REST-Service-URL angeben und ein temporäres Schema auswählen, in dem Data Transforms nach dem Reverse Engineering-Vorgang Datenentitys erstellen kann.

So definieren Sie eine REST-Serververbindung:

  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.

    Die Seite Verbindungen wird angezeigt.

  2. Klicken Sie auf Verbindung erstellen.

    Auf der Seite Verbindung erstellen werden Folien angezeigt.

  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie die Registerkarte Anwendungen aus.
  4. Wählen Sie als Verbindungstyp Allgemeine Rest aus.
  5. Klicken Sie auf Weiter.
  6. Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Dieser Wert kann bearbeitet werden.
  7. Geben Sie im Textfeld REST-Service-URL die URL des Endpunkts für die REST-Ressourcen ein.
  8. Geben Sie im Textfeld Proxyhost den Hostnamen des Proxyservers ein, der für die Verbindung verwendet werden soll.
  9. Geben sie im Textfeld Proxyport die Portnummer des Proxyservers an.
  10. Geben Sie in das Textfeld Benutzer den Benutzernamen für die Verbindung zum REST-Endpunkt ein.
  11. Geben Sie im Textfeld Kennwort das Kennwort für die Verbindung zum REST-Endpunkt ein.
  12. Wählen Sie eine Verbindung aus der Dropdown-Liste Staging-Verbindung aus. In der Liste werden nur vorhandene Autonomous Database-Verbindungen angezeigt. Um eine andere Verbindung zu verwenden, erstellen Sie die Verbindung, bevor Sie diese Seite aufrufen.
  13. Nachdem Sie alle erforderlichen Verbindungsdetails angegeben haben, klicken Sie auf Verbindung testen, um die Verbindung zu testen.
  14. Klicken Sie auf Erstellen.

    Die neue Verbindung wird hergestellt.

Generische Restverbindung mit einer Konfigurationsdatei erstellen

Gilt für: Anwendbar Datentransformationen, die als separater Eintrag im Marketplace "Data Integrator: Web Edition" verfügbar sind.

Um einen generischen REST-Connector zu erstellen, benötigen Sie die JDBC-URL, den Benutzernamen, das Kennwort und eine Konfigurationsdatei. Die Konfigurationsdatei ist eine Modelldatei mit der Benennungskonvention file_name.rest, die Sie hochladen müssen, wenn Sie eine REST-Serververbindung erstellen. Sie müssen die Endpunkte, Tabellenzuordnungen und die Authentifizierungsmethoden angeben, um die Konfigurationsdatei zu erstellen. Sie können die Konfigurationsdatei mit einem beliebigen Texteditor erstellen.

So definieren Sie eine REST-Serververbindung mit einer Konfigurationsdatei:
  1. Klicken Sie im linken Bereich der Homepage auf die Registerkarte Verbindungen.

    Die Seite Verbindungen wird angezeigt.

  2. Klicken Sie auf Verbindung erstellen.

    Auf der Seite Verbindung erstellen werden Folien angezeigt.

  3. Führen Sie einen der folgenden Schritte aus:
    • Geben Sie im Feld Typ auswählen den Namen oder einen Teil des Namens des Verbindungstyps ein.
    • Wählen Sie die Registerkarte Anwendungen.
  4. Wählen Sie Generische Restkonfiguration als Verbindungstyp aus.
  5. Klicken Sie auf Weiter.
  6. Das Feld Verbindungsname wird vorab mit einem Standardnamen aufgefüllt. Sie können diesen Wert bearbeiten.
  7. Verwenden Sie das Textfeld Konfigurationsdatei, um die zu verwendende Konfigurationsdatei hochzuladen.
  8. Geben Sie im Textfeld JDBC-URL die URL für die Verbindung zum Server ein.
  9. Geben Sie in den Textfeldern Benutzer und Kennwort den Benutzernamen und das Kennwort für die Verbindung mit dem REST-Endpunkt ein. Sie können diese Felder leer lassen, wenn diese Werte nicht anwendbar sind oder bereits in der JDBC-URL angegeben sind.
  10. Nachdem Sie alle erforderlichen Verbindungsdetails angegeben haben, klicken Sie auf Verbindung testen, um die Verbindung zu testen.
  11. Klicken Sie auf Erstellen.

    Die neue Verbindung wird erstellt.