接続の作業
接続は、データ変換をOCIネットワークからアクセス可能な様々なテクノロジに接続するのに役立ちます。
この項では、接続を作成する一般的なステップについて説明します。表示される接続の詳細オプションは、選択した接続タイプによって異なります。
「サポートされている接続タイプ」にリストされている接続タイプ以外に、JDBCでサポートされている任意のデータ・ソースにデータ変換を接続するために使用できるカスタム・コネクタを作成できます。「カスタム・コネクタの作成」を参照してください。
新規接続を作成するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします
「接続の作成」ページがスライドインします。
- 次のいずれかを行います。
- 「タイプの選択」フィールドに、接続タイプの名前を入力します。
- 作成する接続のタイプを選択してください。
- データベース- サポートされているデータベース・タイプの任意の接続タイプを構成できます。
- アプリケーション- サポートされているアプリケーションの任意の接続タイプを構成できます。
- サービス- サポートされているサービスの任意の接続タイプを構成できます。
- 必要な接続タイプを選択した後、「次」をクリックします。
「接続名」フィールドにはデフォルト名が事前に移入されています。この値は編集可能です。
- 「接続の詳細」で、次のような、選択したタイプの接続の詳細を入力します:
- Connection -
- JDBC URL - データ・サーバーに接続するURL。次に例を示します。
jdbc:weblogic:sqlserver://hostname:port[;property=value[;...]]
ノート
パブリック・エンドポイントでAutonomous Databaseからデータ変換にアクセスする場合、許可されるポート番号は2484、1521-1525、1708、3306、80です。モデル・ファイルをドライバとともに提供するautoRESTドライバを使用するコネクタの場合は、そのデータ・ソースへの接続に必要なサーバー名およびその他のプロパティを指定します。次に例を示します。
jdbc:weblogic:autorest://servername;[property=value[;...]]
- ユーザー- (必要に応じて)サーバーに接続するためのユーザー名。
- パスワード- サーバーに接続するためのパスワード。
- JDBC URL - データ・サーバーに接続するURL。次に例を示します。
- 拡張オプション
- 配列フェッチ・サイズ- 大量のデータをデータ・サーバーから読み取る際、Oracle Data Transformsは連続的なレコードのバッチをフェッチします。この値は、Oracle Data Transformsがデータ・サーバーとの1回の通信でリクエストする行(読み取るレコード)の数です。
- バッチ更新サイズ- 大量のデータをデータ・サーバーに書き込む際、Oracle Data Transformsは連続的なレコードのバッチを挿入します。この値は、Oracle Data Transformsが1回のINSERTコマンドで書き込む行(レコード)の数です。
ノート
BLOBデータ型の列を含む表をロードする場合は、「バッチ更新サイズ」を1000以下に設定します。 - ターゲットのパラレル化- この値はロード・タスクに対して許可されるスレッドの数を示します。デフォルト値は1です。許可される最大スレッド数は99です。
ノート
接続の詳細は固有であり、前述のオプションは選択した接続タイプによって異なります。プロビジョニング中に作成されるデフォルト接続の場合、「ユーザー」および「パスワード」フィールドのみが編集可能です。他のすべてのフィールドは無効です。
- Connection -
- 必要なすべての接続の詳細を指定した後、「接続のテスト」をクリックして接続をテストします。
テスト接続に失敗した場合は、次のいずれかを実行します。
- データ変換にアクセスするAutonomous Databaseがプライベート・エンドポイントを使用するように構成されているかどうかをチェックします。
詳細は、「Autonomous Databaseからのプライベート・データ・ソースへのアクセスの有効化」を参照してください。
- プライベート・エンドポイント上のAutonomous Databases間の接続が「サーバー証明書DNとの不一致」エラーで失敗した場合は、JDBC URLで
ssl_server_dn_match=yes
プロパティを指定したかどうかを確認します。詳細は、「サーバー証明書DNエラーによる不一致のトラブルシューティング」を参照してください。
- データ変換にアクセスするAutonomous Databaseがプライベート・エンドポイントを使用するように構成されているかどうかをチェックします。
- 「作成」をクリックします
新しい接続が作成されます。
新規に作成した接続が「接続」ページに表示されます。
次の操作を実行するには、選択した接続の横にある「アクション」アイコン()をクリックします:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして、接続をエクスポートします。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
トピック
- サポートされる接続タイプ
このトピックでは、データ変換に接続するためにサポートされる接続タイプを示します。 - カスタム・コネクタの作成
Oracle Data Transformsの「管理」タブの「カスタム接続」ページでは、JDBCでサポートされているデータ・ソースを指すカスタム・コネクタを作成できます。 - リモート・データ・ロード用のデータ変換接続の作成
既存のデータ変換インスタンスに接続し、データ・ロードをリモートで実行できます。 - Apache Iceberg接続の作成
Apache Icebergは、大規模な分析データセットを管理するために最適化されたオープン標準表形式です。Data Transformsでは、任意のSQLベースのデータ・ソースからデータをロードするためのターゲットとしてApache Icebergの使用がサポートされています。 - デルタ共有接続の作成
Databricks Delta Shareは、セキュアなデータ共有のためのオープン・プロトコルです。Oracle Data Transformsは、デルタ共有と統合され、Oracle Autonomous Databaseにデータをロードします。デルタ共有接続を使用して、DatabricksまたはOracle Data Shareからデータをロードできます。 - Oracle Business Intelligence Cloud Connector接続の作成
Oracle Business Intelligence Cloud Connector (BICC)を使用すると、データ・ソースからビジネス・データを抽出し、Autonomous Databaseにロードできます。 - Oracle Cloud Infrastructure Generative AI接続の作成と使用
Oracle Cloud Infrastructure (OCI) Generative AIを使用すると、組織はテキスト要約と動的コンテンツ生成を自動化できます。データ変換はOCI生成AIと統合され、データ・フローへのベクトルの埋込みの使用をサポートします。 - Oracle Enterprise Resource Planning Cloud接続の作成
Oracle Enterprise Resource Planning (ERP) Cloudは、会計、財務管理、プロジェクト管理、調達、リスク管理などの機能を管理するためのクラウド・ベースのエンドツーエンドのSoftware as a Service (SaaS)スイートです。データ変換Oracle ERP Cloudコネクタを使用すると、ERP Cloudサーバーからレポート・データを抽出してAutonomous Databaseにロードできます。 - Oracle Financials Cloud接続の作成
Oracle Financials CloudのRESTエンドポイントからリアルタイムのトランザクション・データをフェッチし、データ・エンティティをデータ変換にインポートして、データ・フローのソースとして使用できます。 - Oracle NetSuite接続の作成と使用
Oracle NetSuite JDBCドライバまたはOAuth 2.0認証を使用して、Oracle NetSuiteアプリケーションに接続できます。Oracle NetSuite接続の場合、データ変換では、NetSuiteからターゲット・スキーマにデータを転送するために実行できる事前構築済のデータ・フローおよびワークフローをロードできます。 - Oracle Object Storage接続の作成
データ変換を使用して、Oracle Object StorageからAutonomous Databaseにデータをアップロードできます。 - RESTサーバー接続の作成
任意のRESTサービス・エンドポイントへの接続、データ・エンティティへのインポート、およびデータ・フローのソースとして使用できます。
親トピック: 「データ変換」ページ
サポートされている接続タイプ
このトピックでは、データ変換への接続でサポートされている接続タイプを示します。
データ保護のFIPSコンプライアンス標準をサポートするには、政府のクラウド・リージョンが必要です。政府レルムのデータ変換は、FIPS 140-2 Level 1に準拠しています。サーバー間のセキュアな通信を確保するために、接続ソースがFIPSに準拠していることを確認してください。
適用先:

- ドライバのインストールが必要なコネクタの場合、接続を追加する前に、jarファイルを
/u01/oracle/transforms_home/userlibs
ディレクトリにコピーする必要があります。 - ここに示されている接続タイプ以外に、JDBCでサポートされている任意のデータ・ソースにデータ変換を接続するために使用できるカスタム・コネクタを作成できます。「カスタム・コネクタの作成」を参照してください。
名前 | タイプ | Data Integrator: Web Editionのサポート | Autonomous Databaseに組み込まれたデータ変換でのサポート | OCI GoldenGateに組み込まれたデータ変換でサポート | 書込み操作のサポート | 認証モード: 接続URLの例 | ノート |
---|---|---|---|---|---|---|---|
Aha! | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=https://{yourdomain}.aha.io; AuthenticationMethod=OAuth2; clientid=**********;clientsecret=*************; authuri=https://{yourdomain}.aha.io/oauth/authorize; tokenuri=https://{yourdomain}.aha.io/oauth/token; redirectUri=http://localhost; |
|
アレフ | アプリケーション | はい | はい | はい | いいえ | URLParameter: jdbc:weblogic:autorest:ServerName=https://apiv2.ahrefs.com;AuthenticationMethod=URLParameter;SecurityToken=xxxxxxxx;AuthParam=token; |
|
Amazon Aurora | データベース | はい | はい | はい | はい |
|
|
Amazon EMR Hive | データベース | はい | はい | はい | いいえ |
|
|
Amazon Redshift | データベース | はい | はい | はい | はい | jdbc:weblogic:redshift://server_name:port_number;DatabaseName=database_name;[property=value[;...]]; User: [Mandatory] Password: [Mandatory] |
|
Apache Hive | データベース | はい | はい | はい | いいえ |
|
|
Apache Iceberg | データベース | はい | はい | はい | はい |
サポートされている認証モードは、「なし」、「簡易」および「OAuth2.0」です。 http://<host>:<port>/iceberg |
Apache Icebergを使用した接続の作成の詳細は、Apache Iceberg接続の作成を参照してください。 |
Apache Impala | データベース | はい | はい | はい | いいえ |
|
|
Apache Spark SQL | データベース | はい | はい | はい | いいえ |
|
|
AWS S3 | データベース | はい | はい | はい | いいえ | AWS: jdbc:weblogic:autorest:AuthenticationMethod=AWS;servicename=s3;accesskey=*******;secretkey=*******; |
|
Azure請求 | アプリケーション | はい | はい | はい | いいえ | jdbc:weblogic:autorest://servername;[property=value[;...]]; |
|
Azureコンピュート | データベース | はい | はい | はい | いいえ | jdbc:weblogic:autorest://servername;[property=value[;...]] |
|
Azure Data Lake Storage | データベース | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest: ServerName=https://{accountName}.dfs.core.windows.net;AuthenticationMethod=OAuth2;ClientID=xxxxxxxx;ClientSecret=xxxxxxxx; RefreshToken=xxxxxxxx;Scope=https://storage.azure.com/user_impersonation offline_access;TokenURI=https://login.microsoftonline.com/{tenantID}/oauth2/v2.0/token;AuthorizationURI=https://login.microsoftonline.com/{tenantID}/oauth2/v2.0/authorize;RedirectURI: http://localhost; |
|
Azure予約済VMインスタンス | データベース | はい | はい | はい | いいえ | jdbc:weblogic:autorest://servername;[property=value[;...]]; |
|
Azureリソース・ヘルス | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:ServerName=https://management.azure.com;AuthenticationMethod=OAuth2;TenantId=xxxxxxxx;ClientID=xxxxxxxx;ClientSecret=xxxxxxxx;AccessToken=xxxxxxxx;RefreshToken=xxxxxxxx;Scope=https://management.azure.com/.default offline_access;TokenURI=https://login.microsoftonline.com/{tenantId}/oauth2/token;RedirectURI=http://localhost/; |
|
Azure SQL Database | データベース | はい | はい | はい | はい |
|
|
Azure Synapse Analytics | データベース | はい | はい | はい | はい |
|
|
BigCommerce | アプリケーション | はい | はい | はい | いいえ | HTTPHeader: jdbc:weblogic:autorest:servername=https://api.bigcommerce.com/stores/{store_hash};AuthenticationMethod=HTTPHeader;securitytoken=**************;authheader=X-Auth-Token; |
|
Cassandra | データベース | はい | はい | はい | はい |
|
|
Cloudera CDH Hive | データベース | はい | はい | はい | いいえ |
|
|
Confluenceクラウド | データベース | はい | はい | はい | いいえ | 基本: jdbc:weblogic:autorest:servername=https://<your-domain.atlassian.net>;authenticationmethod=Basic; |
|
データ変換 | サービス | はい | はい | はい | いいえ | - | 既存のデータ変換インスタンスに接続する手順は、リモート・データ・ロード用のデータ変換接続の作成を参照してください。 |
DataStax | アプリケーション | はい | はい | はい | はい |
|
ここで、 |
デルタ共有 | アプリケーション | はい | はい | はい | いいえ | - | デルタ共有を使用して接続を作成する手順は、デルタ共有接続の作成を参照してください |
DocuSign | データベース | はい | はい | はい | いいえ |
|
|
eBay | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:ServerName=https://api.eBay.com;AuthenticationMethod=OAuth2;ClientID=NameHere-APIUserA-BCD-1234e5f6g-h7i8j890;ClientSecret=xxxxxxxx;AccessToken=xxxxxxxx;RefreshToken=xxxxxxxx;Scope=https://api.eBay.com/oauth/api_scopeTokenURI=https://api.eBay.com/identity/v1/oauth2/tokenRedirectURI=http://localhost/; |
|
EnterpriseDB | データベース | はい | はい | はい | はい |
|
|
FinancialForce | アプリケーション | はい | はい | はい | はい |
|
|
FourSquare | アプリケーション | はい | はい | はい | いいえ |
|
|
汎用残り | アプリケーション | はい | はい | はい | いいえ | - | RESTサービス・エンドポイントに接続して接続を作成する方法の詳細は、RESTサーバー接続の作成を参照してください。 |
汎用Rest構成 | アプリケーション | はい | いいえ | いいえ | いいえ | OAuth2: jdbc:weblogic:autorest: ServerName=https://{accountName}.dfs.core.windows.net;AuthenticationMethod=OAuth2;ClientID=xxxxxxxx;ClientSecret=xxxxxxxx; RefreshToken=xxxxxxxx;Scope=https://storage.azure.com/user_impersonation offline_access;TokenURI=https://login.microsoftonline.com/{tenantID}/oauth2/v2.0/token;AuthorizationURI=https://login.microsoftonline.com/{tenantID}/oauth2/v2.0/authorize;RedirectURI: http://localhost; |
RESTサービス・エンドポイントに接続して接続を作成する方法の詳細は、RESTサーバー接続の作成を参照してください。 |
GitHub | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:clientId=123a4b567c8901234567d8901e234fg5;clientSecret=**************;authUri=https://github.com/login/oauth/authorize;AuthenticationMethod=OAuth2; tokenUri=https://github.com/login/oauth/access_token;redirectUri=http://localhost;authenticationMethod=OAuth2;refreshtoken=**************; |
|
Google広告 | アプリケーション | はい | いいえ | いいえ | ドライバに依存 | jdbc:weblogic:autorest://servername;[property=value[;...]]; |
ドライバのインストールが必要 |
Google AdSense | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=https://adsense.googleapis.com/v2;clientId=123456789012-abc123def456ghi789jkl012mno345pq.apps.googleusercontent.com;clientSecret=**************;authUri=https://accounts.google.com/o/oauth2/auth;tokenUri=https://oauth2.googleapis.com/token;redirectUri=http://localhost;AuthenticationMethod=OAuth2;scope=https://www.googleapis.com/auth/adsense;refreshtoken=**************; |
|
Google Analytics | アプリケーション | はい | はい | はい | いいえ |
|
|
Google BigQuery | データベース | はい | はい | はい | いいえ |
|
|
Google Calendar | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=https://www.googleapis.com/calendar/v3; clientId=123456789012-abc123def456ghi789jkl012mno345pq.apps.googleusercontent.com; clientSecret=**************; authUri=https://accounts.google.com/o/oauth2/auth; tokenUri=https://accounts.google.com/o/oauth2/token; redirectUri=http://localhost; AuthenticationMethod=OAuth2; scope=https://www.googleapis.com/auth/calendar https://www.googleapis.com/auth/calendar.readonly https://www.googleapis.com/auth/calendar.eventshttps://www.googleapis.com/auth/calendar.events.readonly https://www.googleapis.com/auth/calendar.settings.readonly https://www.googleapis.com/auth/calendar.addons.execute; authuri=https://accounts.google.com/o/oauth2/auth; tokenuri=https://accounts.google.com/o/oauth2/token; refreshtoken=**************; |
|
Googleキャンペーン・マネージャ | アプリケーション | はい | はい | はい | いいえ | jdbc:weblogic:autorest://servername;[property=value[;...]]; |
|
Googleコンタクト | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=people.googleapis.com/v1; clientId=123456789012-abc123def456ghi789jkl012mno345pq.apps.googleusercontent.com; clientSecret=**************; authUri=https://accounts.google.com/o/oauth2/auth; tokenUri=https://accounts.google.com/o/oauth2/token; redirectUri=http://localhost; AuthenticationMethod=OAuth2; scope=https://www.googleapis.com/auth/contacts.other.readonly https://www.googleapis.com/auth/contactshttps://www.googleapis.com/auth/contacts.readonly https://www.googleapis.com/auth/directory.readonlyhttps://www.googleapis.com/auth/profile.agerange.read https://www.googleapis.com/auth/profile.emails.readhttps://www.googleapis.com/auth/profile.language.read https://www.googleapis.com/auth/user.addresses.readhttps://www.googleapis.com/auth/user.birthday.read https://www.googleapis.com/auth/user.emails.readhttps://www.googleapis.com/auth/user.gender.read https://www.googleapis.com/auth/user.organization.readhttps://www.googleapis.com/auth/user.phonenumbers.read https://www.googleapis.com/auth/userinfo.emailhttps://www.googleapis.com/auth/userinfo.profile; refreshtoken: **************; |
|
Googleドライブ | データベース | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=https://www.googleapis.com/drive/v3; clientId=123456789012-abc123def456ghi789jkl.apps.googleusercontent.com;clientSecret=**************; authUri=https://accounts.google.com/o/oauth2/auth;tokenUri=https://accounts.google.com/o/oauth2/token; redirectUri=http://localhost;AuthenticationMethod=OAuth2;scope=https://www.googleapis.com/auth/drive; refreshtoken=**************; |
|
Google検索広告360 | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=https://www.googleapis.com/doubleclicksearch/; clientId: 372185870949-v1f1h94mvnad4hkajr4tonlia51vtj2n.apps.googleusercontent.com; clientSecret: **************; authUri: https://accounts.google.com/o/oauth2/auth; tokenUri: https://oauth2.googleapis.com/token; redirectUri: http://localhost;AuthenticationMethod:OAuth2; scope: https://www.googleapis.com/auth/doubleclicksearch; refreshtoken: **************; |
|
Greenplum | データベース | はい | はい | はい | いいえ |
|
|
Hortonworks Hive | データベース | はい | はい | はい | いいえ |
|
|
HubSpot | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:hubspot:AuthenticationMethod=OAuth2;ClientID=<CLIENT_ID>;ClientSecret=<CLIENT_SECRET>;AccessToken=<ACCESS_TOKEN>; |
|
Hypersonic SQL | データベース | はい | はい | はい | はい | jdbc:hsqldb:.;ifexists=true[;<property>=<value>...] |
|
IBM BigInsights | データベース | はい | はい | はい | いいえ |
|
|
ホストされるIBM DB2 | データベース | はい | はい | はい | はい |
|
|
IBM DB2 UDB | データベース | はい | はい | はい | はい |
|
|
IBM DB2ウェアハウス | データベース | はい | はい | はい | はい |
|
|
イブム DB2/400 | データベース | はい | はい | はい | はい |
|
|
Informix | データベース | はい | はい | はい | いいえ |
|
|
ジラ | アプリケーション | はい | はい | はい | いいえ | 基本: jdbc:weblogic:autorest:servername=https://your-domain.atlassian.net;AuthenticationMethod=Basic; |
|
クラヴィヨ | アプリケーション | はい | はい | はい | いいえ | URLParameter: jdbc:weblogic:autorest:servername=https://a.klaviyo.com/api;AuthenticationMethod=URLParameter;securitytoken=*****;authparam=api_key; |
|
Magento | アプリケーション | はい | いいえ | いいえ | ドライバに依存 | jdbc:weblogic:autorest://servername;[property=value[;...]]; |
ドライバのインストールが必要 |
Mailchimp | アプリケーション | はい | はい | はい | いいえ | BearerToken: jdbc:weblogic:autorest:servername=us20.api.mailchimp.com;AuthenticationMethod=BearerToken;securitytoken=*******; |
|
MapR Hive | データベース | はい | はい | はい | いいえ |
|
|
Marketo | アプリケーション | はい | はい | はい | いいえ |
|
|
Microsoft Dynamics 365 | アプリケーション | はい | はい | はい | はい |
|
|
Microsoft SharePoint | アプリケーション | はい | はい | はい | はい | 基本: jdbc:weblogic:sharepoint:ServiceURL=serviceurl; AuthenticationMethod=Basic;ClientID=client_id; ClientSecret=client_secret;TokenURI=token_uri;RefreshToken=refresh_token; [property=value[;...]]; User: [Ignored] Password: [Ignored] |
|
Microsoft SQL Server | データベース | はい | はい | はい | はい |
|
|
モンゴDB | データベース | はい | はい | はい | はい |
|
|
MySQL | データベース | はい | はい | はい | はい | jdbc:mysql://<host>[:<port>]/[<database>]?relaxAutoCommit=true&useCursorFetch=true[&<property>=<value>...] |
システム変数のプロパティsql_require_primary_key が「オフ」に設定されていることを確認してください。そうしないと、ADWからMySQLへのマッピングが「表が存在しません」エラーで失敗しました。
|
MySQL熱波 | データベース | はい | はい | はい | はい | jdbc:mysql://<host>[:<port>]/[<database>]?relaxAutoCommit=true&useCursorFetch=true[&<property>=<value>...] |
MySQL Heatwaveデータベースが高可用性で作成されている場合、書込み操作はサポートされません。 システム変数のプロパティ |
Netezza | データベース | はい | いいえ | いいえ | ドライバに依存 | - | Oracle Data Transformsでは、Netezza JDBCを使用してNCR Netezzaデータベースに接続します。このドライバは、データ変換のuserlibs ディレクトリにインストールする必要があります。Netezza JDBCドライバは、IBMのWebサイトからダウンロードできます。
|
Oracle | データベース | はい | はい | はい | はい |
|
Data Integrator Web Editionの場合、書込み操作はOracleクラウド・データベース・ターゲットでのみサポートされます。詳細は、OCIマーケットプレイスからイメージをデプロイする前に、Oracleの使用条件を参照してください。 |
Oracle Analytics Cloud | アプリケーション | はい | はい | はい | いいえ | - | |
Oracle Business Intelligence Cloud (BICC)コネクタ | アプリケーション | はい | はい | はい | いいえ | - | Oracle Business Intelligence Cloud (BICC) Connectorを使用した接続の作成の詳細は、「Oracle Business Intelligence Cloud Connector接続の作成」を参照してください。 |
Oracle EBS | アプリケーション | はい | はい | はい | はい | jdbc:oracle:thin:@<host>:<port>:<sid> |
|
Oracle ERP Cloud | アプリケーション | はい | はい | いいえ | いいえ | Oracle ERP Cloudを使用した接続の作成の詳細は、「Oracle Enterprise Resource Planning Cloud接続の作成」を参照してください。 | |
Oracle Financials Cloud | アプリケーション | はい | はい | はい | いいえ | - | Oracle Financials Cloudを使用した接続の作成の詳細は、Oracle Financials Cloud接続の作成を参照してください。 |
Oracle Fusion ERP | アプリケーション | はい | はい | はい | いいえ | - | |
Oracle Fusion Sales | アプリケーション | はい | はい | はい | いいえ | - | |
Oracle Fusion Service | アプリケーション | はい | はい | はい | いいえ | - | |
Oracle GoldenGate - OCI | サービス | はい | はい | はい | はい | - | |
Oracle Marketing Cloud | アプリケーション | はい | はい | はい | はい | jdbc:weblogic:eloqua:Company=<company_id>;[;property=value[;...]] |
|
Oracle NetSuite | アプリケーション | はい | はい | はい | いいえ | jdbc:ns://{Server Host}:{Server Port};ServerDataSource={Server Data Source}; |
Oracle Netsuiteを使用した接続の作成の詳細は、Oracle NetSuite接続の作成および使用を参照してください。 |
Oracle Object Storage | データベース | はい | はい | はい | はい | - | Oracleオブジェクト・ストレージを使用した接続の作成の詳細は、Oracle Object Storage接続の作成を参照してください。 |
Oracle People Soft | アプリケーション | はい | はい | はい | いいえ | jdbc:oracle:thin:@<host>:<port>:<sid> |
|
Oracle Sales Cloud | アプリケーション | はい | はい | はい | いいえ | jdbc:weblogic:oraclesalescloud://<base_url>;WSCompressData=none |
|
Oracle Service Cloud | アプリケーション | はい | はい | はい | いいえ | jdbc:weblogic:oracleservicecloud:loginHost=host;[property=value[;...]] |
Oracle Data TransformsでOracle Service Cloudに複数のJDBC接続を使用する場合は、競合を回避するために各接続が一意に識別されるようにします。これを行うには、JDBC URLに 例
ここで、<UniqueValue>は環境ごとに一意の値です。たとえば、 これにより、環境ごとに個別の構成ファイルを使用できます。 |
Oracle SIEBEL | アプリケーション | はい | はい | はい | いいえ | jdbc:oracle:thin:@<host>:<port>:<sid> |
|
PayPal | アプリケーション | はい | はい | はい | いいえ | 基本: jdbc:weblogic:autorest: ServerName=https://api-m.sandbox.paypal.com;AuthenticationMethod=Basic; |
|
Pivotal HD | データベース | はい | はい | はい | いいえ | - | |
ピボタルHDB | データベース | はい | はい | はい | いいえ |
|
|
PostgreSQL | データベース | はい | はい | はい | はい |
|
|
Qmetry | アプリケーション | はい | はい | はい | いいえ | URLParameter: jdbc:weblogic:autorest:servername=https://qtmcloud.qmetry.com;AuthenticationMethod=URLParameter;securitytoken=*****;authparam=apiKey; |
|
QuickBooksオンライン | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=https://sandbox-quickbooks.api.intuit.com/v3/company/+++++; clientId: AB8oHGUgVpXQnqKehrhBrnnIEQ7vNa7YI4UOr6LEX1Ja6dx0CL; clientSecret: **************; authUri: https://appcenter.intuit.com/connect/oauth2; tokenUri: https://oauth.platform.intuit.com/oauth2/v1/tokens/bearer; redirectUri: http://localhost; AuthenticationMethod: OAuth2; refreshtoken: **************; |
|
QuickBooks支払 | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=https://sandbox.api.intuit.com; clientId=ABCd1efGH2Ijkl3mN4OPQrsTu5vWxyZa6bCdEFgHijk7LMnOpQ;clientSecret=**************; authUri=https://appcenter.intuit.com/connect/oauth2; tokenUri=https://oauth.platform.intuit.com/oauth2/v1/tokens/bearer;redirectUri=http://localhost; AuthenticationMethod=OAuth2;scope=com.intuit.quickbooks.payment;refreshtoken=**************; |
|
Quora Ads | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:ServerName=api.quora.com/ads;AuthenticationMethod=OAuth2;ClientID=xxxxxxxx;ClientSecret=xxxxxxxx;AccessToken=xxxxxxxx;Scope=ads_read; |
|
Sage | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=api.accounting.sage.com;clientId:************;clientSecret:**************;authUri:https://www.sageone.com/oauth2/auth/central?filter=apiv3.1;tokenUri:https://oauth.accounting.sage.com/token,redirectUri: http://localhost;AuthenticationMethod: OAuth2; scope: full_access; refreshtoken: **************; |
|
Salesforce Chatter | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=progresscom4-dev-ed.my.salesforce.com/services/data/v52.0; AuthenticationMethod=OAuth2; clientid=3MVG9SOw8KERNN08IkuAFNRo0MZbipoL4zeEhQzdT4IrNnqW7_UBvm1K7vZ4Y_OzbNxFn0.nJSfVBdqQuh4IL; clientsecret=**************; refreshtoken=**************; scope=full refresh_token; authuri=https://login.salesforce.com/services/oauth2/authorize; tokenuri=https://login.salesforce.com/services/oauth2/token; |
|
Salesforce.com | アプリケーション | はい | はい | はい | はい |
|
|
SAP BW/4HANA | データベース | はい | はい | はい | いいえ |
|
|
SAP HANA | アプリケーション | はい | はい | はい | いいえ |
|
|
SAP NetWeaver | データベース | はい | はい | はい | いいえ |
|
|
SAP S-4HANAクラウド | アプリケーション | はい | はい | はい | いいえ |
|
|
セラッシュ | アプリケーション | はい | はい | はい | いいえ | jdbc:weblogic:autorest://servername;[property=value[;...]]; |
|
ServiceNow | サービス | はい | はい | はい | いいえ | OAuth2:jdbc:weblogic:autorest:servername=instance.service-now.com/api; clientId=123a4b567c8901234567d8901e234fg5;clientSecret=**************; authUri=https://instance.service-now.com/oauth_auth.do; tokenUri=https://instance.service-now.com/oauth_token.do;redirectUri=http://localhost; AuthenticationMethod=OAuth2;refreshtoken=**************; |
|
Shopify | アプリケーション | はい | はい | はい | いいえ | jdbc:weblogic:autorest://servername;[property=value[;...]]; |
|
Snowflake | データベース | はい | はい | はい | はい | 基本: jdbc:weblogic:snowflake:AccountName=account_name;DatabaseName=database_name;Schema=schema_name;Warehouse=warehouse_name;[property=value[;...]]; |
|
四角形 | アプリケーション | はい | はい | はい | いいえ | BearerToken: jdbc:weblogic:autorest:servername=sandbox.api.intuit.com;AuthenticationMethod:BearerToken;securitytoken=**************************; |
|
Stripe | アプリケーション | はい | はい | はい | いいえ | BearerToken: jdbc:weblogic:autorest:servername=https://api.stripe.com;AuthenticationMethod=BearerToken;securitytoken=**************************; |
|
SAP Sybase ASE | データベース | はい | はい | はい | はい | jdbc:weblogic:sybase://hostname:port[;property=value[;...]] |
|
SAP Sybase IQ | データベース | はい | はい | はい | はい | jdbc:weblogic:sybase://hostname:port[;property=value[;...]] |
|
Sybase As Anywhere | データベース | はい | はい | はい | はい | jdbc:weblogic:sybase://hostname:port[;property=value[;...]] |
|
TeamCity | アプリケーション | はい | はい | はい | いいえ | BearerToken: jdbc:weblogic:autorest:ServerName=https://{your_teamcity_servername}.com;AuthenticationMethod=BearerToken;SecurityToken=Ab12cdEfG3HIJkL.MNOpQRStuvWX4yZabcD56cD7eF8GHiJ90Klm.nOpqRst2u3VWxYZabC4DEfGhIjk; |
|
Teradata | Database | はい | いいえ | いいえ | ドライバに依存 | jdbc:weblogic:teradata://<host>:<port>/<database>[;property=value[;...]] |
データ変換では、Teradata JDBCドライバを使用してTeradataデータベースに接続します。Teradataをデータ・ソースとして使用するには、Teradata Gateway for JDBCが実行されていて、このドライバがデータ変換のuserlibs ディレクトリにインストールされている必要があります。JDBCドライバは、TeradataのWebサイトからダウンロードできます。
|
Teradata 17+ | データベース | はい | いいえ | いいえ | ドライバに依存 | - | データ変換では、Teradata JDBCドライバを使用してTeradataデータベースに接続します。Teradataをデータ・ソースとして使用するには、Teradata Gateway for JDBCが実行されていて、このドライバがデータ変換のuserlibs ディレクトリにインストールされている必要があります。JDBCドライバはTeradataのWebサイトからダウンロードできます。
|
Tumblr | アプリケーション | はい | はい | はい | いいえ | jdbc:weblogic:autorest://servername;[property=value[;...]] |
|
Veeva CRM | アプリケーション | はい | はい | はい | はい |
|
|
ボリュージョン | アプリケーション | はい | はい | はい | いいえ | jdbc:weblogic:autorest://servername;[property=value[;...]] |
|
ウィスティア | アプリケーション | はい | はい | はい | いいえ | 基本: jdbc:weblogic:autorest:servername=https://api.wistia.com;authenticationmethod=Basic; |
|
WooCommerce | アプリケーション | はい | いいえ | いいえ | ドライバに依存 | jdbc:weblogic:autorest://servername;[property=value[;...]]; |
ドライバのインストールが必要 |
WordPress | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=public-api.wordpress.com/rest/v1.1;AuthenticationMethod=OAuth2;clientid=*****;clientsecret=*********;accesstoken=**********;scope=global;oauthcode=**********;authuri=https://public-api.wordpress.com/oauth2/authorize;tokenuri=https://public-api.wordpress.com/oauth2/token; |
|
Workday | アプリケーション | はい | いいえ | いいえ | ドライバに依存 | jdbc:weblogic:autorest://servername;[property=value[;...]]; |
ドライバのインストールが必要 |
X | アプリケーション | はい | はい | はい | いいえ | - | |
Xero | アプリケーション | はい | はい | はい | いいえ | jdbc:weblogic:autorest://servername;[property=value[;...]] |
|
Yelp | アプリケーション | はい | はい | はい | いいえ | BearerToken: jdbc:weblogic:autorest:servername=https://api.yelp.com/v3;AuthenticationMethod=BearerToken;securitytoken=**************************; |
|
Zendesk | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=https://example.zendesk.com;AuthenticationMethod=OAuth2;clientid=client_id_zendesk; clientsecret=********; scope=read write;authuri=/oauth/authorizations/new; tokenuri=/oauth/tokens; |
|
Zoho CRM | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:AuthenticationMethod=OAuth2;clientid=a1234bc567d89e01f23g; clientsecret: ******************;scope=ZohoCRM.settings.ALL,ZohoCRM.modules.ALL,ZohoCRM.notifications.ALL,ZohoCRM.org.READ,ZohoCRM.users.READ,ZohoCRM.settings.roles.READ,ZohoCRM.settings.profiles.READ,ZohoCRM.modules.Contacts.READ, ZohoSearch.securesearch.READ; authuri=https://accounts.zoho.com/oauth/v2/auth;tokenuri=https://accounts.zoho.com/oauth/v2/token;redirecturi=http://localhost; refreshToken=********************; |
|
ズーム | アプリケーション | はい | はい | はい | いいえ | OAuth2: jdbc:weblogic:autorest:servername=https://api.zoom.us/v2;clientId=0aBcDeF_GhI2j_KlMnOpQr;clientSecret=**************;authUri=https://zoom.us/oauth/authorize;tokenUri=https://zoom.us/oauth/token;redirectUri=http://localhost;AuthenticationMethod=OAuth2;accesstoken:**************; |
親トピック: 接続の使用
カスタム・コネクタの作成
適用先: Data Integrator: Web Editionというマーケットプレイスで別個のリストとして利用できるデータ変換。
新しいコネクタを作成するには:
- 左側のペインで、「管理」をクリックします。
警告メッセージが表示されます。
- 「続行」をクリックします。
- 左側のペインで、「カスタム接続」をクリックします。
「カスタム接続」画面が表示されます。
- 「接続タイプの作成」をクリックします。
「接続タイプの作成」ページが表示されます。
- 「カテゴリ」ドロップダウンから、データベース、アプリケーションまたはサービスのいずれかを作成する接続のタイプを選択します。
- 接続の名前を入力します。
- ソース接続のJDBCドライバーの名前を入力します。たとえば、
oracle.jdbc.OracleDriver
です。ノート
ドライバのインストールが必要なコネクタの場合は、接続を追加する前に、jarファイルを/u01/oracle/transforms_home/userlibs
ディレクトリにコピーする必要があります。 - 「OK」をクリックします
リストに新しく作成したカスタム接続が表示され、「接続の作成」ページで使用できます。
次の操作を実行するには、選択した接続の横にある「アクション」アイコン()をクリックします:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 「エクスポート」をクリックすると、接続をエクスポートできます。「オブジェクトのエクスポート」を参照してください。
- 作成した接続を削除するには、「削除」を選択します。
ノート
既存の接続を持つカスタム・コネクタは削除できません。
親トピック: 接続の使用
リモート・データ・ロード用のデータ変換接続の作成
既存のデータ変換インスタンスに接続し、データ・ロードをリモートで実行できます。
データ変換接続を定義するには:
新規に作成した接続が「接続」ページに表示されます。
次の操作を実行するには、選択した接続の横にある「アクション」アイコン()をクリックします:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックすると、接続をエクスポートできます。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
親トピック: 接続の使用
Apache Iceberg接続の作成
Apache Icebergは、大規模な分析データセットを管理するために最適化されたオープンな標準テーブル形式です。Data Transformsでは、任意のSQLベースのデータ・ソースからデータをロードするためのターゲットとしてApache Icebergの使用がサポートされています。
データ変換では、Oracle Object Storage (S3互換性)およびAWS S3ストレージ・サービスがサポートされ、Apache Iceberg表のparquetファイルが格納されます。
Data Transforms Apache Icebergコネクタでは、RESTカタログがすでに存在している必要があります。このRESTカタログは、Iceberg Open API仕様のApache Gravitino (外部リンク)に基づいて設定されます。
データ変換では、RESTサービスを起動するためにApache Gravitinoバージョン0.7.0インキュベート以下の使用がサポートされています。
Apache Iceberg接続の作成
REST URLおよび認証詳細(ユーザー名とパスワードなど)を指定することで、Iceberg RESTカタログとのApache Iceberg接続を構成できます。また、よりセキュアなOAuth 2.0認証を使用して接続を作成することもできます。
Apache Iceberg接続を作成するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします
「接続の作成」ページが表示されます。
- 次のいずれかを行います。
- 「タイプの選択」フィールドに、接続タイプの名前を入力します。
- 「データベース」タブを選択します。
- 接続タイプとして「Apache Iceberg」を選択します。
- 「次へ」をクリックします
- 「接続名」フィールドにはデフォルト名が事前に移入されています。この値は編集可能です。
- 「カタログ名」テキスト・ボックスに名前を入力します。
- 「URLの保存」テキスト・ボックスに、RESTサーバーのURLを入力します。
<host>:<port>/<ServiceName>/iceberg
形式で値を入力します。 - 「認証」ドロップダウン・セクションで、次のいずれかを実行します:
- 「なし」を選択します。
- 「簡易」を選択し、「Rest User」および「Rest Password」を入力します。
- OAuthを選択し、次の詳細を入力します:
- 倉庫の場所: データを格納する場所。たとえば、
s3://my-bucket/my/table/location
です - トークンURI: OAuthトークンを
http://<host>:<port>
の形式で取得するためのURL - トークン・パス: OAuthトークンのパス。たとえば、
/oauth2/token
です。 - クライアントID: OAuthクライアントID。
- Client Secret: OAuthクライアント・シークレット。
- 認証スコープ: Gravitinoサーバーへのアクセス時にクライアントに付与される権限。たとえば、
test
認証スコープ値は、クライアントがGravitino内のテスト・スコープに関連するリソースにアクセスする権限があることを示す場合があります。[オプション] - 権限タイプ: 認可サーバーがアクセス・トークンの発行に使用する方法。たとえば、
client_credentials
およびauthorization_code
です。[オプション]
- 倉庫の場所: データを格納する場所。たとえば、
- 確立された接続をテストするには、「接続のテスト」をクリックします
- 必要な接続の詳細をすべて入力した後、「作成」をクリックします。
Apache Iceberg接続は、Oracle Object StorageにIcebergデータを格納するRESTカタログで構成されます。
新規に作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして、接続をエクスポートします。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
Apache Icebergデータ・ロードの作成および実行
Oracleなどの任意のSQLベースのソース・データ・ソースのデータ・ロードを作成して、Apache Icebergターゲット表にデータをロードできます。Apache Icebergをターゲット・データ・ソースとして使用するには、接続の名前とネームスペースを指定する必要があります。Apache Icebergのネームスペースは、リレーショナル・データベースのスキーマに似ています。
データ・ロードを作成すると、ソース・スキーマ内のすべての表が「データ・ロード詳細」ページにリストされ、選択した各ソース表のデータを増分的にロード、追加およびマージするためのオプションが表示されます。データ・ロード実行が完了すると、Iceberg表からデータを読み取ることができます。ワークフローにデータ・ロードをステップとして追加し、事前定義された時間間隔でワークフローを実行するスケジュールを作成できます。「新規ワークフローの作成」を参照してください。
Apache Icebergデータ・ロードを作成して実行するには:
- 次のいずれかを行います。
- ホーム・ページで、「データのロード」をクリックします。データ・ロードの作成ウィザードが表示されます。
デフォルト値を置換する場合は「データ・ロードの作成」タブで名前を入力し、摘要を追加してドロップダウンからプロジェクトを選択します。
- ホームページで「プロジェクト」をクリックし、必要なプロジェクト・タイルをクリックします。左ペインで、「データ・ロード」をクリックし、「データ・ロードの作成」をクリックします。データ・ロードの作成ウィザードが表示されます。
- ホーム・ページで、「データのロード」をクリックします。データ・ロードの作成ウィザードが表示されます。
- デフォルト値を置き換える場合は名前を入力し、説明を追加します。
- ロード処理では、次のいずれかを実行します。
- 「内部」ラジオ・ボタンを選択し、「デプロイメント・タイプ」ドロップダウンから「データ変換(バッチ)」を選択します。
- 「委任」ラジオ・ボタンを選択し、「デプロイメント・タイプ」ドロップダウンからOCI GoldenGateを選択します。GoldenGateデプロイメント接続から接続を選択します。
- 「次へ」をクリックします
- 「ソース接続」タブで、次の手順を実行します。
- 「接続タイプ」ドロップダウンから、SQLベースのデータ・ソースを選択します。
- 「接続」ドロップダウンから、データ・エンティティの追加元となる必要な接続を選択します。
- 「次へ」をクリックします
- 「ターゲット接続」タブで、次の手順を実行します。
- 「接続タイプ」ドロップダウンから、接続タイプとして「Apache Iceberg」を選択します。
- 「接続」ドロップダウンから、データのロードに使用する接続を選択します。
- 「名前空間」を指定します。既存のネームスペースから選択することも、新しいネームスペースを作成することもできます。
- 「保存」をクリックします
「データ・ロードの詳細」ページが表示され、すべてのソース表がリストされます。
- ロードする必要な表および対応するデータ・ロード操作を選択します。使用できるデータ・ロード・オプションは、「増分マージ」、「増分追加」、「追加」および「ロードしない」です。
をクリックして変更を保存します。行の緑色のチェックマーク(
)は、変更が保存されていることを示します。
をクリックして、データ・ロードを実行します。
データ・ロードが正常に開始されると、確認プロンプトが表示されます。
データ・ロードのステータスを確認するには、ターゲット・スキーマの詳細のすぐ下にある「データ・ロード・ステータス」パネルを参照します。このパネルの詳細は、「データ・ロード、データ・フローおよびワークフローのステータスのモニター」に関する項を参照してください。このパネルには、このデータ・ロードを実行するために実行されるジョブへのリンクが表示されます。「ジョブの詳細」ページで進行状況をモニターするには、リンクをクリックします。ジョブの詳細は、「ジョブの作成および管理」を参照してください。
ロードされたすべての表とその詳細が「データ・エンティティ」ページにリストされます。データ・エンティティの統計を表示するには、データ・エンティティの横にある「アクション」アイコン()をクリックし、「プレビュー」、「統計」タブの順に選択します。詳細は、「データ・エンティティの統計の表示」を参照してください。
親トピック: 接続の使用
デルタ共有接続の作成
Databricks Delta Shareは、セキュアなデータ共有のためのオープン・プロトコルです。Oracle Data Transformsは、デルタ共有と統合され、Oracle Autonomous Databaseにデータをロードします。デルタ共有接続を使用して、DatabricksまたはOracle Data Shareからデータをロードできます。
Databricksをソースとして使用するには、デルタ共有サーバーのURLと、Delta Lake共有サーバーにアクセスできるBearerトークンを指定する必要があります。Oracle Data Shareをソースとして使用するには、トークン・エンド・ポイントのURLをクライアントIDおよび秘密キーとして指定する必要があります。
デルタ共有接続の作成
デルタ共有接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします
「接続の作成」ページが表示されます。
- 次のいずれかを行います。
- 「タイプの選択」フィールドに、接続タイプの名前を入力します。
- 「データベース」タブを選択します。
- 接続タイプとして「デルタ共有」を選択します。
- 「次へ」をクリックします
- 「接続名」フィールドにはデフォルト名が事前に移入されています。この値は編集可能です。
- エンドポイントURLの共有テキストボックスに、デルタ共有サーバーのURLを入力します。
<host>:<port>/<shareEndpoint>/
形式で値を入力します。 - 「接続」セクションで、次のいずれかを実行します。
- 「Oracleデータ共有」を選択し、共有にアクセスするための「トークン・エンドポイントURL」、「クライアントID」および「クライアント・シークレット」を指定します。
この情報は、共有プロバイダから提供されるものからダウンロードする必要があるデルタ共有プロファイルJSONドキュメントから取得できます。(これは、共有エンドポイントURLの取得場所でもあります)
この情報は、共有にアクセスするためにデータ共有プロバイダが提供するアクティブ化リンクからダウンロードできます。デルタ共有プロファイルJSONドキュメントから入手できます。
- 「Databricks」を選択し、「Bearerトークン」テキスト・ボックスにデルタ共有サーバーに接続するためのトークンを入力します。
- 「Oracleデータ共有」を選択し、共有にアクセスするための「トークン・エンドポイントURL」、「クライアントID」および「クライアント・シークレット」を指定します。
- プロキシを使用してDelta Share ServerまたはDelta Share Storageにアクセスする必要がある場合は、次の設定を構成します。
- 「プロキシ・ホスト」テキスト・ボックスに、接続に使用されるプロキシ・サーバーのホスト名を入力します。
- 「プロキシ・ポート」テキスト・ボックスに、プロキシ・サーバーのポート番号を入力します。
- プロキシが必要な場所に応じて、次のチェック・ボックスを選択します。
- プロキシを使用したデルタ共有サーバーへのアクセス
- プロキシを使用したデルタ共有ストレージへのアクセス
- 確立された接続をテストするには、「接続のテスト」をクリックします
- 必要な接続の詳細をすべて入力した後、「作成」をクリックします。
新しい接続が作成されます。
新規に作成した接続が「接続」ページに表示されます。
次の操作を実行するには、選択した接続の横にある「アクション」アイコン()をクリックします:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして、接続をエクスポートします。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
デルタ共有データ・ロードの作成および実行
Delta ShareからOracle Autonomous Databaseにデータをロードするには、Oracle接続ユーザーが管理ユーザーである必要があります。Oracleユーザーがデータを作成して別のスキーマの表に挿入できるようにするには、管理権限が必要です。
データ・ロードを実行すると、データ変換によってターゲット・スキーマ内の対応する表にデータがロードされます。データ・ロードは増分的に実行されます。データ・ロードを初めて実行すると、データ変換によってすべてのデータが新しい表にコピーされる。後続のデータ・ロード実行ごとに、変更のみがアップロードされます。レコード内の追加または削除は、ターゲット表に反映されます。表にメタデータの変更がある場合(列の追加など)、データ変換では、ターゲット・サーバーにデータをロードする新しい表が作成されます。ワークフローを作成し、データ・ロードをステップとして追加し、事前定義された時間間隔でワークフローを実行するスケジュールを作成できます。「新規ワークフローの作成」を参照してください。
デルタ共有データ・ロードを作成して実行するには:
- 次のいずれかを行います。
- ホーム・ページで、「データのロード」をクリックします。「データ・ロードの作成」ウィザードが表示されます。
「データ・ロードの作成」タブで、デフォルト値を置換する場合は名前を入力し、摘要を追加してドロップダウンからプロジェクトを選択します。
- ホーム・ページで「プロジェクト」をクリックし、必要なプロジェクト・タイルを選択します。左側のペインで、「データ・ロード」をクリックし、「データ・ロードの作成」をクリックします。「データ・ロードの作成」ウィザードが表示されます。
デフォルト値を置き換えて説明を追加する場合は、「データ・ロードの作成」タブに名前を入力します。
- ホーム・ページで、「データのロード」をクリックします。「データ・ロードの作成」ウィザードが表示されます。
- 「次へ」をクリックします
- 「ソース接続」タブで、次の手順を実行します。
- 「接続タイプ」ドロップダウンから、「共有のデルタ」を選択します。
- 「接続」ドロップダウンから、データ・エンティティの追加先となる必要な接続を選択します。
- 「共有」ドロップダウンから表をロードする共有を選択します。ドロップダウンには、選択した接続のすべてのシェアがリストされます。
- 「次へ」をクリックします
- 「ターゲット接続」タブで、次の手順を実行します。
- 「接続タイプ」ドロップダウンから、接続タイプとして「Oracle」を選択します。
ノート
このドロップダウンには、JDBCタイプの接続のみがリストされます。 - 「接続」ドロップダウンから、データ・エンティティのロード元の必要な接続を選択します。
- 「スキーマ」テキスト・ボックスに一意の名前を入力します。
- 「保存」をクリックします
「データ・ロードの詳細」ページに、選択した共有内のすべての表とそのスキーマ名が表示されます。ノート
デルタ共有データ・ロードの場合、「データ・ロードの詳細」ページにはオプションのみが含まれます。ターゲット・スキーマにロードする前に、データ・エンティティに様々なマージ、増分追加、再作成、切捨て、追加アクションを適用することはできません。これは、デルタ共有サーバーとターゲット・スキーマ間でデータが一貫していることを確認するためです。
- 「接続タイプ」ドロップダウンから、接続タイプとして「Oracle」を選択します。
をクリックしてデータ・ロードを実行します。
データ・ロードが正常に開始されると、確認プロンプトが表示されます。
データ・ロードのステータスを確認するには、ターゲット・スキーマの詳細のすぐ下にあるステータス・パネルを参照してください。「ステータス」パネルの詳細は、「データ・ロード、データ・フローおよびワークフローのステータスのモニター」を参照してください。このパネルには、このデータ・ロードを実行するジョブへのリンクが表示されます。「ジョブの詳細」ページで進行状況をモニターするには、リンクをクリックします。ジョブの詳細については、Create and Manage Jobsを参照してください。
ロードされたすべてのデータ・エンティティとその詳細が「データ・エンティティ」ページにリストされます。データ・エンティティの統計を表示するには、データ・エンティティの横にある「アクション」アイコン()をクリックし、「プレビュー」、「統計」タブの順に選択します。詳細は、データ・エンティティの統計の表示を参照してください。
親トピック: 接続の使用
Oracle Business Intelligence Cloud Connector接続の作成
Oracle Business Intelligence Cloud Connector (BICC)を使用すると、データ・ソースからビジネス・データを抽出し、Autonomous Databaseにロードできます。
Oracle BICC接続を作成するには、まずBICCコンソールの「OCIオブジェクト・ストレージ接続」タブを使用して外部ストレージを構成する必要があります。Oracle Data Transformsで接続を定義する際に、これらの接続の詳細を指定する必要があります。
BICC接続を使用して、データ・ストアを抽出するオファリングを選択できます。データ変換では、Oracle BICCで使用されるOracle Object Storageデータ・サーバーを使用して、抽出されたファイルをステージングします。これらは、その後マッピングのソースとして使用できます。Oracle BICC接続をマッピングのターゲットとして使用できないことに注意してください。
Oracle BICC接続を定義するには、
新規に作成した接続が「接続」ページに表示されます。
次の操作を実行するには、選択した接続の横にある「アクション」アイコン()をクリックします:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックすると、接続をエクスポートできます。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
親トピック: 接続の使用
Oracle Cloud Infrastructure Generative AI接続の作成と使用
Oracle Cloud Infrastructure(OCI)生成AIにより、組織はテキスト要約と動的コンテンツ生成を自動化できます。データ変換はOCI生成AIと統合され、データ・フローへのベクトルの埋込みの使用をサポートします。
Oracle Cloud Infrastructure Generative AI接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします
「接続の作成」ページが表示されます。
- 「タイプの選択」で、
- 「名前」フィールドに、新しく作成した接続の名前を入力します。
- 接続のタイプとして「サービス」を選択します。
- 「OCI生成AI」および「次」を選択します。
- 「接続の詳細」に、次の詳細を指定します:
- OCI URL - OCI生成AIサービスのエンドポイントURL。
- ユーザーOCID - Oracle Cloud Infrastructure ConsoleのユーザーOCID。
- テナンシOCID - Oracle Cloud Infrastructure ConsoleからのテナンシOCID。
- コンパートメントOCID - Oracle Cloud Infrastructure ConsoleからのコンパートメントOCID。
- 秘密キー - PEM形式の秘密キー。ダウンロードした秘密キー・ファイルへのパスを指定します。
- フィンガープリント - 追加されたキーのフィンガープリント。
- 必要なすべての接続の詳細を証明した後、「作成」をクリックします。
新しい接続が作成されます。
- 確立された接続をテストするには、「接続のテスト」をクリックします
構成したOracle Database 23ai接続がリストされたポップアップが表示されます。この接続のテストに使用するオプションを選択します。
新しく作成した接続が「接続」ページに表示されます。
OCI生成AI接続の問題のトラブルシューティング
OCI生成AI接続で接続のテストが失敗した場合は、次の操作を実行して問題をトラブルシューティングします:
- すべての接続情報が正しく入力されていることを確認してください。たとえば、
- OCI URLサンプル:
https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/20231130/actions/embedText
- 秘密キーのサンプル:
MIIEvg......beE/
- OCI URLサンプル:
- 「接続のテスト」をクリックすると、Oracle接続を選択するように求められます。Oracle 23ai接続であることを確認します。
- Oracle 23aiデータベースにadminとしてログインし、次の問合せを実行してステータスが有効であることを確認します。
SELECT object_name, object_type, status FROM dba_objects WHERE object_name = 'DBMS_VECTOR_CHAIN' AND owner = 'CTXSYS';
- 次のplsqlブロックがデータベースで機能するかどうかを確認します。データ変換では、plsqlブロックを使用してテスト接続を実行します。
exec dbms_vector_chain.drop_credential('OCI_CRED'); declare jo json_object_t; begin -- create an OCI credential jo := json_object_t(); jo.put('user_ocid', '<your user ocid>'); jo.put('tenancy_ocid', '<your tenancy ocid'); jo.put('compartment_ocid', '<your compartment ocid'); jo.put('private_key', '<your private key'); jo.put('fingerprint', '<your fingerprint>'); dbms_output.put_line(jo.to_string); dbms_vector_chain.create_credential( credential_name => 'OCI_CRED', params => json(jo.to_string)); end;
select dbms_vector_chain.utl_to_embedding('hello', JSON('{"provider": "ocigenai","credential_name" : "OCI_CRED", "url": "https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/20231130/actions/embedText","model": "cohere.embed-english-light-v2.0"}')) from dual;
plsqlブロック問合せの実行時にHTTP request failed
エラーが発生した場合は、ユーザーにネットワーク・アクセス権を付与してみてください:BEGIN DBMS_NETWORK_ACL_ADMIN.APPEND_HOST_ACE( host => '*', ace => xs$ace_type(privilege_list => xs$name_list('connect'), principal_name => '<your username>', principal_type => xs_acl.ptype_db)); END;
親トピック: 接続の使用
Oracle Enterprise Resource Planning Cloud接続の作成
- Oracle ERP Cloud接続は、マッピングのターゲットとして使用できません。
- データ・ロードは、Oracle ERP Cloud接続ではサポートされていません。
Oracle ERP Cloudサーバー接続の作成
この接続を作成するには、レポート・サービスのWSDL URLと、ERP Cloudインスタンスに接続するためのユーザー名とパスワードを指定する必要があります。
Oracle ERP Cloudサーバー接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします
「接続の作成」ページが表示されます。
- 次のいずれかを行います。
- 「タイプの選択」フィールドに、接続タイプの名前を入力します。
- 「アプリケーション」タブを選択します。
- 接続タイプとして「Oracle ERP Cloud」を選択します。
- 「次へ」をクリックします
- 「接続名」フィールドにはデフォルト名が事前に移入されています。この値は編集可能です。
- 「WSDL URL」テキスト・ボックスに、Oracle ERP Cloudインスタンスに使用されるBI Publisher WebサービスのURLを入力します。URLの形式は
BI Publisher Hostname/xmlpserver/services/PublicReportWSSService?wsdl
です。たとえば:
https://fa-eudu-saasfademo1.ds-fa.oraclepdemos.com/xmlpserver/services/PublicReportWSSService?wsdl
。 - 「プロキシ・ホスト」テキスト・ボックスに、接続に使用されるプロキシ・サーバーのホスト名を入力します。
- 「プロキシ・ポート」テキスト・ボックスに、プロキシ・サーバーのポート番号を入力します。
- 「ユーザー」テキスト・ボックスに、Oracle ERP Cloudインスタンスに接続するためのユーザー名を入力します。
- 「パスワード」テキスト・ボックスに、Oracle ERP Cloudインスタンスに接続するためのパスワードを入力します。
- 必要なすべての接続の詳細を指定した後、「接続のテスト」をクリックして接続をテストします。
- 「作成」をクリックします
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン(
)をクリックして、次の操作を実行します:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックすると、接続をエクスポートできます。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
Oracle ERP Cloudサーバーからのデータ・エンティティ定義のインポート
Oracle ERP Cloud接続の場合、「データ・エンティティのインポート」ページには、キーと値のペアでの入力が必要です。データをインポートするには、BIサーバー上のBIパブリッシャ・レポートの場所を参照するBIPReportLocation
キーを指定する必要があります。この情報は、対応するレポートが開いているときにBIサーバーで確認できます。
- ホームページの左側のペインで、「データ・エンティティ」タブをクリックします。
「データ・エンティティ」ページが表示されます。
- 「データ・エンティティのインポート」をクリックします。「データ・エンティティのインポート」ページ・スライドイン。
- 「接続」ドロップダウンで、「Oracle ERP Cloudサーバー接続の作成」で作成したOracle ERP Cloud接続を選択します。ページのオプションは、「エンティティ名」フィールドのみを表示するように変更されます。
- 「エンティティ名」フィールドに、データ・エンティティの名前を入力します。
- 「キー」フィールドに
BIPReportLocation
と入力します。 - キーに対応する「値」フィールドに、BI Publisherレポート・ファイルの場所を入力します。
ReportFile.
xdo
ファイルの名前までのパスを指定します。 - 「開始」をクリックします。
ジョブが作成され、セッションを追跡するために対応するジョブIDが表示されます。ジョブIDをクリックすると、そのジョブの詳細が表示されます。ジョブが正常に実行されると、データ・エンティティが「データ・エンティティ」ページに表示されます。
- 選択したデータ・エンティティの横にある「アクション」アイコン(
)をクリックし、「編集」を選択します。
「データ・エンティティの編集」ページが表示され、次の情報を含む表が表示されます。- 名前
- データ型
- 長さ
- スケール
- NULL以外
インポートしたエンティティのデータ型および長さを確認します。Oracle Data Transformsでは、ファイルの最初のレコードからデータ型および長さが決定されますが、デフォルト値(たとえば、文字列フィールドの長さが50)や不正なデータ型が設定されることがあります。空のフィールドの場合、データ型は長さ50の文字列に設定されます。
- 「保存」をクリックします。
親トピック: 接続の使用
Oracle Financials Cloud接続の作成
Oracle Financials CloudのRESTエンドポイントからリアルタイムのトランザクション・データをフェッチし、データ・エンティティをインポートして、データ・フローのソースとして使用できます。
Oracle Financials Cloud接続を定義するには、
新規に作成した接続が「接続」ページに表示されます。
次の操作を実行するには、選択した接続の横にある「アクション」アイコン()をクリックします:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックすると、接続をエクスポートできます。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
親トピック: 接続の使用
Oracle NetSuite接続の作成と使用
Oracle NetSuite JDBCドライバまたはOAuth 2.0認証を使用して、Oracle NetSuiteアプリケーションに接続できます。Oracle NetSuite接続の場合、データ変換では、NetSuiteからターゲット・スキーマにデータを転送するために実行できる事前構築済のデータ・フローおよびワークフローをロードできます。
データ・ウェアハウスの構築に必要なアクセス権限の構成
NetSuite接続を作成するか、データ変換でデータ・ウェアハウスの構築ウィザードを使用する前に、管理者としてNetSuiteにログインし、SuiteAnalytics Connectを有効にして、カスタム・ロールを作成し、NetSuiteデータ・ウェアハウスの構築に必要なアクセス権限を設定する必要があります。
アクセス権限を構成するには:
- 次のURLを使用して、NetSuiteに管理者としてログインします。
- SUITEANALYTICS CONNECT機能が有効になっているかどうかを確認します。
「設定」→「会社」→「機能の有効化」に移動します。「アナリティクス」タブをクリックし、「SuiteAnalytics Connect」ボックスにチェックマークが入っていることを確認します。
- カスタム・ロールを追加します。
「設定」>「ユーザー/ロール」>「ユーザー管理」>「ロールの管理」に移動します。「新規ロール」をクリックし、必要な詳細を追加し、「保存」をクリックしてカスタム・ロールを作成します。
- 必要な権限をカスタム・ロールに割り当てます。
「設定」>「ユーザー/ロール」>「ユーザー管理」>「ロールの管理」に移動します。SuiteAnalytics Connect権限を追加するカスタム・ロールの名前の横にある「カスタマイズ」をクリックします。
「権限」タブの「トランザクション」タブをクリックし、次の権限を割り当てます。
- アカウントの詳細
- 会計リスト
- 会計管理
- アカウント
- 買掛管理
- 買掛金グラフ化
- 買掛金登録表
- 売掛金
- 売掛金グラフ化
- 売掛金登録表
- 在庫調整
- 在庫ワークシートを調整
- 償却レポート
- 償却スケジュール
- 監査証跡
- 貸借対照表
- 銀行口座登録表
- 発注書に基づき請求書を作成
- 請求予定表
- 請求
- 保管棚棚入ワークシート
- 保管棚移動
- 一括発注書
- アセンブリの構成
- CRMグループ
- カレンダ
- 現金販売
- 現金売上払戻
- 手数料
- 手数料- 実行ルール
- 課金ルール
- Check
- クラス
- コミッション機能の設定
- コミッション・レポート
- 注文確定
- 給与のコミット
- 競合会社
- コンポーネント使用箇所
- 担当者
- 在庫棚卸
- 経費配賦表を作成
- クレジット・カード
- クレジット・カード払戻
- クレジット・カード登録表
- クレジット・メモ
- クレジット返品
- Currency
- 通貨再評価
- カスタム認識イベントの種類
- 顧客預入
- 顧客支払
- 顧客払戻
- 顧客
- 繰延経費精算書
- 削除済レコード
- Departments (部門)
- 前払い金
- 預入消込
- ドキュメントおよびファイル
- 売上予想を編集
- マネージャ予測の編集
- 電子メール・テンプレート
- 従業員コミッション・トランザクション
- 従業員コミッション・トランザクション承認
- 従業員レコード
- 従業員リマインダ
- Employees (従業員)
- 開始残高の入力
- 前払金/買掛金調整の入力
- 資本登録表
- 目標の設定
- 見積
- イベント
- 経費精算書
- 費用
- リストのエクスポート
- 公正価値の特性
- 公正価値計算式
- 公正価格
- 財務諸表
- トランザクションを検索
- 固定資産登録表
- 注文を配送
- 配送リクエスト
- 総勘定元帳
- 価格表の生成
- ステートメントの生成
- インポート済従業員経費
- インバウンド出荷
- 収入
- 損益計算表
- 在庫
- 在庫ステータスの変更
- インボイス
- 請求書の承認
- 請求書注文書
- 品目履行
- 品目受入
- 品目収益カテゴリ
- アイテム
- リード・スナップショット/リマインダ
- 場所
- 長期負債登録表
- 仕訳入力を作成
- 会計期間の管理
- 給与の管理
- 一括更新
- 定期トランザクション
- モバイル・デバイスのアクセス
- 純資産
- 非転記登録表
- 「ノート」タブ
- 商談
- その他の資産登録表
- その他の流動資産登録表
- その他の流動負債登録表
- その他のリスト
- その他の名称
- 所有権移転
- 請求支払
- 消費税の支払
- 税金負債の支払
- 給与仕訳帳
- 給与アイテム
- 検索の実行
- 通話
- 仕入先支払請求書差異を転記
- トランザクションの転記期間
- 価格表
- 価格プラン
- 給与の処理
- プロジェクト収益ルール
- 購買契約
- 発注書
- 発注レポート
- 購入
- 調整
- 照合レポート
- 返品の払戻
- レポートのカスタマイズ
- レポート・スケジューリング
- 見積依頼
- 購買申請
- リソース
- 返品承認
- 在庫費用を再評価
- 収益計上処理
- 収益計上処理の承認
- 収益要素
- 収益認識フィールド・マッピング
- 収益認識プラン
- 収益認識レポート
- 収益認識ルール
- 収益認識スケジュール
- SOAP Webサービス
- 販売
- パートナー別売上
- プロモーション別売上
- 注文書
- 注文書承認
- 注文書配送レポート
- 販売オーダー・レポート
- 受注取引レポート
- 予算の設定
- SOAP Webサービスの設定
- 計算書手数料
- 統計勘定科目登録
- ストア・ピックアップ履行
- 登録変更指示
- 登録プラン
- サブスクリプション
- 子会社
- SuiteAnalytics Connect
- SuiteAnalyticsワークブック
- タスク
- Tax
- メッセージのトラッキング
- トランザクション詳細
- 資金振替
- 在庫の転送
- 移動伝票
- 転送オーダー承認
- 試算表
- 未請求売掛金登録表
- アセンブリの解体
- Units
- 仕入先支払請求書の承認
- 仕入先支払承認
- 仕入先への見積リクエスト
- 仕入先返品承認
- ベンダー返品承認
- ベンダー返品
- 仕入先
- 勤務カレンダ
- ワーク・オーダー
- 作業オーダー・クローズ
- 作業オーダー完了
- ワーク・オーダー発行
- 「SuiteAnalytics Connect– すべて読取り」権限を追加します。
「設定」タブの下の「権限」タブをクリックし、ドロップダウンから「SuiteAnalytics Connect– すべて読取り」を選択して、「追加」をクリックします。
- 「保存」をクリックして、これらの権限をカスタム・ロールに適用します。
- ユーザーへのカスタム・ロールの割当て。データ変換からNetSuiteへの接続を作成する場合は、このユーザーの資格証明を入力してデータ・サーバーに接続する必要があります。接続の作成の詳細は、「Oracle NetSuite接続の作成」を参照してください。
ユーザーにカスタム・ロールを割り当てるには、「設定」>「ユーザー/ロール」>「ユーザーの管理」に移動します。ユーザー名の横にある「編集」をクリックし、カスタム・ロールを割り当てて、「保存」をクリックします。
- アクセス権限を確認するには、カスタム・ロールが割り当てられているユーザーとしてログインします。
「分析」>「データセット」に移動します。「新規データセット」をクリックします。このページには、ユーザーがアクセスできるすべてのテーブルおよびレコード タイプがリストされます。たとえば、トランザクション表を検索して、ユーザーがトランザクション表にアクセスできるかどうかを確認します。
Oracle NetSuite接続の作成
JDBC接続の認証またはOAuth 2.0認証を使用して、Oracle NetSuite接続を作成できます。
Oracle NetSuite接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします
「接続の作成」ページが表示されます。
- 次のいずれかを行います。
- 「タイプの選択」フィールドに、接続タイプの名前を入力します。
- 「アプリケーション」タブを選択します。
- 接続タイプとして「Oracle NetSuite」を選択します。
- 「次へ」をクリックします
- 「接続名」フィールドにはデフォルト名が事前に移入されています。この値は編集可能です。
- 接続の詳細を指定するには、次のいずれかを実行します。
- JDBC接続を使用するには、次の詳細を指定します。
- JDBC URL - 接続に使用するSuiteAnalytics ConnectサーバーのURLを入力します。
- ユーザー - データ・サーバーに接続するためのユーザー名を入力します。
- 「パスワード」テキスト・ボックスで、データ・サーバーに接続するためのパスワードを入力します。
- 「アカウントID」テキスト・ボックスに、データ・サーバーに接続するためのアカウントIDを入力します。
- 「ロールID」テキスト・ボックスに、データ・サーバーに接続するためのロールIDを入力します。
- OAuth 2.0認証を使用するには、OAuth 2.0スイッチをクリックし、次の詳細を指定します:
- ユーザー名 - OAuth 2.0接続を使用してNetSuiteにログインするためのロール・アクセス権を持つユーザーの名前を入力します。これは、データ・ウェアハウスの構築に必要なアクセス権限の構成でカスタム・ロールを割り当てたユーザーです。
- アカウントID - データ・サーバーに接続するためのアカウントIDを入力します。この情報を取得するには、NetSuiteアカウントにログインし、SuiteAnalytics接続情報を表示します。
- ロールID - データ・サーバーに接続するためのロールIDを入力します。この情報を取得するには、NetSuiteアカウントにログインし、SuiteAnalytics接続情報を表示します。
- クライアントID - データ・サーバーに接続するためのクライアントIDを入力します。
クライアントIDを取得するには、OAuth 2.0クライアント資格証明フローを有効にして、NetSuiteに統合レコードを作成します。統合レコードが正常に作成されたときに表示されるクライアントIDをコピーして保存します。
ノート
NetSuiteは、NetSuite OAuth 2.0クライアント資格証明フローのトークン署名用のRSA PKCSv1.5スキームをサポートしなくなりました。RSA PKCSv1.5スキームに依存する統合は、RSA-PSSスキームを使用するように更新する必要があります。詳細は、Oracle NetSuiteのドキュメントを参照してください。 - 公開証明書および秘密キー - OpenSSLコマンドを使用して、必要なPEM形式でキー・ペアを生成します。例
openssl req -new -x509 -newkey rsa:4096 -keyout private.pem -sigopt rsa_padding_mode:pss -sha256 -sigopt rsa_pss_saltlen:64 -out public.pem -nodes -days 365
「パブリック証明書」フィールドに
public.pem
の内容を貼り付けます。「秘密キー」フィールドにprivate.pem
の内容を貼り付けます。 - 証明書ID - データ・サーバーに接続するための証明書IDを入力します。
証明書IDを取得するには、NetSuite OAuth 2.0クライアント資格証明(M2M)設定を使用して、公開証明書ファイル(
auth-cert.pem
)を証明書キー・リストに追加し、生成された証明書IDをコピーします。
- JDBC接続を使用するには、次の詳細を指定します。
- マッピングに使用するソースが保存検索の場合は、「保存検索抽出」で次の詳細も指定する必要があります:
- アプリケーションID: データ変換のNetSuiteアプリケーションIDを入力します。
- バージョン: NetSuiteバージョン番号を入力します。
- 「データ・モデルの構築」のチェック・ボックスを選択して、NetSuiteからデータを抽出し、「データ・ウェアハウスの構築」ウィザードを使用してOracleターゲット・スキーマに移動します。
- 「接続のテスト」をクリックして、確立された接続をテストします。
- 必要なすべての接続の詳細を指定した後、「作成」をクリックします。
新しい接続が作成されます。
新規に作成した接続が「接続」ページに表示されます。
次の操作を実行するには、選択した接続の横にある「アクション」アイコン()をクリックします:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「データ・ウェアハウスの構築」を選択して機能領域を選択し、ターゲット・スキーマにNetSuiteデータ・ウェアハウスを作成します。詳細は、「「データ・ウェアハウスの構築」ウィザードの使用」を参照してください。
- 「エクスポート」をクリックして、接続をエクスポートします。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
「データ・ウェアハウスの構築」ウィザードの使用
NetSuiteアカウントのデータは、分析ウェアハウスのビジネス領域またはサブジェクト領域にグループ化されます。「データ・ウェアハウスの構築」ウィザードを使用すると、新しく作成したデータ・ウェアハウスに含める領域を選択できます。
「データ・ウェアハウスの構築」ウィザードを使用するには:
- ホームページで、「接続」タブをクリックします。「接続」ページが表示されます。
- データ・ウェアハウスを構築するために使用するOracle NetSuite接続の横にある「アクション」アイコン(
)をクリックし、「データ・ウェアハウスの構築」をクリックします。
「データ・ウェアハウス構築」ウィザードが開きます。
- 「接続」ドロップダウン・リストから、ターゲット・スキーマが存在するAutonomous Database接続を選択します。
- 「ステージング・スキーマ」ドロップダウンに、選択した接続に対応するすべてのスキーマが2つのグループで表示されます:
- 既存のスキーマ(Oracle Data Transformsにインポートしたスキーマ)および
- 新規データベース・スキーマ(まだインポートしていないスキーマ)。
- 同様に、「ターゲット・スキーマ」を選択します。
- 「次へ」をクリックします。
- NetSuiteデータ・ウェアハウスからターゲット・スキーマへのデータの転送に使用するNetSuiteビジネス・エリアを選択します。
- 「保存」をクリックします。
データ変換により、データ・ウェアハウスを構築するプロセスが開始されます。「ホーム」ページの左側のペインで「ジョブ」をクリックして、プロセスの進捗をモニターします。ジョブが正常に完了すると、データ変換により、NetSuite接続からターゲット・スキーマにデータを転送するために実行できる、事前構築されたすべてのワークフローおよびデータ・フローを含む「プロジェクト」フォルダが作成されます。詳細は、「ターゲット・スキーマにデータをロードするための事前構築済ワークフローの実行」を参照してください。
ターゲット・スキーマにデータをロードするための事前構築済ワークフローの実行
「データ・ウェアハウスの構築」ウィザードが正常に完了すると、データ変換により、NetSuite接続からデータを抽出してターゲット・スキーマにロードするために実行できる事前構築済データ・フローおよびワークフローがすべて含まれるプロジェクトが作成されます。
事前構築済ワークフローを表示および実行するには:
- 「ホーム」ページの左側のペインで「プロジェクト」をクリックし、新しく作成したNetSuiteプロジェクトを選択します。
- 左側のペインで「ワークフロー」をクリックします。次の事前構築済ワークフローが「プロジェクト詳細」ページにリストされます:
- NetSuiteソースのSDSへのステージング
- トランザクション主キーの抽出
- ウェアハウスへのSDSのロード
- 削除の適用
- すべてのワークフロー
- 実行するワークフローの横にある「アクション」アイコン(
)をクリックし、「開始」をクリックします。
Oracleでは、「すべてのワークフロー」を実行して、すべての事前作成ワークフローを実行することをお薦めします。
ワークフローのステータスを確認するには、現在のプロジェクトの左ペインから「ジョブ」をクリックします。ジョブが正常に完了すると、NetSuite接続のすべてのデータがターゲット・スキーマにロードされます。
親トピック: 接続の操作
Oracle Object Storage接続の作成
データ変換を使用して、Oracle Object StorageからAutonomous Databaseにデータをアップロードできます。
OCI Object Storageの専用エンドポイント機能により、OCIのお客様はストレージ・バケットにセキュアにアクセスできます。詳細は、オブジェクト・ストレージの専用エンドポイントを参照してください。データ変換でオブジェクト・ストレージ接続を作成する場合は、新しいURL形式を使用する必要があります。オブジェクト・ストレージ接続がすでにあるユーザーの場合、既存のURLは新しいURL形式に自動的に更新されます。
Oracle Object Storage接続を作成するには、Oracle Cloud Infrastructureのユーザー名および認証トークンが必要です。認証トークンを生成する方法の詳細は、「認証トークンの取得」を参照してください。Oracle Data Transformsで接続を定義する際に、これらの詳細を指定する必要があります。
次の点に注意してください。
- Oracle Object Storage接続を使用してデータ変換にデータをインポートするには、パブリックIPアドレスを使用してコンピュート・ノードにアクセスする必要があります。Object StorageサービスへのアクセスにプライベートIPアドレスを使用する場合は、インターネットにアクセスできることを確認してください。
- Oracle Object StorageからAutonomous Database(およびその逆)にデータをロードするためにサポートされているファイル形式はCSVです。
- サポートされているデータ型は、Numeric、Double、StringおよびDateです。
- データ・ロードはOracle Object Storage接続ではサポートされていません。
- オブジェクト・ストレージへのマッピングを作成するには、ソース・テクノロジが
DBMS_CLOUD
パッケージをサポートしている必要があります。そうしないと、マッピングは失敗します。 - データ変換では、オブジェクト・ストレージのレルム間接続はサポートされていません。たとえば、Government Cloudリージョンで構成されているデータ変換から、商用レルムにあるオブジェクト・ストレージに接続することはできません。
Oracle Object Storage接続を定義するには、
新規に作成した接続が「接続」ページに表示されます。
次の操作を実行するには、選択した接続の横にある「アクション」アイコン()をクリックします:
- 入力した接続の詳細を編集するには、「編集」を選択します。
- 作成された接続をテストするには、「接続のテスト」を選択します。
- 接続をエクスポートするには、「エクスポート」をクリックします。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成したコネクションを削除するには、「コネクションの削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成された接続に関連付けられているテクノロジ。
親トピック: 接続の操作
RESTサーバー接続の作成
汎用RESTコネクタを作成するには、エンドポイントに接続するためのJDBC URL、ユーザー名およびパスワードを指定する必要があります。データ・エンティティのインポート元となる認証方法、エンドポイント、表などの情報を含む構成ファイルを作成およびアップロードすることもできます。
新しく作成した接続が「接続」ページに表示されます。
次の操作を実行するには、選択した接続の横にある「アクション」アイコン()をクリックします:
- 入力した接続の詳細を編集するには、「編集」を選択します。
- 作成された接続をテストするには、「接続のテスト」を選択します。
- 接続をエクスポートするには、「エクスポート」をクリックします。「オブジェクトのエクスポート」を参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成したコネクションを削除するには、「コネクションの削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成された接続に関連付けられているテクノロジ。
汎用REST接続の作成
この接続を作成するには、RESTサービスURLを指定し、リバース・エンジニアリング操作後にデータ変換でデータ・エンティティを作成できる一時スキーマを選択する必要があります。
RESTサーバー接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページ・スライド・イン。
- 次のいずれかを行います。
- 「タイプの選択」フィールドに、接続タイプの名前または名前の一部を入力します。
- 「アプリケーション」タブを選択します。
- 接続タイプとして「汎用Rest」を選択します。
- 「次へ」をクリックします。
- 「接続名」フィールドにはデフォルト名が事前に移入されています。この値は編集可能です。
- 「REST Service URL」テキストボックスに、RESTリソースにサービスを提供するエンドポイントのURLを入力します。
- 「クライアント・ホスト」テキスト・ボックスで、接続に使用されるプロキシ・サーバーのホスト名を入力します。
- 「プロパティ・ポート」テキスト・ボックスで、プロキシ・サーバーのポート番号を入力します。
- 「ユーザー」テキスト・ボックスに、RESTエンドポイントに接続するためのユーザー名を入力します。
- 「パスワード」テキスト・ボックスに、RESTエンドポイントに接続するためのパスワードを入力します。
- ステージング接続ドロップダウン・リストから接続を選択します。リストには、既存のAutonomous Database接続のみが表示されます。別の接続を使用するには、このページが表示される前に接続を作成します。
- 必要なすべての接続の詳細を指定した後、「接続のテスト」をクリックして接続をテストします。
- 「作成」をクリックします
新しい接続が作成されます。
構成ファイルを使用した汎用Rest接続の作成
適用先: Data Integrator: Web Editionというマーケットプレイスで別個のリストとして利用できるデータ変換。
汎用RESTコネクタを作成するには、JDBC URL、ユーザー名、パスワードおよび構成ファイルが必要です。構成ファイルは、RESTサーバー接続の作成時にアップロードする必要があるfile_name.rest
ネーミング規則を持つモデル・ファイルです。構成ファイルを作成するには、エンドポイント、表マッピングおよび認証方法を指定する必要があります。構成ファイルは、任意のテキスト・エディタを使用して作成できます。
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページ・スライド・イン。
- 次のいずれかを行います。
- 「タイプの選択」フィールドに、接続タイプの名前または名前の一部を入力します。
- 「アプリケーション」タブを選択します。
- 接続タイプとして「汎用Rest構成」を選択します。
- 「次へ」をクリックします。
- 「接続名」フィールドにはデフォルト名が事前に移入されています。この値は編集可能です。
- 「構成ファイル」テキスト・ボックスを使用して、使用する構成ファイルをアップロードします。
- 「JDBC URL」テキスト・ボックスに、サーバーに接続するURLを入力します。
- 「ユーザー」および「パスワード」テキスト・ボックスに、RESTエンドポイントに接続するためのユーザー名とパスワードを入力します。JDBC URLでこれらの値が適用できないか、すでに指定されている場合は、これらのフィールドを空白のままにできます。
- 必要なすべての接続の詳細を指定した後、「接続のテスト」をクリックして接続をテストします。
- 「作成」をクリックします。
新しい接続が作成されます。
親トピック: 接続の操作