接続の使用
接続を使用すると、データ変換をOCIネットワークからアクセス可能な様々なテクノロジと結び付けることができます。
この項では、接続を作成する一般的なステップについて説明します。 表示される接続の詳細オプションは、選択した接続タイプによって異なります。
サポートされている接続タイプにリストされている接続タイプ以外に、JDBCでサポートされている任意のデータ・ソースにデータ変換を接続するために使用できるカスタム・コネクタを作成できます。 「カスタム・コネクタの作成」を参照してください。
新規接続を作成するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページがスライドします。
- 次の内の1つを実行します。
- 「タイプの選択」フィールドに、接続タイプの名前または名前の一部を入力します。
- 作成する接続のタイプを選択します。
- データベース - サポートされているデータベース・タイプの任意の接続タイプを構成できます。
- アプリケーション - サポートされているアプリケーションの任意の接続タイプを構成できます。
- サービス - サポートされているサービスの任意の接続タイプを構成できます。
- 必要な接続タイプを選択した後、「次」をクリックします。
「接続名」フィールドにはデフォルト名が事前に移入されています。 この値は編集可能です。
- 「接続の詳細」で、次のような、選択したタイプの接続の詳細を入力します:
- 接続 -
- JDBC URL - データ・サーバーに接続するURL。 たとえば:
jdbc:weblogic:sqlserver://hostname:port[;property=value[;...]]
ノート:
パブリック・エンドポイントのAutonomous Databaseからデータ変換にアクセスする場合、許可されるポート番号は2484、1521-1525、1708、3306、80です。モデル・ファイルをドライバとともに提供するautoRESTドライバを使用するコネクタの場合は、そのデータ・ソースへの接続に必要なサーバー名およびその他のプロパティを指定します。 たとえば:
jdbc:weblogic:autorest://servername;[property=value[;...]]
- ユーザー - (必要な場合に)サーバーに接続するためのユーザー名。
- パスワード - サーバーに接続するためのパスワード。
- JDBC URL - データ・サーバーに接続するURL。 たとえば:
- 拡張オプション
- 配列フェッチ・サイズ - 大量のデータをデータ・サーバーから読み取る際、Oracle Data Transformsは連続的なレコードのバッチをフェッチします。 この値は、Oracle Data Transformsがデータ・サーバーとの1回の通信でリクエストする行(読み取るレコード)の数です。
- バッチ更新サイズ - 大量のデータをデータ・サーバーに書き込む際、Oracle Data Transformsは連続的なレコードのバッチを挿入します。 この値は、Oracle Data Transformsが1回のINSERTコマンドでリクエストする行(書き込むレコード)の数です。
ノート:
BLOBデータ型の列を含む表をロードする場合は、「バッチ更新サイズ」を1000以下に設定します。 - ターゲットの並列度 - この値はロード・タスクに対して許可されるスレッドの数を示します。 デフォルト値は1です。 許可される最大スレッド数は99です。
ノート:
接続の詳細は固有であり、前述のオプションは選択した接続タイプによって異なります。 プロビジョニング中に作成されるデフォルト接続の場合、「ユーザー」および「パスワード」フィールドのみが編集可能です。 他のすべてのフィールドは無効です。
- 接続 -
- 必要なすべての接続の詳細を指定した後、「接続のテスト」をクリックして接続をテストします。
テスト接続に失敗した場合は、次のいずれかを実行します:
- データ変換のアクセス元となるAutonomous Databaseがプライベート・エンドポイントを使用するように構成されているかどうかを確認します。
詳細については、「Autonomous Databaseからのプライベート・データ・ソースへのアクセスの有効化」を参照してください。
- プライベート・エンドポイント上のAutonomous Databases間の接続が「サーバー証明書DNとの不一致」エラーで失敗した場合は、JDBC URLで
ssl_server_dn_match=yes
プロパティを指定したかどうかを確認します。 詳細については、「サーバー証明書DNエラーとの不一致のトラブルシューティング」を参照してください。
- データ変換のアクセス元となるAutonomous Databaseがプライベート・エンドポイントを使用するように構成されているかどうかを確認します。
- 「作成」をクリックします。
新しい接続が作成されます。
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続の詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
トピック
- サポートされる接続タイプ
このトピックでは、データ変換への接続でサポートされている接続タイプを示します。 - カスタム・コネクタの作成
Oracle Data TransformsのAdministrationタブの「カスタム接続」ページを使用すると、JDBCでサポートされているデータ・ソースを指すカスタム・コネクタを作成できます。 - リモート・データ・ロード用のデータ変換接続の作成
既存のData Transformsインスタンスに接続し、データ・ロードをリモートで実行できます。 - Apache Iceberg接続の作成
Apache Icebergは、大規模なアナリティク・データ・セットを管理するために最適化されたオープンな標準表形式です。 Data Transformsでは、任意のSQLベースのデータ・ソースからデータをロードするためのターゲットとしてApache Icebergの使用がサポートされています。 - デルタ共有接続の作成
Databricks Delta Shareは、セキュアなデータ共有のためのオープン・プロトコルです。 Oracle Data Transformsは、Delta Shareと統合され、Oracle Autonomous Databaseにデータをロードします。 デルタ共有接続を使用して、DatabricksまたはOracle Data Shareからデータをロードできます。 - Oracle Business Intelligence Cloudコネクタ接続の作成
Oracle Business Intelligence Cloudコネクタ(BICC)を使用すると、データ・ソースからビジネス・データを抽出し、Autonomous Databaseにロードできます。 - Oracle Cloud Infrastructure生成AI接続の作成と使用
Oracle Cloud Infrastructure (OCI)生成AIにより、組織はテキスト要約および動的コンテンツ生成を自動化できます。 データ変換はOCI生成AIと統合され、データ・フローへのベクトルの埋込みの使用をサポートします。 - Oracle Enterprise Resource Planning Cloud接続の作成
Oracle Enterprise Resource Planning (ERP) Cloudは、会計、財務管理、プロジェクト管理、調達、リスク管理などの機能を管理するためのクラウド・ベースのエンド・ツー・エンドのSoftware as a Service (SaaS)スイートです。 データ変換Oracle ERP Cloudコネクタを使用すると、ERP Cloudサーバーからレポート・データを抽出してAutonomous Databaseにロードできます。 - Oracle Financials Cloud接続を作成
Oracle Financials Cloud RESTエンドポイントからリアルタイムのトランザクション・データをフェッチし、データ・エンティティをデータ変換にインポートし、それらをデータ・フロー内のソースとして使用できます。 - Oracle NetSuite接続の作成および使用
Oracle NetSuite JDBCドライバまたはOAuth 2.0認証を使用して、Oracle NetSuiteアプリケーションに接続できます。 Oracle NetSuite接続の場合、データ変換では、NetSuiteからターゲット・スキーマにデータを転送するために実行できる事前構築済のデータ・フローおよびワークフローをロードできます。 - Oracle Object Storage接続の作成
データ変換を使用して、Oracle Object StorageからAutonomous Databaseにデータをアップロードできます。 - RESTサーバー接続の作成
任意のRESTサービス・エンドポイントに接続し、データ・エンティティをデータ変換にインポートし、データ・フローでそれらをソースとして使用できます。
親トピック: データ変換ページ
サポートされている接続タイプ
このトピックでは、データ変換への接続でサポートされている接続タイプを示します。
Government Cloudリージョンでは、データ保護に関するFIPSコンプライアンス標準のサポートが要求されます。 政府レルムでのデータ変換は、FIPS 140-2 Level 1に準拠しています。 サーバー間のセキュアな通信を確保するために、接続ソースがFIPSに準拠していることを確認します。
ノート:
適用先:
- ドライバのインストールが必要なコネクタの場合、接続を追加する前に、jarファイルを
/u01/oracle/transforms_home/userlibs
ディレクトリにコピーする必要があります。 - ここに示されている接続タイプとは別に、JDBCでサポートされている任意のデータ・ソースにデータ変換を接続するために使用できるカスタム・コネクタを作成できます。 カスタム・コネクタの作成を参照してください。
名前 | タイプ | Data Integrator: Web Editionでのサポート | Autonomous Databaseに組み込まれたデータ変換でのサポート | OCI GoldenGateに組み込まれたデータ変換でサポート | 書込み操作のサポート | 認証モード: 接続URLの例 | ノート |
---|---|---|---|---|---|---|---|
Aha! | アプリケーション | あり | あり | あり | なし |
|
|
Ahrefs | アプリケーション | あり | あり | あり | なし |
|
|
Amazon Aurora | データベース | あり | あり | あり | あり |
|
|
Amazon EMR Hive | データベース | あり | あり | あり | なし |
|
|
Amazon Redshift | データベース | あり | あり | あり | あり |
|
|
Apache Hive | データベース | あり | あり | あり | なし |
|
|
Apache Iceberg | データベース | あり | あり | あり | あり |
サポートされている認証モードは、「None」、「Simple」および「OAuth2.0」です。 http://<host>:<port>/iceberg |
Apache Icebergを使用した接続の作成については、「Apache Iceberg接続の作成」を参照してください。 |
Apache Impala | データベース | あり | あり | あり | なし |
|
|
Apache Spark SQL | データベース | あり | あり | あり | なし |
|
|
AWS S3 | データベース | あり | あり | あり | なし |
|
|
Azure Billing | アプリケーション | あり | あり | あり | なし |
|
|
Azure Compute | データベース | あり | あり | あり | なし |
|
|
Azure Data Lake Storage | データベース | あり | あり | あり | なし |
|
|
Azure Reserved VM Instances | データベース | あり | あり | あり | なし |
|
|
Azure Resource Health | アプリケーション | あり | あり | あり | なし |
|
|
Azure SQL Database | データベース | あり | あり | あり | あり |
|
|
Azure Synapse Analytics | データベース | あり | あり | あり | あり |
|
|
BigCommerce | アプリケーション | あり | あり | あり | なし |
|
|
Cassandra | データベース | あり | あり | あり | あり |
|
|
Cloudera CDH Hive | データベース | あり | あり | あり | なし |
|
|
Confluence Cloud | データベース | あり | あり | あり | なし |
|
|
データ変換 | サービス | あり | あり | あり | なし | http://<host>:<port>/odi-rest |
既存のデータ変換インスタンスに接続する手順は、リモート・データ・ロード用のデータ変換接続の作成を参照してください。 |
DataStax | アプリケーション | あり | あり | あり | あり |
|
|
デルタ共有 | アプリケーション | あり | あり | あり | なし | トークン・エンドポイントURLを入力します。 | デルタ共有を使用して接続を作成する手順は、デルタ共有接続の作成を参照してください |
DocuSign | データベース | あり | あり | あり | なし |
|
|
eBay | アプリケーション | あり | あり | あり | なし |
|
|
EnterpriseDB | データベース | あり | あり | あり | あり |
|
|
FinancialForce | アプリケーション | あり | あり | あり | あり |
|
|
FourSquare | アプリケーション | あり | あり | あり | なし |
|
|
Generic Rest | アプリケーション | あり | あり | あり | なし | REST Service URLを入力します。 | RESTサービス・エンドポイントに接続して接続を作成する方法の詳細は、RESTサーバー接続の作成を参照してください。 |
汎用REST構成 | アプリケーション | あり | なし | なし | なし |
|
RESTサービス・エンドポイントに接続して接続を作成する方法の詳細は、RESTサーバー接続の作成を参照してください。 |
GitHub | アプリケーション | あり | あり | あり | なし |
|
|
Google広告 | アプリケーション | あり | なし | なし | ドライバに依存 | ドライバに依存 | ドライバのインストールが必要 |
Google AdSense | アプリケーション | あり | あり | あり | なし |
|
|
Google Analytics | アプリケーション | あり | あり | あり | なし |
|
|
Google BigQuery | データベース | あり | あり | あり | なし |
|
|
Google Calendar | アプリケーション | あり | あり | あり | なし |
|
|
Google Campaign Manager | アプリケーション | あり | あり | あり | なし |
|
|
Google Contacts | アプリケーション | あり | あり | あり | なし |
jdbc:weblogic:autorest:servername=people.googleapis.com/v1; clientId=123456789012-abc123def456ghi789jkl012mno345pq.apps.googleusercontent.com; clientSecret=**************; authUri=https://accounts.google.com/o/oauth2/auth; tokenUri=https://accounts.google.com/o/oauth2/token; redirectUri=http://localhost; AuthenticationMethod=OAuth2; scope=https://www.googleapis.com/auth/contacts.other.readonly https://www.googleapis.com/auth/contactshttps://www.googleapis.com/auth/contacts.readonly https://www.googleapis.com/auth/directory.readonlyhttps://www.googleapis.com/auth/profile.agerange.read https://www.googleapis.com/auth/profile.emails.readhttps://www.googleapis.com/auth/profile.language.read https://www.googleapis.com/auth/user.addresses.readhttps://www.googleapis.com/auth/user.birthday.read https://www.googleapis.com/auth/user.emails.readhttps://www.googleapis.com/auth/user.gender.read https://www.googleapis.com/auth/user.organization.readhttps://www.googleapis.com/auth/user.phonenumbers.read https://www.googleapis.com/auth/userinfo.emailhttps://www.googleapis.com/auth/userinfo.profile; refreshtoken: **************; |
|
Google Drive | データベース | あり | あり | あり | なし |
|
|
Google Search Ads 360 | アプリケーション | あり | あり | あり | なし |
|
|
Greenplum | データベース | あり | あり | あり | なし |
|
|
Hortonworks Hive | データベース | あり | あり | あり | なし |
|
|
HubSpot | アプリケーション | あり | あり | あり | なし | OAuth2: jdbc:weblogic:hubspot:AuthenticationMethod=OAuth2;ClientID=client_id; ClientSecret=client_secret;RefreshToken=refresh_token;Scope=scope;[property=value[;...]]; |
|
Hypersonic SQL | データベース | あり | あり | あり | あり | jdbc:hsqldb:<protocol>:<databasePath>[;ifexists=true][;<property>=<value>...]; |
|
IBM BigInsights | データベース | あり | あり | あり | なし |
|
|
IBM DB2 Hosted | データベース | あり | あり | あり | あり |
|
|
IBM DB2 UDB | データベース | あり | あり | あり | あり |
|
|
IBM DB2 Warehouse | データベース | あり | あり | あり | あり |
|
|
IBM DB2/400 | データベース | あり | あり | あり | あり |
|
|
Informix | データベース | あり | あり | あり | なし |
|
|
Jira | アプリケーション | あり | あり | あり | なし | jdbc:weblogic:jira:servername;[property= value[;...]]; |
|
Klaviyo | アプリケーション | あり | あり | あり | なし |
|
|
Magento | アプリケーション | あり | なし | なし | ドライバに依存 | ドライバに依存 | ドライバのインストールが必要 |
Mailchimp | アプリケーション | あり | あり | あり | なし |
|
|
MapR Hive | データベース | あり | あり | あり | なし |
|
|
Marketo | アプリケーション | あり | あり | あり | なし |
|
|
Microsoft Dynamics 365 | アプリケーション | あり | あり | あり | あり |
|
|
Microsoft SharePoint | アプリケーション | あり | あり | あり | あり |
|
|
Microsoft SQL Server | データベース | あり | あり | あり | あり |
|
|
Mongo DB | データベース | あり | あり | あり | あり |
|
|
MySQL | データベース | あり | あり | あり | あり | jdbc:mysql://<host>[:<port>]/[<database>]?relaxAutoCommit=true&useCursorFetch=true[&<property>=<value>...] |
システム変数のプロパティsql_require_primary_key が「オフ」に設定されていることを確認してください。 そうしないと、ADWからMySQLへのマッピングが「表が存在しません」というエラーで失敗する可能性があります。
|
MySQL Heatwave | データベース | あり | あり | あり | あり | jdbc:mysql://<host>[:<port>]/[<database>]?relaxAutoCommit=true&useCursorFetch=true[&<property>=<value>...] |
MySQL Heatwaveデータベースが高可用性で作成されている場合、書込み操作はサポートされません。 システム変数のプロパティ |
Netezza | データベース | あり | なし | なし | ドライバに依存 | ドライバに依存 | Oracle Data Transformsでは、Netezza JDBCを使用してNCR Netezzaデータベースに接続します。 このドライバは、データ変換のuserlibs ディレクトリにインストールする必要があります。 Netezza JDBCドライバは、IBMのWebサイトからダウンロードできます。
|
Oracle | データベース | あり | あり | あり | あり |
|
Data Integrator Web Editionの場合、書込み操作はOracle Cloud Databaseターゲットでのみサポートされています。 詳細は、OCIマーケットプレイスからイメージをデプロイする前に、Oracleの使用条件を参照してください。 |
Oracle Analytics Cloud (Oracle BI Cloud Service) | アプリケーション | あり | あり | あり | なし | BI Cloud Connector Service URLを入力します。 | |
Oracle Business Intelligence Cloud (BICC) Connector | アプリケーション | あり | あり | あり | なし | BI Cloud Connector Service URLを入力します。 | Oracle Business Intelligence Cloud (BICC) Connectorを使用した接続の作成の詳細は、「Oracle Business Intelligence Cloud Connector接続の作成」を参照してください。 |
Oracle EBS | アプリケーション | あり | あり | あり | あり |
|
|
Oracle ERP Cloud | アプリケーション | あり | あり | なし | なし | BI Publisher webサービスのURLを入力します。 | Oracle ERP Cloudを使用した接続の作成の詳細は、「Oracle Enterprise Resource Planning Cloud接続の作成」を参照してください。 |
Oracle Financials Cloud | アプリケーション | あり | あり | あり | なし | REST Service URLを入力します。 | Oracle Financials Cloudを使用した接続の作成の詳細は、Oracle Financials Cloud接続の作成を参照してください。 |
Oracle Fusion ERP | アプリケーション | あり | あり | あり | なし | Service URLを入力します。 | |
Oracle Fusion Sales | アプリケーション | あり | あり | あり | なし | Service URLを入力します。 | |
Oracle Fusion Service | アプリケーション | あり | あり | あり | なし | Oracle Fusion Service | |
Oracle GoldenGate - OCI | サービス | あり | あり | あり | あり | デプロイメントURLを入力します。 | |
Oracle Marketing Cloud | アプリケーション | あり | あり | あり | あり | jdbc:weblogic:eloqua:Company=<company_id>;[;property=value[;...]] |
|
Oracle NetSuite | アプリケーション | あり | あり | あり | なし | jdbc:ns://{Server Host}:{Server Port};ServerDataSource={Server Data Source}; |
Oracle Netsuiteを使用した接続の作成の詳細は、Oracle NetSuite接続の作成および使用を参照してください。 |
Oracle Object Storage | データベース | あり | あり | あり | あり | オブジェクト・ストレージURLを入力します。 | Oracle Object Storageを使用した接続の作成の詳細は、Oracle Object Storage接続の作成を参照してください。 |
Oracle People Soft | アプリケーション | あり | あり | あり | なし |
|
|
Oracle Sales Cloud | アプリケーション | あり | あり | あり | なし | jdbc:weblogic:oraclesalescloud://<base_url>;WSCompressData=none |
|
Oracle Service Cloud | アプリケーション | あり | あり | あり | なし | jdbc:weblogic:oracleservicecloud:loginHost=host;[property=value[;...]] |
Oracle Data TransformsでOracle Service Cloudに複数のJDBC接続を使用する場合は、競合を回避するために各接続が一意に識別されるようにします。 これを行うには、JDBC URLに 次に例を示します。
<UniqueValue>は、環境ごとに一意の値です。 たとえば、 これにより、環境ごとに個別の構成ファイルを使用できます。 |
Oracle SIEBEL | アプリケーション | あり | あり | あり | なし |
|
|
PayPal | アプリケーション | あり | あり | あり | なし |
|
|
Pivotal HD | データベース | あり | あり | あり | なし |
|
|
Pivotal HDB | データベース | あり | あり | あり | なし |
|
|
PostgreSQL | データベース | あり | あり | あり | あり |
|
|
Qmetry | アプリケーション | あり | あり | あり | なし |
|
|
QuickBooks Online | アプリケーション | あり | あり | あり | なし |
|
|
QuickBooks Payments | アプリケーション | あり | あり | あり | なし |
|
|
Quora Ads | アプリケーション | あり | あり | あり | なし |
|
|
Sage | アプリケーション | あり | あり | あり | なし |
|
|
Salesforce Chatter | アプリケーション | あり | あり | あり | なし |
|
|
Salesforce.com | アプリケーション | あり | あり | あり | なし |
|
Salesforce接続をマッピングのターゲットとして使用することはできません。 |
SAP BW/4HANA | データベース | あり | あり | あり | なし |
|
|
SAP HANA | アプリケーション | あり | あり | あり | なし |
|
|
SAP NetWeaver | データベース | あり | あり | あり | なし |
|
|
SAP S/4HANA Cloud | アプリケーション | あり | あり | あり | なし |
|
|
Semrush | アプリケーション | あり | あり | あり | なし |
|
|
ServiceNow | サービス | あり | あり | あり | なし |
|
|
Shopify | アプリケーション | あり | あり | あり | なし |
|
|
Snowflake | データベース | あり | あり | あり | あり |
|
|
Square | アプリケーション | あり | あり | あり | なし |
|
|
Stripe | アプリケーション | あり | あり | あり | なし | BearerToken: jdbc:weblogic:autorest:servername=https://api.stripe.com;AuthenticationMethod=BearerToken;securitytoken=**************************; |
|
SAP Sybase ASE | データベース | あり | あり | あり | あり | jdbc:weblogic:sybase://hostname:port[;property=value[;...]] |
|
SAP Sybase IQ | データベース | あり | あり | あり | あり | jdbc:weblogic:sybase://hostname:port[;property=value[;...]] |
|
Sybase As Anywhere | データベース | あり | あり | あり | あり | jdbc:weblogic:sybase://hostname:port[;property=value[;...]] |
|
TeamCity | アプリケーション | あり | あり | あり | なし |
|
|
Teradata | データベース | あり | なし | なし | ドライバに依存 | 使用されるドライバに依存します(com.ncr.teradata.TeraDriver) | データ変換では、Teradata JDBCドライバを使用してTeradataデータベースに接続します。 Teradataをデータ・ソースとして使用するには、Teradata Gateway for JDBCが実行されていて、このドライバがデータ変換のuserlibs ディレクトリにインストールされている必要があります。 JDBCドライバは、TeradataのWebサイトからダウンロードできます。
|
Teradata 17+ | データベース | あり | なし | なし | ドライバに依存 | 使用されるドライバに依存します(com.teradata.jdbc.TeraDriver) | データ変換では、Teradata JDBCドライバを使用してTeradataデータベースに接続します。 Teradataをデータ・ソースとして使用するには、Teradata Gateway for JDBCが実行されていて、このドライバがデータ変換のuserlibs ディレクトリにインストールされている必要があります。 JDBCドライバは、TeradataのWebサイトからダウンロードできます。
|
Tumblr | アプリケーション | あり | あり | あり | なし |
|
|
Veeva CRM | アプリケーション | あり | あり | あり | あり |
|
|
Volusion | アプリケーション | あり | あり | あり | なし |
|
|
Wistia | アプリケーション | あり | あり | あり | なし |
|
|
WooCommerce | アプリケーション | あり | なし | なし | ドライバに依存 | ドライバに依存 | ドライバのインストールが必要 |
WordPress | アプリケーション | あり | あり | あり | なし |
|
|
Workday | アプリケーション | あり | なし | なし | ドライバに依存 | ドライバに依存 | ドライバのインストールが必要 |
X | アプリケーション | あり | あり | あり | なし |
|
|
Xero | アプリケーション | あり | あり | あり | なし |
|
|
Yelp | アプリケーション | あり | あり | あり | なし |
|
|
Zendesk | アプリケーション | あり | あり | あり | いいえ |
|
|
Zoho CRM | アプリケーション | あり | あり | あり | いいえ |
|
|
Zoom | アプリケーション | あり | あり | あり | いいえ |
|
親トピック: 接続の操作
カスタム・コネクタの作成
適用先: Data Integrator: Web Editionというマーケットプレイスで別個のリストとして利用できるデータ変換。
新しいコネクタを作成するには:
- 左側のペインで、「管理」をクリックします。
警告メッセージが表示されます。
- 「続行」をクリックします。
- 左側のペインで、「カスタム接続」をクリックします。
「カスタム接続」画面が表示されます。
- 「接続タイプの作成」をクリックします。
「接続タイプの作成」ページが表示されます。
- 「カテゴリ」ドロップダウンから、データベース、アプリケーションまたはサービスのいずれかを作成する接続のタイプを選択します。
- 接続の名前を入力します。
- ソース接続のJDBCドライバの名前を入力します。 たとえば、
oracle.jdbc.OracleDriver
です。ノート:
ドライバのインストールが必要なコネクタの場合、接続を追加する前に、jarファイルを/u01/oracle/transforms_home/userlibs
ディレクトリにコピーする必要があります。 - 「OK」をクリックします。
新しく作成したカスタム接続がリストに表示され、「接続の作成」ページで使用できます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- 作成した接続を削除するには、「削除」を選択します。
ノート:
既存の接続を持つカスタム・コネクタは削除できません。
親トピック: 接続の操作
リモート・データ・ロード用のデータ変換接続の作成
既存のデータ変換インスタンスに接続し、データ・ロードをリモートで実行できます。
データ変換接続を定義するには:
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続の詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
親トピック: 接続の操作
Apache Iceberg接続の作成
Apache Icebergは、大規模なアナリティク・データ・セットを管理するために最適化されたオープンな標準表形式です。 Data Transformsでは、任意のSQLベースのデータ・ソースからデータをロードするためのターゲットとしてApache Icebergの使用がサポートされています。
データ変換では、Oracle Object Storage (S3互換性)およびAWS S3ストレージ・サービスがサポートされ、「Apache Iceberg」表のparquetファイルが格納されます。
Data Transforms Apache Icebergコネクタでは、RESTカタログがすでに存在している必要があります。 このRESTカタログは、Iceberg Open API仕様のApache Gravitino (外部リンク)に基づいて設定されます。
ノート:
Data Transformsでは、Apache Gravitinoバージョン0.7.0インキュベート以下を使用してRESTサービスを起動できます。Apache Iceberg接続の作成
REST URLおよび認証詳細(ユーザー名とパスワードなど)を指定することで、Iceberg RESTカタログとのApache Iceberg接続を構成できます。 また、よりセキュアなOAuth 2.0認証を使用して接続を作成することもできます。
Apache Iceberg接続を作成するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページが表示されます。
- 次の内の1つを実行します。
- 「タイプの選択」フィールドに、接続タイプの名前または名前の一部を入力します。
- 「データベース」タブを選択します。
- 接続タイプとして「Apache Iceberg」を選択します。
- 「次」をクリックします。
- 「接続名」フィールドにはデフォルト名が事前に移入されています。 この値は編集可能です。
- 「カタログ名」テキスト・ボックスに名前を入力します。
- Rest URLテキスト・ボックスに、RESTサーバーのURLを入力します。
<host>:<port>/<ServiceName>/iceberg
形式で値を入力します。 - 「認証」ドロップダウン・セクションで、次のいずれかを実行します:
- 「なし」を選択します。
- 「シンプル」を選択し、「Restユーザー」および「Restパスワード」を入力します。
- OAuthを選択し、次の詳細を入力します:
- 倉庫のロケーション: データを格納するロケーション。 たとえば、
s3://my-bucket/my/table/location
- トークンURI: OAuthトークンを
http://<host>:<port>
の形式で取得するためのURL - トークン・パス: OAuthトークンのパス。 たとえば、
/oauth2/token
です。 - クライアントID: OAuthクライアントID。
- クライアント・シークレット: OAuthクライアント・シークレット。
- 認証スコープ: Gravitinoサーバーへのアクセス時にクライアントに付与される権限。 たとえば、
test
認証スコープ値は、クライアントがGravitino内のテスト・スコープに関連するリソースにアクセスする権限があることを示す場合があります。[オプション] - 権限タイプ: 認可サーバーがアクセス・トークンの発行に使用するメソッド。 たとえば、
client_credentials
およびauthorization_code
です。[オプション]
- 倉庫のロケーション: データを格納するロケーション。 たとえば、
- 「テスト接続」をクリックして、確立された接続をテストします
- 必要なすべての接続の詳細を指定した後、「作成」をクリックします。
Apache Iceberg接続は、Oracle Object StorageにIcebergデータを格納するRESTカタログで構成されます。
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
Apache Icebergデータ・ロードの作成および実行
Oracleなどの任意のSQLベースのソース・データ・ソースのデータ・ロードを作成して、Apache Icebergターゲット表にデータをロードできます。 Apache Icebergをターゲット・データ・ソースとして使用するには、接続の名前とネームスペースを指定する必要があります。 Apache Icebergのネームスペースは、リレーショナル・データベースのスキーマに似ています。
データ・ロードを作成すると、ソース・スキーマ内のすべての表が、選択した各ソース表のデータを増分的にロード、追加およびマージするためのオプションとともに「データ・ロード詳細」ページにリストされます。 データ・ロード実行が完了すると、Iceberg表からデータを読み取ることができます。 ワークフローにデータ・ロードをステップとして追加し、事前定義された時間間隔でワークフローを実行するスケジュールを作成できます。 「新規ワークフローの作成」を参照してください。
Apache Icebergデータ・ロードを作成して実行するには:
- 次の内の1つを実行します。
- ホームページで、「データのロード」をクリックします。 「データ・ロードの作成」ウィザードが表示されます。
「データ・ロードの作成」タブで、デフォルト値を置換する場合は名前を入力し、摘要を追加してドロップダウンからプロジェクトを選択します。
- ホームページで「プロジェクト」をクリックし、必要なプロジェクト・タイルをクリックします。 左側のペインで、「データ・ロード」をクリックし、「データ・ロードの作成」をクリックします。 「データ・ロードの作成」ウィザードが表示されます。
- ホームページで、「データのロード」をクリックします。 「データ・ロードの作成」ウィザードが表示されます。
- デフォルト値を置き換えて説明を追加する場合は、名前を入力します。
- ロード処理では、次のいずれかを実行します:
- 「内部」ラジオ・ボタンを選択し、「デプロイメント・タイプ」ドロップダウンから「データ変換(バッチ)」を選択します。
- 「委任」ラジオ・ボタンを選択し、「デプロイメント・タイプ」ドロップダウンからOCI GoldenGateを選択します。 GoldenGateデプロイメント接続から接続を選択します。
- 「次」をクリックします。
- 「ソース接続」タブで、次の手順を実行します。
- 「接続タイプ」ドロップダウンから、SQLベースのデータ・ソースを選択します。
- 「接続」ドロップダウンから、データ・エンティティの追加元となる必要な接続を選択します。
- 「次」をクリックします。
- 「ターゲット接続」タブで、次の手順を実行します。
- 「接続タイプ」ドロップダウンから、接続タイプとしてApache Icebergを選択します。
- 「接続」ドロップダウンから、データのロードに使用する接続を選択します。
- 「ネームスペース」を指定します。 既存のネームスペースから選択することも、新しいネームスペースを作成することもできます。
- 「保存」をクリックします。
「データ・ロード詳細」ページに、すべてのソース表が表示されます。
- ロードする必要な表および対応するデータ・ロード操作を選択します。 使用できるデータ・ロード・オプションは、「増分マージ」、「増分追加」、「追加」および「ロードしない」です。
をクリックして変更を保存します。 行の緑色のチェックマーク(
)は、変更が保存されていることを示します。
toをクリックして、データ・ロードを実行します。
データ・ロードが正常に開始されると、確認プロンプトが表示されます。
データ・ロードのステータスを確認するには、ターゲット・スキーマの詳細の右側にある「データ・ロードのステータス」パネルを参照してください。 パネルの詳細は、「データ・ロード、データ・フローおよびワークフローのステータスのモニター」を参照してください。 このパネルには、このデータ・ロードを実行するために実行されるジョブへのリンクが表示されます。 「ジョブの詳細」ページで進行状況をモニターするには、リンクをクリックします。 ジョブの詳細は、「ジョブの作成および管理」を参照してください。
ロードされたすべての表とその詳細が、「データ・エンティティ」ページにリストされます。 データ・エンティティの統計を表示するには、データ・エンティティの横にある「アクション」アイコン()をクリックし、「プレビュー」をクリックしてから、「統計」タブを選択します。 詳細については、「データ・エンティティの統計の表示」を参照してください。
親トピック: 接続の操作
デルタ共有接続の作成
Databricks Delta Shareは、セキュアなデータ共有のためのオープン・プロトコルです。 Oracle Data Transformsは、デルタ共有と統合され、Oracle Autonomous Databaseにデータをロードします。 デルタ共有接続を使用して、DatabricksまたはOracle Data Shareからデータをロードできます。
Databricksをソースとして使用するには、デルタ共有サーバーのURLと、Delta Lake共有サーバーにアクセスできるBearerトークンを指定する必要があります。 Oracle Data Shareをソースとして使用するには、トークン・エンド・ポイントのURLをクライアントIDおよび秘密キーとともに指定する必要があります。
デルタ共有接続の作成
デルタ共有接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページが表示されます。
- 次の内の1つを実行します。
- 「タイプの選択」フィールドに、接続タイプの名前または名前の一部を入力します。
- 「データベース」タブを選択します。
- 接続タイプとして「デルタ共有」を選択します。
- 「次」をクリックします。
- 「接続名」フィールドにはデフォルト名が事前に移入されています。 この値は編集可能です。
- エンドポイントURLの共有テキストボックスに、デルタ共有サーバーのURLを入力します。 値を
<host>:<port>/<shareEndpoint>/
形式で入力します。 - 「接続」セクションで、次のいずれかを実行します。
- 「Oracleデータ共有」を選択し、共有にアクセスするための「トークン・エンドポイントURL」、「クライアントID」および「クライアント・シークレット」を指定します。
この情報は、共有プロバイダから提供されるものからダウンロードする必要があるデルタ共有プロファイルJSONドキュメントから取得できます。 (これは、共有エンドポイントURLの取得元でもあります)
この情報は、共有にアクセスするためにデータ共有プロバイダが提供するアクティブ化リンクからダウンロードできるデルタ共有プロファイルJSONドキュメントから取得できます。
- 「Databricks」を選択し、「Bearerトークン」テキスト・ボックスにデルタ共有サーバーに接続するためのトークンを入力します。
- 「Oracleデータ共有」を選択し、共有にアクセスするための「トークン・エンドポイントURL」、「クライアントID」および「クライアント・シークレット」を指定します。
- プロキシを使用してデルタ共有サーバーまたはデルタ共有ストレージにアクセスする必要がある場合は、次の設定を構成します。
- 「プロキシ・ホスト」テキスト・ボックスに、接続に使用されるプロキシ・サーバーのホスト名を入力します。
- 「プロキシ・ポート」テキスト・ボックスに、プロキシ・サーバーのポート番号を入力します。
- プロキシが必要な場所に応じて、次のチェック・ボックスを選択します。
- デルタ共有サーバーにアクセスするためのプロキシの使用
- プロキシを使用したデルタ共有ストレージへのアクセス
- 「テスト接続」をクリックして、確立された接続をテストします
- 必要なすべての接続の詳細を指定した後、「作成」をクリックします。
新しい接続が作成されます。
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
デルタ共有データ・ロードの作成および実行
デルタ共有からOracle Autonomous Databaseにデータをロードするには、Oracle接続ユーザーが管理ユーザーである必要があります。 Oracleユーザーがデータを作成して別のスキーマの表に挿入できるようにするには、管理権限が必要です。
データ・ロードを実行すると、データ変換によって、ターゲット・スキーマ内の対応する表にデータがロードされます。 データ・ロードは増分的に実行されます。 データ・ロードを初めて実行すると、データ変換によってすべてのデータが新しい表にコピーされます。 後続のデータ・ロード実行ごとに、変更のみがアップロードされます。 レコード内の追加または削除は、ターゲット表に反映されます。 表にメタデータの変更がある場合(列の追加など)、データ変換では、ターゲット・サーバーにデータをロードする新しい表が作成されます。 ワークフローを作成し、データ・ロードをステップとして追加し、事前定義された時間間隔でワークフローを実行するスケジュールを作成できます。 「新規ワークフローの作成」を参照してください。
デルタ共有データ・ロードを作成して実行するには:
- 次の内の1つを実行します。
- ホーム・ページで、「データのロード」をクリックします。 「データ・ロードの作成」ウィザードが表示されます。
「データ・ロードの作成」タブで、デフォルト値を置換する場合は名前を入力し、説明を追加して、ドロップダウンからプロジェクトを選択します。
- ホーム・ページで、「プロジェクト」、必要なプロジェクト・タイルの順にクリックします。 左側のペインで、「データ・ロード」をクリックし、「データ・ロードの作成」をクリックします。 「データ・ロードの作成」ウィザードが表示されます。
デフォルト値を置き換えて説明を追加する場合は、「データ・ロードの作成」タブで名前を入力します。
- ホーム・ページで、「データのロード」をクリックします。 「データ・ロードの作成」ウィザードが表示されます。
- 「次」をクリックします。
- 「ソース接続」タブで、
- 「接続タイプ」ドロップダウンから、「共有のデルタ」を選択します。
- 「接続」ドロップダウンから、データ・エンティティの追加元となる必要な接続を選択します。
- 「共有」ドロップダウンから、表をロードする共有を選択します。 ドロップダウンには、選択した接続のすべてのシェアが一覧表示されます。
- 「次」をクリックします。
- 「ターゲット接続」タブで、
- 「接続タイプ」ドロップダウンから、接続タイプとして「Oracle」を選択します。
ノート:
このドロップダウンには、JDBCタイプの接続のみがリストされます。 - 「接続」ドロップダウンから、データ・エンティティのロード元の必要な接続を選択します。
- 「スキーマ」テキスト・ボックスに一意の名前を入力します。
- 「保存」をクリックします。
「データ・ロードの詳細」ページに、選択した共有内のすべての表とそのスキーマ名が表示されます。ノート:
デルタ共有データ・ロードの場合、「データ・ロードの詳細」ページにはオプションのみが含まれます。 ターゲット・スキーマにロードする前に、データ・エンティティに様々なアクション(増分マージ、増分追加、再作成、切捨て、追加)を適用することはできません。 これは、デルタ共有サーバーとターゲット・スキーマ間でデータが一貫していることを確認するためです。
- 「接続タイプ」ドロップダウンから、接続タイプとして「Oracle」を選択します。
をクリックしてデータ・ロードを実行します。
データ・ロードが正常に開始されると、確認プロンプトが表示されます。
データ・ロードのステータスを確認するには、ターゲット・スキーマの詳細のすぐ下にある「ステータス」パネルを参照してください。 「ステータス」パネルの詳細は、「データ・ロード、データ・フローおよびワークフローのステータスのモニター」を参照してください。 このパネルには、このデータ・ロードを実行するために実行されるジョブへのリンクが表示されます。 「ジョブの詳細」ページで進行状況をモニターするには、リンクをクリックします。 ジョブの詳細は、「ジョブの作成および管理」を参照してください。
ロードされたすべてのデータ・エンティティとその詳細が「データ・エンティティ」ページにリストされます。 データ・エンティティの統計を表示するには、データ・エンティティの横にある「アクション」アイコン()をクリックし、「プレビュー」、「統計」タブの順に選択します。 詳細は、「データ・エンティティの統計の表示」を参照してください。
親トピック: 接続の操作
Oracle Business Intelligence Cloud Connector接続の作成
Oracle Business Intelligence Cloud Connector (BICC)を使用すると、データ・ソースからビジネス・データを抽出し、Autonomous Databaseにロードできます。
Oracle BICC接続を作成するには、まずBICCコンソールの「OCIオブジェクト・ストレージ接続」タブを使用して外部ストレージを構成する必要があります。 Oracle Data Transformsで接続を定義する際に、これらの接続の詳細を指定する必要があります。
BICC接続を使用して、データ・ストアを抽出するオファリングを選択できます。 データ変換では、Oracle BICCで使用されるOracle Object Storageデータ・サーバーを使用して、抽出されたファイルをステージングします。これらは、その後マッピングのソースとして使用できます。 Oracle BICC接続をマッピングのターゲットとして使用できないことに注意してください。
Oracle BICC接続を定義するには、
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
親トピック: 接続の操作
Oracle Cloud Infrastructure生成AI接続の作成と使用
Oracle Cloud Infrastructure (OCI)生成AIにより、組織はテキスト要約および動的コンテンツ生成を自動化できます。 データ変換はOCI生成AIと統合され、データ・フローへのベクトルの埋込みの使用をサポートします。
Oracle Cloud Infrastructure生成AI接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページが表示されます。
- 「タイプの選択」で、
- 「名前」フィールドに、新しく作成した接続の名前を入力します
- 接続のタイプとして「サービス」を選択します。
- 「OCI生成AI」および「次」を選択します。
- 「接続の詳細」には、次の詳細を指定します:
- OCI URL - OCI生成AIサービスのエンドポイントURL。
- 「ユーザーOCID」 - Oracle Cloud InfrastructureコンソールのユーザーOCID。
- 「テナンシOCID」 - Oracle Cloud InfrastructureコンソールからのテナンシOCID。
- 「コンパートメントOCID」 - Oracle Cloud InfrastructureコンソールからのコンパートメントOCID。
- 「秘密キー」 - PEM形式の秘密キー。 ダウンロードした秘密キー・ファイルへのパスを指定します。
- 「指紋」 - 追加されたキーの指紋。
- 必要な接続詳細をすべて入力した後、「作成」をクリックします。
新しい接続が作成されます。
- 「テスト接続」をクリックして、確立された接続をテストします
構成したOracle Database 23ai接続がリストされたポップアップが表示されます。 この接続のテストに使用するオプションを選択します。
ノート:
テスト接続に失敗した場合は、「OCI生成AI接続の問題のトラブルシューティング」で問題を修正する手順を参照してください。
新しく作成した接続が「接続」ページに表示されます。
OCI生成AI接続の問題のトラブルシューティング
OCI生成AI接続で「接続のテスト」が失敗した場合は、次の操作を実行して問題をトラブルシューティングします:
- すべての接続情報が正しく入力されていることを確認してください。 次に例を示します。
- OCI URLサンプル:
https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/20231130/actions/embedText
- 秘密キー・サンプル:
MIIEvg......beE/
- OCI URLサンプル:
- 「接続のテスト」をクリックすると、Oracle接続を選択するように求められます。 Oracle 23ai接続であることを確認します。
- Oracle 23aiデータベースにadminとしてログインし、次の問合せを実行してステータスが有効であることを確認します:
SELECT object_name, object_type, status FROM dba_objects WHERE object_name = 'DBMS_VECTOR_CHAIN' AND owner = 'CTXSYS';
- 次のplsqlブロックがデータベースで機能するかどうかを確認します。 データ変換では、plsqlブロックを使用して「接続のテスト」を実行します。
exec dbms_vector_chain.drop_credential('OCI_CRED'); declare jo json_object_t; begin -- create an OCI credential jo := json_object_t(); jo.put('user_ocid', '<your user ocid>'); jo.put('tenancy_ocid', '<your tenancy ocid'); jo.put('compartment_ocid', '<your compartment ocid'); jo.put('private_key', '<your private key'); jo.put('fingerprint', '<your fingerprint>'); dbms_output.put_line(jo.to_string); dbms_vector_chain.create_credential( credential_name => 'OCI_CRED', params => json(jo.to_string)); end;
select dbms_vector_chain.utl_to_embedding('hello', JSON('{"provider": "ocigenai","credential_name" : "OCI_CRED", "url": "https://inference.generativeai.us-chicago-1.oci.oraclecloud.com/20231130/actions/embedText","model": "cohere.embed-english-light-v2.0"}')) from dual;
plsqlブロック問合せの実行時にHTTP request failed
エラーが発生した場合は、ユーザーにネットワーク・アクセス権を付与してみてください:BEGIN DBMS_NETWORK_ACL_ADMIN.APPEND_HOST_ACE( host => '*', ace => xs$ace_type(privilege_list => xs$name_list('connect'), principal_name => '<your username>', principal_type => xs_acl.ptype_db)); END;
親トピック: 接続の操作
Oracle Enterprise Resource Planning Cloud接続の作成
- Oracle ERP Cloud接続をマッピングのターゲットとして使用することはできません。
- データ・ロードは、Oracle ERP Cloud接続ではサポートされていません。
Oracle ERP Cloudサーバー接続の作成
この接続を作成するには、レポート・サービスのWSDL URLと、ERP Cloudインスタンスに接続するためのユーザー名とパスワードを指定する必要があります。
Oracle ERP Cloudサーバー接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページが表示されます。
- 次のいずれかの操作を行います。
- 「タイプの選択」フィールドに、接続タイプの名前または名前の一部を入力します。
- 「アプリケーション」タブを選択します。
- 接続タイプとして「Oracle ERP Cloud」を選択します。
- 「次」をクリックします。
- 「接続名」フィールドにはデフォルト名が事前に移入されています。 この値は編集可能です。
- WSDL URLテキスト・ボックスに、Oracle ERP Cloudインスタンスに使用されるBI Publisher webサービスのURLを入力します。 URLの形式は
BI Publisher Hostname/xmlpserver/services/PublicReportWSSService?wsdl
です。たとえば:
https://fa-eudu-saasfademo1.ds-fa.oraclepdemos.com/xmlpserver/services/PublicReportWSSService?wsdl
。 - 「プロキシ・ホスト」テキスト・ボックスに、接続に使用されるプロキシ・サーバーのホスト名を入力します。
- 「プロキシ・ポート」テキスト・ボックスに、プロキシ・サーバーのポート番号を入力します。
- 「ユーザー」テキスト・ボックスに、Oracle ERP Cloudインスタンスに接続するためのユーザー名を入力します。
- 「パスワード」テキスト・ボックスに、Oracle ERP Cloudインスタンスに接続するためのパスワードを入力します。
- 必要なすべての接続の詳細を指定した後、「接続のテスト」をクリックして接続をテストします。
- 「作成」をクリックします。
新しく作成された接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン(
)をクリックして、次の操作を実行します:
- 入力した接続の詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
Oracle ERP Cloudサーバーからのデータ・エンティティ定義のインポート
Oracle ERP Cloud接続の場合、「データ・エンティティのインポート」ページにはキーと値のペアでの入力が必要です。 データをインポートするには、BIサーバー上のBIパブリッシャ・レポートのロケーションを参照するBIPReportLocation
キーを指定する必要があります。 この情報は、対応するレポートが開いているときにBIサーバーで確認できます。
- ホームページの左側のペインで、「データ・エンティティ」タブをクリックします。
「データ・エンティティ」ページが表示されます。
- 「データ・エンティティのインポート」をクリックします。 「インポート・データ・エンティティ」ページ・スライド・イン。
- 「接続」ドロップダウンで、「Oracle ERP Cloudサーバー接続の作成」で作成したOracle ERP Cloud接続を選択します。 ページのオプションは、「エンティティ名」フィールドのみを表示するように変更されます。
- 「エンティティ名」フィールドに、データ・エンティティの名前を入力します。
- 「キー」フィールドに
BIPReportLocation
と入力します。 - キーに対応する「値」フィールドに、BI Publisherレポート・ファイルの場所を入力します。
ReportFile.
xdo
ファイルの名前までのパスを指定します。 - 「開始」をクリックします。
ジョブが作成され、対応するジョブIDが表示され、セッションを追跡できます。 ジョブIDをクリックすると、そのジョブの詳細が表示されます。 ジョブが正常に実行されると、データ・エンティティが「データ・エンティティ」ページに表示されます。
- 選択したデータ・エンティティの横にある「アクション」アイコン(
)をクリックし、「編集」を選択します。
「データ・エンティティの編集」ページが表示され、次の情報を含む表が表示されます:- 名前
- データ型
- 長さ
- スケール
- NOT NULL
インポートされたエンティティのデータ型と長さを確認します。 Oracle Data Transformsは、ファイルの最初のレコードからデータ型と長さを決定しますが、デフォルト値(たとえば、文字列フィールド長の場合は50)または不正なデータ型を設定できます。 空のフィールドの場合、データ型は長さ50の文字列に設定されます。
- 「保存」をクリックします。
親トピック: 接続の操作
Oracle Financials Cloud接続の作成
Oracle Financials CloudのRESTエンドポイントからリアルタイムのトランザクション・データをフェッチし、データ・エンティティをデータ変換にインポートして、データ・フローのソースとして使用できます。
Oracle Financials Cloud接続を定義するには、
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
親トピック: 接続の操作
Oracle NetSuite接続の作成と使用
Oracle NetSuite JDBCドライバまたはOAuth 2.0認証を使用して、Oracle NetSuiteアプリケーションに接続できます。 Oracle NetSuite接続の場合、データ変換では、NetSuiteからターゲット・スキーマにデータを転送するために実行できる事前構築済のデータ・フローおよびワークフローをロードできます。
データ・ウェアハウスの構築に必要なアクセス権限の構成
NetSuite接続を作成するか、データ変換で「データ・ウェアハウスの構築」ウィザードを使用する前に、管理者としてNetSuiteにログインし、SuiteAnalytics Connectを有効にして、カスタム・ロールを作成し、NetSuiteデータ・ウェアハウスの構築に必要なアクセス権限を設定する必要があります。
アクセス権限を構成するには:
- 次のURLを使用して、管理者としてNetSuiteにログインします:
- SUITEANALYTICS CONNECT機能が有効になっているかどうかを確認します。
「設定」→「会社」→「機能を有効化」に移動します。 「分析」タブをクリックし、「SuiteAnalytics Connect」ボックスが選択されているを確認します。
- カスタム・ロールを追加します。
「設定」>「ユーザー/ロール」>「ユーザー管理」>「ロール管理」に移動します。 「新しいロール」をクリックし、必要な詳細を追加し、「保存」をクリックしてカスタム・ロールを作成します。
- 必要な権限をカスタム・ロールに割り当てます。
「設定」>「ユーザー/ロール」>「ユーザー管理」>「ロール管理」に移動します。 SuiteAnalytics Connect権限を追加するカスタム・ロールの名前の横にある「カスタマイズ」をクリックします。
「権限」タブ下の「トランザクション」タブをクリックし、次の権限を割り当てます:
- 勘定科目明細
- 会計リスト
- 会計管理
- 勘定科目
- 買掛金
- 買掛金グラフ化
- 買掛金登録表
- 売掛金
- 売掛金グラフ化
- 売掛金登録表
- 在庫調整
- 在庫ワークシートにて調整
- 償却レポート
- 償却スケジュール
- 監査証跡
- 貸借対照表
- 銀行登録表
- 発注書に基づき支払請求書を作成
- 請求スケジュール
- 支払請求書
- 保管棚棚入ワークシート
- 保管棚移動
- 一括発注書
- アセンブリの構成
- CRMグループ
- カレンダー
- 現金売上
- 現金売上払戻
- 支払
- 課金 - ルールを実行
- 課金ルール
- 小切手
- クラス
- コミッション適格化期間機能の設定
- コミッション・レポート
- 注文確定
- 給与管理を確定
- 競合
- コンポーネント使用場所
- 連絡先
- 在庫棚卸
- 経費配賦表作成
- クレジット・カード
- クレジット・カードの払戻
- クレジット・カード登録表
- クレジット・メモ
- 貸付返金
- 通貨
- 通貨再評価
- カスタム認識イベントの種類
- 前受金
- 顧客入金
- 顧客払戻
- 顧客
- 繰延経費精算書
- 削除済レコード
- 部門
- 預入
- 前受金適用
- ドキュメントとファイル
- 予測を編集
- マネージャー予測を編集
- 電子メール・テンプレート
- 従業員コミッション・トランザクション
- 従業員コミッション・トランザクションの承認
- 従業員レコード
- 従業員リマインダ
- 従業員
- 開始残高を入力
- 前払金/買掛金調整を入力
- 資本登録表
- 営業目標値の入力
- 見積
- イベント
- 経費精算書
- 費用
- リストをエクスポート
- 公正価値の特性
- 公正価値の計算式
- 公正価格
- 財務諸表
- トランザクション検索
- 固定資産登録表
- 注文を配送
- 配送リクエスト
- 総勘定元帳
- 価格リストを作成
- 計算書の生成
- インポート済従業員経費
- 到着荷物
- 収益
- 損益計算書
- 在庫
- 在庫ステータスの変更
- 請求書
- 請求書承認
- 注文書に基づき請求書を作成
- 配送
- 受領書
- アイテム収益カテゴリ
- アイテム
- リード・スナップショット/リマインダ
- 場所
- 長期負債登録表
- 仕訳入力の作成
- 会計期間を管理
- 給与を管理
- 一括更新
- 定期トランザクション
- モバイル・デバイスのアクセス
- 自己資本
- 非転記登録表
- ノート・タブ
- 商談
- その他の資産登録表
- その他流動資産登録表
- その他の流動負債登録表
- その他のリスト
- その他の名前
- 所有権移転
- 支払請求書の支払
- 消費税支払
- 税金負債の支払
- 給与仕訳帳
- 給与アイテム
- 検索を実行
- 通話
- 仕入先支払請求書差異を転記
- トランザクションの転記期間
- 価格表
- 価格プラン
- 給与計算処理
- プロジェクト収益ルール
- 購入契約書
- 発注書
- 発注書レポート
- 購入
- 照合
- 照合レポーティング
- 返品払戻
- レポートのカスタマイズ
- レポート・スケジュール
- 見積リクエスト
- 購買依頼
- リソース
- 返品
- 在庫費用を再評価
- 収益計上処理
- 収益計上処理の承認
- 収益要素
- 収益認識フィールド・マッピング
- 収益認識プラン
- 収益認識レポート
- 収益認識ルール
- 収益認識スケジュール
- SOAP Webサービス
- 売上
- パートナー別売上
- プロモーション別売上
- 注文書
- 注文書承認
- 注文書配送レポート
- 注文書レポート
- 注文書トランザクション・レポート
- 予算設定
- SOAP Webサービスを設定
- 計算書手数料
- 統計勘定科目登録
- 店頭受取配送
- 登録変更指示
- 登録プラン
- 登録カテゴリ
- 子会社
- SuiteAnalytics Connect
- SuiteAnalyticsワークブック
- タスク
- 税金
- メッセージをトラッキング
- トランザクション詳細
- 振替
- 在庫移動
- 移動伝票
- 移動伝票の承認
- 試算表
- 未請求売掛金登録表
- アセンブリの解体
- 単位
- 仕入先支払請求書の承認
- 仕入先支払承認
- 仕入先への見積リクエスト
- 仕入先返品 許可
- 仕入先返品
- 仕入先返品
- 仕入先
- 作業カレンダー
- ワーク・オーダー
- ワーク・オーダー終了
- ワーク・オーダー完了
- ワーク・オーダー発行
- 「SuiteAnalytics Connect - 全読取り」権限を追加します。
「権限」タブ下の「設定」タブをクリックし、ドロップダウンから「SuiteAnalytics Connect - 全読取り」を選択して、「追加」をクリックします。
- 「保存」をクリックして、これらの権限をカスタム・ロールに適用します。
- ユーザーにカスタム・ロールを割り当てます。 データ変換からNetSuiteへの接続を作成する際、このユーザーの資格証明を入力してデータ・サーバーに接続する必要があります。 接続の作成の詳細は、「Oracle NetSuite接続の作成」を参照してください。
ユーザーにカスタム・ロールを割り当てるには、「設定」>「ユーザー/ロール」>「ユーザー管理」に移動します。 ユーザーの名前の横にある「編集」をクリックし、カスタム・ロールを割り当て、「保存」をクリックします。
- アクセス権限を確認するには、カスタム・ロールが割り当てられたユーザーとしてログインします。
「分析」>「データセット」に移動します。 「新規データセット」をクリックします。 このページには、ユーザーがアクセスできるすべての表およびレコード・タイプがリストされます。 たとえば、トランザクション表を検索して、ユーザーがトランザクション表にアクセスできるかどうかを確認します。
Oracle NetSuite接続の作成
JDBC接続またはOAuth 2.0認証を使用して、Oracle NetSuite接続を作成できます。
Oracle NetSuite接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページが表示されます。
- 次のいずれかの操作を行います。
- 「タイプの選択」フィールドに、接続タイプの名前または名前の一部を入力します。
- 「アプリケーション」タブを選択します。
- 接続タイプとして「Oracle NetSuite」を選択します。
- 「次」をクリックします。
- 「接続名」フィールドには、デフォルト名が事前に移入されています。 この値は編集可能です。
- 接続の詳細を指定するには、次のいずれかを実行します:
- JDBC接続を使用するには、次の詳細を指定します:
- JDBC URL - 接続に使用するSuiteAnalytics ConnectサーバーのURLを入力します。
- ユーザー - データ・サーバーに接続するためのユーザー名を入力します。
- 「パスワード」テキスト・ボックスに、データ・サーバーに接続するためのパスワードを入力します。
- 「アカウントID」テキスト・ボックスに、データ・サーバーに接続するためのアカウントIDを入力します。
- 「ロールID」テキスト・ボックスに、データ・サーバーに接続するためのロールIDを入力します。
- OAuth 2.0認証を使用するには、OAuth 2.0スイッチをクリックし、次の詳細を指定します:
- ユーザー名 - OAuth 2.0接続を使用してNetSuiteにログインするためのロール・アクセス権を持つユーザーの名前を入力します。 これは、「データ・ウェアハウスの構築に必要なアクセス権限の構成」でカスタム・ロールを割り当てたユーザーです。
- アカウントID - データ・サーバーに接続するためのアカウントIDを入力します。 この情報を取得するには、NetSuiteアカウントにログインし、SuiteAnalytics接続情報を表示します。
- ロールID - データ・サーバーに接続するためのロールIDを入力します。 この情報を取得するには、NetSuiteアカウントにログインし、SuiteAnalytics接続情報を表示します。
- クライアントID - データ・サーバーに接続するためのクライアントIDを入力します。
クライアントIDを取得するには、OAuth 2.0クライアント資格証明フローを有効にして、NetSuiteに統合レコードを作成します。 統合レコードが正常に作成されたときに表示されるクライアントIDをコピーして保存します。
ノート:
NetSuiteでは、NetSuite OAuth 2.0クライアント資格証明フローのトークン署名に対してRSA PKCSv1.5スキームがサポートされなくなりました。 RSA PKCSv1.5スキームに依存する統合はすべて、RSA-PSSスキームを使用するように更新する必要があります。 詳細は、Oracle NetSuiteドキュメントを参照してください。 - パブリック証明書および秘密キー - OpenSSLコマンドを使用して、必要なPEM形式でキー・ペアを生成します。 次に例を示します。
openssl req -new -x509 -newkey rsa:4096 -keyout private.pem -sigopt rsa_padding_mode:pss -sha256 -sigopt rsa_pss_saltlen:64 -out public.pem -nodes -days 365
public.pem
の内容を「公開証明書」フィールドに貼り付けます。private.pem
の内容を「秘密キー」フィールドに貼り付けます。 - 証明書ID - データ・サーバーに接続するための証明書IDを入力します。
証明書IDを取得するには、NetSuiteの「OAuth 2.0クライアント資格証明(M2M)設定」を使用して、公開証明書ファイル(
auth-cert.pem
)を証明書キー・リストに追加し、生成された証明書IDをコピーします。
- JDBC接続を使用するには、次の詳細を指定します:
- マッピングに使用するソースが保存済検索の場合は、「保存済検索抽出」で次の詳細も指定する必要があります:
- アプリケーションID: データ変換のNetSuiteアプリケーションIDを入力します。
- バージョン: NetSuiteバージョン番号を入力します。
- 「データ・モデルの構築」のチェック・ボックスを選択して、NetSuiteからデータを抽出し、「データ・ウェアハウスの構築」ウィザードを使用してOracleターゲット・スキーマに移動するために実行できる事前構築済のデータ・フローおよびワークフローをインストールします。
- 「テスト接続」をクリックして、確立された接続をテストします
- 必要なすべての接続の詳細を指定した後、「作成」をクリックします。
新しい接続が作成されます。
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「データ・ウェアハウスの構築」を選択して機能領域を選択し、ターゲット・スキーマにNetSuiteデータ・ウェアハウスを作成します。 詳細は、「「データ・ウェアハウスの構築」ウィザードの使用」を参照してください。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
「データ・ウェアハウスの構築」ウィザードの使用
NetSuiteアカウントのデータは、アナリティクス・ウェアハウスのビジネス領域またはサブジェクト領域にグループ化されます。 「データ・ウェアハウスの構築」ウィザードを使用すると、新しく作成したデータ・ウェアハウスに含める領域を選択できます。
「データ・ウェアハウスの構築」ウィザードを使用するには:
- 「ホーム」ページで、「接続」タブをクリックします。 「接続」ページが表示されます。
- データ・ウェアハウスの構築に使用するOracle NetSuite接続の横にある「アクション」アイコン(
)をクリックし、「データ・ウェアハウスの構築」をクリックします。
「データ・ウェアハウスの構築」ウィザードが開きます。
- 「接続」ドロップダウン・リストから、ターゲット・スキーマが存在するAutonomous Database接続を選択します。
- 「ステージング・スキーマ」ドロップダウンに、選択した接続に対応するすべてのスキーマが2つのグループで表示されます:
- 既存のスキーマ(Oracle Data Transformsにインポートしたスキーマ)および
- 新規データベース・スキーマ(まだインポートしていないスキーマ)。
- 同様に、「ターゲット・スキーマ」を選択します。
- 「次」をクリックします。
- NetSuiteデータ・ウェアハウスからターゲット・スキーマへのデータの転送に使用する「Netsuiteビジネス・エリア」を選択します。
- 「保存」をクリックします。
データ変換により、データ・ウェアハウスを構築するプロセスが開始されます。 「ホーム」ページの左側のペインで「ジョブ」をクリックして、プロセスの進行状況をモニターします。 ジョブが正常に完了すると、データ変換により、NetSuite接続からターゲット・スキーマにデータを転送するために実行できる事前構築済のワークフローおよびデータ・フローがすべて含まれる「プロジェクト」フォルダが作成されます。 詳細は、「ターゲット・スキーマにデータをロードするための事前構築済ワークフローの実行」を参照してください。
ターゲット・スキーマにデータをロードするための事前構築済ワークフローの実行
「データ・ウェアハウスの構築」ウィザードが正常に完了すると、データ変換により、NetSuite接続からデータを抽出してターゲット・スキーマにロードするために実行できる事前構築済データ・フローおよびワークフローがすべて含まれるプロジェクトが作成されます。
事前構築済ワークフローを表示および実行するには:
- 「ホーム」ページの左側のペインで「プロジェクト」をクリックし、新しく作成したNetSuiteプロジェクトを選択します。
- 左側のペインで「ワークフロー」をクリックします。 次の事前構築済ワークフローが「プロジェクト詳細」ページにリストされます:
- SDSへのNetSuiteソースのステージング
- トランザクション主キーの抽出
- ウェアハウスへのSDSのロード
- 削除の適用
- すべてのワークフロー
- 実行するワークフローの横にある「アクション」アイコン(
)をクリックし、「開始」をクリックします。
「すべてのワークフロー」を実行して、すべての事前構築済ワークフローを実行することをお薦めします。
ワークフローのステータスを確認するには、現在のプロジェクトの左側のペインから「ジョブ」をクリックします。 ジョブが正常に完了すると、NetSuite接続のすべてのデータがターゲット・スキーマにロードされます。
親トピック: 接続の操作
Oracle Object Storage接続の作成
データ変換を使用して、Oracle Object StorageからAutonomous Databaseにデータをアップロードできます。
OCIオブジェクト・ストレージの専用エンドポイント機能により、OCIのお客様はストレージ・バケットに安全にアクセスできます。 詳細は、オブジェクト・ストレージの専用エンドポイントを参照してください。 データ変換でオブジェクト・ストレージ接続を作成する場合は、新しいURL形式を使用する必要があります。 オブジェクト・ストレージ接続がすでにあるユーザーの場合、既存のURLは新しいURL形式に自動的に更新されます。
Oracle Object Storage接続を作成するには、Oracle Cloud Infrastructureのユーザー名および認証トークンが必要です。 認証トークンを生成する方法の詳細は、「認証トークンの取得」を参照してください。 Oracle Data Transformsで接続を定義する際に、これらの詳細を指定する必要があります。
次の点に注意してください:
- Oracle Object Storage接続を使用してデータをデータ変換にインポートするには、パブリックIPアドレスを使用してコンピュート・ノードにアクセスする必要があります。 プライベートIPアドレスを使用してObject Storageサービスにアクセスする場合は、インターネットにアクセスできることを確認してください。
- Oracle Object StorageからAutonomous Database(およびその逆)にデータをロードするためにサポートされているファイル形式はCSVです。
- サポートされているデータ型は、Numeric、Double、StringおよびDateです。
- Oracle Object Storage接続でのデータ・ロードはサポートされていません。
- オブジェクト・ストレージへのマッピングを作成するには、ソース・テクノロジが
DBMS_CLOUD
パッケージをサポートしている必要があります。 それ以外の場合、マッピングは失敗します。 - データ変換では、オブジェクト・ストレージのレルム間接続はサポートされていません。 たとえば、Government Cloudリージョンで構成されているデータ変換から、商用レルムにあるオブジェクト・ストレージに接続することはできません。
Oracle Object Storage接続を定義するには、
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 入力した接続詳細を編集するには、「編集」を選択します。
- 作成した接続をテストするには、「接続のテスト」を選択します。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 作成した接続を削除するには、「接続の削除」を選択します。
必要な接続を検索して、次のフィルタに基づいてその詳細を確認することもできます:
- 接続の名前。
- 作成した接続に関連付けられているテクノロジ。
親トピック: 接続の操作
RESTサーバー接続の作成
汎用RESTコネクタを作成するには、エンドポイントに接続するためのJDBC URL、ユーザー名およびパスワードを指定する必要があります。 データ・エンティティのインポート元となる認証方法、エンドポイント、表などの情報を含む構成ファイルを作成してアップロードすることもできます。
新しく作成した接続が「接続」ページに表示されます。
選択した接続の横にある「アクション」アイコン()をクリックして、次の操作を実行します:
- 「編集」を選択して、指定された接続の詳細を編集します。
- 「接続のテスト」を選択して、作成した接続をテストします。
- 「エクスポート」をクリックして接続をエクスポートします。 オブジェクトのエクスポートを参照してください。
- スキーマを削除するには、「スキーマの削除」を選択します。
- 「接続の削除」を選択して、作成した接続を削除します。
次のフィルタに基づいて、必要な接続を検索してその詳細を知ることもできます:
- 接続の「名前」。
- 作成された接続に関連付けられた「テクノロジ」。
汎用REST接続の作成
この接続を作成するには、RESTサービスURLを指定し、リバース・エンジニアリング操作後にデータ変換でデータ・エンティティを作成できる一時スキーマを選択する必要があります。
RESTサーバー接続を定義するには:
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページが表示されます。
- 次のいずれかの操作を行います。
- 「タイプの選択」フィールドに、接続タイプの名前または名前の一部を入力します。
- 「アプリケーション」タブを選択します。
- 接続タイプとして「Generic REST」を選択します。
- 「次」をクリックします。
- 「接続名」フィールドには、デフォルト名が事前に移入されています。 この値は編集可能です。
- 「RESTサービスURL」テキスト・ボックスに、RESTリソースを提供するエンドポイントのURLを入力します。
- 「プロキシ・ホスト」テキスト・ボックスに、接続に使用されるプロキシ・サーバーのホスト名を入力します。
- 「プロキシ・ポート」テキスト・ボックスに、プロキシ・サーバーのポート番号を入力します。
- 「ユーザー」テキスト・ボックスに、RESTエンドポイントに接続するためのユーザー名を入力します。
- 「パスワード」テキスト・ボックスに、RESTエンドポイントに接続するためのパスワードを入力します。
- ステージング接続ドロップダウン・リストから接続を選択します。 リストには、既存のAutonomous Database接続のみが表示されます。 別の接続を使用するには、このページが表示される前に接続を作成します。
- 必要なすべての接続の詳細を指定した後、「接続のテスト」をクリックして接続をテストします。
- 「作成」をクリックします。
新しい接続が作成されます。
構成ファイルを使用した汎用REST接続の作成
適用先: Data Integrator: Web Editionというマーケットプレイスで別個のリストとして利用できるデータ変換。
汎用RESTコネクタを作成するには、JDBC URL、ユーザー名、パスワードおよび構成ファイルが必要です。 構成ファイルは、RESTサーバー接続の作成時にアップロードする必要があるfile_name.rest
のネーミング規則を持つモデル・ファイルです。 構成ファイルを作成するには、エンドポイント、表マッピングおよび認証方法を指定する必要があります。 構成ファイルは、任意のテキスト・エディタを使用して作成できます。
- ホームページの左側のペインで、「接続」タブをクリックします。
「接続」ページが表示されます。
- 「接続の作成」をクリックします。
「接続の作成」ページが表示されます。
- 次のいずれかの操作を行います。
- 「タイプの選択」フィールドに、接続タイプの名前または名前の一部を入力します。
- 「アプリケーション」タブを選択します。
- 接続タイプとして「汎用REST」の構成を選択します。
- 「次」をクリックします。
- 「接続名」フィールドには、デフォルト名が事前に移入されています。 この値は編集可能です。
- 「構成ファイル」テキスト・ボックスを使用して、使用する構成ファイルをアップロードします。
- 「JDBC URL」テキストボックスに、サーバーに接続するURLを入力します。
- 「ユーザー」および「パスワード」テキスト・ボックスに、RESTエンドポイントに接続するためのユーザー名とパスワードを入力します。 これらの値が適用できないか、JDBC URLですでに指定されている場合は、これらのフィールドを空白のままにできます。
- 必要なすべての接続の詳細を指定した後、「接続のテスト」をクリックして接続をテストします。
- 「作成」をクリックします。
新しい接続が作成されます。
親トピック: 接続の操作