Remarques et informations de prise en charge

Avant de créer des ressources de données dans Data Integration, assurez-vous de comprendre ce qui est pris en charge, ainsi que les limites, les dépendances et les tâches requises actuelles.

Clés secrètes OCI Vault et portefeuilles Oracle

Oracle Cloud Infrastructure Data Integration est intégré à Oracle Cloud Infrastructure Vault pour vous permettre de gérer les informations sensibles à l'aide de coffres, de clés et de clés secrètes.

Un coffre est un conteneur de clés et de clés secrètes. Les clés secrètes stockent des informations d'identification telles que les mots de passe requis pour la connexion aux sources de données. Dans un coffre, vous utilisez une clé de cryptage pour crypter et importer des contenus de clé secrète. Les contenus de clé secrète sont encodés en base64. Oracle Cloud Infrastructure Data Integration utilise la même clé pour extraire et décrypter les secrets lors de la création d'une ressource de données et de la connexion à la source de données.

Pour la plupart des types de source de données, vous pouvez utiliser une clé secrète d'OCI Vault afin de stocker le mot de passe de la connexion par défaut à une ressource de données. Pour créer un coffre et une clé secrète, reportez-vous à Création d'un coffre et à Création d'une clé secrète dans un coffre.

Lorsque vous créez une ressource de données, vous fournissez l'OCID de la clé secrète dans les détails de connexion. Vous n'avez donc pas besoin d'entrer le mot de passe réel. Pour copier l'OCID de clé secrète, reportez-vous à Obtention des détails d'une clé secrète.

Pour les sources Oracle Database, Oracle Autonomous Data Warehouse et Oracle Autonomous Transaction Processing, vous pouvez utiliser des clés secrètes pour le portefeuille et les mots de passe Oracle au lieu de télécharger le portefeuille vers le serveur et de saisir le mot de passe de portefeuille lors de la création de la ressource de données.

Pour utiliser un portefeuille Oracle avec des clés secrètes dans OCI Vault, vous devez effectuer les opérations suivantes :

  1. Indiquez un mot de passe de portefeuille lorsque vous téléchargez le fichier ZIP de portefeuille. Reportez-vous à Téléchargement des informations de connexion de base de données.
  2. Dans une invite de commande, enlevez le fichier .p12 du fichier ZIP de portefeuille téléchargé. Ne décompressez pas le contenu du portefeuille, n'enlevez pas le fichier et ne créez pas de fichier ZIP.
  3. Utilisez n'importe quel encodeur base64 pour encoder le fichier ZIP de portefeuille modifié en base64.
  4. Copiez les données encodées en base64 vers une clé secrète dans un coffre.
  5. Créez une clé secrète pour le mot de passe de portefeuille.
  6. Créez une clé secrète pour le mot de passe de base de données.

Pour utiliser des clés secrètes dans OCI Vault, veillez à disposer de la stratégie suivante :

allow any-user to read secret-bundles in compartment <compartment-name> where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}

Utilisez la stratégie suivante pour permettre à un groupe d'utilisateurs qui ne sont pas administrateurs d'utiliser des clés secrètes avec Oracle Autonomous Data Warehouse et Oracle Autonomous Transaction Processing :

allow group <group-name> to read secret-bundles in compartment <compartment-name>

Sources de données prises en charge pour les ressources de données

Le tableau suivant répertorie les sources de données que vous pouvez utiliser avec Data Integration.

Type de source de données Version Source Objectif
Amazon RDS pour SQL Server 2 019 Oui Non
2 017 Oui Non
2016 Service Pack 2 Oui Non
2014 Service Pack 3 Oui Non
2012 Service Pack 4 Oui Non
Amazon Redshift Amazon Redshift Oui Non
Apache Hive CDH 5.4 et versions ultérieures Oui Non
Apache 1.0, 2.0, 3.0 et versions ultérieures Oui Oui
HDFS (Hadoop Distributed File System) 3,1 Oui Oui
Azure SQL Database 11.0 et versions ultérieures Oui Non
12.0 et versions ultérieures Oui Non
Microsoft Azure Synapse Analytics 12.0 et versions ultérieures Oui Non
Microsoft SQL Server 2 022 Oui Non
2 019 Oui Non
2 017 Oui Non
2016 Service Pack 2 Oui Non
2014 Service Pack 3 Oui Non
2012 Service Pack 4 Oui Non
MySQL 5.7.x et 8.0.x Oui Oui
MySQL HeatWave 8.0 et versions ultérieures Oui Non
MySQL sur Amazon RDS 5.7.x et 8.0.x Oui Non
Amazon S3 Amazon S3 Oui Non
Autonomous Data Warehouse 18c/19c Oui Oui
Autonomous Transaction Processing 18c/19c Oui Oui
Oracle Database 11g Oui (sauf procédure stockée de tâche SQL) Oui
12,1 Oui Oui
12,2 Oui Oui
18 Oui Oui
19 Oui Oui
21 Oui Oui

Oracle Database sur Oracle Cloud Infrastructure

11g Oui (sauf procédure stockée de tâche SQL) Oui
12,1 Oui Oui
12,2 Oui Oui
18 Oui Oui
19 Oui Oui
Oracle PeopleSoft

CRM 8.4 et versions ultérieures

PeopleTools 8.49 et versions ultérieures

Oui Non
Oracle Siebel 8.0 et versions ultérieures Oui Non
Oracle E-Business Suite 12.0.4 et supérieur Oui Non
Systèmes de base de données Exadata 11g Oui (sauf procédure stockée de tâche SQL) Oui
12,1 Oui Oui
12,2 Oui Oui
18 Oui Oui
19 Oui Oui
Oracle Cloud Infrastructure Object Storage Dernière Oui Oui
Oracle sur Amazon RDS 12,1 Oui Non
12,2 Oui Non
18 Oui Non
19 Oui Non
21 Oui Non
Oracle Fusion Applications avec Oracle Business Intelligence Cloud Connector (BICC)

API BICC 13.20.10 et versions ultérieures

Fusion Applications 13.20.10 (20 octobre) et versions ultérieures

OuiNon
Oracle Fusion Applications avec Oracle Business Intelligence Publisher (BIP) 11.1.1.9 et supérieur Oui Non
PostgreSQL 12.0 et versions ultérieures Oui Non
11.0 et versions ultérieures Oui Non
10,1 Oui Non
9.6, 9.5, Oui Non
8.4, 8.3, et 8.2 Oui Non
IBM DB2 DB2 V11.1 et versions ultérieures pour Linux, UNIX et Windows Oui Non
DB2 V10.1 et versions ultérieures pour Linux, UNIX et Windows Oui Non
DB2 V9.1 et versions ultérieures pour Linux, UNIX et Windows Oui Non
DB2 V8.x et versions ultérieures pour Linux, UNIX et Windows Oui Non
DB2 V12 et versions ultérieures pour z/OS Oui Non
DB2 V11 et versions ultérieures pour z/OS Oui Non
DB2 V10 et versions ultérieures pour z/OS Oui Non
DB2 V9.1 et versions ultérieures pour z/OS Oui Non
DB2 UDB V8.1 for z/OS Oui Non
DB2 i 7.1 et versions ultérieures Oui Non
DB2 i 6.1 et versions ultérieures Oui Non
DB2 V5R4 et versions ultérieures pour i 5/OS Oui Non
Amazon Web Services (AWS) Aurora PostgreSQL 1.0 et supérieur Oui Non
InfluxDB 1.8 et 2.x Oui Non
REST OpenAPI 3.0.0 et versions ultérieures Oui Non
Snowflake NON APPLICABLE Oui Non
Salesforce API Salesforce 56.0 Oui Non

Types d'objet pris en charge

Pour les ressources de données Oracle Cloud Infrastructure Object Storage et Amazon S3, Data Integration prend en charge les types d'objet suivants :

  • CSV
  • JSON
  • Parquet
  • Avro
  • Excel (actuellement, seuls les fichiers XLSX sont pris en charge.)

Seules la lecture et l'écriture des types de données primitifs sont prises en charge.

Types de compression pris en charge

Pour les ressources de données Oracle Cloud Infrastructure Object Storage, Data Integration prend en charge les types ou méthodes de compression suivantes pour l'utilisation du type de fichier d'objet CSV ou JSON avec un opérateur source ou cible :

  • Automatique (valeur par défaut)
  • Gzip
  • Bzip2
  • Deflate
  • Lz4
  • Snappy

Pour les types de fichier Parquet et Avro, seul Automatique (valeur par défaut) est pris en charge.

Si un fichier source est compressé, le type de compression est l'algorithme de compression utilisé. Si vous ne connaissez pas l'algorithme de compression, utilisez le type de compression Automatique (valeur par défaut).

Types de données non pris en charge

Source de données Types de données non pris en charge
Oracle Database
  • RAW
  • ROWID
  • UROWID
  • BFILE
  • TIMESTAMP WITH LOCAL TIMEZONE
  • INTERVAL DAY TO SECOND
  • INTERVAL YEAR TO MONTH
  • XMLTYPE
  • SDO_GEOMETRY
  • NCHAR
  • NVARCHAR

Types de données hiérarchiques

Data Integration prend en charge les types de données hiérarchiques dans les entités de données source et cible.

Pour lire et écrire des données avec des types de données hiérarchiques, vous ne pouvez actuellement utiliser que des ressources de données REST génériques et des ressources de données de stockage de fichiers telles qu'OCI Object Storage, Amazon S3 et HDFS. Le format de fichier JSON est pris en charge par les ressources de données REST génériques. Pour les ressources de données de stockage de fichiers, les formats de fichier suivants sont pris en charge :

  • JSON et JSON multiligne
  • Avro
  • Parquet

Les types de données hiérarchiques pris en charge sont les types complexes Array, Struct et Map. Vous pouvez effectuer n'importe quel type de transformation de fichier à fichier, par exemple JSON vers Avro ou Avro vers JSON.

Avant d'utiliser des entités de données hiérarchiques et des types complexes, vous comprenez les fonctionnalités prises en charge dans Data Integration lors de l'utilisation de composants et de l'exécution de tâches.

Tâche/ComposantSupport techniqueLimite
Préparer les sources de données
  • Ressource de données REST générique et format de fichier JSON
  • Ressource de données OCI Object Storage et formats de fichier JSON, JSON multiligne, Avro et Parquet
  • Types complexes Array, Struct et Map
  • Le type Array n'est pas pris en charge dans les formats de fichier Avro et Parquet
Ajouter et configurer un opérateur source
  • Types de fichier JSON, Avro et Parquet
  • Règles d'exclusion et de changement de nom sur les champs de premier niveau de ARRAY_TYPE, COMPOSITE_TYPE (Struct) et MAP_TYPE
  • La vue de structure de données simplifiée d'un type complexe est affichée
  • Onglet Attributs : impossible d'appliquer les règles sur les champs imbriqués
  • Onglet Données : le profil de données n'apparaît pas pour les types complexes
Ajouter et configurer un opérateur cible

Cochez la case Créer une entité de données :

  • Formats de fichier hiérarchiques JSON, Avro et Parquet
  • Types complexes Array, Struct et Map

Sélectionner une entité de données existante :

  • Fichier : formats de fichier hiérarchiques JSON, Avro et Parquet
  • Base de données : uniquement Oracle Database et Oracle Database sur Oracle Cloud Infrastructure
Utiliser des opérateurs de forme
  • Les types complexes Array et Struct sont pris en charge dans tous les opérateurs
  • Pour l'opérateur Union, seul Union All (lignes en double incluses) est pris en charge avec les types complexes Array et Struct
  • Pour les opérateurs Union All, Minus, Intersect, Filter et Split : le type complexe Map n'est pas pris en charge
  • Union (lignes en double éliminées) n'est pas pris en charge
  • Les modèles et les sélections en masse d'attributs ne sont pas pris en charge pour les types complexes. Par exemple, %MACRO_INPUT% pour la sélection en masse d'attributs n'est pas pris en charge dans le générateur d'expressions.
Mettre les attributs en correspondance
  • Les champs de premier niveau des entités de données hiérarchiques JSON, Avro et Parquet peuvent être mis en correspondance
  • Pour mettre en correspondance un champ imbriqué, créez une expression pour ce champ, puis mettez en correspondance le champ dérivé
  • Les champs imbriqués des entités de données hiérarchiques ne peuvent pas être mis en correspondance directement

Par exemple, NAME et EMAIL peuvent être mis en correspondance. F_NAME et L_NAME dans NAME ne peuvent pas être mis en correspondance directement. EMAILID et EMAILTYPE dans EMAIL ne peuvent pas être mis en correspondance directement :

{
   "CUST_ID":1333,
   "NAME":{
      "F_NAME":"Sam",
      "L_NAME":"Smith"
   },
   "EMAIL":[
      {
         "EMAILID":"abc@oracle.com",
         "EMAILtype":"work"
      },
      {
         "EMAILID":"abc@othermail.com",
         "EMAILtype":"personal"
      }
   ],
   "GENDER":"Male"
}
Utiliser des transformations de données (onglet Données)
  • Transformations d'exclusion et de changement de nom sur les champs de premier niveau de ARRAY_TYPE, COMPOSITE_TYPE et MAP_TYPE
  • Toutes les autres transformations et transformations en masse ne sont pas prises en charge pour les types complexes

Prise en charge Unicode

Data Integration prend en charge la norme Unicode, qui est une norme universelle d'encodage pour les caractères et le texte écrits dans n'importe quelle langue. La norme Unicode fournit un numéro unique pour chaque caractère, quel que soit l'appareil, la plate-forme ou l'application. Par exemple, 0041 est le caractère Unicode de la lettre "A".

Data Integration prend en charge les caractères Unicode (y compris les caractères multioctets) dans les données et les métadonnées.

La prise en charge d'Unicode dans les données signifie que les attributs et les valeurs d'attribut de vos ressources de données source et cible peuvent inclure des caractères Unicode et multioctets. Vous pouvez également saisir des caractères Unicode et multioctets dans les expressions. Pour les ressources de données Object Storage JSON et CSV, l'encodage par défaut est UTF-8 et vous ne pouvez pas le modifier.

La prise en charge d'Unicode dans les métadonnées signifie que les noms d'entité de données et de schéma de vos ressources de données peuvent inclure des caractères Unicode et multioctets. Vous pouvez également saisir des caractères Unicode et multioctets pour les noms et les descriptions lorsque vous utilisez des objets dans Data Integration.

Dans la norme Unicode, un numéro unique affecté à un caractère Unicode est un point code. Actuellement, Data Integration prend en charge les points code et les plages de points code Unicode suivants :

Point code ou plageCaractèreNombre de caractères pris en charge
Caractères Latin de base
0024$ (signe dollar)1
0041 - 005AA à Z26
005F_ (trait de soulignement)1
0061 - 007Aa à z26
Caractères Supplément latin 1
00C0 - 00D6Caractères avec accents Supplément latin 123
00D8 - 00F631
00F8 - 00FF8
Caractères de 46 plages de Latin étendu A à Grec étendu
0100 - 1FFFCaractères des plages nommées suivantes : Latin étendu A, Latin étendu B, Extensions IPA, Lettres de modificateur d'espacement, Combinaison de marques diacritiques, Grec et copte, Cyrillique, Supplémentaire cyrillique, Arménien, Hébreu, Arabe, Syriaque, Thâna, Devanagari, Bengali, Gurmukhi, Gujarati, Oriya, Tamoul, Télougou, Kannada, Malayalam, Cingalais, Thaï, Lao, Tibétain, Myanmar, Géorgien, Jamos hangûl, Ethiopien, Cherokee, Syllabaires autochtones canadiens unifiés, Ogham, Runique, Tagalog, Hanounóo, Bouhid, Tagbanoua, Khmer, Mongol, Limbu, Taï-le, Symboles khmers, Extensions phonétiques, Latin étendu additionnel, Grec étendu7 936
Caractères de 4 plages de Hiragana à Jamos de compatibilité hangûl
3040 - 318FCaractères des plages nommées suivantes : Hiragana, Katakana, Bopomofo, Jamos de compatibilité hangûl336
Caractères de 4 plages CJC (en chinois, en japonais et en coréen)
3300 - 337FCaractères de compatibilité CJC128
3400 - 3D2DCaractères Supplément A aux idéogrammes unifiés CJC2 350
4E00 - 9FFFCaractères Idéogrammes unifiés CJC20 992
F900 - FAFFCaractères Idéogrammes de compatibilité CJC512

Présentation des correspondances de type de données

Les types de données des systèmes source et cible que vous utilisez sont mis en correspondance vers et depuis un ensemble de base de types de données génériques dans Oracle Cloud Infrastructure Data Integration.

Dans l'ensemble des types de données génériques, certains ont des propriétés de longueur, d'échelle et d'autres que vous pouvez utiliser pour appliquer d'autres contraintes au type de données.

L'opérateur d'expression de Data Integration ne prend pas encore en charge tous les types de données génériques. Vous ne pouvez créer un attribut basé sur un type de données générique que si ce dernier est pris en charge.

Correspondances des types de données génériques
Type de données Prise en charge de l'expression Référence de chaîne de type de données Longueur Redimensionnement
ANYDATA Prédéfinie : /typeSystems/PLATFORM /dataTypes/ANYDATA
BIGINT Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/BIGINT
BINARY Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/BINARY
BINARY_DOUBLE Prédéfinie : /typeSystems/PLATFORM /dataTypes/BINARY_DOUBLE
BINARY_FLOAT Prédéfinie : /typeSystems/PLATFORM /dataTypes/BINARY_FLOAT
BLOB Prédéfinie : /typeSystems/PLATFORM /dataTypes/BLOB
BOOLEAN Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/BOOLEAN
CHAR Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/CHAR Oui
CLOB Prédéfinie : /typeSystems/PLATFORM /dataTypes/CLOB
DATE Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/DATETIME
DATETIME Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/DATETIME
DECIMAL Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/DECIMAL Oui Oui
DOUBLE Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/DOUBLE
FIXED Prédéfinie : /typeSystems/PLATFORM /dataTypes/FIXED
FLOAT Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/FLOAT Oui
INTEGER Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/INTEGER
INTERVAL DAY TO SECOND Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/INTERVAL DAY TO SECOND Oui Oui
INTERVAL YEAR TO MONTH Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/INTERVAL YEAR TO MONTH Oui
LONG Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/LONG
MONEY Prédéfinie : /typeSystems/PLATFORM /dataTypes/MONEY
NCHAR Prédéfinie : /typeSystems/PLATFORM /dataTypes/NCHAR Oui
NCLOB Prédéfinie : /typeSystems/PLATFORM /dataTypes/NCLOB
NUMBER Prédéfinie : /typeSystems/PLATFORM /dataTypes/NUMBER
NUMERIC Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/NUMERIC Oui Oui
NVARCHAR Prédéfinie : /typeSystems/PLATFORM /dataTypes/NVARCHAR Oui
REAL Prédéfinie : /typeSystems/PLATFORM /dataTypes/REAL
SMALLINT Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/SMALLINT
STRING Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/STRING Oui
TIME Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/TIME
TIMESTAMP WITH TIME ZONE Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/TIMESTAMP WITH TIME ZONE Oui
TIMESTAMP Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/TIMESTAP Oui
TINYINT Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/TINYINT
VARBINARY Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/VARBINARY
VARCHAR Oui Prédéfinie : /typeSystems/PLATFORM /dataTypes/VARCHAR Oui
XMLFORMAT Prédéfinie : /typeSystems/PLATFORM /dataTypes/XMLFORMAT
XMLTYPE Prédéfinie : /typeSystems/PLATFORM /dataTypes/XMLTYPE
Correspondances entre les types de données Oracle et génériques

Le tableau présente les correspondances entre les types Oracle et génériques.

Oracle vers générique Générique Générique vers Oracle
ANYDATA ANYDATA ANYDATA
BIGINT NUMBER
BINARY BLOB
BINARY_DOUBLE BINARY_DOUBLE BINARY_DOUBLE
BINARY_FLOAT BINARY_FLOAT BINARY_FLOAT

BLOB

RAW

LONGRAW

BLOB BLOB
BOOLEAN VARCHAR2
CHAR CHAR CHAR
CLOB CLOB CLOB
DATE DATE DATE
DATETIME TIMESTAMP
DECIMAL NUMBER
DOUBLE NUMBER
FIXED BLOB
FLOAT FLOAT FLOAT
INTEGER NUMBER
INTERVAL DAY TO SECOND INTERVAL DAY TO SECOND INTERVAL DAY TO SECOND
INTERVAL YEAR TO MONTH INTERVAL YEAR TO MONTH INTERVAL YEAR TO MONTH
LONG LONG NUMBER
MONEY NUMBER
NCHAR NCHAR NCHAR
NCLOB NCLOB NCLOB
NUMBER NUMBER
NUMBER NUMERIC NUMBER
NVARCAHR2 NVARCHAR NVARCHAR2
REAL REAL REAL
SMALLINT NUMBER
STRING VARCHAR2
TIME DATE
TIMESTAMP WITH LOCAL TIME ZONE TIMESTAMP WITH TIME ZONE TIMESTAMP WITH TIME ZONE
TIMESTAMP WITH TIME ZONE TIMESTAMP WITH TIME ZONE
TIMESTAMP(0) WITH LOCAL TIME ZONE TIMESTAMP WITH TIME ZONE
TIMESTAMP(0) WITH TIME ZONE TIMESTAMP WITH TIME ZONE

TIMESTAMP

TIMESTAMP(0)

TIMESTAMP TIMESTAMP
TINYINT NUMBER
VARBINARY BLOB

ROWID

UROWID

VARCHAR2

VARCHAR VARCHAR2
XMLFORMAT XMLFORMAT XMLFORMAT
XMLTYPE XMLTYPE XMLTYPE
Correspondances du type de données Hive vers le type de données générique

Le tableau présente les correspondances du type Hive vers le type générique.

Hive Générique
ARRAY VARCHAR
BIGINT BIGINT
BOOLEAN BOOLEAN
CHAR CHAR
DATE DATE
DECIMAL DECIMAL
DOUBLE DOUBLE
FLOAT REAL
INT INTEGER
MAP VARCHAR
SMALLINT SMALLINT
STRING VARCHAR
STRUCT VARCHAR
TIMESTAMP TIMESTAMP
TINYINT TINYINT
UNION VARCHAR
VARCHAR VARCHAR
Correspondances entre les types de données MySQL et génériques

Le tableau présente les correspondances entre les types MySQL et génériques.

MySQL vers générique Générique Générique vers MySQL
ANYDATA VARCHAR
BIGINT BIGINT BIGINT
BINARYBINARYBINARY
BINARY_DOUBLE DOUBLE PRECISION
BINARY_FLOAT FLOAT

BLOB

LONGBLOB

MEDIUMBLOB

TINYBLOB

BLOB BLOB
BOOLEAN VARCHAR
CHAR CHAR CHAR

LONGTEXT

MEDIUMTEXT

TEXT

JSON

CLOB LONGTEXT
COMPLEX VARCHAR
DATE DATE DATE
DATETIME TIMESTAMP
DECIMAL DECIMAL DECIMAL

DOUBLE

DOUBLE PRECISION

DOUBLE DOUBLE
FIXED BLOB
FLOAT FLOAT FLOAT

INT

MEDIUMINT

INTEGER INT
INTERVAL DAY TO SECOND VARCHAR
INTERVAL YEAR TO MONTH VARCHAR
LONG BIGINT
MONEY NUMERIC
NCHAR VARCHAR
NCLOB VARCHAR
NUMBER NUMERIC
NUMERIC NUMERIC NUMERIC
NVARCHAR VARCHAR
REAL REAL REAL
SDO_GEOMETRY VARCHAR
SMALLINT SMALLINT SMALLINT

YEAR (ANNEE)

TINYTEXT

STRING VARCHAR
TIME TIME TIME

DATETIME

TIMESTAMP

TIMESTAMP

TIMESTAMP
TIMESTAMP WITH TIME ZONE TIMESTAMP
TINYINT TINYINT TINYINT
VARBINARY VARBINARY VARBINARY

BIT

VARCHAR

ENUM

SET

GÉOGRAPHIE

POINT

DOUBLURE

POLYGONE

MULTIPOINT

MULTILINGUE

MULTIPOLYGONE

GÉOMCOLLECTION

VARCHAR VARCHAR
XMLFORMAT VARCHAR
XMLTYPE VARCHAR
Correspondances du type de données PostgreSQL vers le type de données générique

Le tableau présente les correspondances du type PostgreSQL vers le type générique.

PostgreSQL Générique

BIGINT

BIGSERIAL

BIGINT
BIT BINARY

BIT VARYING

BYTEA

VARBINARY
BOOLEAN BOOLEAN
CHARACTER CHAR
CHARACTER VARYING VARCHAR
DATE DATE
DOUBLE PRECISION DOUBLE
INTEGER INTEGER
JSON VARCHAR(10485760)
NUMERIC NUMERIC
REAL REAL
SERIAL INTEGER
SMALLINT SMALLINT
TEXT VARCHAR(1073741823)

TIME

TIME WITH TIMEZONE

TIMESTAMP

TIMESTAMP WITH TIMEZONE

TIMESTAMP

UUID

ARRAY

VARCHAR
XML XMLTYPE
Correspondances entre les types de données SQL Server et génériques

Le tableau présente les correspondances entre les types SQL Server et génériques.

SQL Server vers générique Générique Générique vers SQL Server

bigint

bigint identity

BIGINT bigint
binaire

BINARY

binaire

BINARY_DOUBLE

BINARY_FLOAT

float
bit BOOLEAN varchar
car. CHAR car.
date DATE datetime
datetime DATETIME datetime
DOUBLE float
FIXED binaire

datetime2

heure

TIMESTAMP

decimal

decimal() identity

DECIMAL decimal
float FLOAT float

int identity

int

INTEGER int

INTERVAL DAY TO SECOND

INTERVAL YEAR TO SECOND

varchar
LONG bigint

argent

smallmoney

MONEY argent
nchar NCHAR nchar
nvarchar NVARCHAR nvarchar

ntext

nvarchar(max)

NCLOB nvarchar(max)
NUMBER valeur numérique

numeric() identity

valeur numérique

NUMERIC valeur numérique
réel REAL réel
smalldatetime DATETIME

smallint identity

smallint

SMALLINT smallint
STRING varchar
période TIME période

TIMESTAMP WITH TIME ZONE

TIMESTAMP

datetime

tinyint identity

tinyint

TINYINT tinyint
varbinary VARBINARY varbinary

Image

varbinary(max)

BLOB varbinary(max)

text

varchar(max)

CLOB varchar(max)

sql_variant

sysname

uniqueidentifier

varchar

VARCHAR varchar
XMLTYPE text
Correspondances entre les types de données File et génériques

Le tableau présente les correspondances entre les types File et génériques.

File vers générique Générique Générique vers File

Décimal non condensé signé ASCII

Décimal non condensé non signé ASCII

NUMERIC

Big Endian signé binaire

Little Endian signé binaire

Big Endian non signé binaire

Little Endian non signé binaire

NUMERIC
Date DATE Date

Décimal non condensé signé EBCDIC

Décimal non condensé non signé EBCDIC

NUMERIC

EBCDIC

EBCDIC fixe

Chaîne fixe

VARCHAR
Valeur numérique NUMERIC
Décimal condensé signé NUMERIC
Chaîne (String) VARCHAR
Décimal condensé non signé NUMERIC
BIGINT Valeur numérique
BINARY Chaîne (String)

BINARY_DOUBLE

BINARY_FLOAT

Valeur numérique

BLOB

BOOLEAN

Chaîne (String)

CHAR

CLOB

Chaîne (String)
DATETIME Date

DECIMAL

DOUBLE

Valeur numérique
FIXED Chaîne (String)
FLOAT Valeur numérique
INTEGER Valeur numérique

INTERVAL DAY TO SECOND

INTERVAL YEAR TO MONTH

Chaîne (String)
LONG Valeur numérique
MONEY Valeur numérique

NCHAR

NCLOB

Chaîne (String)

NUMBER

NUMERIC

Valeur numérique
NVARCHAR Chaîne (String)
REAL Valeur numérique

SMALLINT

TINYINT

Valeur numérique
STRING Chaîne (String)
TIME Chaîne (String)

TIMESTAMP WITH TIME ZONE

TIMESTAMP

Date
VARBINARY Chaîne (String)
VARCHAR Chaîne (String)
XMLTYPE Chaîne (String)
Correspondances entre les types de données CSV et génériques

String est utilisé pour l'ensemble des correspondances entre les types.

Correspondances entre les types de données JSON et génériques

Le tableau présente les correspondances entre les types JSON et génériques.

JSON vers générique Générique Générique vers JSON

NULL

Chaîne (String)

VARCHAR Chaîne (String)
BIGINT Nombre
BINARY Chaîne (String)

BINARY_DOUBLE

BINARY_FLOAT

Nombre
BLOB Chaîne (String)
Boolean BOOLEAN Boolean

CHAR

CLOB

Chaîne (String)

DATE

DATETIME

Chaîne (String)

DECIMAL

DOUBLE

Nombre
FIXED Chaîne (String)

FLOAT

INTEGER

Nombre

INTERVAL DAY TO SECOND

INTERVAL YEAR TO MONTH

Chaîne (String)

LONG

MONEY

Nombre

NCHAR

NCLOB

NVARCHAR

Chaîne (String)
NUMBER Nombre
Nombre NUMERIC Nombre
REAL Nombre
STRING Chaîne (String)

SMALLINT

TINYINT

Nombre

TIME

TIMESTAMP WITH TIME ZONE

TIMESTAMP

Chaîne (String)
VARBINARY Chaîne (String)
XMLTYPE Chaîne (String)
Correspondances entre les types de données Parquet et génériques

Le tableau présente les correspondances entre les types Parquet et génériques.

Parquet vers générique Générique Générique vers Parquet

BIGINT

LONG

NUMBER

INT64

BINARY

BSON

FIXED_LEN_BYTE_ARRAY

INT96

BINARY BINARY

BINARY_DOUBLE

BINARY_FLOAT

BLOB

CHAR

CLOB

FIXED

INTERVAL DAY TO SECOND

INTERVAL DAY TO MONTH

NCHAR

NCLOB

NVARCHAR

VARBINARY

XMLTYPE

BINARY
BOOLEAN BOOLEAN BOOLEAN
DATE DATE DATE
DATETIME INT32
DECIMAL DECIMAL DECIMAL
DOUBLE DOUBLE DOUBLE

ENUM

INTERVAL

JSON

UTF8

clé

VARCHAR UTF8
FLOAT FLOAT FLOAT

INTEGER

MONEY

SMALLINT

TINYINT

INT32
REAL DOUBLE
STRING UTF8
TIME TimeType
TIMESTAMP WITH TIME ZONE TimestampType
TIMESTAMP TimestampType

INT32

INT64

TIMESTAMP_MICROS

TIMESTAMP_MILLIS

TIME_MICROS

TIME_MILLIS

NUMERIC INT32
Correspondances entre les types de données Avro et génériques

Le tableau présente les correspondances entre les types Avro et génériques.

Avro vers générique Générique Générique vers Avro
octets STRING chaîne
ANYDATA chaîne
BIGINT long
BINARY chaîne
BINARY_DOUBLE chaîne
BINARY_FLOAT chaîne
BLOB chaîne
boolean BOOLEAN boolean
CHAR chaîne
CLOB chaîne
DATE chaîne
DATETIME chaîne
DECIMAL double
double DOUBLE double
FIXED chaîne
float FLOAT float
int INTEGER int
INTERVAL DAY TO SECOND chaîne
INTERVAL YEAR TO MONTH chaîne
long LONG long
MONEY double
NCHAR chaîne
NCLOB chaîne
NUMBER int
NUMERIC int
NVARCHAR chaîne
REAL float
SMALLINT int
chaîne STRING chaîne
TIME chaîne
TIMESTAMP WITH TIME ZONE chaîne
TIMESTAMP chaîne
TINYINT int
VARBINARY chaîne
null VARCHAR chaîne
XMLFORMAT chaîne
XMLTYPE chaîne
Mappage : Excel vers générique

Le tableau présente la correspondance entre le type Excel et le type générique.

Excel Générique
BOOLEAN BOOLEAN
NUMERIC NUMERIC
STRING STRING
Correspondances entre les types de données Fusion Applications (BICC) et génériques

Le tableau présente les correspondances entre les types Oracle Fusion Applications avec Oracle Business Intelligence Cloud Connector (BICC) et génériques.

Oracle Fusion Applications avec BICC vers génériqueGénériqueGénérique vers Oracle Fusion Applications avec BICC
NUMERICNUMERICNUMERIC
VARCHARVARCHARVARCHAR
DATEDATEDATE
TIMESTAMPTIMESTAMPTIMESTAMP

Configurations réseau

Les configurations réseau dépendent des ressources de données source et cible que vous utilisez avec le service Data Integration et de l'emplacement des ressources.

Reportez-vous au blog Understanding VCN Configuration for Data Integration pour identifier les options correspondant à vos besoins.

Un espace de travail peut comporter un réseau cloud virtuel attaché. Pour les sources de données dans un réseau privé, créez un VCN avec au moins un sous-réseau régional. Seuls les sous-réseaux régionaux sont pris en charge, et des noms d'hôte DNS doivent être utilisés dans les sous-réseaux. Selon l'emplacement de vos sources de données, vous devrez peut-être créer d'autres objets réseau, tels que des passerelles de service, des groupes de sécurité réseau et des passerelles NAT.

En général, pour les sources de données accessibles à partir d'Internet :

  • Si un espace de travail a un VCN attaché : Data Integration peut se connecter directement via une passerelle NAT (Network Address Translation) sur le VCN de l'espace de travail.
  • Si un espace de travail ne dispose pas d'un VCN attaché : Data Integration peut se connecter directement à l'aide d'adresses IP publiques.

Les ressources, telles que les espaces de travail, avec des adresses IP privées définies dans un sous-réseau peuvent accéder à d'autres ressources privées dans différents réseaux cloud virtuels et régions via des passerelles de service ou NAT à l'aide de passerelles d'appairage local ou à distance.

Vous pouvez également combiner des passerelles lorsque vous avez besoin d'accéder à Object Storage et à Autonomous Data Warehouse. Par exemple, pour la connectivité publique, vous avez besoin d'une passerelle de service pour Object Storage et d'une passerelle NAT pour Autonomous Data Warehouse.

Pour les sources de données qui ne sont pas accessibles à partir d'Internet, vous disposez par exemple des autres options suivantes :

  • Créez un espace de travail avec une adresse privée activée, celle-ci se trouvant dans le même sous-réseau que la source de données.

  • Utilisez Oracle Cloud Infrastructure FastConnect.

  • Utilisez Oracle Cloud Infrastructure VPN Connect (également appelé VPN IPSec).

Cependant, Oracle Cloud Infrastructure FastConnect et Oracle Cloud Infrastructure VPN Connect doivent être utilisés lorsque ces sources se trouvent dans des domaines privés :

  • Oracle sur Amazon RDS
  • MySQL sur Amazon RDS
  • Amazon RDS pour SQL Server
  • Microsoft Azure SQL Database

Documentation Oracle Cloud Infrastructure Networking :