Remarques et informations de prise en charge
Avant de créer des ressources de données dans Data Integration, assurez-vous de comprendre ce qui est pris en charge, ainsi que les limites, les dépendances et les tâches requises actuelles.
Clés secrètes OCI Vault et portefeuilles Oracle
Oracle Cloud Infrastructure Data Integration est intégré à Oracle Cloud Infrastructure Vault pour vous permettre de gérer les informations sensibles à l'aide de coffres, de clés et de clés secrètes.
Un coffre est un conteneur de clés et de clés secrètes. Les clés secrètes stockent des informations d'identification telles que les mots de passe requis pour la connexion aux sources de données. Dans un coffre, vous utilisez une clé de cryptage pour crypter et importer des contenus de clé secrète. Les contenus de clé secrète sont encodés en base64. Oracle Cloud Infrastructure Data Integration utilise la même clé pour extraire et décrypter les secrets lors de la création d'une ressource de données et de la connexion à la source de données.
Pour la plupart des types de source de données, vous pouvez utiliser une clé secrète d'OCI Vault afin de stocker le mot de passe de la connexion par défaut à une ressource de données. Pour créer un coffre et une clé secrète, reportez-vous à Création d'un coffre et à Création d'une clé secrète dans un coffre.
Lorsque vous créez une ressource de données, vous fournissez l'OCID de la clé secrète dans les détails de connexion. Vous n'avez donc pas besoin d'entrer le mot de passe réel. Pour copier l'OCID de clé secrète, reportez-vous à Obtention des détails d'une clé secrète.
Pour les sources Oracle Database, Oracle Autonomous Data Warehouse et Oracle Autonomous Transaction Processing, vous pouvez utiliser des clés secrètes pour le portefeuille et les mots de passe Oracle au lieu de télécharger le portefeuille vers le serveur et de saisir le mot de passe de portefeuille lors de la création de la ressource de données.
Pour utiliser un portefeuille Oracle avec des clés secrètes dans OCI Vault, vous devez effectuer les opérations suivantes :
- Indiquez un mot de passe de portefeuille lorsque vous téléchargez le fichier ZIP de portefeuille. Reportez-vous à Téléchargement des informations de connexion de base de données.
- Dans une invite de commande, enlevez le fichier
.p12
du fichier ZIP de portefeuille téléchargé. Ne décompressez pas le contenu du portefeuille, n'enlevez pas le fichier et ne créez pas de fichier ZIP. - Utilisez n'importe quel encodeur base64 pour encoder le fichier ZIP de portefeuille modifié en base64.
- Copiez les données encodées en base64 vers une clé secrète dans un coffre.
- Créez une clé secrète pour le mot de passe de portefeuille.
- Créez une clé secrète pour le mot de passe de base de données.
Pour utiliser des clés secrètes dans OCI Vault, veillez à disposer de la stratégie suivante :
allow any-user to read secret-bundles in compartment <compartment-name> where ALL {request.principal.type = 'disworkspace', request.principal.id = '<workspace-ocid>'}
Utilisez la stratégie suivante pour permettre à un groupe d'utilisateurs qui ne sont pas administrateurs d'utiliser des clés secrètes avec Oracle Autonomous Data Warehouse et Oracle Autonomous Transaction Processing :
allow group <group-name> to read secret-bundles in compartment <compartment-name>
Sources de données prises en charge pour les ressources de données
Le tableau suivant répertorie les sources de données que vous pouvez utiliser avec Data Integration.
Type de source de données | Version | Source | Objectif |
---|---|---|---|
Amazon RDS pour SQL Server | 2 019 | Oui | Non |
2 017 | Oui | Non | |
2016 Service Pack 2 | Oui | Non | |
2014 Service Pack 3 | Oui | Non | |
2012 Service Pack 4 | Oui | Non | |
Amazon Redshift | Amazon Redshift | Oui | Non |
Apache Hive | CDH 5.4 et versions ultérieures | Oui | Non |
Apache 1.0, 2.0, 3.0 et versions ultérieures | Oui | Oui | |
HDFS (Hadoop Distributed File System) | 3,1 | Oui | Oui |
Azure SQL Database | 11.0 et versions ultérieures | Oui | Non |
12.0 et versions ultérieures | Oui | Non | |
Microsoft Azure Synapse Analytics | 12.0 et versions ultérieures | Oui | Non |
Microsoft SQL Server | 2 022 | Oui | Non |
2 019 | Oui | Non | |
2 017 | Oui | Non | |
2016 Service Pack 2 | Oui | Non | |
2014 Service Pack 3 | Oui | Non | |
2012 Service Pack 4 | Oui | Non | |
MySQL | 5.7.x et 8.0.x | Oui | Oui |
MySQL HeatWave | 8.0 et versions ultérieures | Oui | Non |
MySQL sur Amazon RDS | 5.7.x et 8.0.x | Oui | Non |
Amazon S3 | Amazon S3 | Oui | Non |
Autonomous Data Warehouse | 18c/19c | Oui | Oui |
Autonomous Transaction Processing | 18c/19c | Oui | Oui |
Oracle Database | 11g | Oui (sauf procédure stockée de tâche SQL) | Oui |
12,1 | Oui | Oui | |
12,2 | Oui | Oui | |
18 | Oui | Oui | |
19 | Oui | Oui | |
21 | Oui | Oui | |
Oracle Database sur Oracle Cloud Infrastructure |
11g | Oui (sauf procédure stockée de tâche SQL) | Oui |
12,1 | Oui | Oui | |
12,2 | Oui | Oui | |
18 | Oui | Oui | |
19 | Oui | Oui | |
Oracle PeopleSoft |
CRM 8.4 et versions ultérieures PeopleTools 8.49 et versions ultérieures |
Oui | Non |
Oracle Siebel | 8.0 et versions ultérieures | Oui | Non |
Oracle E-Business Suite | 12.0.4 et supérieur | Oui | Non |
Systèmes de base de données Exadata | 11g | Oui (sauf procédure stockée de tâche SQL) | Oui |
12,1 | Oui | Oui | |
12,2 | Oui | Oui | |
18 | Oui | Oui | |
19 | Oui | Oui | |
Oracle Cloud Infrastructure Object Storage | Dernière | Oui | Oui |
Oracle sur Amazon RDS | 12,1 | Oui | Non |
12,2 | Oui | Non | |
18 | Oui | Non | |
19 | Oui | Non | |
21 | Oui | Non | |
Oracle Fusion Applications avec Oracle Business Intelligence Cloud Connector (BICC) | API BICC 13.20.10 et versions ultérieures Fusion Applications 13.20.10 (20 octobre) et versions ultérieures | Oui | Non |
Oracle Fusion Applications avec Oracle Business Intelligence Publisher (BIP) | 11.1.1.9 et supérieur | Oui | Non |
PostgreSQL | 12.0 et versions ultérieures | Oui | Non |
11.0 et versions ultérieures | Oui | Non | |
10,1 | Oui | Non | |
9.6, 9.5, | Oui | Non | |
8.4, 8.3, et 8.2 | Oui | Non | |
IBM DB2 | DB2 V11.1 et versions ultérieures pour Linux, UNIX et Windows | Oui | Non |
DB2 V10.1 et versions ultérieures pour Linux, UNIX et Windows | Oui | Non | |
DB2 V9.1 et versions ultérieures pour Linux, UNIX et Windows | Oui | Non | |
DB2 V8.x et versions ultérieures pour Linux, UNIX et Windows | Oui | Non | |
DB2 V12 et versions ultérieures pour z/OS | Oui | Non | |
DB2 V11 et versions ultérieures pour z/OS | Oui | Non | |
DB2 V10 et versions ultérieures pour z/OS | Oui | Non | |
DB2 V9.1 et versions ultérieures pour z/OS | Oui | Non | |
DB2 UDB V8.1 for z/OS | Oui | Non | |
DB2 i 7.1 et versions ultérieures | Oui | Non | |
DB2 i 6.1 et versions ultérieures | Oui | Non | |
DB2 V5R4 et versions ultérieures pour i 5/OS | Oui | Non | |
Amazon Web Services (AWS) Aurora PostgreSQL | 1.0 et supérieur | Oui | Non |
InfluxDB | 1.8 et 2.x | Oui | Non |
REST | OpenAPI 3.0.0 et versions ultérieures | Oui | Non |
Snowflake | NON APPLICABLE | Oui | Non |
Salesforce | API Salesforce 56.0 | Oui | Non |
Types d'objet pris en charge
Pour les ressources de données Oracle Cloud Infrastructure Object Storage et Amazon S3, Data Integration prend en charge les types d'objet suivants :
- CSV
- JSON
- Parquet
- Avro
- Excel (actuellement, seuls les fichiers XLSX sont pris en charge.)
Seules la lecture et l'écriture des types de données primitifs sont prises en charge.
Types de compression pris en charge
Pour les ressources de données Oracle Cloud Infrastructure Object Storage, Data Integration prend en charge les types ou méthodes de compression suivantes pour l'utilisation du type de fichier d'objet CSV ou JSON avec un opérateur source ou cible :
- Automatique (valeur par défaut)
- Gzip
- Bzip2
- Deflate
- Lz4
- Snappy
Pour les types de fichier Parquet et Avro, seul Automatique (valeur par défaut) est pris en charge.
Si un fichier source est compressé, le type de compression est l'algorithme de compression utilisé. Si vous ne connaissez pas l'algorithme de compression, utilisez le type de compression Automatique (valeur par défaut).
Types de données non pris en charge
Source de données | Types de données non pris en charge |
---|---|
Oracle Database |
|
Types de données hiérarchiques
Data Integration prend en charge les types de données hiérarchiques dans les entités de données source et cible.
Pour lire et écrire des données avec des types de données hiérarchiques, vous ne pouvez actuellement utiliser que des ressources de données REST génériques et des ressources de données de stockage de fichiers telles qu'OCI Object Storage, Amazon S3 et HDFS. Le format de fichier JSON est pris en charge par les ressources de données REST génériques. Pour les ressources de données de stockage de fichiers, les formats de fichier suivants sont pris en charge :
- JSON et JSON multiligne
- Avro
- Parquet
Les types de données hiérarchiques pris en charge sont les types complexes Array, Struct et Map. Vous pouvez effectuer n'importe quel type de transformation de fichier à fichier, par exemple JSON vers Avro ou Avro vers JSON.
Avant d'utiliser des entités de données hiérarchiques et des types complexes, vous comprenez les fonctionnalités prises en charge dans Data Integration lors de l'utilisation de composants et de l'exécution de tâches.
Tâche/Composant | Support technique | Limite |
---|---|---|
Préparer les sources de données |
|
|
Ajouter et configurer un opérateur source |
|
|
Ajouter et configurer un opérateur cible | Cochez la case Créer une entité de données :
Sélectionner une entité de données existante :
| |
Utiliser des opérateurs de forme |
|
|
Mettre les attributs en correspondance |
|
Par exemple,
|
Utiliser des transformations de données (onglet Données) |
|
|
Prise en charge Unicode
Data Integration prend en charge la norme Unicode, qui est une norme universelle d'encodage pour les caractères et le texte écrits dans n'importe quelle langue. La norme Unicode fournit un numéro unique pour chaque caractère, quel que soit l'appareil, la plate-forme ou l'application. Par exemple, 0041
est le caractère Unicode de la lettre "A".
Data Integration prend en charge les caractères Unicode (y compris les caractères multioctets) dans les données et les métadonnées.
La prise en charge d'Unicode dans les données signifie que les attributs et les valeurs d'attribut de vos ressources de données source et cible peuvent inclure des caractères Unicode et multioctets. Vous pouvez également saisir des caractères Unicode et multioctets dans les expressions. Pour les ressources de données Object Storage JSON et CSV, l'encodage par défaut est UTF-8 et vous ne pouvez pas le modifier.
La prise en charge d'Unicode dans les métadonnées signifie que les noms d'entité de données et de schéma de vos ressources de données peuvent inclure des caractères Unicode et multioctets. Vous pouvez également saisir des caractères Unicode et multioctets pour les noms et les descriptions lorsque vous utilisez des objets dans Data Integration.
Dans la norme Unicode, un numéro unique affecté à un caractère Unicode est un point code. Actuellement, Data Integration prend en charge les points code et les plages de points code Unicode suivants :
Point code ou plage | Caractère | Nombre de caractères pris en charge |
---|---|---|
Caractères Latin de base | ||
0024 | $ (signe dollar) | 1 |
0041 - 005A | A à Z | 26 |
005F | _ (trait de soulignement) | 1 |
0061 - 007A | a à z | 26 |
Caractères Supplément latin 1 | ||
00C0 - 00D6 | Caractères avec accents Supplément latin 1 | 23 |
00D8 - 00F6 | 31 | |
00F8 - 00FF | 8 | |
Caractères de 46 plages de Latin étendu A à Grec étendu | ||
0100 - 1FFF | Caractères des plages nommées suivantes : Latin étendu A, Latin étendu B, Extensions IPA, Lettres de modificateur d'espacement, Combinaison de marques diacritiques, Grec et copte, Cyrillique, Supplémentaire cyrillique, Arménien, Hébreu, Arabe, Syriaque, Thâna, Devanagari, Bengali, Gurmukhi, Gujarati, Oriya, Tamoul, Télougou, Kannada, Malayalam, Cingalais, Thaï, Lao, Tibétain, Myanmar, Géorgien, Jamos hangûl, Ethiopien, Cherokee, Syllabaires autochtones canadiens unifiés, Ogham, Runique, Tagalog, Hanounóo, Bouhid, Tagbanoua, Khmer, Mongol, Limbu, Taï-le, Symboles khmers, Extensions phonétiques, Latin étendu additionnel, Grec étendu | 7 936 |
Caractères de 4 plages de Hiragana à Jamos de compatibilité hangûl | ||
3040 - 318F | Caractères des plages nommées suivantes : Hiragana, Katakana, Bopomofo, Jamos de compatibilité hangûl | 336 |
Caractères de 4 plages CJC (en chinois, en japonais et en coréen) | ||
3300 - 337F | Caractères de compatibilité CJC | 128 |
3400 - 3D2D | Caractères Supplément A aux idéogrammes unifiés CJC | 2 350 |
4E00 - 9FFF | Caractères Idéogrammes unifiés CJC | 20 992 |
F900 - FAFF | Caractères Idéogrammes de compatibilité CJC | 512 |
Présentation des correspondances de type de données
Les types de données des systèmes source et cible que vous utilisez sont mis en correspondance vers et depuis un ensemble de base de types de données génériques dans Oracle Cloud Infrastructure Data Integration.
Dans l'ensemble des types de données génériques, certains ont des propriétés de longueur, d'échelle et d'autres que vous pouvez utiliser pour appliquer d'autres contraintes au type de données.
L'opérateur d'expression de Data Integration ne prend pas encore en charge tous les types de données génériques. Vous ne pouvez créer un attribut basé sur un type de données générique que si ce dernier est pris en charge.
Type de données | Prise en charge de l'expression | Référence de chaîne de type de données | Longueur | Redimensionnement |
---|---|---|---|---|
ANYDATA | Prédéfinie : /typeSystems/PLATFORM /dataTypes/ANYDATA | |||
BIGINT | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/BIGINT | ||
BINARY | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/BINARY | ||
BINARY_DOUBLE | Prédéfinie : /typeSystems/PLATFORM /dataTypes/BINARY_DOUBLE | |||
BINARY_FLOAT | Prédéfinie : /typeSystems/PLATFORM /dataTypes/BINARY_FLOAT | |||
BLOB | Prédéfinie : /typeSystems/PLATFORM /dataTypes/BLOB | |||
BOOLEAN | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/BOOLEAN | ||
CHAR | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/CHAR | Oui | |
CLOB | Prédéfinie : /typeSystems/PLATFORM /dataTypes/CLOB | |||
DATE | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/DATETIME | ||
DATETIME | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/DATETIME | ||
DECIMAL | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/DECIMAL | Oui | Oui |
DOUBLE | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/DOUBLE | ||
FIXED | Prédéfinie : /typeSystems/PLATFORM /dataTypes/FIXED | |||
FLOAT | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/FLOAT | Oui | |
INTEGER | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/INTEGER | ||
INTERVAL DAY TO SECOND | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/INTERVAL DAY TO SECOND | Oui | Oui |
INTERVAL YEAR TO MONTH | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/INTERVAL YEAR TO MONTH | Oui | |
LONG | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/LONG | ||
MONEY | Prédéfinie : /typeSystems/PLATFORM /dataTypes/MONEY | |||
NCHAR | Prédéfinie : /typeSystems/PLATFORM /dataTypes/NCHAR | Oui | ||
NCLOB | Prédéfinie : /typeSystems/PLATFORM /dataTypes/NCLOB | |||
NUMBER | Prédéfinie : /typeSystems/PLATFORM /dataTypes/NUMBER | |||
NUMERIC | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/NUMERIC | Oui | Oui |
NVARCHAR | Prédéfinie : /typeSystems/PLATFORM /dataTypes/NVARCHAR | Oui | ||
REAL | Prédéfinie : /typeSystems/PLATFORM /dataTypes/REAL | |||
SMALLINT | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/SMALLINT | ||
STRING | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/STRING | Oui | |
TIME | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/TIME | ||
TIMESTAMP WITH TIME ZONE | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/TIMESTAMP WITH TIME ZONE | Oui | |
TIMESTAMP | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/TIMESTAP | Oui | |
TINYINT | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/TINYINT | ||
VARBINARY | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/VARBINARY | ||
VARCHAR | Oui | Prédéfinie : /typeSystems/PLATFORM /dataTypes/VARCHAR | Oui | |
XMLFORMAT | Prédéfinie : /typeSystems/PLATFORM /dataTypes/XMLFORMAT | |||
XMLTYPE | Prédéfinie : /typeSystems/PLATFORM /dataTypes/XMLTYPE |
Le tableau présente les correspondances entre les types Oracle et génériques.
Oracle vers générique | Générique | Générique vers Oracle |
---|---|---|
ANYDATA | ANYDATA | ANYDATA |
BIGINT | NUMBER | |
BINARY | BLOB | |
BINARY_DOUBLE | BINARY_DOUBLE | BINARY_DOUBLE |
BINARY_FLOAT | BINARY_FLOAT | BINARY_FLOAT |
BLOB RAW LONGRAW |
BLOB | BLOB |
BOOLEAN | VARCHAR2 | |
CHAR | CHAR | CHAR |
CLOB | CLOB | CLOB |
DATE | DATE | DATE |
DATETIME | TIMESTAMP | |
DECIMAL | NUMBER | |
DOUBLE | NUMBER | |
FIXED | BLOB | |
FLOAT | FLOAT | FLOAT |
INTEGER | NUMBER | |
INTERVAL DAY TO SECOND | INTERVAL DAY TO SECOND | INTERVAL DAY TO SECOND |
INTERVAL YEAR TO MONTH | INTERVAL YEAR TO MONTH | INTERVAL YEAR TO MONTH |
LONG | LONG | NUMBER |
MONEY | NUMBER | |
NCHAR | NCHAR | NCHAR |
NCLOB | NCLOB | NCLOB |
NUMBER | NUMBER | |
NUMBER | NUMERIC | NUMBER |
NVARCAHR2 | NVARCHAR | NVARCHAR2 |
REAL | REAL | REAL |
SMALLINT | NUMBER | |
STRING | VARCHAR2 | |
TIME | DATE | |
TIMESTAMP WITH LOCAL TIME ZONE | TIMESTAMP WITH TIME ZONE | TIMESTAMP WITH TIME ZONE |
TIMESTAMP WITH TIME ZONE | TIMESTAMP WITH TIME ZONE | |
TIMESTAMP(0) WITH LOCAL TIME ZONE | TIMESTAMP WITH TIME ZONE | |
TIMESTAMP(0) WITH TIME ZONE | TIMESTAMP WITH TIME ZONE | |
TIMESTAMP TIMESTAMP(0) |
TIMESTAMP | TIMESTAMP |
TINYINT | NUMBER | |
VARBINARY | BLOB | |
ROWID UROWID VARCHAR2 |
VARCHAR | VARCHAR2 |
XMLFORMAT | XMLFORMAT | XMLFORMAT |
XMLTYPE | XMLTYPE | XMLTYPE |
Le tableau présente les correspondances du type Hive vers le type générique.
Hive | Générique |
---|---|
ARRAY | VARCHAR |
BIGINT | BIGINT |
BOOLEAN | BOOLEAN |
CHAR | CHAR |
DATE | DATE |
DECIMAL | DECIMAL |
DOUBLE | DOUBLE |
FLOAT | REAL |
INT | INTEGER |
MAP | VARCHAR |
SMALLINT | SMALLINT |
STRING | VARCHAR |
STRUCT | VARCHAR |
TIMESTAMP | TIMESTAMP |
TINYINT | TINYINT |
UNION | VARCHAR |
VARCHAR | VARCHAR |
Le tableau présente les correspondances entre les types MySQL et génériques.
MySQL vers générique | Générique | Générique vers MySQL |
---|---|---|
ANYDATA | VARCHAR | |
BIGINT | BIGINT | BIGINT |
BINARY | BINARY | BINARY |
BINARY_DOUBLE | DOUBLE PRECISION | |
BINARY_FLOAT | FLOAT | |
BLOB LONGBLOB MEDIUMBLOB TINYBLOB |
BLOB | BLOB |
BOOLEAN | VARCHAR | |
CHAR | CHAR | CHAR |
LONGTEXT MEDIUMTEXT TEXT JSON |
CLOB | LONGTEXT |
COMPLEX | VARCHAR | |
DATE | DATE | DATE |
DATETIME | TIMESTAMP | |
DECIMAL | DECIMAL | DECIMAL |
DOUBLE DOUBLE PRECISION |
DOUBLE | DOUBLE |
FIXED | BLOB | |
FLOAT | FLOAT | FLOAT |
INT MEDIUMINT |
INTEGER | INT |
INTERVAL DAY TO SECOND | VARCHAR | |
INTERVAL YEAR TO MONTH | VARCHAR | |
LONG | BIGINT | |
MONEY | NUMERIC | |
NCHAR | VARCHAR | |
NCLOB | VARCHAR | |
NUMBER | NUMERIC | |
NUMERIC | NUMERIC | NUMERIC |
NVARCHAR | VARCHAR | |
REAL | REAL | REAL |
SDO_GEOMETRY | VARCHAR | |
SMALLINT | SMALLINT | SMALLINT |
YEAR (ANNEE) TINYTEXT |
STRING | VARCHAR |
TIME | TIME | TIME |
DATETIME TIMESTAMP |
TIMESTAMP |
TIMESTAMP |
TIMESTAMP WITH TIME ZONE | TIMESTAMP | |
TINYINT | TINYINT | TINYINT |
VARBINARY | VARBINARY | VARBINARY |
BIT VARCHAR ENUM SET GÉOGRAPHIE POINT DOUBLURE POLYGONE MULTIPOINT MULTILINGUE MULTIPOLYGONE GÉOMCOLLECTION |
VARCHAR | VARCHAR |
XMLFORMAT | VARCHAR | |
XMLTYPE | VARCHAR |
Le tableau présente les correspondances du type PostgreSQL vers le type générique.
PostgreSQL | Générique |
---|---|
BIGINT BIGSERIAL |
BIGINT |
BIT | BINARY |
BIT VARYING BYTEA |
VARBINARY |
BOOLEAN | BOOLEAN |
CHARACTER | CHAR |
CHARACTER VARYING | VARCHAR |
DATE | DATE |
DOUBLE PRECISION | DOUBLE |
INTEGER | INTEGER |
JSON | VARCHAR(10485760) |
NUMERIC | NUMERIC |
REAL | REAL |
SERIAL | INTEGER |
SMALLINT | SMALLINT |
TEXT | VARCHAR(1073741823) |
TIME TIME WITH TIMEZONE TIMESTAMP TIMESTAMP WITH TIMEZONE |
TIMESTAMP |
UUID ARRAY |
VARCHAR |
XML | XMLTYPE |
Le tableau présente les correspondances entre les types SQL Server et génériques.
SQL Server vers générique | Générique | Générique vers SQL Server |
---|---|---|
bigint bigint identity |
BIGINT | bigint |
binaire |
BINARY |
binaire |
BINARY_DOUBLE BINARY_FLOAT |
float | |
bit | BOOLEAN | varchar |
car. | CHAR | car. |
date | DATE | datetime |
datetime | DATETIME | datetime |
DOUBLE | float | |
FIXED | binaire | |
datetime2 heure |
TIMESTAMP | |
decimal decimal() identity |
DECIMAL | decimal |
float | FLOAT | float |
int identity int |
INTEGER | int |
INTERVAL DAY TO SECOND INTERVAL YEAR TO SECOND |
varchar | |
LONG | bigint | |
argent smallmoney |
MONEY | argent |
nchar | NCHAR | nchar |
nvarchar | NVARCHAR | nvarchar |
ntext nvarchar(max) |
NCLOB | nvarchar(max) |
NUMBER | valeur numérique | |
numeric() identity valeur numérique |
NUMERIC | valeur numérique |
réel | REAL | réel |
smalldatetime | DATETIME | |
smallint identity smallint |
SMALLINT | smallint |
STRING | varchar | |
période | TIME | période |
TIMESTAMP WITH TIME ZONE TIMESTAMP |
datetime | |
tinyint identity tinyint |
TINYINT | tinyint |
varbinary | VARBINARY | varbinary |
Image varbinary(max) |
BLOB | varbinary(max) |
text varchar(max) |
CLOB | varchar(max) |
sql_variant sysname uniqueidentifier varchar |
VARCHAR | varchar |
XMLTYPE | text |
Le tableau présente les correspondances entre les types File et génériques.
File vers générique | Générique | Générique vers File |
---|---|---|
Décimal non condensé signé ASCII Décimal non condensé non signé ASCII |
NUMERIC | |
Big Endian signé binaire Little Endian signé binaire Big Endian non signé binaire Little Endian non signé binaire |
NUMERIC | |
Date | DATE | Date |
Décimal non condensé signé EBCDIC Décimal non condensé non signé EBCDIC |
NUMERIC | |
EBCDIC EBCDIC fixe Chaîne fixe |
VARCHAR | |
Valeur numérique | NUMERIC | |
Décimal condensé signé | NUMERIC | |
Chaîne (String) | VARCHAR | |
Décimal condensé non signé | NUMERIC | |
BIGINT | Valeur numérique | |
BINARY | Chaîne (String) | |
BINARY_DOUBLE BINARY_FLOAT |
Valeur numérique | |
BLOB BOOLEAN |
Chaîne (String) | |
CHAR CLOB |
Chaîne (String) | |
DATETIME | Date | |
DECIMAL DOUBLE |
Valeur numérique | |
FIXED | Chaîne (String) | |
FLOAT | Valeur numérique | |
INTEGER | Valeur numérique | |
INTERVAL DAY TO SECOND INTERVAL YEAR TO MONTH |
Chaîne (String) | |
LONG | Valeur numérique | |
MONEY | Valeur numérique | |
NCHAR NCLOB |
Chaîne (String) | |
NUMBER NUMERIC |
Valeur numérique | |
NVARCHAR | Chaîne (String) | |
REAL | Valeur numérique | |
SMALLINT TINYINT |
Valeur numérique | |
STRING | Chaîne (String) | |
TIME | Chaîne (String) | |
TIMESTAMP WITH TIME ZONE TIMESTAMP |
Date | |
VARBINARY | Chaîne (String) | |
VARCHAR | Chaîne (String) | |
XMLTYPE | Chaîne (String) |
String est utilisé pour l'ensemble des correspondances entre les types.
Le tableau présente les correspondances entre les types JSON et génériques.
JSON vers générique | Générique | Générique vers JSON |
---|---|---|
NULL Chaîne (String) |
VARCHAR | Chaîne (String) |
BIGINT | Nombre | |
BINARY | Chaîne (String) | |
BINARY_DOUBLE BINARY_FLOAT |
Nombre | |
BLOB | Chaîne (String) | |
Boolean | BOOLEAN | Boolean |
CHAR CLOB |
Chaîne (String) | |
DATE DATETIME |
Chaîne (String) | |
DECIMAL DOUBLE |
Nombre | |
FIXED | Chaîne (String) | |
FLOAT INTEGER |
Nombre | |
INTERVAL DAY TO SECOND INTERVAL YEAR TO MONTH |
Chaîne (String) | |
LONG MONEY |
Nombre | |
NCHAR NCLOB NVARCHAR |
Chaîne (String) | |
NUMBER | Nombre | |
Nombre | NUMERIC | Nombre |
REAL | Nombre | |
STRING | Chaîne (String) | |
SMALLINT TINYINT |
Nombre | |
TIME TIMESTAMP WITH TIME ZONE TIMESTAMP |
Chaîne (String) | |
VARBINARY | Chaîne (String) | |
XMLTYPE | Chaîne (String) |
Le tableau présente les correspondances entre les types Parquet et génériques.
Parquet vers générique | Générique | Générique vers Parquet |
---|---|---|
BIGINT LONG NUMBER |
INT64 | |
BINARY BSON FIXED_LEN_BYTE_ARRAY INT96 |
BINARY | BINARY |
BINARY_DOUBLE BINARY_FLOAT BLOB CHAR CLOB FIXED INTERVAL DAY TO SECOND INTERVAL DAY TO MONTH NCHAR NCLOB NVARCHAR VARBINARY XMLTYPE |
BINARY | |
BOOLEAN | BOOLEAN | BOOLEAN |
DATE | DATE | DATE |
DATETIME | INT32 | |
DECIMAL | DECIMAL | DECIMAL |
DOUBLE | DOUBLE | DOUBLE |
ENUM INTERVAL JSON UTF8 clé |
VARCHAR | UTF8 |
FLOAT | FLOAT | FLOAT |
INTEGER MONEY SMALLINT TINYINT |
INT32 | |
REAL | DOUBLE | |
STRING | UTF8 | |
TIME | TimeType | |
TIMESTAMP WITH TIME ZONE | TimestampType | |
TIMESTAMP | TimestampType | |
INT32 INT64 TIMESTAMP_MICROS TIMESTAMP_MILLIS TIME_MICROS TIME_MILLIS |
NUMERIC | INT32 |
Le tableau présente les correspondances entre les types Avro et génériques.
Avro vers générique | Générique | Générique vers Avro |
---|---|---|
octets | STRING | chaîne |
ANYDATA | chaîne | |
BIGINT | long | |
BINARY | chaîne | |
BINARY_DOUBLE | chaîne | |
BINARY_FLOAT | chaîne | |
BLOB | chaîne | |
boolean | BOOLEAN | boolean |
CHAR | chaîne | |
CLOB | chaîne | |
DATE | chaîne | |
DATETIME | chaîne | |
DECIMAL | double | |
double | DOUBLE | double |
FIXED | chaîne | |
float | FLOAT | float |
int | INTEGER | int |
INTERVAL DAY TO SECOND | chaîne | |
INTERVAL YEAR TO MONTH | chaîne | |
long | LONG | long |
MONEY | double | |
NCHAR | chaîne | |
NCLOB | chaîne | |
NUMBER | int | |
NUMERIC | int | |
NVARCHAR | chaîne | |
REAL | float | |
SMALLINT | int | |
chaîne | STRING | chaîne |
TIME | chaîne | |
TIMESTAMP WITH TIME ZONE | chaîne | |
TIMESTAMP | chaîne | |
TINYINT | int | |
VARBINARY | chaîne | |
null | VARCHAR | chaîne |
XMLFORMAT | chaîne | |
XMLTYPE | chaîne |
Le tableau présente la correspondance entre le type Excel et le type générique.
Excel | Générique |
---|---|
BOOLEAN | BOOLEAN |
NUMERIC | NUMERIC |
STRING | STRING |
Le tableau présente les correspondances entre les types Oracle Fusion Applications avec Oracle Business Intelligence Cloud Connector (BICC) et génériques.
Oracle Fusion Applications avec BICC vers générique | Générique | Générique vers Oracle Fusion Applications avec BICC |
---|---|---|
NUMERIC | NUMERIC | NUMERIC |
VARCHAR | VARCHAR | VARCHAR |
DATE | DATE | DATE |
TIMESTAMP | TIMESTAMP | TIMESTAMP |
Configurations réseau
Les configurations réseau dépendent des ressources de données source et cible que vous utilisez avec le service Data Integration et de l'emplacement des ressources.
Reportez-vous au blog Understanding VCN Configuration for Data Integration pour identifier les options correspondant à vos besoins.
Un espace de travail peut comporter un réseau cloud virtuel attaché. Pour les sources de données dans un réseau privé, créez un VCN avec au moins un sous-réseau régional. Seuls les sous-réseaux régionaux sont pris en charge, et des noms d'hôte DNS doivent être utilisés dans les sous-réseaux. Selon l'emplacement de vos sources de données, vous devrez peut-être créer d'autres objets réseau, tels que des passerelles de service, des groupes de sécurité réseau et des passerelles NAT.
En général, pour les sources de données accessibles à partir d'Internet :
- Si un espace de travail a un VCN attaché : Data Integration peut se connecter directement via une passerelle NAT (Network Address Translation) sur le VCN de l'espace de travail.
- Si un espace de travail ne dispose pas d'un VCN attaché : Data Integration peut se connecter directement à l'aide d'adresses IP publiques.
Les ressources, telles que les espaces de travail, avec des adresses IP privées définies dans un sous-réseau peuvent accéder à d'autres ressources privées dans différents réseaux cloud virtuels et régions via des passerelles de service ou NAT à l'aide de passerelles d'appairage local ou à distance.
Vous pouvez également combiner des passerelles lorsque vous avez besoin d'accéder à Object Storage et à Autonomous Data Warehouse. Par exemple, pour la connectivité publique, vous avez besoin d'une passerelle de service pour Object Storage et d'une passerelle NAT pour Autonomous Data Warehouse.
Pour les sources de données qui ne sont pas accessibles à partir d'Internet, vous disposez par exemple des autres options suivantes :
Créez un espace de travail avec une adresse privée activée, celle-ci se trouvant dans le même sous-réseau que la source de données.
Utilisez Oracle Cloud Infrastructure FastConnect.
Utilisez Oracle Cloud Infrastructure VPN Connect (également appelé VPN IPSec).
Cependant, Oracle Cloud Infrastructure FastConnect et Oracle Cloud Infrastructure VPN Connect doivent être utilisés lorsque ces sources se trouvent dans des domaines privés :
- Oracle sur Amazon RDS
- MySQL sur Amazon RDS
- Amazon RDS pour SQL Server
- Microsoft Azure SQL Database
Documentation Oracle Cloud Infrastructure Networking :