Operaciones masivas para archivos en la nube
El paquete PL/SQL DBMS_CLOUD
ofrece soporte de ejecución en paralelo para las actividades de carga, descarga, copia y transferencia de archivos en bloque, lo que optimiza la experiencia del usuario y ofrece un rendimiento óptimo para las operaciones de archivos en bloque.
El paquete DBMS_CLOUD
soporta la carga y descarga de archivos en los siguientes servicios en la nube:
-
Oracle Cloud Infrastructure Object Storage
-
Almacenamiento de bloques de Azure
-
Amazon S3
-
Compatibilidad con Amazon S3, incluido Wasabi Hot Cloud Storage
-
Google Cloud Storage
Consulte DBMS_CLOUD Package File URI Formats para obtener más información.
- Acerca de las operaciones de archivos en bloque
Las operaciones de archivos en bloqueDBMS_CLOUD
soportan la descarga y carga de archivos en Autonomous Database, incluido el soporte para copiar, mover y suprimir archivos en almacenes de objetos en la nube, ya sea dentro del mismo proveedor de almacén de objetos o entre proveedores de almacén de objetos. - Archivos de copia masiva en Cloud Object Storage
Utilice el procedimientoDBMS_CLOUD.BULK_COPY
para copiar archivos de forma masiva de un cubo o carpeta del almacén de objetos a otro cubo o carpeta. - Movimiento masivo de archivos en Cloud Object Storage
Utilice el procedimientoDBMS_CLOUD.BULK_MOVE
para mover archivos de forma masiva de una ubicación de Cloud Object Storage a otra. - Descarga masiva de archivos desde Cloud Object Storage
Utilice el procedimientoDBMS_CLOUD.BULK_DOWNLOAD
para descargar archivos de forma masiva desde la ubicación del almacén de objetos en la nube en el objeto de directorio de una instancia de Autonomous Database. - Carga masiva de archivos en Cloud Object Storage
Utilice el procedimientoDBMS_CLOUD.BULK_UPLOAD
para cargar archivos de forma masiva desde un objeto de directorio en la base de datos a una ubicación de Cloud Object Store. - Supresión masiva de archivos de Cloud Object Storage
Utilice el procedimientoDBMS_CLOUD.BULK_DELETE
para suprimir archivos de Cloud Object Storage de forma masiva. - Supervisión y solución de problemas de cargas de archivos masivas
Todas las operaciones de carga de datos deDBMS_CLOUD
se registran en las vistasdba_load_operations
yuser_load_operations
. - Notas para operaciones de archivos masivos
Proporciona notas para las credenciales que utiliza con operaciones de archivos masivos.
Tema principal: Mover archivos
Acerca de las operaciones de archivos masivos
DBMS_CLOUD
soportan la descarga y carga de archivos en Autonomous Database, incluido el soporte para copiar, mover y suprimir archivos en almacenes de objetos en la nube, ya sea dentro del mismo proveedor de almacén de objetos o entre proveedores de almacén de objetos.
Las operaciones de archivos en bloque soportan el paralelismo y proporcionan un rendimiento óptimo para cargar, descargar, copiar y mover archivos. El paralelismo para operaciones de archivos en bloque se maneja especificando una prioridad para una operación. Las prioridades apoyadas son:
HIGH
: utilice el recuento de recursos informáticos de CPU de la instancia de Autonomous Database para determinar el número de archivos paralelos procesados.MEDIUM
: utilice el límite de simultaneidad para el servicio Medium para determinar el paralelismo.LOW
: procesa los archivos en orden de serie (sin simultaneidad).
La ejecución de operaciones en bloque con mayor prioridad utiliza más recursos de base de datos y las operaciones se completan más rápido cuando el paralelismo puede acelerar la operación. Una prioridad más baja consume menos recursos de base de datos y las operaciones tardan más en completarse cuando el paralelismo puede acelerar la operación. Cuando las operaciones en bloque implican un número reducido de archivos que contienen pocos datos, la especificación de una prioridad más alta puede no cambiar el rendimiento.
Para aumentar el paralelismo de las operaciones de archivos en bloque, utilice la prioridad HIGH
y aumente el número de CPU asignadas a la instancia de Autonomous Database. El máximo de operaciones de archivos simultáneos admitidas está limitado a 64 para operaciones de archivos masivos.
La prioridad por defecto es MEDIUM
, que especifica que las operaciones de archivos en bloque utilizan el límite de simultaneidad definido para el grupo de consumidores MEDIUM. Consulte Gestión de la simultaneidad y las prioridades en Autonomous Database para obtener más información.
Consulte DBMS_CLOUD para la gestión de archivos en bloque para obtener más información sobre el uso del parámetro format
para especificar priority
con operaciones de archivos en bloque.
Tema principal: Operaciones masivas para archivos en la nube
Copia masiva de archivos en el almacenamiento de objetos en la nube
Utilice el procedimiento DBMS_CLOUD.BULK_COPY
para copiar archivos de forma masiva de un cubo o carpeta del almacén de objetos a otro cubo o carpeta.
Por ejemplo, utilice DBMS_CLOUD.BULK_COPY
para copiar archivos de Amazon S3 en Oracle Cloud Infrastructure Object Storage.
BEGIN
DBMS_CLOUD.BULK_COPY
(
source_credential_name => 'AWS_CRED',
source_location_uri => 'https://bucketname.s3-us-west-2.amazonaws.com/',
target_credential_name => 'OCI_CRED',
target_location_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/o',
format => JSON_OBJECT ('logretention' value 7, 'logprefix' value 'BULKOP')
);
END;
/
Tema principal: Operaciones masivas para archivos en la nube
Movimiento masivo de archivos en Cloud Object Storage
DBMS_CLOUD.BULK_MOVE
para mover archivos de forma masiva de una ubicación de Cloud Object Storage a otra.
El primer paso para mover archivos es copiarlos en la ubicación de destino. Después de que los archivos se copian correctamente, se suprimen de la ubicación de origen.
Se cambia el nombre de los archivos en lugar de copiarlos si el almacén de objetos permite cambiar el nombre de las operaciones entre las ubicaciones de origen y destino.
Por ejemplo, utilice DBMS_CLOUD.BULK_MOVE
para mover archivos de Amazon S3 a Oracle Cloud Infrastructure Object Storage.
BEGIN
DBMS_CLOUD.BULK_MOVE
(
source_credential_name => 'AWS_CRED',
source_location_uri => 'https://bucketname.s3-us-west-2.amazonaws.com/',
target_credential_name => 'OCI_CRED',
target_location_uri => 'https://objectstorage.us-phoenix-1.oraclecloud.com/n/namespace-string/b/bucketname2/o',
format => JSON_OBJECT ('logretention' value 7, 'logprefix' value 'BULKOP')
);
END;
/
Tema principal: Operaciones masivas para archivos en la nube
Descarga masiva de archivos de Cloud Object Storage
Utilice el procedimiento DBMS_CLOUD.BULK_DOWNLOAD
para descargar archivos de forma masiva desde la ubicación del almacén de objetos en la nube al objeto de directorio de una instancia de Autonomous Database.
Tema principal: Operaciones masivas para archivos en la nube
Carga masiva de archivos en Cloud Object Storage
Utilice el procedimiento DBMS_CLOUD.BULK_UPLOAD
para cargar archivos de forma masiva desde un objeto de directorio de la base de datos a una ubicación del almacén de objetos en la nube.
Tema principal: Operaciones masivas para archivos en la nube
Supresión masiva de archivos de Cloud Object Storage
Utilice el procedimiento DBMS_CLOUD.BULK_DELETE
para suprimir archivos de Cloud Object Storage de forma masiva.
Tema principal: Operaciones masivas para archivos en la nube
Supervisión y solución de problemas de cargas de archivos masivas
Todas las operaciones de carga de datos DBMS_CLOUD
se registran en las vistas dba_load_operations
y user_load_operations
.
Puede utilizar las siguientes vistas para supervisar y solucionar problemas de cargas de archivos masivos:
-
dba_load_operations
: muestra todas las operaciones de carga. -
user_load_operations
: muestra las operaciones de carga del esquema.
Consulte estas vistas para ver información sobre las operaciones de archivos masivos en curso y finalizadas. Por ejemplo, la siguiente sentencia SELECT
con un predicado de cláusula WHERE
en TYPE
, se muestran las operaciones DOWNLOAD
:
SELECT owner_name, type, status, start_time, update_time, status_table, rows_loaded
FROM user_load_operations WHERE type = 'DOWNLOAD';
OWNER_NAME TYPE STATUS START_TIME UPDATE_TIME STATUS_TABLE ROWS_LOADED
---------- -------- --------- ------------------------ ------------------------ ------------ -----------
"ADMIN" DOWNLOAD COMPLETED 2022-10-17T20:42:19.498Z 2022-10-17T20:42:21.054Z DWN$2_STATUS 4
"ADMIN" DOWNLOAD FAILED 2022-10-17T20:40:54.348Z 2022-10-17T20:40:55.679Z DWN$1_STATUS
La columna STATUS_TABLE
muestra el nombre de la tabla que puede consultar para consultar información de registro detallada para la operación de descarga masiva. Por ejemplo:
DESCRIBE DWN$2_STATUS
Name Null? Type
------------- -------- ---------------------------
ID NOT NULL NUMBER
NAME VARCHAR2(4000)
BYTES NUMBER
CHECKSUM VARCHAR2(128)
LAST_MODIFIED TIMESTAMP(6) WITH TIME ZONE
STATUS VARCHAR2(30)
ERROR_CODE NUMBER
ERROR_MESSAGE VARCHAR2(4000)
START_TIME TIMESTAMP(6) WITH TIME ZONE
END_TIME TIMESTAMP(6) WITH TIME ZONE
SID NUMBER
SERIAL# NUMBER
ROWS_LOADED NUMBER
SELECT id, name, bytes, status, error_message, start_time, end_time FROM DWN$2_STATUS;
ID NAME BYTES STATUS ERROR_MESSAGE START_TIME END_TIME
-- ---------- ----- --------- ------------- ------------------------ ------------------------
1 trees.txt 58 COMPLETED 2022-10-17T20:42:19.998Z 2022-10-17T20:42:20.421Z
2 trees1.txt 58 COMPLETED 2022-10-17T20:42:20.425Z 2022-10-17T20:42:20.533Z
3 trees2.txt 58 COMPLETED 2022-10-17T20:42:20.535Z 2022-10-17T20:42:20.894Z
4 trees3.txt 58 COMPLETED 2022-10-17T20:42:20.896Z 2022-10-17T20:42:21.043Z
La tabla de estado muestra cada nombre de archivo y su estado para la operación en bloque.
El mensaje y el número de error relevantes se registran en la tabla de estado si falla una operación en un archivo específico.
Para las operaciones finalizadas, el tiempo necesario para cada operación se puede calcular mediante el tiempo START_TIME
y END_TIME
informado.
La columna STATUS
de la operación de archivo puede tener uno de los siguientes valores:
Estado del Archivo | Descripción |
---|---|
|
La operación de archivo se ha realizado correctamente. |
|
Fallo en la operación de archivo. Puede que se intente un reintento dos veces. |
|
La operación de archivo aún no se ha iniciado. |
|
La operación de archivo está en curso actualmente. |
|
Se ha saltado la operación de archivo. |
Si alguna operación de archivo falla después de dos reintentos, la operación masiva se marca como fallida y se emite un error. Por ejemplo:
ORA-20003: Operation failed, please query table DOWNLOAD$2_STATUS for error details
Al utilizar una operación de archivo masivo DBMS_CLOUD
, hay opciones de parámetros format
que controlan las tablas de estado:
-
logretention
: especifica un valor entero que determina la duración en días que se retiene la tabla de estado. El valor por defecto es 2 días. -
logprefix
: especifica un valor de cadena que determina el prefijo de nombre de la tabla de estado de operación en bloque.Cada operación en bloque tiene su propio valor por defecto para la opción
logprefix
:Procedimiento Valor por defecto para logprefix
DBMS_CLOUD.BULK_COPY
COPYOBJ
DBMS_CLOUD.BULK_DELETE
DELETE
DBMS_CLOUD.BULK_DOWNLOAD
DOWNLOAD
DBMS_CLOUD.BULK_MOVE
MOVE
DBMS_CLOUD.BULK_UPLOAD
UPLOAD
Consulte Procedimiento DELETE_ALL_OPERATIONS para obtener información sobre cómo borrar la tabla user_load_operations
.
Tema principal: Operaciones masivas para archivos en la nube
Notas para operaciones de archivos masivos
Proporciona notas para las credenciales que utiliza con operaciones de archivos masivos.
-
Puede especificar principales como el parámetro
credential_name
,source_credential_name
otarget_credential_name
para acceder a los recursos en la nube de forma segura sin almacenar credenciales de usuario. Los principales admitidos son:- Entidades de recurso de Oracle Cloud Infrastructure
- Nombres de recursos de Amazon (ARN) de AWS
- Entidad de servicio de Azure
- Cuenta de servicio de Google
Consulte Configuración de políticas y roles para acceder a recursos para obtener más información.
-
credential_name
,source_credential_name
otarget_credential_name
pueden serNULL
para el URI de cubo público, autenticado previamente o firmado previamente.
Tema principal: Operaciones masivas para archivos en la nube