Esta funcionalidad está disponible para los clientes que hayan adquirido el paquete Real-Time CDP Prime and Ultimate, Adobe Journey Optimizer o Customer Journey Analytics. Póngase en contacto con el representante del Adobe para obtener más información.
IMPORTANT
Elemento de acción: la versión de septiembre de 2024 de Experience Platform presenta la opción de establecer una fecha de endTime para exportar flujos de datos del conjunto de datos. Adobe también introduce una fecha de finalización predeterminada del 1 de mayo de 2025 para todos los flujos de datos de exportación de conjuntos de datos creados antes de la versión de septiembre. Para cualquiera de esos flujos de datos, debe actualizar la fecha de finalización en el flujo de datos manualmente antes de la fecha de finalización; de lo contrario, las exportaciones para se detienen en esa fecha. Utilice la interfaz de usuario del Experience Platform para ver qué flujos de datos se configurarán para detenerse el 1 de mayo.
Del mismo modo, para cualquier flujo de datos que cree sin especificar una fecha endTime, se establecerá de forma predeterminada una hora de finalización en seis meses desde la hora en que se crean.
En este artículo se explica el flujo de trabajo necesario para usar Flow Service API con el fin de exportar conjuntos de datos de Adobe Experience Platform a su ubicación de almacenamiento en la nube preferida, como Amazon S3, ubicaciones SFTP o Google Cloud Storage.
TIP
También puede utilizar la interfaz de usuario del Experience Platform para exportar conjuntos de datos. Lea el tutorial de la interfaz de usuario de exportar conjuntos de datos para obtener más información.
Conjuntos de datos disponibles para exportar datasets-to-export
Los conjuntos de datos que puede exportar dependen de la aplicación del Experience Platform (Real-Time CDP, Adobe Journey Optimizer), el nivel (Prime o Ultimate) y cualquier complemento que haya adquirido (por ejemplo: Data Distiller).
Actualmente, puede exportar conjuntos de datos a los destinos de almacenamiento en la nube resaltados en la captura de pantalla y que se enumeran a continuación.
Esta guía requiere una comprensión práctica de los siguientes componentes de Adobe Experience Platform:
Experience Platform datasets: todos los datos que se han ingerido correctamente en Adobe Experience Platform se mantienen dentro de Data Lake como conjuntos de datos. Un conjunto de datos es una construcción de almacenamiento y administración para una colección de datos, normalmente una tabla, que contiene un esquema (columnas) y campos (filas). Los conjuntos de datos también contienen metadatos que describen varios aspectos de los datos que almacenan.
Sandboxes: Experience Platform proporciona zonas protegidas virtuales que dividen una sola instancia de Platform en entornos virtuales independientes para ayudar a desarrollar y evolucionar aplicaciones de experiencia digital.
Las secciones siguientes proporcionan información adicional que debe conocer para exportar conjuntos de datos a destinos de almacenamiento en la nube en Platform.
Permisos necesarios permissions
Para exportar conjuntos de datos, necesita Ver destinos, Ver conjuntos de datos y Administrar y activar destinos de conjuntos de datospermisos de control de acceso. Lea la descripción general del control de acceso o póngase en contacto con el administrador del producto para obtener los permisos necesarios.
Para asegurarse de que tiene los permisos necesarios para exportar conjuntos de datos y de que el destino admite la exportación de conjuntos de datos, examine el catálogo de destinos. Si un destino tiene un control Activar o Exportar conjuntos de datos, tiene los permisos apropiados.
Lectura de llamadas de API de muestra reading-sample-api-calls
Este tutorial proporciona llamadas de API de ejemplo para demostrar cómo dar formato a las solicitudes. Estas incluyen rutas, encabezados obligatorios y cargas de solicitud con el formato correcto. También se proporciona el JSON de muestra devuelto en las respuestas de la API. Para obtener información sobre las convenciones utilizadas en la documentación de las llamadas de API de ejemplo, consulte la sección sobre cómo leer las llamadas de API de ejemplo en la guía de solución de problemas de Experience Platform.
Recopilar valores para encabezados obligatorios y opcionales gather-values-headers
Para realizar llamadas a las API de Platform, primero debe completar el tutorial de autenticación de Experience Platform 2}.Al completar el tutorial de autenticación, se proporcionan los valores para cada uno de los encabezados obligatorios en todas las llamadas de API de Experience Platform, como se muestra a continuación:
Autorización: Portador {ACCESS_TOKEN}
x-api-key: {API_KEY}
x-gw-ims-org-id: {ORG_ID}
Los recursos de Experience Platform se pueden aislar en zonas protegidas virtuales específicas. En las solicitudes a las API de Platform, puede especificar el nombre y el ID de la zona protegida en la que se realizará la operación. Son parámetros opcionales.
Todas las solicitudes que contienen una carga útil (POST, PUT, PATCH) requieren un encabezado de tipo de medios adicional:
Tipo de contenido: application/json
Documentación de referencia del API api-reference-documentation
Puede encontrar la documentación de referencia adjunta para todas las operaciones de API en este tutorial. Consulte la documentación de la API Flow Service - Destinos en el sitio web de Adobe Developer. Le recomendamos que utilice este tutorial y la documentación de referencia de la API en paralelo.
Glosario glossary
Para obtener descripciones de los términos que encontrará en este tutorial de API, lea la sección del glosario de la documentación de referencia de la API.
Recopile las especificaciones de conexión y de flujo para el destino deseado gather-connection-spec-flow-spec
Antes de iniciar el flujo de trabajo para exportar un conjunto de datos, identifique la especificación de conexión y los ID de especificación de flujo del destino al que desea exportar los conjuntos de datos. Utilice la tabla siguiente como referencia.
Destino
Especificación de conexión
Especificación de flujo
Amazon S3
4fce964d-3f37-408f-9778-e597338a21ee
269ba276-16fc-47db-92b0-c1049a3c131f
Azure Blob Storage
6d6b59bf-fb58-4107-9064-4d246c0e5bb2
95bd8965-fc8a-4119-b9c3-944c2c2df6d2
Azure Data Lake Gen 2(ADLS Gen2)
be2c3209-53bc-47e7-ab25-145db8b873e1
17be2013-2549-41ce-96e7-a70363bec293
Data Landing Zone(DLZ)
10440537-2a7b-4583-ac39-ed38d4b848e8
cd2fc47e-e838-4f38-a581-8fff2f99b63a
Google Cloud Storage
c5d93acb-ea8b-4b14-8f53-02138444ae99
585c15c4-6cbf-4126-8f87-e26bff78b657
SFTP
36965a81-b1c6-401b-99f8-22508f1e6a26
354d6aad-4754-46e4-a576-1b384561c440
Necesita estos identificadores para construir varias entidades Flow Service. También debe hacer referencia a partes del propio Connection Spec para configurar ciertas entidades y poder recuperar el Connection Spec de Flow Service APIs. Consulte los ejemplos siguientes de recuperación de especificaciones de conexión para todos los destinos de la tabla:
Siga los pasos a continuación para configurar un flujo de datos de conjunto de datos en un destino de almacenamiento en la nube. En algunos pasos, las solicitudes y respuestas difieren entre los distintos destinos de almacenamiento en la nube. En estos casos, utilice las pestañas de la página para recuperar las solicitudes y respuestas específicas del destino al que desea conectarse y exportar los conjuntos de datos. Asegúrese de usar los connection spec y flow spec correctos para el destino que está configurando.
Recuperación de una lista de conjuntos de datos retrieve-list-of-available-datasets
Para recuperar una lista de conjuntos de datos aptos para la activación, comience realizando una llamada de API al siguiente extremo.
Tenga en cuenta que para recuperar conjuntos de datos aptos, el ID de connection spec utilizado en la dirección URL de solicitud debe ser el ID de especificación de conexión de origen de datos 23598e46-f560-407b-88d5-ea6207e49db0, y se deben especificar los dos parámetros de consulta outputField=datasets y outputType=activationDatasets. Todos los demás parámetros de consulta son los estándar admitidos por la API del servicio de catálogo.
Una respuesta correcta contiene una lista de conjuntos de datos aptos para la activación. Estos conjuntos de datos se pueden utilizar al construir la conexión de origen en el siguiente paso.
Crear una conexión de origen create-source-connection
Después de recuperar la lista de conjuntos de datos que desea exportar, puede crear una conexión de origen utilizando esos ID de conjuntos de datos.
Solicitud
Crear conexión de origen: Solicitud
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Una respuesta correcta devuelve el identificador (id) de la conexión de origen recién creada y un etag. Tenga en cuenta el ID de conexión de origen, ya que lo necesitará más adelante al crear el flujo de datos.
Recuerde también lo siguiente:
La conexión de origen creada en este paso debe vincularse a un flujo de datos para que sus conjuntos de datos se activen en un destino. Consulte la sección crear un flujo de datos para obtener información sobre cómo vincular una conexión de origen a un flujo de datos.
Los ID de conjuntos de datos de una conexión de origen no se pueden modificar después de la creación. Si necesita agregar o quitar conjuntos de datos de una conexión de origen, debe crear una nueva conexión de origen y vincular el ID de la nueva conexión de origen al flujo de datos.
Crear una conexión base (de destino) create-base-connection
Una conexión base almacena de forma segura las credenciales en su destino. Según el tipo de destino, las credenciales necesarias para autenticarse en ese destino pueden variar. Para encontrar estos parámetros de autenticación, primero recupere connection spec para el destino deseado tal como se describe en la sección Recopilar especificaciones de conexión y especificaciones de flujo y luego observe authSpec de la respuesta. Haga referencia a las fichas siguientes para las propiedades de authSpec de todos los destinos admitidos.
Amazon S3
accordion
Amazon S3 - Connection spec mostrando auth spec
Observe la línea resaltada con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros de autenticación en connection spec.
Observe la línea resaltada con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros de autenticación en connection spec.
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec mostrando auth spec
Observe la línea resaltada con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros de autenticación en connection spec.
Google Cloud Storage - Connection spec mostrando auth spec
Observe la línea resaltada con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros de autenticación en connection spec.
{
"items": [
{
"id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
"name": "Google Cloud Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [ // describes the authentication parameters
{
"name": "Google Cloud Storage authentication credentials",
"type": "GoogleCloudStorageAuth",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "defines auth params required for connecting to google cloud storage connector.",
"type": "object",
"properties": {
"accessKeyId": {
"description": "Access Key Id for the user account",
"type": "string"
},
"secretAccessKey": {
"description": "Secret Access Key for the user account",
"type": "string",
"format": "password"
}
},
"required": [
"accessKeyId",
"secretAccessKey"
]
}
}
],
//...
SFTP
accordion
SFTP: Connection spec muestra auth spec
note note
NOTE
El destino SFTP contiene dos elementos independientes en auth spec, ya que admite la autenticación mediante contraseña y clave SSH.
Observe la línea resaltada con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros de autenticación en connection spec.
Con las propiedades especificadas en la especificación de autenticación (es decir, authSpec de la respuesta) puede crear una conexión base con las credenciales necesarias, específicas para cada tipo de destino, como se muestra en los ejemplos siguientes:
Amazon S3
Solicitud
accordion
Amazon S3 - Solicitud de conexión base
note tip
TIP
Para obtener información sobre cómo obtener las credenciales de autenticación necesarias, consulte la sección autenticar en destino de la página de documentación de destino de Amazon S3.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Para obtener información sobre cómo obtener las credenciales de autenticación necesarias, consulte la sección autenticar en destino de la página de documentación de destino de Azure Blob Storage.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Azure Data Lake Gen 2(ADLS Gen2) - Solicitud de conexión base
note tip
TIP
Para obtener información sobre cómo obtener las credenciales de autenticación necesarias, consulte la sección autenticar en el destino de la página de documentación de destino de Azure Data Lake Gen 2(ADLS Gen2).
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Data Landing Zone(DLZ) - Solicitud de conexión base
note tip
TIP
No se requieren credenciales de autenticación para el destino de la zona de aterrizaje de datos. Para obtener más información, consulte la sección autenticar en destino de la página de documentación de destino de la zona de aterrizaje de datos.
Para obtener información sobre cómo obtener las credenciales de autenticación necesarias, consulte la sección autenticar en destino de la página de documentación de destino de Google Cloud Storage.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Para obtener información sobre cómo obtener las credenciales de autenticación requeridas, consulte la sección autenticar en destino de la página de documentación de destino SFTP.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Para obtener información sobre cómo obtener las credenciales de autenticación requeridas, consulte la sección autenticar en destino de la página de documentación de destino SFTP.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Observe el ID de conexión de la respuesta. Este ID será necesario en el siguiente paso al crear la conexión de destino.
Creación de una conexión de destino create-target-connection
A continuación, debe crear una conexión de destino que almacene los parámetros de exportación para los conjuntos de datos. Los parámetros de exportación incluyen ubicación, formato de archivo, compresión y otros detalles. Consulte las propiedades de targetSpec proporcionadas en la especificación de conexión del destino para comprender las propiedades admitidas para cada tipo de destino. Haga referencia a las fichas siguientes para las propiedades de targetSpec de todos los destinos admitidos.
IMPORTANT
Las exportaciones a archivos JSON solo se admiten en modo comprimido. Las exportaciones a Parquet archivos se admiten en los modos comprimido y sin comprimir.
El formato del archivo JSON exportado es NDJSON, que es el formato de intercambio estándar en el ecosistema de big data. Adobe recomienda utilizar un cliente compatible con NDJSON para leer los archivos exportados.
Amazon S3
accordion
Amazon S3 - Connection spec mostrando parámetros de conexión de destino
Observe las líneas resaltadas con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros target spec en la especificación de conexión. También puede ver en el ejemplo siguiente qué parámetros de destino son no aplicables a los destinos de exportación del conjunto de datos.
Azure Blob Storage - Connection spec mostrando parámetros de conexión de destino
Observe las líneas resaltadas con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros target spec en la especificación de conexión. También puede ver en el ejemplo siguiente qué parámetros de destino son no aplicables a los destinos de exportación del conjunto de datos.
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec mostrando parámetros de conexión de destino
Observe las líneas resaltadas con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros target spec en la especificación de conexión. También puede ver en el ejemplo siguiente qué parámetros de destino son no aplicables a los destinos de exportación del conjunto de datos.
{
"items": [
{
"id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
"name": "Azure Data Lake Gen2",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [...],
"encryptionSpecs": [...],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"path": {
"title": "Folder path",
"description": "Enter the path to your Azure Data Lake Storage folder",
"type": "string"
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions":{...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"NONE",
"GZIP"
]
}
},
"required": [
"path",
"datasetFileType",
"compression",
"fileType"
]
}
//...
Zona de aterrizaje de datos (DLZ)
accordion
Data Landing Zone(DLZ) - Connection spec mostrando parámetros de conexión de destino
Observe las líneas resaltadas con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros target spec en la especificación de conexión. También puede ver en el ejemplo siguiente qué parámetros de destino son no aplicables a los destinos de exportación del conjunto de datos.
Google Cloud Storage - Connection spec mostrando parámetros de conexión de destino
Observe las líneas resaltadas con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros target spec en la especificación de conexión. También puede ver en el ejemplo siguiente qué parámetros de destino son no aplicables a los destinos de exportación del conjunto de datos.
SFTP: Connection spec muestra los parámetros de conexión de destino
Observe las líneas resaltadas con comentarios en línea en el ejemplo connection spec siguiente, que proporciona información adicional sobre dónde encontrar los parámetros target spec en la especificación de conexión. También puede ver en el ejemplo siguiente qué parámetros de destino son no aplicables a los destinos de exportación del conjunto de datos.
Con la especificación anterior, puede construir una solicitud de conexión de destino específica para el destino de almacenamiento en la nube deseado, como se muestra en las pestañas a continuación.
Amazon S3
Solicitud
accordion
Amazon S3 - Solicitud de conexión de destino
note tip
TIP
Para obtener información sobre cómo obtener los parámetros de destino requeridos, consulte la sección rellenar detalles de destino de la página de documentación de destino Amazon S3. Para otros valores compatibles de datasetFileType, consulte la documentación de referencia de la API.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Azure Blob Storage - Solicitud de conexión de destino
note tip
TIP
Para obtener información sobre cómo obtener los parámetros de destino requeridos, consulte la sección rellenar detalles de destino de la página de documentación de destino Azure Blob Storage. Para otros valores compatibles de datasetFileType, consulte la documentación de referencia de la API.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Azure Blob Storage - Solicitud de conexión de destino
note tip
TIP
Para obtener información sobre cómo obtener los parámetros de destino requeridos, consulte la sección rellenar detalles de destino de la página de documentación de destino de Azure Data Lake Gen 2(ADLS Gen2). Para otros valores compatibles de datasetFileType, consulte la documentación de referencia de la API.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Data Landing Zone - Solicitud de conexión de destino
note tip
TIP
Para obtener información sobre cómo obtener los parámetros de destino requeridos, consulte la sección rellenar detalles de destino de la página de documentación de destino Data Landing Zone. Para otros valores compatibles de datasetFileType, consulte la documentación de referencia de la API.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Google Cloud Storage - Solicitud de conexión de destino
note tip
TIP
Para obtener información sobre cómo obtener los parámetros de destino requeridos, consulte la sección rellenar detalles de destino de la página de documentación de destino Google Cloud Storage. Para otros valores compatibles de datasetFileType, consulte la documentación de referencia de la API.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Para obtener información sobre cómo obtener los parámetros de destino requeridos, consulte la sección rellenar detalles de destino de la página de documentación de destino SFTP. Para otros valores compatibles de datasetFileType, consulte la documentación de referencia de la API.
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
Tenga en cuenta el ID de conexión de Target de la respuesta. Este ID será necesario en el siguiente paso al crear el flujo de datos para exportar conjuntos de datos.
Creación de un flujo de datos create-dataflow
El paso final de la configuración de destino es configurar un flujo de datos. Un flujo de datos vincula las entidades creadas anteriormente y también proporciona opciones para configurar la programación de exportación del conjunto de datos. Para crear el flujo de datos, utilice las cargas útiles que se indican a continuación, según el destino de almacenamiento en la nube deseado, y reemplace los ID de entidad de pasos anteriores.
Amazon S3
Solicitud
accordion
Crear flujo de datos del conjunto de datos al destino Amazon S3 - Solicitud
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Amazon S3 cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Amazon S3 cloud storage destination",
"flowSpec": {
"id": "269ba276-16fc-47db-92b0-c1049a3c131f", // Amazon S3 flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabla siguiente proporciona descripciones de todos los parámetros de la sección scheduleParams, lo que le permite personalizar los tiempos de exportación, la frecuencia, la ubicación y mucho más para las exportaciones de conjuntos de datos.
Seleccione "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Para obtener más información sobre las dos opciones, consulte exportar archivos completos y exportar archivos incrementales en el tutorial de activación de destinos por lotes. Las tres opciones de exportación disponibles son: Archivo completo - Una vez: "DAILY_FULL_EXPORT" solo se puede usar en combinación con timeUnit:day y interval:0 para una exportación completa única del conjunto de datos. No se admiten exportaciones completas diarias de conjuntos de datos. Si necesita exportaciones diarias, utilice la opción de exportación incremental. Exportaciones diarias incrementales: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day y interval :1 para las exportaciones incrementales diarias. Exportaciones incrementales por hora: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour y interval :3,6,9 o 12 para exportaciones incrementales por hora.
timeUnit
Seleccione day o hour según la frecuencia con la que desee exportar los archivos del conjunto de datos.
interval
Seleccione 1 cuando timeUnit sea un día y 3,6,9,12 cuando la unidad de tiempo sea hour.
startTime
La fecha y la hora en segundos de UNIX en que deben comenzar las exportaciones de conjuntos de datos.
endTime
La fecha y la hora en segundos de UNIX en que deben finalizar las exportaciones de conjuntos de datos.
foldernameTemplate
Especifique la estructura de nombres de carpeta esperada en la ubicación de almacenamiento en la que se depositarán los archivos exportados.
ID_CONJUNTO_DATOS = Identificador único del conjunto de datos.
DESTINO = Nombre del destino.
FECHA Y HORA = Fecha y hora con formato aaaaMMdd_HHmmss.
TIEMPO_EXPORTACIÓN = Hora programada para la exportación de datos con el formato exportTime=YYYYMMDDHHMM.
NOMBRE_INSTANCIA_DESTINO = Nombre de la instancia específica del destino.
DESTINATION_INSTANCE_ID = Identificador único de la instancia de destino.
NOMBRE_DE_ZONA_PROTEGIDA = Nombre del entorno de espacio aislado.
Crear flujo de datos del conjunto de datos al destino Azure Blob Storage - Solicitud
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Blob Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Blob Storage cloud storage destination",
"flowSpec": {
"id": "95bd8965-fc8a-4119-b9c3-944c2c2df6d2", // Azure Blob Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabla siguiente proporciona descripciones de todos los parámetros de la sección scheduleParams, lo que le permite personalizar los tiempos de exportación, la frecuencia, la ubicación y mucho más para las exportaciones de conjuntos de datos.
Seleccione "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Para obtener más información sobre las dos opciones, consulte exportar archivos completos y exportar archivos incrementales en el tutorial de activación de destinos por lotes. Las tres opciones de exportación disponibles son: Archivo completo - Una vez: "DAILY_FULL_EXPORT" solo se puede usar en combinación con timeUnit:day y interval:0 para una exportación completa única del conjunto de datos. No se admiten exportaciones completas diarias de conjuntos de datos. Si necesita exportaciones diarias, utilice la opción de exportación incremental. Exportaciones diarias incrementales: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day y interval :1 para las exportaciones incrementales diarias. Exportaciones incrementales por hora: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour y interval :3,6,9 o 12 para exportaciones incrementales por hora.
timeUnit
Seleccione day o hour según la frecuencia con la que desee exportar los archivos del conjunto de datos.
interval
Seleccione 1 cuando timeUnit sea un día y 3,6,9,12 cuando la unidad de tiempo sea hour.
startTime
La fecha y la hora en segundos de UNIX en que deben comenzar las exportaciones de conjuntos de datos.
endTime
La fecha y la hora en segundos de UNIX en que deben finalizar las exportaciones de conjuntos de datos.
foldernameTemplate
Especifique la estructura de nombres de carpeta esperada en la ubicación de almacenamiento en la que se depositarán los archivos exportados.
ID_CONJUNTO_DATOS = Identificador único del conjunto de datos.
DESTINO = Nombre del destino.
FECHA Y HORA = Fecha y hora con formato aaaaMMdd_HHmmss.
TIEMPO_EXPORTACIÓN = Hora programada para la exportación de datos con el formato exportTime=YYYYMMDDHHMM.
NOMBRE_INSTANCIA_DESTINO = Nombre de la instancia específica del destino.
DESTINATION_INSTANCE_ID = Identificador único de la instancia de destino.
NOMBRE_DE_ZONA_PROTEGIDA = Nombre del entorno de espacio aislado.
Crear flujo de datos del conjunto de datos al destino Azure Data Lake Gen 2(ADLS Gen2) - Solicitud
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"flowSpec": {
"id": "17be2013-2549-41ce-96e7-a70363bec293", // Azure Data Lake Gen 2(ADLS Gen2) flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabla siguiente proporciona descripciones de todos los parámetros de la sección scheduleParams, lo que le permite personalizar los tiempos de exportación, la frecuencia, la ubicación y mucho más para las exportaciones de conjuntos de datos.
Seleccione "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Para obtener más información sobre las dos opciones, consulte exportar archivos completos y exportar archivos incrementales en el tutorial de activación de destinos por lotes. Las tres opciones de exportación disponibles son: Archivo completo - Una vez: "DAILY_FULL_EXPORT" solo se puede usar en combinación con timeUnit:day y interval:0 para una exportación completa única del conjunto de datos. No se admiten exportaciones completas diarias de conjuntos de datos. Si necesita exportaciones diarias, utilice la opción de exportación incremental. Exportaciones diarias incrementales: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day y interval :1 para las exportaciones incrementales diarias. Exportaciones incrementales por hora: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour y interval :3,6,9 o 12 para exportaciones incrementales por hora.
timeUnit
Seleccione day o hour según la frecuencia con la que desee exportar los archivos del conjunto de datos.
interval
Seleccione 1 cuando timeUnit sea un día y 3,6,9,12 cuando la unidad de tiempo sea hour.
startTime
La fecha y la hora en segundos de UNIX en que deben comenzar las exportaciones de conjuntos de datos.
endTime
La fecha y la hora en segundos de UNIX en que deben finalizar las exportaciones de conjuntos de datos.
foldernameTemplate
Especifique la estructura de nombres de carpeta esperada en la ubicación de almacenamiento en la que se depositarán los archivos exportados.
ID_CONJUNTO_DATOS = Identificador único del conjunto de datos.
DESTINO = Nombre del destino.
FECHA Y HORA = Fecha y hora con formato aaaaMMdd_HHmmss.
TIEMPO_EXPORTACIÓN = Hora programada para la exportación de datos con el formato exportTime=YYYYMMDDHHMM.
NOMBRE_INSTANCIA_DESTINO = Nombre de la instancia específica del destino.
DESTINATION_INSTANCE_ID = Identificador único de la instancia de destino.
NOMBRE_DE_ZONA_PROTEGIDA = Nombre del entorno de espacio aislado.
Crear flujo de datos del conjunto de datos al destino Data Landing Zone - Solicitud
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Data Landing Zone cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Data Landing Zone cloud storage destination",
"flowSpec": {
"id": "cd2fc47e-e838-4f38-a581-8fff2f99b63a", // Data Landing Zone flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabla siguiente proporciona descripciones de todos los parámetros de la sección scheduleParams, lo que le permite personalizar los tiempos de exportación, la frecuencia, la ubicación y mucho más para las exportaciones de conjuntos de datos.
Seleccione "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Para obtener más información sobre las dos opciones, consulte exportar archivos completos y exportar archivos incrementales en el tutorial de activación de destinos por lotes. Las tres opciones de exportación disponibles son: Archivo completo - Una vez: "DAILY_FULL_EXPORT" solo se puede usar en combinación con timeUnit:day y interval:0 para una exportación completa única del conjunto de datos. No se admiten exportaciones completas diarias de conjuntos de datos. Si necesita exportaciones diarias, utilice la opción de exportación incremental. Exportaciones diarias incrementales: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day y interval :1 para las exportaciones incrementales diarias. Exportaciones incrementales por hora: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour y interval :3,6,9 o 12 para exportaciones incrementales por hora.
timeUnit
Seleccione day o hour según la frecuencia con la que desee exportar los archivos del conjunto de datos.
interval
Seleccione 1 cuando timeUnit sea un día y 3,6,9,12 cuando la unidad de tiempo sea hour.
startTime
La fecha y la hora en segundos de UNIX en que deben comenzar las exportaciones de conjuntos de datos.
endTime
La fecha y la hora en segundos de UNIX en que deben finalizar las exportaciones de conjuntos de datos.
foldernameTemplate
Especifique la estructura de nombres de carpeta esperada en la ubicación de almacenamiento en la que se depositarán los archivos exportados.
ID_CONJUNTO_DATOS = Identificador único del conjunto de datos.
DESTINO = Nombre del destino.
FECHA Y HORA = Fecha y hora con formato aaaaMMdd_HHmmss.
TIEMPO_EXPORTACIÓN = Hora programada para la exportación de datos con el formato exportTime=YYYYMMDDHHMM.
NOMBRE_INSTANCIA_DESTINO = Nombre de la instancia específica del destino.
DESTINATION_INSTANCE_ID = Identificador único de la instancia de destino.
NOMBRE_DE_ZONA_PROTEGIDA = Nombre del entorno de espacio aislado.
Crear flujo de datos del conjunto de datos al destino Google Cloud Storage - Solicitud
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Google Cloud Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Google Cloud Storage destination",
"flowSpec": {
"id": "585c15c4-6cbf-4126-8f87-e26bff78b657", // Google Cloud Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabla siguiente proporciona descripciones de todos los parámetros de la sección scheduleParams, lo que le permite personalizar los tiempos de exportación, la frecuencia, la ubicación y mucho más para las exportaciones de conjuntos de datos.
Seleccione "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Para obtener más información sobre las dos opciones, consulte exportar archivos completos y exportar archivos incrementales en el tutorial de activación de destinos por lotes. Las tres opciones de exportación disponibles son: Archivo completo - Una vez: "DAILY_FULL_EXPORT" solo se puede usar en combinación con timeUnit:day y interval:0 para una exportación completa única del conjunto de datos. No se admiten exportaciones completas diarias de conjuntos de datos. Si necesita exportaciones diarias, utilice la opción de exportación incremental. Exportaciones diarias incrementales: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day y interval :1 para las exportaciones incrementales diarias. Exportaciones incrementales por hora: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour y interval :3,6,9 o 12 para exportaciones incrementales por hora.
timeUnit
Seleccione day o hour según la frecuencia con la que desee exportar los archivos del conjunto de datos.
interval
Seleccione 1 cuando timeUnit sea un día y 3,6,9,12 cuando la unidad de tiempo sea hour.
startTime
La fecha y la hora en segundos de UNIX en que deben comenzar las exportaciones de conjuntos de datos.
endTime
La fecha y la hora en segundos de UNIX en que deben finalizar las exportaciones de conjuntos de datos.
foldernameTemplate
Especifique la estructura de nombres de carpeta esperada en la ubicación de almacenamiento en la que se depositarán los archivos exportados.
ID_CONJUNTO_DATOS = Identificador único del conjunto de datos.
DESTINO = Nombre del destino.
FECHA Y HORA = Fecha y hora con formato aaaaMMdd_HHmmss.
TIEMPO_EXPORTACIÓN = Hora programada para la exportación de datos con el formato exportTime=YYYYMMDDHHMM.
NOMBRE_INSTANCIA_DESTINO = Nombre de la instancia específica del destino.
DESTINATION_INSTANCE_ID = Identificador único de la instancia de destino.
NOMBRE_DE_ZONA_PROTEGIDA = Nombre del entorno de espacio aislado.
Crear flujo de datos del conjunto de datos al destino SFTP: solicitud
Observe las líneas resaltadas con comentarios en línea en el ejemplo de la solicitud, que proporcionan información adicional. Elimine los comentarios en línea de la solicitud al copiar y pegar la solicitud en el terminal que desee.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an SFTP cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an SFTP cloud storage destination",
"flowSpec": {
"id": "354d6aad-4754-46e4-a576-1b384561c440", // SFTP flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabla siguiente proporciona descripciones de todos los parámetros de la sección scheduleParams, lo que le permite personalizar los tiempos de exportación, la frecuencia, la ubicación y mucho más para las exportaciones de conjuntos de datos.
Seleccione "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Para obtener más información sobre las dos opciones, consulte exportar archivos completos y exportar archivos incrementales en el tutorial de activación de destinos por lotes. Las tres opciones de exportación disponibles son: Archivo completo - Una vez: "DAILY_FULL_EXPORT" solo se puede usar en combinación con timeUnit:day y interval:0 para una exportación completa única del conjunto de datos. No se admiten exportaciones completas diarias de conjuntos de datos. Si necesita exportaciones diarias, utilice la opción de exportación incremental. Exportaciones diarias incrementales: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day y interval :1 para las exportaciones incrementales diarias. Exportaciones incrementales por hora: seleccione "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour y interval :3,6,9 o 12 para exportaciones incrementales por hora.
timeUnit
Seleccione day o hour según la frecuencia con la que desee exportar los archivos del conjunto de datos.
interval
Seleccione 1 cuando timeUnit sea un día y 3,6,9,12 cuando la unidad de tiempo sea hour.
startTime
La fecha y la hora en segundos de UNIX en que deben comenzar las exportaciones de conjuntos de datos.
endTime
La fecha y la hora en segundos de UNIX en que deben finalizar las exportaciones de conjuntos de datos.
foldernameTemplate
Especifique la estructura de nombres de carpeta esperada en la ubicación de almacenamiento en la que se depositarán los archivos exportados.
ID_CONJUNTO_DATOS = Identificador único del conjunto de datos.
DESTINO = Nombre del destino.
FECHA Y HORA = Fecha y hora con formato aaaaMMdd_HHmmss.
TIEMPO_EXPORTACIÓN = Hora programada para la exportación de datos con el formato exportTime=YYYYMMDDHHMM.
NOMBRE_INSTANCIA_DESTINO = Nombre de la instancia específica del destino.
DESTINATION_INSTANCE_ID = Identificador único de la instancia de destino.
NOMBRE_DE_ZONA_PROTEGIDA = Nombre del entorno de espacio aislado.
Tenga en cuenta el ID de flujo de datos de la respuesta. Este ID será necesario en el siguiente paso al recuperar las ejecuciones del flujo de datos para validar las exportaciones de conjuntos de datos correctas.
Obtener las ejecuciones del flujo de datos get-dataflow-runs
Para comprobar las ejecuciones de un flujo de datos, utilice la API de ejecución de flujo de datos:
Solicitud
Obtener ejecuciones de flujo de datos: Solicitar
En la solicitud para recuperar las ejecuciones de flujo de datos, agregue como parámetro de consulta el ID de flujo de datos que obtuvo en el paso anterior, al crear el flujo de datos.
Verificar exportación correcta del conjunto de datos verify
Al exportar conjuntos de datos, el Experience Platform crea un archivo de .json o .parquet en la ubicación de almacenamiento proporcionada. Espere que se deposite un nuevo archivo en su ubicación de almacenamiento según la programación de exportación que proporcionó al crear un flujo de datos.
Experience Platform crea una estructura de carpetas en la ubicación de almacenamiento especificada, donde deposita los archivos del conjunto de datos exportados. Se crea una nueva carpeta para cada tiempo de exportación, siguiendo el patrón siguiente:
El nombre de archivo predeterminado se genera de forma aleatoria y garantiza que los nombres de archivo exportados sean únicos.
Archivos de conjuntos de datos de muestra sample-files
La presencia de estos archivos en su ubicación de almacenamiento es la confirmación de una exportación correcta. Para comprender cómo se estructuran los archivos exportados, puede descargar un archivo de muestra .parquet o .json.
Archivos de conjuntos de datos comprimidos compressed-dataset-files
En el paso para crear una conexión de destino, puede seleccionar los archivos del conjunto de datos exportados que desea comprimir.
Tenga en cuenta la diferencia de formato de archivo entre los dos tipos de archivo al comprimirlos:
Al exportar archivos JSON comprimidos, el formato de archivo exportado es json.gz
Al exportar archivos de parquet comprimidos, el formato de archivo exportado es gz.parquet
Los archivos JSON solo se pueden exportar en modo comprimido.
Administración de errores de API api-error-handling
Los extremos de la API en este tutorial siguen los principios generales del mensaje de error de la API del Experience Platform. Consulte Códigos de estado de API y errores de encabezado de solicitud en la guía de solución de problemas de Platform para obtener más información sobre la interpretación de respuestas de error.
Al seguir este tutorial, ha conectado correctamente Platform a uno de los destinos de almacenamiento en la nube por lotes preferidos y ha configurado un flujo de datos en el destino correspondiente para exportar conjuntos de datos. Consulte las siguientes páginas para obtener más información, como cómo editar flujos de datos existentes mediante la API de Flow Service: