Cette fonctionnalité est disponible pour les clients qui ont acheté le package Real-Time CDP Prime et Ultimate, Adobe Journey Optimizer ou Customer Journey Analytics. Pour plus d’informations, contactez le représentant de votre Adobe.
IMPORTANT
Action item : la version septembre 2024 d’Experience Platformoffre la possibilité de définir une date de endTime pour les flux de données d’exportation du jeu de données. L’Adobe introduit également une date de fin par défaut du 1er mai 2025 pour tous les flux de données d’exportation de jeux de données créés avant la version de septembre. Pour l’un de ces flux de données, vous devez mettre à jour manuellement la date de fin du flux de données avant la date de fin, sinon les exportations doivent s’arrêter à cette date. Utilisez l’interface utilisateur de l’Experience Platform pour afficher les flux de données qui seront définis pour s’arrêter le 1er mai.
De même, pour les flux de données que vous créez sans spécifier de date de endTime, ils prennent par défaut une heure de fin six mois à compter de leur création.
Cet article explique le processus requis pour utiliser l’Flow Service API afin d’exporter des jeux de données de Adobe Experience Platform vers l’emplacement d’espace de stockage de votre choix, comme des Amazon S3, des emplacements SFTP ou des Google Cloud Storage.
Jeux de données disponibles pour l’exportation datasets-to-export
Les jeux de données que vous pouvez exporter dépendent de l’application Experience Platform (Real-Time CDP, Adobe Journey Optimizer), du niveau (Prime ou Ultimate) et des modules complémentaires que vous avez achetés (par exemple : Data Distiller).
Destinations prises en charge supported-destinations
Actuellement, vous pouvez exporter des jeux de données vers les destinations d’espace de stockage mises en surbrillance dans la capture d’écran et répertoriées ci-dessous.
Ce guide nécessite une compréhension professionnelle des composants suivants d’Adobe Experience Platform :
Experience Platform datasets : toutes les données correctement ingérées par Adobe Experience Platform sont conservées sous forme de jeux de données dans le Data Lake. Un jeu de données est une structure de stockage et de gestion pour la collecte de données, généralement sous la forme d’un tableau, qui contient un schéma (des colonnes) et des champs (des lignes). Les jeux de données contiennent également des métadonnées qui décrivent divers aspects des données stockées.
Sandboxes : Experience Platform fournit des sandbox virtuels qui divisent une instance Platform unique en environnements virtuels distincts pour favoriser le développement et l’évolution d’applications d’expérience digitale.
Les sections suivantes contiennent des informations supplémentaires que vous devez connaître pour exporter des jeux de données vers des destinations d’espace de stockage dans Platform.
Autorisations nécessaires permissions
Pour exporter des jeux de données, vous avez besoin des autorisations de contrôle d’accès Afficher les destinations, Afficher les jeux de données et Gérer et activer les destinations de jeu de données🔗. Lisez la présentation du contrôle d’accès ou contactez votre administrateur de produit pour obtenir les autorisations requises.
Pour vous assurer que vous disposez des autorisations nécessaires pour exporter des jeux de données et que la destination prend en charge l’exportation de jeux de données, parcourez le catalogue des destinations. Si une destination comporte un contrôle Activer ou Exporter des jeux de données, vous disposez des autorisations appropriées.
Lecture d’exemples d’appels API reading-sample-api-calls
Ce tutoriel fournit des exemples d’appels API pour démontrer comment formater vos requêtes. Il s’agit notamment de chemins d’accès, d’en-têtes requis et de payloads de requêtes correctement formatés. L’exemple JSON renvoyé dans les réponses de l’API est également fourni. Pour plus d’informations sur les conventions utilisées dans la documentation pour les exemples d’appels d’API, voir la section concernant la lecture d’exemples d’appels d’API dans le guide de dépannage Experience Platform.
Collecter des valeurs pour les en-têtes obligatoires et facultatifs gather-values-headers
Pour effectuer des appels vers les API Platform, vous devez d'abord suivre le tutoriel Authentification Experience Platform. Le tutoriel d’authentification fournit les valeurs de chacun des en-têtes requis dans tous les appels d’API Experience Platform, comme indiqué ci-dessous :
Authorization: Bearer {ACCESS_TOKEN}
x-api-key : {API_KEY}
x-gw-ims-org-id : {ORG_ID}
Les ressources dans Experience Platform peuvent être isolées dans des sandbox spécifiques. Dans les requêtes aux API Platform, vous pouvez spécifier le nom et l’identifiant du sandbox dans lequel l’opération aura lieu. Il s’agit de paramètres facultatifs.
Pour obtenir une description des termes que vous rencontrerez dans ce tutoriel sur l’API, consultez la section glossaire de la documentation de référence de l’API.
Rassemblez les spécifications de connexion et de flux pour la destination souhaitée. gather-connection-spec-flow-spec
Avant de démarrer le workflow pour exporter un jeu de données, identifiez la spécification de connexion et les identifiants de spécification de flux de la destination vers laquelle vous envisagez d’exporter des jeux de données. Utilisez le tableau ci-dessous à titre de référence.
Destination
Spécification de connexion
Spécification de flux
Amazon S3
4fce964d-3f37-408f-9778-e597338a21ee
269ba276-16fc-47db-92b0-c1049a3c131f
Azure Blob Storage
6d6b59bf-fb58-4107-9064-4d246c0e5bb2
95bd8965-fc8a-4119-b9c3-944c2c2df6d2
Azure Data Lake Gen 2(ADLS Gen2)
be2c3209-53bc-47e7-ab25-145db8b873e1
17be2013-2549-41ce-96e7-a70363bec293
Data Landing Zone(DLZ)
10440537-2a7b-4583-ac39-ed38d4b848e8
cd2fc47e-e838-4f38-a581-8fff2f99b63a
Google Cloud Storage
c5d93acb-ea8b-4b14-8f53-02138444ae99
585c15c4-6cbf-4126-8f87-e26bff78b657
SFTP
36965a81-b1c6-401b-99f8-22508f1e6a26
354d6aad-4754-46e4-a576-1b384561c440
Vous avez besoin de ces identifiants pour construire différentes entités Flow Service. Vous devez également vous reporter à des parties du Connection Spec lui-même pour configurer certaines entités afin de pouvoir récupérer les Connection Spec à partir de Flow Service APIs. Consultez les exemples ci-dessous de récupération des spécifications de connexion pour toutes les destinations du tableau :
Suivez les étapes ci-dessous pour configurer un flux de données de jeu de données vers une destination d’espace de stockage. Pour certaines étapes, les requêtes et les réponses diffèrent entre les différentes destinations d’espace de stockage. Dans ce cas, utilisez les onglets de la page pour récupérer les requêtes et les réponses spécifiques à la destination à laquelle vous souhaitez vous connecter et exporter des jeux de données. Veillez à utiliser les connection spec et flow spec corrects pour la destination que vous configurez.
Récupération d’une liste de jeux de données retrieve-list-of-available-datasets
Pour récupérer une liste de jeux de données éligibles à l’activation, commencez par effectuer un appel API vers le point d’entrée ci-dessous.
Notez que pour récupérer les jeux de données éligibles, l’identifiant de connection spec utilisé dans l’URL de requête doit être l’identifiant de spécification de connexion à la source de lac de données, 23598e46-f560-407b-88d5-ea6207e49db0, et les deux paramètres de requête outputField=datasets et outputType=activationDatasets doivent être spécifiés. Tous les autres paramètres de requête sont les paramètres standard pris en charge par l’API Catalog Service.
Une réponse réussie contient une liste de jeux de données éligibles à l’activation. Ces jeux de données peuvent être utilisés lors de la création de la connexion source à l’étape suivante.
Créer une connexion source create-source-connection
Après avoir récupéré la liste des jeux de données que vous souhaitez exporter, vous pouvez créer une connexion source à l’aide de ces identifiants de jeu de données.
Requête
Créer une connexion source - Requête
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Une réponse réussie renvoie l’identifiant (id) de la connexion source nouvellement créée et un etag. Notez l’identifiant de connexion source, car vous en aurez besoin ultérieurement lors de la création du flux de données.
N'oubliez pas non plus que :
La connexion source créée à cette étape doit être liée à un flux de données pour que ses jeux de données soient activés vers une destination. Consultez la section Créer un flux de données pour plus d’informations sur la liaison d’une connexion source à un flux de données.
Les identifiants du jeu de données d’une connexion source ne peuvent pas être modifiés après la création. Si vous devez ajouter ou supprimer des jeux de données d’une connexion source, vous devez créer une connexion source et lier l’identifiant de la nouvelle connexion source au flux de données.
Créer une connexion de base (cible) create-base-connection
Une connexion de base stocke en toute sécurité les informations d’identification vers la destination. Selon le type de destination, les informations d’identification nécessaires pour s’authentifier sur cette destination peuvent varier. Pour trouver ces paramètres d’authentification, récupérez d’abord le connection spec de la destination souhaitée, comme décrit dans la section Collecter les spécifications de connexion et de flux, puis examinez le authSpec de la réponse. Référencez les onglets ci-dessous pour les propriétés authSpec de toutes les destinations prises en charge.
Amazon S3
accordion
Amazon S3 - Connection spec des auth spec
Notez la ligne en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres d’authentification dans le connection spec.
Azure Blob Storage - Connection spec des auth spec
Notez la ligne en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres d’authentification dans le connection spec.
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec des auth spec
Notez la ligne en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres d’authentification dans le connection spec.
Google Cloud Storage - Connection spec des auth spec
Notez la ligne en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres d’authentification dans le connection spec.
{
"items": [
{
"id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
"name": "Google Cloud Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [ // describes the authentication parameters
{
"name": "Google Cloud Storage authentication credentials",
"type": "GoogleCloudStorageAuth",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "defines auth params required for connecting to google cloud storage connector.",
"type": "object",
"properties": {
"accessKeyId": {
"description": "Access Key Id for the user account",
"type": "string"
},
"secretAccessKey": {
"description": "Secret Access Key for the user account",
"type": "string",
"format": "password"
}
},
"required": [
"accessKeyId",
"secretAccessKey"
]
}
}
],
//...
SFTP
accordion
SFTP - Connection spec affichant les auth spec
note note
NOTE
La destination SFTP contient deux éléments distincts dans le auth spec, car elle prend en charge le mot de passe et l’authentification par clé SSH.
Notez la ligne en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres d’authentification dans le connection spec.
À l’aide des propriétés spécifiées dans la spécification d’authentification (c’est-à-dire authSpec à partir de la réponse), vous pouvez créer une connexion de base avec les informations d’identification requises, spécifiques à chaque type de destination, comme illustré dans les exemples ci-dessous :
Amazon S3
Requête
accordion
Amazon S3 - Demande de connexion de base
note tip
TIP
Pour plus d’informations sur l’obtention des informations d’authentification requises, reportez-vous à la section Authentifier à la destination de la page de documentation sur la destination Amazon S3.
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Pour plus d’informations sur l’obtention des informations d’authentification requises, reportez-vous à la section Authentifier à la destination de la page de documentation sur la destination Azure Blob Storage.
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Azure Data Lake Gen 2(ADLS Gen2) - Demande de connexion de base
note tip
TIP
Pour plus d’informations sur l’obtention des informations d’authentification requises, reportez-vous à la section Authentifier à la destination de la page de documentation de destination Azure Data Lake Gen 2 (ADLS Gen2) .
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Data Landing Zone(DLZ) - Demande de connexion de base
note tip
TIP
Aucune information d’authentification n’est requise pour la destination Data Landing Zone. Pour plus d’informations, reportez-vous à la section authentification à la destination de la page de documentation sur la destination Data Landing Zone.
Google Cloud Storage - Demande de connexion de base
note tip
TIP
Pour plus d’informations sur l’obtention des informations d’authentification requises, reportez-vous à la section S’authentifier à la destination de la page de documentation sur la destination Google Cloud Storage.
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
SFTP avec mot de passe - Demande de connexion de base
note tip
TIP
Pour plus d’informations sur l’obtention des informations d’authentification requises, reportez-vous à la section Authentifier à la destination de la page de documentation de la destination SFTP.
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Pour plus d’informations sur l’obtention des informations d’authentification requises, reportez-vous à la section Authentifier à la destination de la page de documentation de la destination SFTP.
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Notez l’ID de connexion à partir de la réponse. Cet identifiant sera requis à l’étape suivante lors de la création de la connexion cible.
Créer une connexion cible create-target-connection
Ensuite, vous devez créer une connexion cible qui stocke les paramètres d’exportation de vos jeux de données. Les paramètres d’exportation incluent l’emplacement, le format de fichier, la compression et d’autres détails. Reportez-vous aux propriétés targetSpec fournies dans la spécification de connexion de la destination pour comprendre les propriétés prises en charge pour chaque type de destination. Référencez les onglets ci-dessous pour les propriétés targetSpec de toutes les destinations prises en charge.
IMPORTANT
Les exportations vers des fichiers JSON sont uniquement prises en charge en mode compressé. Les exportations vers des fichiers Parquet sont prises en charge dans les modes compressé et non compressé.
Le format du fichier JSON exporté est NDJSON, qui est le format d’échange standard dans l’écosystème Big Data. Adobe recommande d’utiliser un client compatible NDJSON pour lire les fichiers exportés.
Amazon S3
accordion
Amazon S3 - Connection spec affichant les paramètres de connexion cible
Notez les lignes mises en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres de target spec dans la spécification de connexion. Vous pouvez également voir dans l’exemple ci-dessous quels paramètres cibles ne s’appliquent pas aux destinations d’exportation de jeux de données.
Azure Blob Storage - Connection spec affichant les paramètres de connexion cible
Notez les lignes mises en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres de target spec dans la spécification de connexion. Vous pouvez également voir dans l’exemple ci-dessous quels paramètres cibles ne s’appliquent pas aux destinations d’exportation de jeux de données.
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec affichant les paramètres de connexion cible
Notez les lignes mises en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres de target spec dans la spécification de connexion. Vous pouvez également voir dans l’exemple ci-dessous quels paramètres cibles ne s’appliquent pas aux destinations d’exportation de jeux de données.
{
"items": [
{
"id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
"name": "Azure Data Lake Gen2",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [...],
"encryptionSpecs": [...],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"path": {
"title": "Folder path",
"description": "Enter the path to your Azure Data Lake Storage folder",
"type": "string"
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions":{...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"NONE",
"GZIP"
]
}
},
"required": [
"path",
"datasetFileType",
"compression",
"fileType"
]
}
//...
Zone d’atterrissage des données (DLZ)
accordion
Data Landing Zone(DLZ) - Connection spec affichant les paramètres de connexion cible
Notez les lignes mises en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres de target spec dans la spécification de connexion. Vous pouvez également voir dans l’exemple ci-dessous quels paramètres cibles ne s’appliquent pas aux destinations d’exportation de jeux de données.
Google Cloud Storage - Connection spec affichant les paramètres de connexion cible
Notez les lignes mises en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres de target spec dans la spécification de connexion. Vous pouvez également voir dans l’exemple ci-dessous quels paramètres cibles ne s’appliquent pas aux destinations d’exportation de jeux de données.
SFTP - Connection spec affichant les paramètres de connexion cible
Notez les lignes mises en surbrillance avec des commentaires intégrés dans l’exemple de connection spec ci-dessous, qui fournissent des informations supplémentaires sur l’emplacement des paramètres de target spec dans la spécification de connexion. Vous pouvez également voir dans l’exemple ci-dessous quels paramètres cibles ne s’appliquent pas aux destinations d’exportation de jeux de données.
En utilisant la spécification ci-dessus, vous pouvez créer une demande de connexion cible spécifique à la destination d’espace de stockage souhaitée, comme illustré dans les onglets ci-dessous.
Amazon S3
Requête
accordion
Amazon S3 - Demande de connexion cible
note tip
TIP
Pour plus d’informations sur l’obtention des paramètres cibles requis, reportez-vous à la section renseigner les détails de la destination de la page de documentation sur la destination Amazon S3. Pour d’autres valeurs de datasetFileType prises en charge, consultez la documentation de référence de l’API .
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Pour plus d’informations sur l’obtention des paramètres cibles requis, reportez-vous à la section renseigner les détails de la destination de la page de documentation sur la destination Azure Blob Storage. Pour d’autres valeurs de datasetFileType prises en charge, consultez la documentation de référence de l’API .
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Pour plus d’informations sur l’obtention des paramètres cibles requis, reportez-vous à la section renseigner les détails de la destination de la page de documentation sur la destination Azure Data Lake Gen 2(ADLS Gen2). Pour d’autres valeurs de datasetFileType prises en charge, consultez la documentation de référence de l’API .
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Pour plus d’informations sur l’obtention des paramètres cibles requis, reportez-vous à la section renseigner les détails de la destination de la page de documentation sur la destination Data Landing Zone. Pour d’autres valeurs de datasetFileType prises en charge, consultez la documentation de référence de l’API .
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Pour plus d’informations sur l’obtention des paramètres cibles requis, reportez-vous à la section renseigner les détails de la destination de la page de documentation sur la destination Google Cloud Storage. Pour d’autres valeurs de datasetFileType prises en charge, consultez la documentation de référence de l’API .
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Pour plus d’informations sur l’obtention des paramètres cibles requis, reportez-vous à la section renseigner les détails de la destination de la page de documentation sur la destination SFTP. Pour d’autres valeurs de datasetFileType prises en charge, consultez la documentation de référence de l’API .
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
Notez l’ID de connexion cible dans la réponse. Cet identifiant sera requis à l’étape suivante lors de la création du flux de données pour exporter des jeux de données.
Créer un flux de données create-dataflow
La dernière étape de la configuration de destination consiste à configurer un flux de données. Un flux de données relie des entités créées précédemment et fournit également des options pour configurer le planning d’exportation du jeu de données. Pour créer le flux de données, utilisez les payloads ci-dessous, en fonction de la destination d’espace de stockage souhaitée, et remplacez les ID d’entité des étapes précédentes.
Amazon S3
Requête
accordion
Créer un flux de données de jeu de données vers Amazon S3 destination - Requête
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Amazon S3 cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Amazon S3 cloud storage destination",
"flowSpec": {
"id": "269ba276-16fc-47db-92b0-c1049a3c131f", // Amazon S3 flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Le tableau ci-dessous fournit des descriptions de tous les paramètres de la section scheduleParams, ce qui vous permet de personnaliser les heures d’exportation, la fréquence, l’emplacement, etc. pour vos exportations de jeux de données.
Sélectionnez "DAILY_FULL_EXPORT" ou "FIRST_FULL_THEN_INCREMENTAL". Pour plus d’informations sur les deux options, reportez-vous aux sections Exporter des fichiers complets et Exporter des fichiers incrémentiels dans le tutoriel consacré à l’activation des destinations par lot. Les trois options d’exportation disponibles sont les suivantes : Fichier complet - Une fois : "DAILY_FULL_EXPORT" peut uniquement être utilisé en combinaison avec timeUnit:day et interval:0 pour une exportation complète unique du jeu de données. Les exportations complètes quotidiennes de jeux de données ne sont pas prises en charge. Si vous avez besoin d’exportations quotidiennes, utilisez l’option d’exportation incrémentielle . Exportations incrémentielles quotidiennes : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day et interval :1 pour les exportations incrémentielles quotidiennes. Exportations incrémentielles par heure : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour et interval :3,6,9 ou 12 pour les exportations incrémentielles par heure.
timeUnit
Sélectionnez day ou hour selon la fréquence à laquelle vous souhaitez exporter les fichiers de jeu de données.
interval
Sélectionnez 1 lorsque l’timeUnit est jour et 3,6,9,12 lorsque l’unité de temps est hour.
startTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent commencer.
endTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent se terminer.
foldernameTemplate
Spécifiez la structure de nom de dossier attendue à l’emplacement de stockage où les fichiers exportés seront déposés.
DATASET_ID = Identifiant unique du jeu de données.
DESTINATION = Nom de la destination.
DATETIME = Date et heure au format aaaaMMjj_HHmmss.
EXPORT_TIME = Heure planifiée pour l’exportation de données au format exportTime=YYYYMMDDHHMM.
DESTINATION_INSTANCE_NAME = Nom de l’instance spécifique de la destination.
DESTINATION_INSTANCE_ID = Identifiant unique de l’instance de destination.
Créer un flux de données de jeu de données vers Azure Blob Storage destination - Requête
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Blob Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Blob Storage cloud storage destination",
"flowSpec": {
"id": "95bd8965-fc8a-4119-b9c3-944c2c2df6d2", // Azure Blob Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Le tableau ci-dessous fournit des descriptions de tous les paramètres de la section scheduleParams, ce qui vous permet de personnaliser les heures d’exportation, la fréquence, l’emplacement, etc. pour vos exportations de jeux de données.
Sélectionnez "DAILY_FULL_EXPORT" ou "FIRST_FULL_THEN_INCREMENTAL". Pour plus d’informations sur les deux options, reportez-vous aux sections Exporter des fichiers complets et Exporter des fichiers incrémentiels dans le tutoriel consacré à l’activation des destinations par lot. Les trois options d’exportation disponibles sont les suivantes : Fichier complet - Une fois : "DAILY_FULL_EXPORT" peut uniquement être utilisé en combinaison avec timeUnit:day et interval:0 pour une exportation complète unique du jeu de données. Les exportations complètes quotidiennes de jeux de données ne sont pas prises en charge. Si vous avez besoin d’exportations quotidiennes, utilisez l’option d’exportation incrémentielle . Exportations incrémentielles quotidiennes : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day et interval :1 pour les exportations incrémentielles quotidiennes. Exportations incrémentielles par heure : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour et interval :3,6,9 ou 12 pour les exportations incrémentielles par heure.
timeUnit
Sélectionnez day ou hour selon la fréquence à laquelle vous souhaitez exporter les fichiers de jeu de données.
interval
Sélectionnez 1 lorsque l’timeUnit est jour et 3,6,9,12 lorsque l’unité de temps est hour.
startTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent commencer.
endTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent se terminer.
foldernameTemplate
Spécifiez la structure de nom de dossier attendue à l’emplacement de stockage où les fichiers exportés seront déposés.
DATASET_ID = Identifiant unique du jeu de données.
DESTINATION = Nom de la destination.
DATETIME = Date et heure au format aaaaMMjj_HHmmss.
EXPORT_TIME = Heure planifiée pour l’exportation de données au format exportTime=YYYYMMDDHHMM.
DESTINATION_INSTANCE_NAME = Nom de l’instance spécifique de la destination.
DESTINATION_INSTANCE_ID = Identifiant unique de l’instance de destination.
Créer un flux de données de jeu de données vers Azure Data Lake Gen 2(ADLS Gen2) destination - Requête
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"flowSpec": {
"id": "17be2013-2549-41ce-96e7-a70363bec293", // Azure Data Lake Gen 2(ADLS Gen2) flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Le tableau ci-dessous fournit des descriptions de tous les paramètres de la section scheduleParams, ce qui vous permet de personnaliser les heures d’exportation, la fréquence, l’emplacement, etc. pour vos exportations de jeux de données.
Sélectionnez "DAILY_FULL_EXPORT" ou "FIRST_FULL_THEN_INCREMENTAL". Pour plus d’informations sur les deux options, reportez-vous aux sections Exporter des fichiers complets et Exporter des fichiers incrémentiels dans le tutoriel consacré à l’activation des destinations par lot. Les trois options d’exportation disponibles sont les suivantes : Fichier complet - Une fois : "DAILY_FULL_EXPORT" peut uniquement être utilisé en combinaison avec timeUnit:day et interval:0 pour une exportation complète unique du jeu de données. Les exportations complètes quotidiennes de jeux de données ne sont pas prises en charge. Si vous avez besoin d’exportations quotidiennes, utilisez l’option d’exportation incrémentielle . Exportations incrémentielles quotidiennes : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day et interval :1 pour les exportations incrémentielles quotidiennes. Exportations incrémentielles par heure : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour et interval :3,6,9 ou 12 pour les exportations incrémentielles par heure.
timeUnit
Sélectionnez day ou hour selon la fréquence à laquelle vous souhaitez exporter les fichiers de jeu de données.
interval
Sélectionnez 1 lorsque l’timeUnit est jour et 3,6,9,12 lorsque l’unité de temps est hour.
startTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent commencer.
endTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent se terminer.
foldernameTemplate
Spécifiez la structure de nom de dossier attendue à l’emplacement de stockage où les fichiers exportés seront déposés.
DATASET_ID = Identifiant unique du jeu de données.
DESTINATION = Nom de la destination.
DATETIME = Date et heure au format aaaaMMjj_HHmmss.
EXPORT_TIME = Heure planifiée pour l’exportation de données au format exportTime=YYYYMMDDHHMM.
DESTINATION_INSTANCE_NAME = Nom de l’instance spécifique de la destination.
DESTINATION_INSTANCE_ID = Identifiant unique de l’instance de destination.
Créer un flux de données de jeu de données vers Data Landing Zone destination - Requête
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Data Landing Zone cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Data Landing Zone cloud storage destination",
"flowSpec": {
"id": "cd2fc47e-e838-4f38-a581-8fff2f99b63a", // Data Landing Zone flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Le tableau ci-dessous fournit des descriptions de tous les paramètres de la section scheduleParams, ce qui vous permet de personnaliser les heures d’exportation, la fréquence, l’emplacement, etc. pour vos exportations de jeux de données.
Sélectionnez "DAILY_FULL_EXPORT" ou "FIRST_FULL_THEN_INCREMENTAL". Pour plus d’informations sur les deux options, reportez-vous aux sections Exporter des fichiers complets et Exporter des fichiers incrémentiels dans le tutoriel consacré à l’activation des destinations par lot. Les trois options d’exportation disponibles sont les suivantes : Fichier complet - Une fois : "DAILY_FULL_EXPORT" peut uniquement être utilisé en combinaison avec timeUnit:day et interval:0 pour une exportation complète unique du jeu de données. Les exportations complètes quotidiennes de jeux de données ne sont pas prises en charge. Si vous avez besoin d’exportations quotidiennes, utilisez l’option d’exportation incrémentielle . Exportations incrémentielles quotidiennes : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day et interval :1 pour les exportations incrémentielles quotidiennes. Exportations incrémentielles par heure : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour et interval :3,6,9 ou 12 pour les exportations incrémentielles par heure.
timeUnit
Sélectionnez day ou hour selon la fréquence à laquelle vous souhaitez exporter les fichiers de jeu de données.
interval
Sélectionnez 1 lorsque l’timeUnit est jour et 3,6,9,12 lorsque l’unité de temps est hour.
startTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent commencer.
endTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent se terminer.
foldernameTemplate
Spécifiez la structure de nom de dossier attendue à l’emplacement de stockage où les fichiers exportés seront déposés.
DATASET_ID = Identifiant unique du jeu de données.
DESTINATION = Nom de la destination.
DATETIME = Date et heure au format aaaaMMjj_HHmmss.
EXPORT_TIME = Heure planifiée pour l’exportation de données au format exportTime=YYYYMMDDHHMM.
DESTINATION_INSTANCE_NAME = Nom de l’instance spécifique de la destination.
DESTINATION_INSTANCE_ID = Identifiant unique de l’instance de destination.
Créer un flux de données de jeu de données vers Google Cloud Storage destination - Requête
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Google Cloud Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Google Cloud Storage destination",
"flowSpec": {
"id": "585c15c4-6cbf-4126-8f87-e26bff78b657", // Google Cloud Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Le tableau ci-dessous fournit des descriptions de tous les paramètres de la section scheduleParams, ce qui vous permet de personnaliser les heures d’exportation, la fréquence, l’emplacement, etc. pour vos exportations de jeux de données.
Sélectionnez "DAILY_FULL_EXPORT" ou "FIRST_FULL_THEN_INCREMENTAL". Pour plus d’informations sur les deux options, reportez-vous aux sections Exporter des fichiers complets et Exporter des fichiers incrémentiels dans le tutoriel consacré à l’activation des destinations par lot. Les trois options d’exportation disponibles sont les suivantes : Fichier complet - Une fois : "DAILY_FULL_EXPORT" peut uniquement être utilisé en combinaison avec timeUnit:day et interval:0 pour une exportation complète unique du jeu de données. Les exportations complètes quotidiennes de jeux de données ne sont pas prises en charge. Si vous avez besoin d’exportations quotidiennes, utilisez l’option d’exportation incrémentielle . Exportations incrémentielles quotidiennes : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day et interval :1 pour les exportations incrémentielles quotidiennes. Exportations incrémentielles par heure : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour et interval :3,6,9 ou 12 pour les exportations incrémentielles par heure.
timeUnit
Sélectionnez day ou hour selon la fréquence à laquelle vous souhaitez exporter les fichiers de jeu de données.
interval
Sélectionnez 1 lorsque l’timeUnit est jour et 3,6,9,12 lorsque l’unité de temps est hour.
startTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent commencer.
endTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent se terminer.
foldernameTemplate
Spécifiez la structure de nom de dossier attendue à l’emplacement de stockage où les fichiers exportés seront déposés.
DATASET_ID = Identifiant unique du jeu de données.
DESTINATION = Nom de la destination.
DATETIME = Date et heure au format aaaaMMjj_HHmmss.
EXPORT_TIME = Heure planifiée pour l’exportation de données au format exportTime=YYYYMMDDHHMM.
DESTINATION_INSTANCE_NAME = Nom de l’instance spécifique de la destination.
DESTINATION_INSTANCE_ID = Identifiant unique de l’instance de destination.
Créer un flux de données de jeu de données vers la destination SFTP - Requête
Notez les lignes en surbrillance avec des commentaires intégrés dans l’exemple de requête, qui fournissent des informations supplémentaires. Supprimez les commentaires intégrés dans la requête lors du copier-coller de la requête dans le terminal de votre choix.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an SFTP cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an SFTP cloud storage destination",
"flowSpec": {
"id": "354d6aad-4754-46e4-a576-1b384561c440", // SFTP flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Le tableau ci-dessous fournit des descriptions de tous les paramètres de la section scheduleParams, ce qui vous permet de personnaliser les heures d’exportation, la fréquence, l’emplacement, etc. pour vos exportations de jeux de données.
Sélectionnez "DAILY_FULL_EXPORT" ou "FIRST_FULL_THEN_INCREMENTAL". Pour plus d’informations sur les deux options, reportez-vous aux sections Exporter des fichiers complets et Exporter des fichiers incrémentiels dans le tutoriel consacré à l’activation des destinations par lot. Les trois options d’exportation disponibles sont les suivantes : Fichier complet - Une fois : "DAILY_FULL_EXPORT" peut uniquement être utilisé en combinaison avec timeUnit:day et interval:0 pour une exportation complète unique du jeu de données. Les exportations complètes quotidiennes de jeux de données ne sont pas prises en charge. Si vous avez besoin d’exportations quotidiennes, utilisez l’option d’exportation incrémentielle . Exportations incrémentielles quotidiennes : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day et interval :1 pour les exportations incrémentielles quotidiennes. Exportations incrémentielles par heure : sélectionnez "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour et interval :3,6,9 ou 12 pour les exportations incrémentielles par heure.
timeUnit
Sélectionnez day ou hour selon la fréquence à laquelle vous souhaitez exporter les fichiers de jeu de données.
interval
Sélectionnez 1 lorsque l’timeUnit est jour et 3,6,9,12 lorsque l’unité de temps est hour.
startTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent commencer.
endTime
Date et heure, en secondes UNIX, auxquelles les exportations de jeux de données doivent se terminer.
foldernameTemplate
Spécifiez la structure de nom de dossier attendue à l’emplacement de stockage où les fichiers exportés seront déposés.
DATASET_ID = Identifiant unique du jeu de données.
DESTINATION = Nom de la destination.
DATETIME = Date et heure au format aaaaMMjj_HHmmss.
EXPORT_TIME = Heure planifiée pour l’exportation de données au format exportTime=YYYYMMDDHHMM.
DESTINATION_INSTANCE_NAME = Nom de l’instance spécifique de la destination.
DESTINATION_INSTANCE_ID = Identifiant unique de l’instance de destination.
Notez l’identifiant du flux de données dans la réponse. Cet identifiant est requis à l’étape suivante lors de la récupération des exécutions de flux de données pour valider les exportations réussies du jeu de données.
Obtenir les exécutions du flux de données get-dataflow-runs
Pour vérifier les exécutions d’un flux de données, utilisez l’API d’exécutions de flux de données :
Requête
Obtenir les exécutions de flux de données - Requête
Dans la requête pour récupérer les exécutions de flux de données, ajoutez comme paramètre de requête l’identifiant de flux de données que vous avez obtenu à l’étape précédente, lors de la création du flux de données.
Vérifier l’exportation réussie d’un jeu de données verify
Lors de l’exportation de jeux de données, Experience Platform crée un fichier .json ou .parquet dans l’emplacement de stockage que vous avez fourni. Attendez-vous à ce qu’un nouveau fichier soit déposé dans votre emplacement de stockage en fonction du planning d’exportation que vous avez fourni lors de la création d’un flux de données.
Experience Platform crée une structure de dossiers dans l’emplacement de stockage que vous avez spécifié, où il dépose les fichiers de jeu de données exportés. Un nouveau dossier est créé pour chaque heure d’exportation, selon le modèle ci-dessous :
Le nom de fichier par défaut est généré de manière aléatoire pour garantir que les noms de fichier exportés soient uniques.
Exemples de fichiers de jeu de données sample-files
La présence de ces fichiers dans votre emplacement de stockage confirme que l’activation a été réalisée avec succès. Pour comprendre la structure des fichiers exportés, vous pouvez télécharger un exemple de fichier parquet ou de fichier JSON.
Fichiers de jeu de données compressés compressed-dataset-files
À l’étape de création d’une connexion cible, vous pouvez sélectionner les fichiers de jeu de données exportés à compresser.
Notez la différence de format de fichier entre les deux types de fichiers lorsqu’ils sont compressés :
Lors de l’exportation de fichiers JSON compressés, le format du fichier exporté est json.gz
Lors de l'exportation de fichiers parquet compressés, le format de fichier exporté est gz.parquet
Les fichiers JSON ne peuvent être exportés qu’en mode compressé.
Gestion des erreurs d’API api-error-handling
Les points d’entrée de l’API de ce tutoriel suivent les principes généraux des messages d’erreur de l’API Experience Platform. Pour plus d’informations sur l’interprétation des réponses d’erreur🔗 consultez les sections Codes d’état API et Erreurs d’en-tête de requête dans le guide de dépannage de Platform.
Limites connues known-limitations
Affichez les limites connues à propos des exportations de jeux de données.
En suivant ce tutoriel, vous avez réussi à connecter Platform à l’une de vos destinations préférées d’espace de stockage par lots dans le cloud et à configurer un flux de données vers la destination correspondante pour exporter des jeux de données. Consultez les pages suivantes pour plus d’informations, telles que la modification des flux de données existants à l’aide de l’API Flow Service :