Questa funzionalità è disponibile per i clienti che hanno acquistato il pacchetto Real-Time CDP Prime e Ultimate, Adobe Journey Optimizer o il Customer Journey Analytics. Per ulteriori informazioni, contatta il rappresentante Adobe.
IMPORTANT
Elemento azione: la versione di Experience Platform🔗 di settembre 2024 introduce l'opzione di impostare una data endTime per i flussi di dati del set di dati di esportazione. Adobe introduce inoltre una data di fine predefinita del 1° maggio 2025 per tutti i flussi di dati di esportazione del set di dati creati prima della versione di settembre. Per uno qualsiasi di questi flussi di dati, è necessario aggiornare manualmente la data di fine nel flusso di dati prima della data di fine, altrimenti le esportazioni vengono interrotte in tale data. Utilizza l’interfaccia utente di Experience Platform per visualizzare quali flussi di dati verranno impostati per l’interruzione il 1° maggio.
Analogamente, per qualsiasi flusso di dati creato senza specificare una data endTime, per impostazione predefinita questi flussi di dati hanno una fine di sei mesi dal momento in cui vengono creati.
Questo articolo spiega il flusso di lavoro necessario per utilizzare Flow Service API per esportare set di dati da Adobe Experience Platform nel percorso di archiviazione cloud preferito, ad esempio Amazon S3, percorsi SFTP o Google Cloud Storage.
TIP
Per esportare i set di dati, puoi anche utilizzare l’interfaccia utente di Experience Platform. Per ulteriori informazioni, consulta l'esercitazione sull'interfaccia utente esporta set di dati.
Set di dati disponibili per l’esportazione datasets-to-export
I set di dati che puoi esportare dipendono dall’applicazione di Experience Platform (Real-Time CDP, Adobe Journey Optimizer), dal livello (Prime o Ultimate) ed eventuali componenti aggiuntivi acquistati (ad esempio, Data Distiller).
Questa guida richiede una buona conoscenza dei seguenti componenti di Adobe Experience Platform:
Experience Platform datasets: tutti i dati correttamente acquisiti in Adobe Experience Platform vengono mantenuti all'interno di Data Lake come set di dati. Un set di dati è un costrutto di archiviazione e gestione per una raccolta di dati, in genere una tabella, che contiene uno schema (colonne) e dei campi (righe). I set di dati contengono anche metadati che descrivono vari aspetti dei dati memorizzati.
Sandboxes: Experience Platform fornisce sandbox virtuali che suddividono una singola istanza Platform in ambienti virtuali separati, utili per le attività di sviluppo e aggiornamento delle applicazioni di esperienza digitale.
Le sezioni seguenti forniscono informazioni aggiuntive che è necessario conoscere per esportare i set di dati nelle destinazioni di archiviazione cloud in Platform.
Autorizzazioni richieste permissions
Per esportare i set di dati, è necessario Visualizzare le destinazioni, Visualizzare i set di dati e Gestire e attivare le destinazioni dei set di datiaccedere alle autorizzazioni di controllo. Leggi la panoramica sul controllo degli accessi o contatta l'amministratore del prodotto per ottenere le autorizzazioni necessarie.
Per assicurarti di disporre delle autorizzazioni necessarie per esportare i set di dati e che la destinazione supporti l’esportazione dei set di dati, sfoglia il catalogo delle destinazioni. Se una destinazione dispone di un controllo Attiva o Esporta set di dati, si dispone delle autorizzazioni appropriate.
Lettura delle chiamate API di esempio reading-sample-api-calls
Questo tutorial fornisce esempi di chiamate API per dimostrare come formattare le richieste. Questi includono percorsi, intestazioni richieste e payload di richieste formattati correttamente. Viene inoltre fornito un codice JSON di esempio restituito nelle risposte API. Per informazioni sulle convenzioni utilizzate nella documentazione per le chiamate API di esempio, consulta la sezione su come leggere chiamate API di esempio nella guida alla risoluzione dei problemi di Experience Platform.
Raccogli i valori per le intestazioni obbligatorie e facoltative gather-values-headers
Per effettuare chiamate alle API Platform, devi prima completare l'esercitazione di autenticazione Experience Platform. Completando il tutorial sull’autenticazione si ottengono i valori per ciascuna delle intestazioni richieste in tutte le chiamate API di Experience Platform, come mostrato di seguito:
Autorizzazione: Bearer {ACCESS_TOKEN}
x-api-key: {API_KEY}
x-gw-ims-org-id: {ORG_ID}
Le risorse in Experience Platform possono essere isolate in specifiche sandbox virtuali. Nelle richieste alle API Platform, puoi specificare il nome e l'ID della sandbox in cui verrà eseguita l'operazione. Si tratta di parametri facoltativi.
Tutte le richieste che contengono un payload (POST, PUT, PATCH) richiedono un’intestazione di tipo multimediale aggiuntiva:
Tipo di contenuto: application/json
Documentazione di riferimento API api-reference-documentation
Questa esercitazione contiene la documentazione di riferimento per tutte le operazioni API. Consulta la documentazione sulle API di destinazione Flow Service sul sito Web Adobe Developer. È consigliabile utilizzare questa esercitazione e la documentazione di riferimento API in parallelo.
Glossario glossary
Per le descrizioni dei termini che incontrerai in questa esercitazione API, leggi la sezione del glossario della documentazione di riferimento API.
Raccogli le specifiche di connessione e di flusso per la destinazione desiderata gather-connection-spec-flow-spec
Prima di avviare il flusso di lavoro per esportare un set di dati, identifica la specifica di connessione e gli ID delle specifiche di flusso della destinazione in cui intendi esportare i set di dati. Utilizzare la tabella seguente come riferimento.
Destinazione
Specifica di connessione
Specifica di flusso
Amazon S3
4fce964d-3f37-408f-9778-e597338a21ee
269ba276-16fc-47db-92b0-c1049a3c131f
Azure Blob Storage
6d6b59bf-fb58-4107-9064-4d246c0e5bb2
95bd8965-fc8a-4119-b9c3-944c2c2df6d2
Azure Data Lake Gen 2(ADLS Gen2)
be2c3209-53bc-47e7-ab25-145db8b873e1
17be2013-2549-41ce-96e7-a70363bec293
Data Landing Zone(DLZ)
10440537-2a7b-4583-ac39-ed38d4b848e8
cd2fc47e-e838-4f38-a581-8fff2f99b63a
Google Cloud Storage
c5d93acb-ea8b-4b14-8f53-02138444ae99
585c15c4-6cbf-4126-8f87-e26bff78b657
SFTP
36965a81-b1c6-401b-99f8-22508f1e6a26
354d6aad-4754-46e4-a576-1b384561c440
Questi ID sono necessari per creare varie entità Flow Service. È inoltre necessario fare riferimento a parti di Connection Spec per impostare alcune entità in modo da poter recuperare Connection Spec da Flow Service APIs. Vedi gli esempi seguenti di recupero delle specifiche di connessione per tutte le destinazioni nella tabella:
Segui i passaggi seguenti per impostare un flusso di dati su una destinazione di archiviazione cloud. Per alcuni passaggi, le richieste e le risposte differiscono tra le varie destinazioni dell’archiviazione cloud. In questi casi, utilizza le schede nella pagina per recuperare le richieste e le risposte specifiche della destinazione a cui desideri connettere ed esportare i set di dati. Assicurarsi di utilizzare connection spec e flow spec corretti per la destinazione che si sta configurando.
Recuperare un elenco di set di dati retrieve-list-of-available-datasets
Per recuperare un elenco di set di dati idonei per l’attivazione, inizia effettuando una chiamata API all’endpoint seguente.
Per recuperare i set di dati idonei, l'ID connection spec utilizzato nell'URL della richiesta deve essere l'ID della specifica di connessione all'origine del data lake, 23598e46-f560-407b-88d5-ea6207e49db0, e devono essere specificati i due parametri di query outputField=datasets e outputType=activationDatasets. Tutti gli altri parametri di query sono quelli standard supportati dall'API Catalog Service.
Una risposta corretta contiene un elenco di set di dati idonei per l’attivazione. Questi set di dati possono essere utilizzati durante la costruzione della connessione di origine nel passaggio successivo.
Creare una connessione sorgente create-source-connection
Dopo aver recuperato l’elenco dei set di dati da esportare, puoi creare una connessione di origine utilizzando tali ID.
Richiesta
Crea connessione sorgente - Richiesta
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
In caso di esito positivo, la risposta restituisce l'ID (id) della connessione di origine appena creata e un etag. Prendi nota dell’ID della connessione sorgente in quanto sarà necessario in un secondo momento durante la creazione del flusso di dati.
Ricorda inoltre che:
La connessione di origine creata in questo passaggio deve essere collegata a un flusso di dati affinché i relativi set di dati possano essere attivati in una destinazione. Consulta la sezione creare un flusso di dati per informazioni su come collegare una connessione di origine a un flusso di dati.
Gli ID dei set di dati di una connessione di origine non possono essere modificati dopo la creazione. Se devi aggiungere o rimuovere set di dati da una connessione di origine, devi creare una nuova connessione di origine e collegare l’ID della nuova connessione di origine al flusso di dati.
Creare una connessione di base (di destinazione) create-base-connection
Una connessione di base memorizza in modo sicuro le credenziali nella destinazione. A seconda del tipo di destinazione, le credenziali necessarie per l’autenticazione a fronte di tale destinazione possono variare. Per trovare questi parametri di autenticazione, recupera connection spec per la destinazione desiderata come descritto nella sezione Raccogli le specifiche di connessione e le specifiche di flusso, quindi controlla authSpec della risposta. Fai riferimento alle schede seguenti per le proprietà authSpec di tutte le destinazioni supportate.
Amazon S3
accordion
Amazon S3 - Connection spec visualizzazione di auth spec
Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.
Azure Blob Storage - Connection spec visualizzazione di auth spec
Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec visualizzazione di auth spec
Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.
Google Cloud Storage - Connection spec visualizzazione di auth spec
Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.
{
"items": [
{
"id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
"name": "Google Cloud Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [ // describes the authentication parameters
{
"name": "Google Cloud Storage authentication credentials",
"type": "GoogleCloudStorageAuth",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "defines auth params required for connecting to google cloud storage connector.",
"type": "object",
"properties": {
"accessKeyId": {
"description": "Access Key Id for the user account",
"type": "string"
},
"secretAccessKey": {
"description": "Secret Access Key for the user account",
"type": "string",
"format": "password"
}
},
"required": [
"accessKeyId",
"secretAccessKey"
]
}
}
],
//...
SFTP
accordion
SFTP - Connection spec visualizzazione di auth spec
note note
NOTE
La destinazione SFTP contiene due elementi separati in auth spec, in quanto supporta sia l'autenticazione tramite password che tramite chiave SSH.
Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.
Utilizzando le proprietà specificate nella specifica di autenticazione (ovvero authSpec dalla risposta) è possibile creare una connessione di base con le credenziali richieste, specifiche per ogni tipo di destinazione, come illustrato negli esempi seguenti:
Amazon S3
Richiesta
accordion
Amazon S3 - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina di documentazione della destinazione Amazon S3.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Azure Blob Storage - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina della documentazione della destinazione di archiviazione BLOB di Azure.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Azure Data Lake Gen 2(ADLS Gen2) - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, fare riferimento alla sezione autentica nella destinazione della pagina della documentazione di destinazione di Azure Data Lake Gen 2(ADLS Gen2).
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Data Landing Zone(DLZ) - Richiesta di connessione di base
note tip
TIP
Non sono richieste credenziali di autenticazione per la destinazione Data Landing Zone. Per ulteriori informazioni, consulta la sezione autentica nella destinazione della pagina di documentazione della destinazione Data Landing Zone.
Google Cloud Storage - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina della documentazione di destinazione di Google Cloud Storage.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
SFTP con password - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina della documentazione della destinazione SFTP.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
SFTP con chiave SSH - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina della documentazione della destinazione SFTP.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Prendi nota dell’ID di connessione dalla risposta. Questo ID sarà richiesto nel passaggio successivo durante la creazione della connessione di destinazione.
Creare una connessione di destinazione create-target-connection
Successivamente, devi creare una connessione di destinazione in cui sono memorizzati i parametri di esportazione per i set di dati. I parametri di esportazione includono la posizione, il formato del file, la compressione e altri dettagli. Per informazioni sulle proprietà supportate per ciascun tipo di destinazione, fare riferimento alle proprietà targetSpec fornite nella specifica di connessione della destinazione. Fai riferimento alle schede seguenti per le proprietà targetSpec di tutte le destinazioni supportate.
IMPORTANT
Le esportazioni in file JSON sono supportate solo in modalità compressa. Le esportazioni in file Parquet sono supportate sia in modalità compressa che non compressa.
Il formato del file JSON esportato è NDJSON, che è il formato di interscambio standard nell'ecosistema dei big data. Adobe consiglia di utilizzare un client compatibile con NDJSON per leggere i file esportati.
Amazon S3
accordion
Amazon S3 - Connection spec visualizzazione dei parametri di connessione di destinazione
Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.
Azure Blob Storage - Connection spec visualizzazione dei parametri di connessione di destinazione
Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec visualizzazione dei parametri di connessione di destinazione
Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.
{
"items": [
{
"id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
"name": "Azure Data Lake Gen2",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [...],
"encryptionSpecs": [...],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"path": {
"title": "Folder path",
"description": "Enter the path to your Azure Data Lake Storage folder",
"type": "string"
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions":{...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"NONE",
"GZIP"
]
}
},
"required": [
"path",
"datasetFileType",
"compression",
"fileType"
]
}
//...
Zona di destinazione dati(DLZ)
accordion
Data Landing Zone(DLZ) - Connection spec visualizzazione dei parametri di connessione di destinazione
Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.
Google Cloud Storage - Connection spec visualizzazione dei parametri di connessione di destinazione
Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.
SFTP - Connection spec visualizzazione dei parametri di connessione di destinazione
Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.
Utilizzando la specifica di cui sopra, puoi creare una richiesta di connessione di destinazione specifica per la destinazione di archiviazione cloud desiderata, come illustrato nelle schede seguenti.
Amazon S3
Richiesta
accordion
Amazon S3 - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina di documentazione della destinazione Amazon S3. Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Azure Blob Storage - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina di documentazione della destinazione Azure Blob Storage. Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Azure Blob Storage - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina della documentazione di destinazione di Azure Data Lake Gen 2(ADLS Gen2). Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Data Landing Zone - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina di documentazione della destinazione Data Landing Zone. Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Google Cloud Storage - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina di documentazione della destinazione Google Cloud Storage. Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Per informazioni su come ottenere i parametri di destinazione richiesti, consulta la sezione compila i dettagli di destinazione della pagina di documentazione della destinazione SFTP. Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
Prendi nota dell’ID connessione di Target dalla risposta. Questo ID sarà necessario nel passaggio successivo quando crei il flusso di dati per esportare i set di dati.
Creare un flusso di dati create-dataflow
L’ultimo passaggio nella configurazione di destinazione consiste nell’impostare un flusso di dati. Un flusso di dati unisce entità create in precedenza e fornisce inoltre opzioni per la configurazione della pianificazione di esportazione del set di dati. Per creare il flusso di dati, utilizza i payload riportati di seguito, a seconda della destinazione di archiviazione cloud desiderata, e sostituisci gli ID entità dei passaggi precedenti.
Amazon S3
Richiesta
accordion
Crea flusso di dati del set di dati nella destinazione Amazon S3 - Richiesta
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Amazon S3 cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Amazon S3 cloud storage destination",
"flowSpec": {
"id": "269ba276-16fc-47db-92b0-c1049a3c131f", // Amazon S3 flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.
Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono: File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale. Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere. Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit
Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval
Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime
Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime
La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate
Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.
ID_SET_DATI = Identificatore univoco per il set di dati.
DESTINAZIONE = Nome della destinazione.
DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
Crea flusso di dati del set di dati nella destinazione Azure Blob Storage - Richiesta
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Blob Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Blob Storage cloud storage destination",
"flowSpec": {
"id": "95bd8965-fc8a-4119-b9c3-944c2c2df6d2", // Azure Blob Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.
Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono: File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale. Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere. Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit
Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval
Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime
Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime
La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate
Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.
ID_SET_DATI = Identificatore univoco per il set di dati.
DESTINAZIONE = Nome della destinazione.
DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
Crea flusso di dati del set di dati nella destinazione Azure Data Lake Gen 2(ADLS Gen2) - Richiesta
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"flowSpec": {
"id": "17be2013-2549-41ce-96e7-a70363bec293", // Azure Data Lake Gen 2(ADLS Gen2) flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.
Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono: File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale. Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere. Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit
Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval
Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime
Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime
La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate
Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.
ID_SET_DATI = Identificatore univoco per il set di dati.
DESTINAZIONE = Nome della destinazione.
DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
Crea flusso di dati del set di dati nella destinazione Data Landing Zone - Richiesta
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Data Landing Zone cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Data Landing Zone cloud storage destination",
"flowSpec": {
"id": "cd2fc47e-e838-4f38-a581-8fff2f99b63a", // Data Landing Zone flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.
Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono: File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale. Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere. Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit
Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval
Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime
Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime
La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate
Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.
ID_SET_DATI = Identificatore univoco per il set di dati.
DESTINAZIONE = Nome della destinazione.
DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
Crea flusso di dati del set di dati nella destinazione Google Cloud Storage - Richiesta
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Google Cloud Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Google Cloud Storage destination",
"flowSpec": {
"id": "585c15c4-6cbf-4126-8f87-e26bff78b657", // Google Cloud Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.
Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono: File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale. Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere. Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit
Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval
Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime
Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime
La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate
Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.
ID_SET_DATI = Identificatore univoco per il set di dati.
DESTINAZIONE = Nome della destinazione.
DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
Creare un flusso di dati del set di dati nella destinazione SFTP - Richiesta
Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an SFTP cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an SFTP cloud storage destination",
"flowSpec": {
"id": "354d6aad-4754-46e4-a576-1b384561c440", // SFTP flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.
Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono: File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale. Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere. Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit
Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval
Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime
Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime
La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate
Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.
ID_SET_DATI = Identificatore univoco per il set di dati.
DESTINAZIONE = Nome della destinazione.
DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
Prendi nota dell’ID del flusso di dati dalla risposta. Questo ID sarà necessario nel passaggio successivo quando si recupera il flusso di dati eseguito per convalidare le esportazioni del set di dati corrette.
Ottenere l’esecuzione del flusso di dati get-dataflow-runs
Per verificare le esecuzioni di un flusso di dati, utilizza l’API Esecuzioni flusso di dati:
Richiesta
Ottieni esecuzioni flusso di dati - Richiesta
Nella richiesta di recupero del flusso di dati viene eseguito, aggiungi come parametro di query l’ID del flusso di dati ottenuto nel passaggio precedente, durante la creazione del flusso di dati.
Durante l'esportazione dei set di dati, Experience Platform crea un file .json o .parquet nel percorso di archiviazione fornito. Prevedi che un nuovo file venga depositato nel percorso di archiviazione in base alla pianificazione di esportazione fornita quando crei un flusso di dati.
In Experience Platform viene creata una struttura di cartelle nel percorso di archiviazione specificato, in cui vengono depositati i file del set di dati esportati. Per ogni esportazione viene creata una nuova cartella, seguendo il modello riportato di seguito:
Il nome di file predefinito viene generato in modo casuale e garantisce che i nomi di file esportati siano univoci.
File di set di dati di esempio sample-files
La presenza di questi file nel percorso di archiviazione conferma la riuscita dell’esportazione. Per comprendere la struttura dei file esportati, è possibile scaricare un file .parquet di esempio o .json.
File di set di dati compressi compressed-dataset-files
Quando vengono compressi, si noti la differenza di formato tra i due tipi di file:
Durante l'esportazione di file JSON compressi, il formato del file esportato è json.gz
Durante l'esportazione di file parquet compressi, il formato del file esportato è gz.parquet
I file JSON possono essere esportati solo in modalità compressa.
Gestione degli errori API api-error-handling
Gli endpoint API in questa esercitazione seguono i principi generali dei messaggi di errore API di Experience Platform. Per ulteriori informazioni sull'interpretazione delle risposte di errore, consultare codici di stato API e errori di intestazione della richiesta nella guida alla risoluzione dei problemi di Platform.
Seguendo questa esercitazione, Platform è stato connesso correttamente a una delle destinazioni preferite per l’archiviazione cloud batch e hai impostato un flusso di dati per la rispettiva destinazione per esportare i set di dati. Per ulteriori dettagli, vedi le pagine seguenti, ad esempio come modificare i flussi di dati esistenti utilizzando l’API del servizio Flusso: