Esporta i set di dati utilizzando Flow Service API

AVAILABILITY
  • Questa funzionalità è disponibile per i clienti che hanno acquistato il pacchetto Real-Time CDP Prime e Ultimate, Adobe Journey Optimizer o il Customer Journey Analytics. Per ulteriori informazioni, contatta il rappresentante Adobe.
IMPORTANT
Elemento azione: la versione di Experience Platform🔗 di settembre 2024 introduce l'opzione di impostare una data endTime per i flussi di dati del set di dati di esportazione. Adobe introduce inoltre una data di fine predefinita del 1° maggio 2025 per tutti i flussi di dati di esportazione del set di dati creati prima della versione di settembre. Per uno qualsiasi di questi flussi di dati, è necessario aggiornare manualmente la data di fine nel flusso di dati prima della data di fine, altrimenti le esportazioni vengono interrotte in tale data. Utilizza l’interfaccia utente di Experience Platform per visualizzare quali flussi di dati verranno impostati per l’interruzione il 1° maggio.
Analogamente, per qualsiasi flusso di dati creato senza specificare una data endTime, per impostazione predefinita questi flussi di dati hanno una fine di sei mesi dal momento in cui vengono creati.

Questo articolo spiega il flusso di lavoro necessario per utilizzare Flow Service API per esportare set di dati da Adobe Experience Platform nel percorso di archiviazione cloud preferito, ad esempio Amazon S3, percorsi SFTP o Google Cloud Storage.

TIP
Per esportare i set di dati, puoi anche utilizzare l’interfaccia utente di Experience Platform. Per ulteriori informazioni, consulta l'esercitazione sull'interfaccia utente esporta set di dati.

Set di dati disponibili per l’esportazione datasets-to-export

I set di dati che puoi esportare dipendono dall’applicazione di Experience Platform (Real-Time CDP, Adobe Journey Optimizer), dal livello (Prime o Ultimate) ed eventuali componenti aggiuntivi acquistati (ad esempio, Data Distiller).

Per informazioni sui set di dati da esportare, consulta la tabella nella pagina delle esercitazioni dell'interfaccia utente.

Destinazioni supportati supported-destinations

Al momento, puoi esportare i set di dati nelle destinazioni di archiviazione cloud evidenziate nella schermata ed elencate di seguito.

Destinazioni che supportano le esportazioni dei set di dati

Introduzione get-started

Panoramica - i passaggi per creare una destinazione ed esportare i set di dati

Questa guida richiede una buona conoscenza dei seguenti componenti di Adobe Experience Platform:

  • Experience Platform datasets: tutti i dati correttamente acquisiti in Adobe Experience Platform vengono mantenuti all'interno di Data Lake come set di dati. Un set di dati è un costrutto di archiviazione e gestione per una raccolta di dati, in genere una tabella, che contiene uno schema (colonne) e dei campi (righe). I set di dati contengono anche metadati che descrivono vari aspetti dei dati memorizzati.
    • Sandboxes: Experience Platform fornisce sandbox virtuali che suddividono una singola istanza Platform in ambienti virtuali separati, utili per le attività di sviluppo e aggiornamento delle applicazioni di esperienza digitale.

Le sezioni seguenti forniscono informazioni aggiuntive che è necessario conoscere per esportare i set di dati nelle destinazioni di archiviazione cloud in Platform.

Autorizzazioni richieste permissions

Per esportare i set di dati, è necessario Visualizzare le destinazioni, Visualizzare i set di dati e Gestire e attivare le destinazioni dei set di dati accedere alle autorizzazioni di controllo. Leggi la panoramica sul controllo degli accessi o contatta l'amministratore del prodotto per ottenere le autorizzazioni necessarie.

Per assicurarti di disporre delle autorizzazioni necessarie per esportare i set di dati e che la destinazione supporti l’esportazione dei set di dati, sfoglia il catalogo delle destinazioni. Se una destinazione dispone di un controllo Attiva o Esporta set di dati, si dispone delle autorizzazioni appropriate.

Lettura delle chiamate API di esempio reading-sample-api-calls

Questo tutorial fornisce esempi di chiamate API per dimostrare come formattare le richieste. Questi includono percorsi, intestazioni richieste e payload di richieste formattati correttamente. Viene inoltre fornito un codice JSON di esempio restituito nelle risposte API. Per informazioni sulle convenzioni utilizzate nella documentazione per le chiamate API di esempio, consulta la sezione su come leggere chiamate API di esempio nella guida alla risoluzione dei problemi di Experience Platform.

Raccogli i valori per le intestazioni obbligatorie e facoltative gather-values-headers

Per effettuare chiamate alle API Platform, devi prima completare l'esercitazione di autenticazione Experience Platform. Completando il tutorial sull’autenticazione si ottengono i valori per ciascuna delle intestazioni richieste in tutte le chiamate API di Experience Platform, come mostrato di seguito:

  • Autorizzazione: Bearer {ACCESS_TOKEN}
  • x-api-key: {API_KEY}
  • x-gw-ims-org-id: {ORG_ID}

Le risorse in Experience Platform possono essere isolate in specifiche sandbox virtuali. Nelle richieste alle API Platform, puoi specificare il nome e l'ID della sandbox in cui verrà eseguita l'operazione. Si tratta di parametri facoltativi.

  • x-sandbox-name: {SANDBOX_NAME}
NOTE
Per ulteriori informazioni sulle sandbox in Experience Platform, consulta la documentazione di panoramica sulle sandbox.

Tutte le richieste che contengono un payload (POST, PUT, PATCH) richiedono un’intestazione di tipo multimediale aggiuntiva:

  • Tipo di contenuto: application/json

Documentazione di riferimento API api-reference-documentation

Questa esercitazione contiene la documentazione di riferimento per tutte le operazioni API. Consulta la documentazione sulle API di destinazione Flow Service sul sito Web Adobe Developer. È consigliabile utilizzare questa esercitazione e la documentazione di riferimento API in parallelo.

Glossario glossary

Per le descrizioni dei termini che incontrerai in questa esercitazione API, leggi la sezione del glossario della documentazione di riferimento API.

Raccogli le specifiche di connessione e di flusso per la destinazione desiderata gather-connection-spec-flow-spec

Prima di avviare il flusso di lavoro per esportare un set di dati, identifica la specifica di connessione e gli ID delle specifiche di flusso della destinazione in cui intendi esportare i set di dati. Utilizzare la tabella seguente come riferimento.

Destinazione
Specifica di connessione
Specifica di flusso
Amazon S3
4fce964d-3f37-408f-9778-e597338a21ee
269ba276-16fc-47db-92b0-c1049a3c131f
Azure Blob Storage
6d6b59bf-fb58-4107-9064-4d246c0e5bb2
95bd8965-fc8a-4119-b9c3-944c2c2df6d2
Azure Data Lake Gen 2(ADLS Gen2)
be2c3209-53bc-47e7-ab25-145db8b873e1
17be2013-2549-41ce-96e7-a70363bec293
Data Landing Zone(DLZ)
10440537-2a7b-4583-ac39-ed38d4b848e8
cd2fc47e-e838-4f38-a581-8fff2f99b63a
Google Cloud Storage
c5d93acb-ea8b-4b14-8f53-02138444ae99
585c15c4-6cbf-4126-8f87-e26bff78b657
SFTP
36965a81-b1c6-401b-99f8-22508f1e6a26
354d6aad-4754-46e4-a576-1b384561c440

Questi ID sono necessari per creare varie entità Flow Service. È inoltre necessario fare riferimento a parti di Connection Spec per impostare alcune entità in modo da poter recuperare Connection Spec da Flow Service APIs. Vedi gli esempi seguenti di recupero delle specifiche di connessione per tutte le destinazioni nella tabella:

Amazon S3

Richiesta

accordion
Recupera connection spec per Amazon S3
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/4fce964d-3f37-408f-9778-e597338a21ee' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Risposta

accordion
Amazon S3 - Specifica di connessione
code language-json
{
    "items": [
        {
            "id": "4fce964d-3f37-408f-9778-e597338a21ee",
            "name": "Amazon S3",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
Archiviazione BLOB di Azure

Richiesta

accordion
Recupera connection spec per Azure Blob Storage
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/6d6b59bf-fb58-4107-9064-4d246c0e5bb2' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Risposta

accordion
Azure Blob Storage - Connection spec
code language-json
{
    "items": [
        {
            "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2",
            "name": "Azure Blob Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
Azure Data Lake Gen 2 (ADLS Gen2)

Richiesta

accordion
Recupera connection spec per Azure Data Lake Gen 2(ADLS Gen2)
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/be2c3209-53bc-47e7-ab25-145db8b873e1' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Risposta

accordion
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec
code language-json
{
    "items": [
        {
            "id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
            "name": "Azure Data Lake Gen2",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
Zona di destinazione dati(DLZ)

Richiesta

accordion
Recupera connection spec per Data Landing Zone(DLZ)
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/10440537-2a7b-4583-ac39-ed38d4b848e8' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Risposta

accordion
Data Landing Zone(DLZ) - Connection spec
code language-json
{
    "items": [
        {
            "id": "10440537-2a7b-4583-ac39-ed38d4b848e8",
            "name": "Data Landing Zone",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
Google Cloud Storage

Richiesta

accordion
Recupera connection spec per Google Cloud Storage
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/c5d93acb-ea8b-4b14-8f53-02138444ae99' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Risposta

accordion
Google Cloud Storage - Connection spec
code language-json
{
    "items": [
        {
            "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
            "name": "Google Cloud Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
SFTP

Richiesta

accordion
Recupera connection spec per SFTP
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/36965a81-b1c6-401b-99f8-22508f1e6a26' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Risposta

accordion
SFTP - Connection spec
code language-json
{
    "items": [
        {
            "id": "36965a81-b1c6-401b-99f8-22508f1e6a26",
            "name": "SFTP",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...

Segui i passaggi seguenti per impostare un flusso di dati su una destinazione di archiviazione cloud. Per alcuni passaggi, le richieste e le risposte differiscono tra le varie destinazioni dell’archiviazione cloud. In questi casi, utilizza le schede nella pagina per recuperare le richieste e le risposte specifiche della destinazione a cui desideri connettere ed esportare i set di dati. Assicurarsi di utilizzare connection spec e flow spec corretti per la destinazione che si sta configurando.

Recuperare un elenco di set di dati retrieve-list-of-available-datasets

Diagramma che mostra il passaggio 1 nel flusso di lavoro per lesportazione dei set di dati

Per recuperare un elenco di set di dati idonei per l’attivazione, inizia effettuando una chiamata API all’endpoint seguente.

recommendation-more-help

Richiesta

Recuperare i set di dati idonei - Richiesta
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/23598e46-f560-407b-88d5-ea6207e49db0/configs?outputType=activationDatasets&outputField=datasets&start=0&limit=20&properties=name,state' \
--header 'accept: application/json' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-api-key: {API_KEY}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Per recuperare i set di dati idonei, l'ID connection spec utilizzato nell'URL della richiesta deve essere l'ID della specifica di connessione all'origine del data lake, 23598e46-f560-407b-88d5-ea6207e49db0, e devono essere specificati i due parametri di query outputField=datasets e outputType=activationDatasets. Tutti gli altri parametri di query sono quelli standard supportati dall'API Catalog Service.

Risposta

Recuperare i set di dati - Risposta
code language-json
{
    "items": [
        {
            "id": "5ef3e324052581191aa6a466",
            "name": "AAM Authenticated Profiles Meta Data",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        },
        {
            "id": "5ef3e3259ad2a1191ab7dd7d",
            "name": "AAM Devices Data",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        },
        {
            "id": "5ef3e325582424191b1beb42",
            "name": "AAM Devices Profile Meta Data",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        },
        {
            "id": "5ef3e328582424191b1beb44",
            "name": "AAM Realtime",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        },
        {
            "id": "5ef3e328fe742a191b2b3ea5",
            "name": "AAM Realtime Profile Updates",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        }
    ],
    "pageInfo": {
        "start": 0,
        "end": 4,
        "total": 149,
        "hasNext": true
    }
}

Una risposta corretta contiene un elenco di set di dati idonei per l’attivazione. Questi set di dati possono essere utilizzati durante la costruzione della connessione di origine nel passaggio successivo.

Per informazioni sui vari parametri di risposta per ogni set di dati restituito, consulta la documentazione per gli sviluppatori API dei set di dati.

Creare una connessione sorgente create-source-connection

Diagramma che mostra il passaggio 2 nel flusso di lavoro per lesportazione dei set di dati

Dopo aver recuperato l’elenco dei set di dati da esportare, puoi creare una connessione di origine utilizzando tali ID.

Richiesta

Crea connessione sorgente - Richiesta

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-16
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/sourceConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
  "name": "Connecting to Data Lake",
  "description": "Data Lake source connection to export datasets",
  "connectionSpec": {
    "id": "23598e46-f560-407b-88d5-ea6207e49db0", // this connection spec ID is always the same for Source Connections
    "version": "1.0"
  },
  "params": {
    "datasets": [ // datasets to activate
      {
        "dataSetId": "5ef3e3259ad2a1191ab7dd7d",
        "name": "AAM Devices Data"
      }
    ]
  }
}'

Risposta

Crea connessione sorgente - Risposta
code language-json
{
    "id": "900df191-b983-45cd-90d5-4c7a0326d650",
    "etag": "\"0500ebe1-0000-0200-0000-63e28d060000\""
}

In caso di esito positivo, la risposta restituisce l'ID (id) della connessione di origine appena creata e un etag. Prendi nota dell’ID della connessione sorgente in quanto sarà necessario in un secondo momento durante la creazione del flusso di dati.

Ricorda inoltre che:

  • La connessione di origine creata in questo passaggio deve essere collegata a un flusso di dati affinché i relativi set di dati possano essere attivati in una destinazione. Consulta la sezione creare un flusso di dati per informazioni su come collegare una connessione di origine a un flusso di dati.
  • Gli ID dei set di dati di una connessione di origine non possono essere modificati dopo la creazione. Se devi aggiungere o rimuovere set di dati da una connessione di origine, devi creare una nuova connessione di origine e collegare l’ID della nuova connessione di origine al flusso di dati.

Creare una connessione di base (di destinazione) create-base-connection

Diagramma che mostra il passaggio 3 nel flusso di lavoro per lesportazione dei set di dati

Una connessione di base memorizza in modo sicuro le credenziali nella destinazione. A seconda del tipo di destinazione, le credenziali necessarie per l’autenticazione a fronte di tale destinazione possono variare. Per trovare questi parametri di autenticazione, recupera connection spec per la destinazione desiderata come descritto nella sezione Raccogli le specifiche di connessione e le specifiche di flusso, quindi controlla authSpec della risposta. Fai riferimento alle schede seguenti per le proprietà authSpec di tutte le destinazioni supportate.

Amazon S3
accordion
Amazon S3 - Connection spec visualizzazione di auth spec

Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "4fce964d-3f37-408f-9778-e597338a21ee",
            "name": "Amazon S3",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "Access Key",
                    "type": "KeyBased",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "Defines auth params required for connecting to amazon-s3",
                        "type": "object",
                        "properties": {
                            "s3AccessKey": {
                                "description": "Access key id",
                                "type": "string",
                                "pattern": "^[A-Z2-7]{20}$"
                            },
                            "s3SecretKey": {
                                "description": "Secret access key for the user account",
                                "type": "string",
                                "format": "password",
                                "pattern": "^[A-Za-z0-9\/+]{40}$"
                            }
                        },
                        "required": [
                            "s3SecretKey",
                            "s3AccessKey"
                        ]
                    }
                }
            ],
//...
Archiviazione BLOB di Azure
accordion
Azure Blob Storage - Connection spec visualizzazione di auth spec

Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2",
            "name": "Azure Blob Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "ConnectionString",
                    "type": "ConnectionString",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "Connection String for Azure Blob based destinations",
                        "type": "object",
                        "properties": {
                            "connectionString": {
                                "description": "connection string for login",
                                "type": "string",
                                "format": "password"
                            }
                        },
                        "required": [
                            "connectionString"
                        ]
                    }
                }
            ],
//...
Azure Data Lake Gen 2 (ADLS Gen2)
accordion
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec visualizzazione di auth spec

Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
            "name": "Azure Data Lake Gen2",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "Azure Service Principal Auth",
                    "type": "AzureServicePrincipal",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "defines auth params required for connecting to adlsgen2 using service principal",
                        "type": "object",
                        "properties": {
                            "url": {
                                "description": "Endpoint for Azure Data Lake Storage Gen2.",
                                "type": "string"
                            },
                            "servicePrincipalId": {
                                "description": "Service Principal Id to connect to ADLSGen2.",
                                "type": "string"
                            },
                            "servicePrincipalKey": {
                                "description": "Service Principal Key to connect to ADLSGen2.",
                                "type": "string",
                                "format": "password"
                            },
                            "tenant": {
                                "description": "Tenant information(domain name or tenant ID).",
                                "type": "string"
                            }
                        },
                        "required": [
                            "servicePrincipalKey",
                            "url",
                            "tenant",
                            "servicePrincipalId"
                        ]
                    }
                }
            ],
//...
Zona di destinazione dati(DLZ)
accordion
Data Landing Zone(DLZ) - Connection spec visualizzazione di auth spec
note note
NOTE
La destinazione della zona di destinazione dati non richiede auth spec.
code language-json
{
    "items": [
        {
            "id": "10440537-2a7b-4583-ac39-ed38d4b848e8",
            "name": "Data Landing Zone",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [],
//...
Google Cloud Storage
accordion
Google Cloud Storage - Connection spec visualizzazione di auth spec

Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
            "name": "Google Cloud Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "Google Cloud Storage authentication credentials",
                    "type": "GoogleCloudStorageAuth",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "defines auth params required for connecting to google cloud storage connector.",
                        "type": "object",
                        "properties": {
                            "accessKeyId": {
                                "description": "Access Key Id for the user account",
                                "type": "string"
                            },
                            "secretAccessKey": {
                                "description": "Secret Access Key for the user account",
                                "type": "string",
                                "format": "password"
                            }
                        },
                        "required": [
                            "accessKeyId",
                            "secretAccessKey"
                        ]
                    }
                }
            ],
//...
SFTP
accordion
SFTP - Connection spec visualizzazione di auth spec
note note
NOTE
La destinazione SFTP contiene due elementi separati in auth spec, in quanto supporta sia l'autenticazione tramite password che tramite chiave SSH.

Annotare la riga evidenziata con i commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri di autenticazione in connection spec.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "36965a81-b1c6-401b-99f8-22508f1e6a26",
            "name": "SFTP",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "SFTP with Password",
                    "type": "SFTP",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "defines auth params required for connecting to sftp locations with a password",
                        "type": "object",
                        "properties": {
                            "domain": {
                                "description": "Domain of server",
                                "type": "string"
                            },
                            "username": {
                                "description": "Username",
                                "type": "string"
                            },
                            "password": {
                                "description": "Password",
                                "type": "string",
                                "format": "password"
                            }
                        },
                        "required": [
                            "password",
                            "domain",
                            "username"
                        ]
                    }
                },
                {
                    "name": "SFTP with SSH Key",
                    "type": "SFTP",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "defines auth params required for connecting to sftp locations using SSH Key",
                        "type": "object",
                        "properties": {
                            "domain": {
                                "description": "Domain of server",
                                "type": "string"
                            },
                            "username": {
                                "description": "Username",
                                "type": "string"
                            },
                            "sshKey": {
                                "description": "Base64 string of the private SSH key",
                                "type": "string",
                                "format": "password",
                                "contentEncoding": "base64",
                                "uiAttributes": {
                                    "tooltip": {
                                        "id": "platform_destinations_connect_sftp_ssh",
                                        "fallbackUrl": "http://www.adobe.com/go/destinations-sftp-connection-parameters-en "
                                    }
                                }
                            }
                        },
                        "required": [
                            "sshKey",
                            "domain",
                            "username"
                        ]
                    }
                }
            ],
//...

Utilizzando le proprietà specificate nella specifica di autenticazione (ovvero authSpec dalla risposta) è possibile creare una connessione di base con le credenziali richieste, specifiche per ogni tipo di destinazione, come illustrato negli esempi seguenti:

Amazon S3

Richiesta

accordion
Amazon S3 - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina di documentazione della destinazione Amazon S3.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Amazon S3 Base Connection",
  "auth": {
    "specName": "Access Key",
    "params": {
      "s3SecretKey": "<Add secret key>",
      "s3AccessKey": "<Add access key>"
    }
  },
  "connectionSpec": {
    "id": "4fce964d-3f37-408f-9778-e597338a21ee", // Amazon S3 connection spec
    "version": "1.0"
  }
}'

Risposta

accordion
Amazon S3 risposta connessione di base
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Archiviazione BLOB di Azure

Richiesta

accordion
Azure Blob Storage - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina della documentazione della destinazione di archiviazione BLOB di Azure.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-16
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Azure Blob Storage Base Connection",
  "auth": {
    "specName": "ConnectionString",
    "params": {
      "connectionString": "<Add Azure Blob connection string>"
    }
  },
  "connectionSpec": {
    "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2", // Azure Blob Storage connection spec
    "version": "1.0"
  }
}'

Risposta

accordion
Azure Blob Storage - Risposta connessione di base
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Azure Data Lake Gen 2 (ADLS Gen2)

Richiesta

accordion
Azure Data Lake Gen 2(ADLS Gen2) - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, fare riferimento alla sezione autentica nella destinazione della pagina della documentazione di destinazione di Azure Data Lake Gen 2(ADLS Gen2).

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-20
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Azure Data Lake Gen 2(ADLS Gen2) Base Connection",
  "auth": {
    "specName": "Azure Service Principal Auth",
    "params": {
      "servicePrincipalKey": "<Add servicePrincipalKey>",
      "url": "<Add url>",
      "tenant": "<Add tenant>",
      "servicePrincipalId": "<Add servicePrincipalId>"
    }
  },
  "connectionSpec": {
    "id": "be2c3209-53bc-47e7-ab25-145db8b873e1", // Azure Data Lake Gen 2(ADLS Gen2) connection spec
    "version": "1.0"
  }
}'

Risposta

accordion
Azure Data Lake Gen 2(ADLS Gen2) - Risposta connessione di base
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Zona di destinazione dati(DLZ)

Richiesta

accordion
Data Landing Zone(DLZ) - Richiesta di connessione di base
note tip
TIP
Non sono richieste credenziali di autenticazione per la destinazione Data Landing Zone. Per ulteriori informazioni, consulta la sezione autentica nella destinazione della pagina di documentazione della destinazione Data Landing Zone.
code language-shell
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Data Landing Zone(DLZ) Base Connection"
}'

Risposta

accordion
Data Landing Zone - Risposta connessione di base
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Google Cloud Storage

Richiesta

accordion
Google Cloud Storage - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina della documentazione di destinazione di Google Cloud Storage.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Google Cloud Storage Base Connection",
  "auth": {
    "specName": "Google Cloud Storage authentication credentials",
    "params": {
      "accessKeyId": "<Add accessKeyId>",
      "secretAccessKey": "<Add secret Access Key>"
    }
  },
  "connectionSpec": {
    "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99", // Google Cloud Storage connection spec
    "version": "1.0"
  }
}'

Risposta

accordion
Google Cloud Storage - Risposta connessione di base
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
SFTP

Richiesta

accordion
SFTP con password - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina della documentazione della destinazione SFTP.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "SFTP with password Base Connection",
  "auth": {
    "specName": "SFTP with Password",
    "params": {
      "domain": "<Add domain>",
      "username": "<Add username>",
      "password": "<Add password>"
    }
  },
  "connectionSpec": {
    "id": "36965a81-b1c6-401b-99f8-22508f1e6a26", // SFTP connection spec
    "version": "1.0"
  }
}'
accordion
SFTP con chiave SSH - Richiesta di connessione di base
note tip
TIP
Per informazioni su come ottenere le credenziali di autenticazione richieste, consulta la sezione autentica nella destinazione della pagina della documentazione della destinazione SFTP.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "SFTP with SSH key Base Connection",
  "auth": {
    "specName": "SFTP with SSH Key",
    "params": {
      "domain": "<Add domain>",
      "username": "<Add username>",
      "sshKey": "<Add SSH key>"
    }
  },
  "connectionSpec": {
    "id": "36965a81-b1c6-401b-99f8-22508f1e6a26", // SFTP connection spec
    "version": "1.0"
  }
}'

Risposta

accordion
SFTP - Risposta di connessione di base
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}

Prendi nota dell’ID di connessione dalla risposta. Questo ID sarà richiesto nel passaggio successivo durante la creazione della connessione di destinazione.

Creare una connessione di destinazione create-target-connection

Diagramma che mostra il passaggio 4 nel flusso di lavoro per lesportazione dei set di dati

Successivamente, devi creare una connessione di destinazione in cui sono memorizzati i parametri di esportazione per i set di dati. I parametri di esportazione includono la posizione, il formato del file, la compressione e altri dettagli. Per informazioni sulle proprietà supportate per ciascun tipo di destinazione, fare riferimento alle proprietà targetSpec fornite nella specifica di connessione della destinazione. Fai riferimento alle schede seguenti per le proprietà targetSpec di tutte le destinazioni supportate.

IMPORTANT
Le esportazioni in file JSON sono supportate solo in modalità compressa. Le esportazioni in file Parquet sono supportate sia in modalità compressa che non compressa.
Il formato del file JSON esportato è NDJSON, che è il formato di interscambio standard nell'ecosistema dei big data. Adobe consiglia di utilizzare un client compatibile con NDJSON per leggere i file esportati.
Amazon S3
accordion
Amazon S3 - Connection spec visualizzazione dei parametri di connessione di destinazione

Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-41 h-56
{
    "items": [
        {
            "id": "4fce964d-3f37-408f-9778-e597338a21ee",
            "name": "Amazon S3",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "bucketName": {
                            "title": "Bucket name",
                            "description": "Bucket name",
                            "type": "string",
                            "pattern": "(?=^.{3,63}$)(?!^(\\d+\\.)+\\d+$)(^(([a-z0-9]|[a-z0-9][a-z0-9\\-]*[a-z0-9])\\.)*([a-z0-9]|[a-z0-9][a-z0-9\\-]*[a-z0-9])$)",
                            "uiAttributes": {
                                "tooltip": {
                                    "id": "platform_destinations_connect_s3_bucket",
                                    "fallbackUrl": "http://www.adobe.com/go/destinations-amazon-s3-connection-parameters-en"
                                }
                            }
                        },
                        "path": {
                            "title": "Folder path",
                            "description": "Output path for copying files",
                            "type": "string",
                            "pattern": "^[0-9a-zA-Z\/\\!\\-_\\.\\*\\''\\(\\)]*((\\%SEGMENT_(NAME|ID)\\%)?\/?)+$",
                            "uiAttributes": {
                                "tooltip": {
                                    "id": "platform_destinations_connect_s3_folderpath",
                                    "fallbackUrl": "http://www.adobe.com/go/destinations-amazon-s3-connection-parameters-en"
                                }
                            }
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions": {...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "NONE",
                                "GZIP"
                            ]
                        }
                    },
                    "required": [
                        "bucketName",
                        "path",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                }
//...
Archiviazione BLOB di Azure
accordion
Azure Blob Storage - Connection spec visualizzazione dei parametri di connessione di destinazione

Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-29 h-44
{
    "items": [
        {
            "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2",
            "name": "Azure Blob Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "path": {
                            "title": "Folder path",
                            "description": "Output path (relative) indicating where to upload the data",
                            "type": "string",
                            "pattern": "^[0-9a-zA-Z\/\\!\\-_\\.\\*\\'\\(\\)]+$"
                        },
                        "container": {
                            "title": "Container",
                            "description": "Container within the storage where to upload the data",
                            "type": "string",
                            "pattern": "^[a-z0-9](?!.*--)[a-z0-9-]{1,61}[a-z0-9]$"
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions": {...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "NONE",
                                "GZIP"
                            ]
                        }
                    },
                    "required": [
                        "container",
                        "path",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                }
//...
Azure Data Lake Gen 2 (ADLS Gen2)
accordion
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec visualizzazione dei parametri di connessione di destinazione

Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-22 h-37
{
    "items": [
        {
            "id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
            "name": "Azure Data Lake Gen2",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "path": {
                            "title": "Folder path",
                            "description": "Enter the path to your Azure Data Lake Storage folder",
                            "type": "string"
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions":{...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "NONE",
                                "GZIP"
                            ]
                        }
                    },
                    "required": [
                        "path",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                }
//...
Zona di destinazione dati(DLZ)
accordion
Data Landing Zone(DLZ) - Connection spec visualizzazione dei parametri di connessione di destinazione

Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.

code language-json line-numbers data-start-1 data-line-offset-4 h-9 h-21 h-36
"items": [
    {
        "id": "10440537-2a7b-4583-ac39-ed38d4b848e8",
        "name": "Data Landing Zone",
        "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
        "version": "1.0",
        "authSpec": [],
        "encryptionSpecs": [],
        "targetSpec": { // describes the target connection parameters
            "name": "User based target",
            "type": "UserNamespace",
            "spec": {
                "$schema": "http://json-schema.org/draft-07/schema#",
                "type": "object",
                "properties": {
                    "path": {
                        "title": "Folder path",
                        "description": "Enter the path to your Azure Data Lake Storage folder",
                        "type": "string"
                    },
                    "fileType": {...}, // not applicable to dataset destinations
                    "datasetFileType": {
                        "conditional": {
                            "field": "flowSpec.attributes._workflow",
                            "operator": "CONTAINS",
                            "value": "DATASETS"
                        },
                        "title": "File Type",
                        "description": "Select file format",
                        "type": "string",
                        "enum": [
                            "JSON",
                            "PARQUET"
                        ]
                    },
                    "csvOptions": {...}, // not applicable to dataset destinations
                    "compression": {
                        "title": "Compression format",
                        "description": "Select the desired file compression format.",
                        "type": "string",
                        "enum": [
                            "NONE",
                            "GZIP"
                        ]
                    }
                },
                "required": [
                    "path",
                    "datasetFileType",
                    "compression",
                    "fileType"
                ]
            }
//...
Google Cloud Storage
accordion
Google Cloud Storage - Connection spec visualizzazione dei parametri di connessione di destinazione

Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-29 h-44
{
    "items": [
        {
            "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
            "name": "Google Cloud Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "bucketName": {
                            "title": "Bucket name",
                            "description": "Bucket name",
                            "type": "string",
                            "pattern": "(?!^goog.*$)(?!^.*g(o|0)(o|0)gle.*$)(((?=^.{3,63}$)(^([a-z0-9]|[a-z0-9][a-z0-9\\-_]*)[a-z0-9]$))|((?=^.{3,222}$)(?!^(\\d+\\.)+\\d+$)(^(([a-z0-9]{1,63}|[a-z0-9][a-z0-9\\-_]{1,61}[a-z0-9])\\.)*([a-z0-9]{1,63}|[a-z0-9][a-z0-9\\-_]{1,61}[a-z0-9])$)))"
                        },
                        "path": {
                            "title": "Folder path",
                            "description": "Output path for copying files",
                            "type": "string",
                            "pattern": "^[0-9a-zA-Z\/\\!\\-_\\.\\*\\''\\(\\)]*((\\%SEGMENT_(NAME|ID)\\%)?\/?)+$"
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions": {...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "NONE",
                                "GZIP"
                            ]
                        }
                    },
                    "required": [
                        "bucketName",
                        "path",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                }
//...
SFTP
accordion
SFTP - Connection spec visualizzazione dei parametri di connessione di destinazione

Prendere nota delle righe evidenziate con commenti in linea nell'esempio connection spec seguente, che forniscono informazioni aggiuntive su dove trovare i parametri target spec nella specifica di connessione. Puoi anche vedere nell'esempio seguente quali parametri di destinazione sono not applicabili alle destinazioni di esportazione dei set di dati.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-22 h-37
{
    "items": [
        {
            "id": "36965a81-b1c6-401b-99f8-22508f1e6a26",
            "name": "SFTP",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "remotePath": {
                            "title": "Folder path",
                            "description": "Enter your folder path",
                            "type": "string"
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions": {...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "GZIP",
                                "NONE"
                            ]
                        }
                    },
                    "required": [
                        "remotePath",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                },
//...

Utilizzando la specifica di cui sopra, puoi creare una richiesta di connessione di destinazione specifica per la destinazione di archiviazione cloud desiderata, come illustrato nelle schede seguenti.

Amazon S3

Richiesta

accordion
Amazon S3 - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina di documentazione della destinazione Amazon S3.
Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Amazon S3 Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "bucketName": "your-bucket-name",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "4fce964d-3f37-408f-9778-e597338a21ee", // Amazon S3 connection spec id
        "version": "1.0"
    }
}'

Risposta

accordion
Connessione Target - Risposta
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Archiviazione BLOB di Azure

Richiesta

accordion
Azure Blob Storage - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina di documentazione della destinazione Azure Blob Storage.
Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Azure Blob Storage Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "container": "your-container-name",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2", // Azure Blob Storage connection spec id
        "version": "1.0"
    }
}'

Risposta

accordion
Connessione Target - Risposta
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Azure Data Lake Gen 2 (ADLS Gen2)

Richiesta

accordion
Azure Blob Storage - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina della documentazione di destinazione di Azure Data Lake Gen 2(ADLS Gen2).
Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Azure Data Lake Gen 2(ADLS Gen2) Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "be2c3209-53bc-47e7-ab25-145db8b873e1", // Azure Data Lake Gen 2(ADLS Gen2) connection spec id
        "version": "1.0"
    }
}'

Risposta

accordion
Connessione Target - Risposta
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Zona di destinazione dati(DLZ)

Richiesta

accordion
Data Landing Zone - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina di documentazione della destinazione Data Landing Zone.
Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Data Landing Zone Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "10440537-2a7b-4583-ac39-ed38d4b848e8", // Data Landing Zone connection spec id
        "version": "1.0"
    }
}'

Risposta

accordion
Connessione Target - Risposta
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Google Cloud Storage

Richiesta

accordion
Google Cloud Storage - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, fare riferimento alla sezione compila i dettagli di destinazione della pagina di documentazione della destinazione Google Cloud Storage.
Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Google Cloud Storage Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "bucketName": "your-bucket-name",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99", // Google Cloud Storage connection spec id
        "version": "1.0"
    }
}'

Risposta

accordion
Connessione Target - Risposta
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
SFTP

Richiesta

accordion
SFTP - Richiesta di connessione Target
note tip
TIP
Per informazioni su come ottenere i parametri di destinazione richiesti, consulta la sezione compila i dettagli di destinazione della pagina di documentazione della destinazione SFTP.
Per gli altri valori supportati di datasetFileType, consulta la documentazione di riferimento API.

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "SFTP Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "remotePath": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "36965a81-b1c6-401b-99f8-22508f1e6a26", // SFTP connection spec id
        "version": "1.0"
    }
}'

Risposta

accordion
Connessione Target - Risposta
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}

Prendi nota dell’ID connessione di Target dalla risposta. Questo ID sarà necessario nel passaggio successivo quando crei il flusso di dati per esportare i set di dati.

Creare un flusso di dati create-dataflow

Diagramma che mostra il passaggio 5 nel flusso di lavoro per lesportazione dei set di dati

L’ultimo passaggio nella configurazione di destinazione consiste nell’impostare un flusso di dati. Un flusso di dati unisce entità create in precedenza e fornisce inoltre opzioni per la configurazione della pianificazione di esportazione del set di dati. Per creare il flusso di dati, utilizza i payload riportati di seguito, a seconda della destinazione di archiviazione cloud desiderata, e sostituisci gli ID entità dei passaggi precedenti.

Amazon S3

Richiesta

accordion
Crea flusso di dati del set di dati nella destinazione Amazon S3 - Richiesta

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to an Amazon S3 cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to an Amazon S3 cloud storage destination",
    "flowSpec": {
        "id": "269ba276-16fc-47db-92b0-c1049a3c131f", // Amazon S3 flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parametro Descrizione
exportMode Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono:
File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale.
Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere.
Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate

Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.

  • ID_SET_DATI = Identificatore univoco per il set di dati.
  • DESTINAZIONE = Nome della destinazione.
  • DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
  • ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
  • NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
  • DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
  • NOME_SANDBOX = Nome dell'ambiente sandbox.
  • NOME_ORGANIZZAZIONE = Nome dell'organizzazione.

Risposta

accordion
Crea flusso di dati - Risposta
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Archiviazione BLOB di Azure

Richiesta

accordion
Crea flusso di dati del set di dati nella destinazione Azure Blob Storage - Richiesta

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to an Azure Blob Storage cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to an Azure Blob Storage cloud storage destination",
    "flowSpec": {
        "id": "95bd8965-fc8a-4119-b9c3-944c2c2df6d2", // Azure Blob Storage flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parametro Descrizione
exportMode Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono:
File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale.
Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere.
Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate

Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.

  • ID_SET_DATI = Identificatore univoco per il set di dati.
  • DESTINAZIONE = Nome della destinazione.
  • DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
  • ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
  • NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
  • DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
  • NOME_SANDBOX = Nome dell'ambiente sandbox.
  • NOME_ORGANIZZAZIONE = Nome dell'organizzazione.

Risposta

accordion
Crea flusso di dati - Risposta
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Azure Data Lake Gen 2 (ADLS Gen2)

Richiesta

accordion
Crea flusso di dati del set di dati nella destinazione Azure Data Lake Gen 2(ADLS Gen2) - Richiesta

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
    "flowSpec": {
        "id": "17be2013-2549-41ce-96e7-a70363bec293", // Azure Data Lake Gen 2(ADLS Gen2) flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parametro Descrizione
exportMode Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono:
File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale.
Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere.
Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate

Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.

  • ID_SET_DATI = Identificatore univoco per il set di dati.
  • DESTINAZIONE = Nome della destinazione.
  • DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
  • ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
  • NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
  • DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
  • NOME_SANDBOX = Nome dell'ambiente sandbox.
  • NOME_ORGANIZZAZIONE = Nome dell'organizzazione.

Risposta

accordion
Crea flusso di dati - Risposta
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Zona di destinazione dati(DLZ)

Richiesta

accordion
Crea flusso di dati del set di dati nella destinazione Data Landing Zone - Richiesta

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to a Data Landing Zone cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to a Data Landing Zone cloud storage destination",
    "flowSpec": {
        "id": "cd2fc47e-e838-4f38-a581-8fff2f99b63a", // Data Landing Zone flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parametro Descrizione
exportMode Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono:
File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale.
Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere.
Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate

Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.

  • ID_SET_DATI = Identificatore univoco per il set di dati.
  • DESTINAZIONE = Nome della destinazione.
  • DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
  • ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
  • NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
  • DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
  • NOME_SANDBOX = Nome dell'ambiente sandbox.
  • NOME_ORGANIZZAZIONE = Nome dell'organizzazione.

Risposta

accordion
Crea flusso di dati - Risposta
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Google Cloud Storage

Richiesta

accordion
Crea flusso di dati del set di dati nella destinazione Google Cloud Storage - Richiesta

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to a Google Cloud Storage cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to a Google Cloud Storage destination",
    "flowSpec": {
        "id": "585c15c4-6cbf-4126-8f87-e26bff78b657", // Google Cloud Storage flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parametro Descrizione
exportMode Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono:
File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale.
Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere.
Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate

Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.

  • ID_SET_DATI = Identificatore univoco per il set di dati.
  • DESTINAZIONE = Nome della destinazione.
  • DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
  • ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
  • NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
  • DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
  • NOME_SANDBOX = Nome dell'ambiente sandbox.
  • NOME_ORGANIZZAZIONE = Nome dell'organizzazione.

Risposta

accordion
Crea flusso di dati - Risposta
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
SFTP

Richiesta

accordion
Creare un flusso di dati del set di dati nella destinazione SFTP - Richiesta

Nell’esempio di richiesta, annota le righe evidenziate con commenti in linea, che forniscono informazioni aggiuntive. Rimuovi i commenti in linea nella richiesta quando copia e incolla la richiesta nel terminale scelto.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to an SFTP cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to an SFTP cloud storage destination",
    "flowSpec": {
        "id": "354d6aad-4754-46e4-a576-1b384561c440", // SFTP flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

La tabella seguente fornisce le descrizioni di tutti i parametri nella sezione scheduleParams, che consente di personalizzare i tempi di esportazione, la frequenza, la posizione e altro ancora per le esportazioni dei set di dati.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parametro Descrizione
exportMode Selezionare "DAILY_FULL_EXPORT" o "FIRST_FULL_THEN_INCREMENTAL". Per ulteriori informazioni sulle due opzioni, fare riferimento a esporta file completi e esporta file incrementali nell'esercitazione di attivazione delle destinazioni batch. Le tre opzioni di esportazione disponibili sono:
File completo - Una volta: "DAILY_FULL_EXPORT" può essere utilizzato solo in combinazione con timeUnit:day e interval:0 per un'esportazione completa una tantum del set di dati. Le esportazioni giornaliere complete di set di dati non sono supportate. Se hai bisogno di esportazioni giornaliere, utilizza l’opzione di esportazione incrementale.
Esportazioni incrementali giornaliere: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day e interval:1 per le esportazioni incrementali giornaliere.
Esportazioni orarie incrementali: selezionare "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour e interval:3,6,9 o 12 per le esportazioni orarie incrementali.
timeUnit Selezionare day o hour a seconda della frequenza con cui si desidera esportare i file del set di dati.
interval Selezionare 1 quando timeUnit è giorno e 3,6,9,12 quando l'unità di tempo è hour.
startTime Data e ora in secondi UNIX in cui devono iniziare le esportazioni dei set di dati.
endTime La data e l’ora in secondi UNIX in cui devono terminare le esportazioni dei set di dati.
foldernameTemplate

Specifica la struttura del nome della cartella prevista nel percorso di archiviazione in cui verranno depositati i file esportati.

  • ID_SET_DATI = Identificatore univoco per il set di dati.
  • DESTINAZIONE = Nome della destinazione.
  • DATETIME = Data e ora formattate come yyyyMMdd_HHmmss.
  • ORA_ESPORTAZIONE = Ora pianificata per l'esportazione dei dati formattata come exportTime=YYYYMMDDHHMM.
  • NOME_ISTANZA_DESTINAZIONE = Nome dell'istanza specifica della destinazione.
  • DESTINATION_INSTANCE_ID = Identificatore univoco per l'istanza di destinazione.
  • NOME_SANDBOX = Nome dell'ambiente sandbox.
  • NOME_ORGANIZZAZIONE = Nome dell'organizzazione.

Risposta

accordion
Crea flusso di dati - Risposta
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}

Prendi nota dell’ID del flusso di dati dalla risposta. Questo ID sarà necessario nel passaggio successivo quando si recupera il flusso di dati eseguito per convalidare le esportazioni del set di dati corrette.

Ottenere l’esecuzione del flusso di dati get-dataflow-runs

Diagramma che mostra il passaggio 6 nel flusso di lavoro per lesportazione dei set di dati

Per verificare le esecuzioni di un flusso di dati, utilizza l’API Esecuzioni flusso di dati:

Richiesta

Ottieni esecuzioni flusso di dati - Richiesta

Nella richiesta di recupero del flusso di dati viene eseguito, aggiungi come parametro di query l’ID del flusso di dati ottenuto nel passaggio precedente, durante la creazione del flusso di dati.

code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/runs?property=flowId==eb54b3b3-3949-4f12-89c8-64eafaba858f' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \

Risposta

Ottieni esecuzioni del flusso di dati - Risposta
code language-json
{
    "items": [
        {
            "id": "4b7728dd-83c9-4c38-95a4-24ddab545404",
            "createdAt": 1675807718296,
            "updatedAt": 1675807731834,
            "createdBy": "aep_activation_batch@AdobeID",
            "updatedBy": "acp_foundation_connectors@AdobeID",
            "createdClient": "aep_activation_batch",
            "updatedClient": "acp_foundation_connectors",
            "sandboxId": "7dfdcd30-0a09-11ea-8ea6-7bf93ce86c28",
            "sandboxName": "sand-1",
            "imsOrgId": "5555467B5D8013E50A494220@AdobeOrg",
            "flowId": "aae5ec63-b0ac-4808-9a44-abf2ea67bd5a",
            "flowSpec": {
                "id": "615d3489-36d2-4671-9467-4ae1129facd3",
                "version": "1.0"
            },
            "providerRefId": "ba56f98e0c49b572adb249980c39b1c7",
            "etag": "\"08005e9e-0000-0200-0000-63e2cbf30000\"",
            "metrics": {
                "durationSummary": {
                    "startedAtUTC": 1675807719411,
                    "completedAtUTC": 1675807719416
                },
                "sizeSummary": {
                    "inputBytes": 0
                },
                "recordSummary": {
                    "inputRecordCount": 0,
                    "skippedRecordCount": 0,
                    "sourceSummaries": [
                        {
                            "id": "ea2b1205-4692-49de-b448-ebf75b1d188a",
                            "inputRecordCount": 0,
                            "skippedRecordCount": 0,
                            "entitySummaries": [
                                {
//...

Nella documentazione di riferimento API sono disponibili informazioni sui vari parametri restituiti dal flusso di dati esegue l'API.

Verificare l’esportazione del set di dati verify

Durante l'esportazione dei set di dati, Experience Platform crea un file .json o .parquet nel percorso di archiviazione fornito. Prevedi che un nuovo file venga depositato nel percorso di archiviazione in base alla pianificazione di esportazione fornita quando crei un flusso di dati.

In Experience Platform viene creata una struttura di cartelle nel percorso di archiviazione specificato, in cui vengono depositati i file del set di dati esportati. Per ogni esportazione viene creata una nuova cartella, seguendo il modello riportato di seguito:

folder-name-you-provided/datasetID/exportTime=YYYYMMDDHHMM

Il nome di file predefinito viene generato in modo casuale e garantisce che i nomi di file esportati siano univoci.

File di set di dati di esempio sample-files

La presenza di questi file nel percorso di archiviazione conferma la riuscita dell’esportazione. Per comprendere la struttura dei file esportati, è possibile scaricare un file .parquet di esempio o .json.

File di set di dati compressi compressed-dataset-files

Nel passaggio per creare una connessione di destinazione, puoi selezionare i file del set di dati esportati da comprimere.

Quando vengono compressi, si noti la differenza di formato tra i due tipi di file:

  • Durante l'esportazione di file JSON compressi, il formato del file esportato è json.gz
  • Durante l'esportazione di file parquet compressi, il formato del file esportato è gz.parquet
  • I file JSON possono essere esportati solo in modalità compressa.

Gestione degli errori API api-error-handling

Gli endpoint API in questa esercitazione seguono i principi generali dei messaggi di errore API di Experience Platform. Per ulteriori informazioni sull'interpretazione delle risposte di errore, consultare codici di stato API e errori di intestazione della richiesta nella guida alla risoluzione dei problemi di Platform.

Domande frequenti faq

Visualizza un elenco di domande frequenti sulle esportazioni dei set di dati.

Passaggi successivi next-steps

Seguendo questa esercitazione, Platform è stato connesso correttamente a una delle destinazioni preferite per l’archiviazione cloud batch e hai impostato un flusso di dati per la rispettiva destinazione per esportare i set di dati. Per ulteriori dettagli, vedi le pagine seguenti, ad esempio come modificare i flussi di dati esistenti utilizzando l’API del servizio Flusso:

7f4d1967-bf93-4dba-9789-bb6b505339d6