Exportieren von Datensätzen mithilfe des Flow Service API

AVAILABILITY
  • Diese Funktion steht Kunden zur Verfügung, die das Real-Time CDP Prime- und Ultimate-Package, Adobe Journey Optimizer oder Customer Journey Analytics erworben haben. Wenden Sie sich für weitere Informationen an Ihren Adobe-Support-Mitarbeiter.
IMPORTANT
Aktionselement: In der Experience Platform🔗 -Version vom September 2024 ist die Option zum Festlegen eines endTime -Datums für den Export von Datensatz-Datenflüssen eingeführt. Adobe führt außerdem ein standardmäßiges Enddatum vom 1. Mai 2025 für alle Datenfluss-Datenflüsse ein, die vor der September-Version ** erstellt wurden. Für jeden dieser Datenflüsse müssen Sie das Enddatum im Datenfluss manuell vor dem Enddatum aktualisieren. Andernfalls werden Ihre Exporte für dieses Datum beendet. Verwenden Sie die Experience Platform-Benutzeroberfläche, um anzuzeigen, welche Datenflüsse am 1. Mai angehalten werden sollen.
Gleichermaßen gilt für alle Datenflüsse, die Sie erstellen, ohne ein endTime -Datum anzugeben, dass sie standardmäßig sechs Monate nach ihrer Erstellung auf eine Endzeit festgelegt werden.

In diesem Artikel wird der Workflow erläutert, der erforderlich ist, um Flow Service API zum Exportieren von Datensätzen aus Adobe Experience Platform in Ihren bevorzugten Cloud-Speicher zu verwenden, z. B. Amazon S3, SFTP-Speicherorte oder Google Cloud Storage.

TIP
Sie können Datensätze auch über die Experience Platform-Benutzeroberfläche exportieren. Weitere Informationen finden Sie im Tutorial 🔗 zur Benutzeroberfläche von Datensätzen exportieren .

Für den Export verfügbare Datensätze datasets-to-export

Die Datensätze, die Sie exportieren können, hängen von der Experience Platform-Anwendung (Real-Time CDP, Adobe Journey Optimizer), der Ebene (Prime oder Ultimate) und den von Ihnen gekauften Add-ons (z. B. Data Distiller) ab.

In der Tabelle auf der Benutzeroberflächen-Tutorial-Seite erfahren Sie, welche Datensätze exportiert werden können.

Unterstützte Ziele supported-destinations

Derzeit können Sie Datensätze zu den im Screenshot hervorgehobenen und unten aufgeführten Cloud-Speicher-Zielen exportieren.

Ziele, die Datensatzexporte unterstützen

Erste Schritte get-started

Überblick - die Schritte zum Erstellen eines Ziels und Exportieren von Datensätzen

Dieses Handbuch setzt ein Verständnis der folgenden Komponenten von Adobe Experience Platform voraus:

  • Experience Platform datasets: Alle Daten, die erfolgreich in Adobe Experience Platform aufgenommen wurden, bleiben im Data Lake als Datensätze erhalten. Ein Datensatz ist ein Konstrukt zur Datenspeicherung und -verwaltung, in dem Daten (in der Regel) in einer Tabelle erfasst werden, die ein Schema (Spalten) und Felder (Zeilen) beinhaltet. Datensätze enthalten auch Metadaten, die verschiedene Aspekte der in ihnen gespeicherten Daten beschreiben.
    • Sandboxes: Experience Platform bietet virtuelle Sandboxes, die eine einzelne Platform-Instanz in separate virtuelle Umgebungen unterteilen, damit Sie Programme für digitale Erlebnisse besser entwickeln und weiterentwickeln können.

Die folgenden Abschnitte enthalten zusätzliche Informationen, die Sie kennen müssen, um Datensätze in Cloud-Speicher-Ziele in Platform zu exportieren.

Erforderliche Berechtigungen permissions

Zum Exportieren von Datensätzen benötigen Sie die Berechtigungen Ziele anzeigen, Datensätze anzeigen und Datensatzziele verwalten und aktivieren Zugriffskontrolle. Lesen Sie die Übersicht über die Zugriffskontrolle oder wenden Sie sich an Ihren Produktadministrator, um die erforderlichen Berechtigungen zu erhalten.

Um sicherzustellen, dass Sie über die erforderlichen Berechtigungen zum Exportieren von Datensätzen verfügen und dass das Ziel den Export von Datensätzen unterstützt, durchsuchen Sie den Zielkatalog. Wenn ein Ziel über die Steuerung Aktivieren oder Datensätze exportieren verfügt, dann haben Sie die entsprechenden Berechtigungen.

Lesen von Beispiel-API-Aufrufen reading-sample-api-calls

In diesem Tutorial wird anhand von Beispielen für API-Aufrufe die korrekte Formatierung von Anfragen aufgezeigt. Dazu gehören Pfade, erforderliche Kopfzeilen und ordnungsgemäß formatierte Anfrage-Payloads. Außerdem wird ein Beispiel für eine von der API im JSON-Format zurückgegebene Antwort bereitgestellt. Informationen zu den Konventionen, die in der Dokumentation für Beispiel-API-Aufrufe verwendet werden, finden Sie im Abschnitt zum Lesen von Beispiel-API-Aufrufen im Handbuch zur Fehlerbehebung für Experience Platform

Sammeln der Werte für erforderliche und optionale Kopfzeilen gather-values-headers

Um Platform -APIs aufrufen zu können, müssen Sie zunächst das Tutorial zur Experience Platform-Authentifizierung 2} abschließen.Durch Abschluss des Authentifizierungs-Tutorials werden die Werte für die einzelnen erforderlichen Header in allen Experience Platform-API-Aufrufen bereitgestellt, wie unten dargestellt:

  • Authorization: Bearer {ACCESS_TOKEN}
  • x-api-key: {API_KEY}
  • x-gw-ims-org-id: {ORG_ID}

Ressourcen in Experience Platform lassen sich in spezifischen virtuellen Sandboxes isolieren. Bei Anfragen an Platform-APIs können Sie den Namen und die ID der Sandbox angeben, in der der Vorgang ausgeführt werden soll. Dies sind optionale Parameter.

  • x-sandbox-name: {SANDBOX_NAME}
NOTE
Weitere Informationen zu Sandboxes in Experience Platform finden Sie in der Sandbox-Übersichtsdokumentation.

Bei allen Anfragen, die eine Payload enthalten (POST, PUT, PATCH), ist eine zusätzliche Medientyp-Kopfzeile erforderlich:

  • Content-Type: application/json

API-Referenzdokumentation api-reference-documentation

Eine zugehörige Referenzdokumentation für alle API-Vorgänge finden Sie in diesem Tutorial. Weitere Informationen finden Sie in der Dokumentation zur API für Ziele Flow Service - auf der Adobe Developer-Website. Wir empfehlen, dass Sie dieses Tutorial und die API-Referenzdokumentation parallel verwenden.

Glossar glossary

Beschreibungen der Begriffe, auf die Sie in diesem API-Tutorial treffen werden, finden Sie im Abschnitt Glossar Abschnitt der API-Referenzdokumentation.

Zusammenstellen von Verbindungs- und Flussspezifikationen für Ihr gewünschtes Ziel gather-connection-spec-flow-spec

Bevor Sie mit dem Workflow zum Exportieren eines Datensatzes beginnen, identifizieren Sie die Verbindungsspezifikationen und Flussspezifikations-IDs des Ziels, an das Sie Datensätze exportieren möchten. Verwenden Sie die nachstehende Tabelle als Referenz.

Ziel
Verbindungsspezifikation
Flussspezifikation
Amazon S3
4fce964d-3f37-408f-9778-e597338a21ee
269ba276-16fc-47db-92b0-c1049a3c131f
Azure Blob Storage
6d6b59bf-fb58-4107-9064-4d246c0e5bb2
95bd8965-fc8a-4119-b9c3-944c2c2df6d2
Azure Data Lake Gen 2(ADLS Gen2)
be2c3209-53bc-47e7-ab25-145db8b873e1
17be2013-2549-41ce-96e7-a70363bec293
Data Landing Zone(DLZ)
10440537-2a7b-4583-ac39-ed38d4b848e8
cd2fc47e-e838-4f38-a581-8fff2f99b63a
Google Cloud Storage
c5d93acb-ea8b-4b14-8f53-02138444ae99
585c15c4-6cbf-4126-8f87-e26bff78b657
SFTP
36965a81-b1c6-401b-99f8-22508f1e6a26
354d6aad-4754-46e4-a576-1b384561c440

Sie benötigen diese IDs, um verschiedene Flow Service -Entitäten zu erstellen. Sie müssen auch auf Teile des Connection Spec selbst verweisen, um bestimmte Entitäten einzurichten, damit Sie den Connection Spec von Flow Service APIs abrufen können. Siehe die folgenden Beispiele zum Abrufen von Verbindungsspezifikationen für alle Ziele in der Tabelle:

Amazon S3

Anfrage

accordion
Abrufen connection spec für Amazon S3
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/4fce964d-3f37-408f-9778-e597338a21ee' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Antwort

accordion
Amazon S3 - Verbindungsspezifikation
code language-json
{
    "items": [
        {
            "id": "4fce964d-3f37-408f-9778-e597338a21ee",
            "name": "Amazon S3",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
Azure-Blobspeicher

Anfrage

accordion
Abrufen connection spec für Azure Blob Storage
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/6d6b59bf-fb58-4107-9064-4d246c0e5bb2' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Antwort

accordion
Azure Blob Storage – Connection spec
code language-json
{
    "items": [
        {
            "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2",
            "name": "Azure Blob Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
Azure Data Lake Gen 2 (ADLS Gen2)

Anfrage

accordion
Abrufen connection spec für Azure Data Lake Gen 2(ADLS Gen2)
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/be2c3209-53bc-47e7-ab25-145db8b873e1' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Antwort

accordion
Azure Data Lake Gen 2(ADLS Gen2) – Connection spec
code language-json
{
    "items": [
        {
            "id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
            "name": "Azure Data Lake Gen2",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
Data Landing Zone(DLZ)

Anfrage

accordion
Abrufen connection spec für Data Landing Zone(DLZ)
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/10440537-2a7b-4583-ac39-ed38d4b848e8' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Antwort

accordion
Data Landing Zone(DLZ) – Connection spec
code language-json
{
    "items": [
        {
            "id": "10440537-2a7b-4583-ac39-ed38d4b848e8",
            "name": "Data Landing Zone",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
Google Cloud Storage

Anfrage

accordion
Abrufen connection spec für Google Cloud Storage
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/c5d93acb-ea8b-4b14-8f53-02138444ae99' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Antwort

accordion
Google Cloud Storage – Connection spec
code language-json
{
    "items": [
        {
            "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
            "name": "Google Cloud Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...
SFTP

Anfrage

accordion
Abrufen connection spec für SFTP
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/36965a81-b1c6-401b-99f8-22508f1e6a26' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Antwort

accordion
SFTP - Connection spec
code language-json
{
    "items": [
        {
            "id": "36965a81-b1c6-401b-99f8-22508f1e6a26",
            "name": "SFTP",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
//...

Gehen Sie wie folgt vor, um einen Datensatz-Datenfluss zu einem Cloud-Speicher-Ziel einzurichten. Bei einigen Schritten unterscheiden sich die Anforderungen und Antworten zwischen den verschiedenen Cloud-Speicher-Zielen. Verwenden Sie in diesen Fällen die Registerkarten auf der Seite, um die Anforderungen und Antworten abzurufen, die spezifisch für das Ziel sind, mit dem Sie Datensätze verbinden und exportieren möchten. Verwenden Sie unbedingt die korrekten connection spec und flow spec für das Ziel, das Sie konfigurieren.

Liste von Datensätzen abrufen retrieve-list-of-available-datasets

Diagramm mit Schritt 1 im Workflow für Exportdatensätze

Um eine Liste von Datensätzen abzurufen, die für die Aktivierung infrage kommen, führen Sie zunächst einen API-Aufruf an den unten stehenden Endpunkt durch.

recommendation-more-help

Anfrage

Abrufen zulässiger Datensätze - Anfrage
code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/23598e46-f560-407b-88d5-ea6207e49db0/configs?outputType=activationDatasets&outputField=datasets&start=0&limit=20&properties=name,state' \
--header 'accept: application/json' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-api-key: {API_KEY}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'

Beachten Sie, dass zum Abrufen berechtigter Datensätze die in der Anfrage-URL verwendete connection spec-ID die Data Lake-Quell-Verbindungsspezifikations-ID, 23598e46-f560-407b-88d5-ea6207e49db0 und die beiden Abfrageparameter outputField=datasets und outputType=activationDatasets angegeben werden müssen. Alle anderen Abfrageparameter sind die Standardparameter, die von der Catalog Service API unterstützt werden.

Antwort

Datensätze abrufen - Antwort
code language-json
{
    "items": [
        {
            "id": "5ef3e324052581191aa6a466",
            "name": "AAM Authenticated Profiles Meta Data",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        },
        {
            "id": "5ef3e3259ad2a1191ab7dd7d",
            "name": "AAM Devices Data",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        },
        {
            "id": "5ef3e325582424191b1beb42",
            "name": "AAM Devices Profile Meta Data",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        },
        {
            "id": "5ef3e328582424191b1beb44",
            "name": "AAM Realtime",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        },
        {
            "id": "5ef3e328fe742a191b2b3ea5",
            "name": "AAM Realtime Profile Updates",
            "description": "Activation profile export dataset",
            "fileDescription": {
                "persisted": true,
                "containerFormat": "parquet",
                "format": "parquet"
            },
            "aspect": "production",
            "state": "DRAFT"
        }
    ],
    "pageInfo": {
        "start": 0,
        "end": 4,
        "total": 149,
        "hasNext": true
    }
}

Eine erfolgreiche Antwort enthält eine Liste von Datensätzen, die für die Aktivierung infrage kommen. Diese Datensätze können beim Erstellen der Quellverbindung im nächsten Schritt verwendet werden.

Informationen zu den verschiedenen Antwortparametern für jeden zurückgegebenen Datensatz finden Sie in der Entwicklerdokumentation für die Datensatz-API .

Erstellen einer Quellverbindung create-source-connection

Diagramm mit Schritt 2 im Workflow für Exportdatensätze

Nachdem Sie die Liste der Datensätze abgerufen haben, die Sie exportieren möchten, können Sie mit diesen Datensatz-IDs eine Quellverbindung erstellen.

Anfrage

Quellverbindung erstellen - Anfrage

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-16
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/sourceConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
  "name": "Connecting to Data Lake",
  "description": "Data Lake source connection to export datasets",
  "connectionSpec": {
    "id": "23598e46-f560-407b-88d5-ea6207e49db0", // this connection spec ID is always the same for Source Connections
    "version": "1.0"
  },
  "params": {
    "datasets": [ // datasets to activate
      {
        "dataSetId": "5ef3e3259ad2a1191ab7dd7d",
        "name": "AAM Devices Data"
      }
    ]
  }
}'

Antwort

Quellverbindung erstellen - Antwort
code language-json
{
    "id": "900df191-b983-45cd-90d5-4c7a0326d650",
    "etag": "\"0500ebe1-0000-0200-0000-63e28d060000\""
}

Eine erfolgreiche Antwort gibt die Kennung (id) der neu erstellten Quellverbindung und eine etag zurück. Notieren Sie sich die Kennung der Quellverbindung, wie Sie sie später beim Erstellen des Datenflusses benötigen.

Beachten Sie auch Folgendes:

  • Die in diesem Schritt erstellte Quellverbindung muss mit einem Datenfluss verknüpft werden, damit seine Datensätze für ein Ziel aktiviert werden. Informationen zum Verknüpfen einer Quellverbindung mit einem Datenfluss finden Sie im Abschnitt Erstellen eines Datenflusses .
  • Die Datensatz-IDs einer Quellverbindung können nach der Erstellung nicht mehr geändert werden. Wenn Sie Datensätze zu einer Quellverbindung hinzufügen oder daraus entfernen müssen, müssen Sie eine neue Quellverbindung erstellen und die Kennung der neuen Quellverbindung mit dem Datenfluss verknüpfen.

Erstellen einer Basisverbindung (Ziel) create-base-connection

Diagramm mit Schritt 3 im Workflow für Exportdatensätze

Eine Basisverbindung speichert die Anmeldeinformationen sicher in Ihrem Ziel. Je nach Zieltyp können die für die Authentifizierung an diesem Ziel erforderlichen Anmeldeinformationen variieren. Um diese Authentifizierungsparameter zu finden, rufen Sie zunächst die connection spec für Ihr gewünschtes Ziel ab, wie im Abschnitt Verbindungsspezifikationen und Flussspezifikationen sammeln beschrieben, und überprüfen Sie dann die authSpec der Antwort. Referenzieren Sie die folgenden Registerkarten für die authSpec -Eigenschaften aller unterstützten Ziele.

Amazon S3
accordion
Amazon S3 - Connection spec mit auth spec

Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im Beispiel connection spec unten, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "4fce964d-3f37-408f-9778-e597338a21ee",
            "name": "Amazon S3",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "Access Key",
                    "type": "KeyBased",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "Defines auth params required for connecting to amazon-s3",
                        "type": "object",
                        "properties": {
                            "s3AccessKey": {
                                "description": "Access key id",
                                "type": "string",
                                "pattern": "^[A-Z2-7]{20}$"
                            },
                            "s3SecretKey": {
                                "description": "Secret access key for the user account",
                                "type": "string",
                                "format": "password",
                                "pattern": "^[A-Za-z0-9\/+]{40}$"
                            }
                        },
                        "required": [
                            "s3SecretKey",
                            "s3AccessKey"
                        ]
                    }
                }
            ],
//...
Azure-Blobspeicher
accordion
Azure Blob Storage - Connection spec mit auth spec

Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im Beispiel connection spec unten, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2",
            "name": "Azure Blob Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "ConnectionString",
                    "type": "ConnectionString",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "Connection String for Azure Blob based destinations",
                        "type": "object",
                        "properties": {
                            "connectionString": {
                                "description": "connection string for login",
                                "type": "string",
                                "format": "password"
                            }
                        },
                        "required": [
                            "connectionString"
                        ]
                    }
                }
            ],
//...
Azure Data Lake Gen 2 (ADLS Gen2)
accordion
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec mit auth spec

Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im Beispiel connection spec unten, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
            "name": "Azure Data Lake Gen2",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "Azure Service Principal Auth",
                    "type": "AzureServicePrincipal",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "defines auth params required for connecting to adlsgen2 using service principal",
                        "type": "object",
                        "properties": {
                            "url": {
                                "description": "Endpoint for Azure Data Lake Storage Gen2.",
                                "type": "string"
                            },
                            "servicePrincipalId": {
                                "description": "Service Principal Id to connect to ADLSGen2.",
                                "type": "string"
                            },
                            "servicePrincipalKey": {
                                "description": "Service Principal Key to connect to ADLSGen2.",
                                "type": "string",
                                "format": "password"
                            },
                            "tenant": {
                                "description": "Tenant information(domain name or tenant ID).",
                                "type": "string"
                            }
                        },
                        "required": [
                            "servicePrincipalKey",
                            "url",
                            "tenant",
                            "servicePrincipalId"
                        ]
                    }
                }
            ],
//...
Data Landing Zone(DLZ)
accordion
Data Landing Zone(DLZ) - Connection spec mit auth spec
note note
NOTE
Für das Data Landing Zone-Ziel ist kein auth spec erforderlich.
code language-json
{
    "items": [
        {
            "id": "10440537-2a7b-4583-ac39-ed38d4b848e8",
            "name": "Data Landing Zone",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [],
//...
Google Cloud Storage
accordion
Google Cloud Storage - Connection spec mit auth spec

Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im Beispiel connection spec unten, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
            "name": "Google Cloud Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "Google Cloud Storage authentication credentials",
                    "type": "GoogleCloudStorageAuth",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "defines auth params required for connecting to google cloud storage connector.",
                        "type": "object",
                        "properties": {
                            "accessKeyId": {
                                "description": "Access Key Id for the user account",
                                "type": "string"
                            },
                            "secretAccessKey": {
                                "description": "Secret Access Key for the user account",
                                "type": "string",
                                "format": "password"
                            }
                        },
                        "required": [
                            "accessKeyId",
                            "secretAccessKey"
                        ]
                    }
                }
            ],
//...
SFTP
accordion
SFTP - Connection spec mit auth spec anzeigen
note note
NOTE
Das SFTP-Ziel enthält zwei separate Elemente in der auth spec, da es die Authentifizierung von Passwörtern und SSH-Schlüsseln unterstützt.

Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im Beispiel connection spec unten, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.

code language-json line-numbers data-start-1 data-line-offset-4 h-8
{
    "items": [
        {
            "id": "36965a81-b1c6-401b-99f8-22508f1e6a26",
            "name": "SFTP",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [ // describes the authentication parameters
                {
                    "name": "SFTP with Password",
                    "type": "SFTP",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "defines auth params required for connecting to sftp locations with a password",
                        "type": "object",
                        "properties": {
                            "domain": {
                                "description": "Domain of server",
                                "type": "string"
                            },
                            "username": {
                                "description": "Username",
                                "type": "string"
                            },
                            "password": {
                                "description": "Password",
                                "type": "string",
                                "format": "password"
                            }
                        },
                        "required": [
                            "password",
                            "domain",
                            "username"
                        ]
                    }
                },
                {
                    "name": "SFTP with SSH Key",
                    "type": "SFTP",
                    "spec": {
                        "$schema": "http://json-schema.org/draft-07/schema#",
                        "description": "defines auth params required for connecting to sftp locations using SSH Key",
                        "type": "object",
                        "properties": {
                            "domain": {
                                "description": "Domain of server",
                                "type": "string"
                            },
                            "username": {
                                "description": "Username",
                                "type": "string"
                            },
                            "sshKey": {
                                "description": "Base64 string of the private SSH key",
                                "type": "string",
                                "format": "password",
                                "contentEncoding": "base64",
                                "uiAttributes": {
                                    "tooltip": {
                                        "id": "platform_destinations_connect_sftp_ssh",
                                        "fallbackUrl": "http://www.adobe.com/go/destinations-sftp-connection-parameters-en "
                                    }
                                }
                            }
                        },
                        "required": [
                            "sshKey",
                            "domain",
                            "username"
                        ]
                    }
                }
            ],
//...

Mithilfe der in der Authentifizierungsspezifikation angegebenen Eigenschaften (d. h. authSpec aus der Antwort) können Sie eine Basisverbindung mit den erforderlichen Anmeldeinformationen erstellen, die für jeden Zieltyp spezifisch sind, wie in den folgenden Beispielen dargestellt:

Amazon S3

Anfrage

accordion
Amazon S3 - Grundlegende Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Authentifizierungsberechtigungen finden Sie im Abschnitt Authentifizierung für das Ziel der Zieldokumentation für Amazon S3.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Amazon S3 Base Connection",
  "auth": {
    "specName": "Access Key",
    "params": {
      "s3SecretKey": "<Add secret key>",
      "s3AccessKey": "<Add access key>"
    }
  },
  "connectionSpec": {
    "id": "4fce964d-3f37-408f-9778-e597338a21ee", // Amazon S3 connection spec
    "version": "1.0"
  }
}'

Antwort

accordion
Amazon S3 Antwort auf Basisverbindung
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Azure-Blobspeicher

Anfrage

accordion
Azure Blob Storage - Grundlegende Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Authentifizierungsberechtigungen finden Sie im Abschnitt Für Ziel authentifizieren der Azure Blob Storage-Zieldokumentation.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-16
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Azure Blob Storage Base Connection",
  "auth": {
    "specName": "ConnectionString",
    "params": {
      "connectionString": "<Add Azure Blob connection string>"
    }
  },
  "connectionSpec": {
    "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2", // Azure Blob Storage connection spec
    "version": "1.0"
  }
}'

Antwort

accordion
Azure Blob Storage - Antwort auf Basisverbindung
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Azure Data Lake Gen 2 (ADLS Gen2)

Anfrage

accordion
Azure Data Lake Gen 2(ADLS Gen2) - Grundlegende Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Authentifizierungsberechtigungen finden Sie im Abschnitt Authentifizierung für Ziel der Zieldokumentation für Azure Data Lake Gen 2 (ADLS Gen2).

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-20
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Azure Data Lake Gen 2(ADLS Gen2) Base Connection",
  "auth": {
    "specName": "Azure Service Principal Auth",
    "params": {
      "servicePrincipalKey": "<Add servicePrincipalKey>",
      "url": "<Add url>",
      "tenant": "<Add tenant>",
      "servicePrincipalId": "<Add servicePrincipalId>"
    }
  },
  "connectionSpec": {
    "id": "be2c3209-53bc-47e7-ab25-145db8b873e1", // Azure Data Lake Gen 2(ADLS Gen2) connection spec
    "version": "1.0"
  }
}'

Antwort

accordion
Azure Data Lake Gen 2(ADLS Gen2) - Antwort auf Basisverbindung
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Data Landing Zone(DLZ)

Anfrage

accordion
Data Landing Zone(DLZ) - Grundlegende Verbindungsanforderung
note tip
TIP
Für das Data Landing Zone-Ziel sind keine Authentifizierungsberechtigungen erforderlich. Weitere Informationen finden Sie im Abschnitt Authentifizierung für Ziel der Zieldokumentation für die Dateneinstiegszone.
code language-shell
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Data Landing Zone(DLZ) Base Connection"
}'

Antwort

accordion
Data Landing Zone - Antwort auf Basisverbindung
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Google Cloud Storage

Anfrage

accordion
Google Cloud Storage - Grundlegende Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Authentifizierungsberechtigungen finden Sie im Abschnitt Für Ziel authentifizieren der Dokumentation zum Google Cloud-Speicher-Ziel.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "Google Cloud Storage Base Connection",
  "auth": {
    "specName": "Google Cloud Storage authentication credentials",
    "params": {
      "accessKeyId": "<Add accessKeyId>",
      "secretAccessKey": "<Add secret Access Key>"
    }
  },
  "connectionSpec": {
    "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99", // Google Cloud Storage connection spec
    "version": "1.0"
  }
}'

Antwort

accordion
Google Cloud Storage - Antwort auf Basisverbindung
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
SFTP

Anfrage

accordion
SFTP mit Passwort - Grundlegende Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Authentifizierungsberechtigungen finden Sie im Abschnitt Für Ziel authentifizieren der Dokumentation zum SFTP-Ziel.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "SFTP with password Base Connection",
  "auth": {
    "specName": "SFTP with Password",
    "params": {
      "domain": "<Add domain>",
      "username": "<Add username>",
      "password": "<Add password>"
    }
  },
  "connectionSpec": {
    "id": "36965a81-b1c6-401b-99f8-22508f1e6a26", // SFTP connection spec
    "version": "1.0"
  }
}'
accordion
SFTP mit SSH-Schlüssel - Basis-Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Authentifizierungsberechtigungen finden Sie im Abschnitt Für Ziel authentifizieren der Dokumentation zum SFTP-Ziel.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
  "name": "SFTP with SSH key Base Connection",
  "auth": {
    "specName": "SFTP with SSH Key",
    "params": {
      "domain": "<Add domain>",
      "username": "<Add username>",
      "sshKey": "<Add SSH key>"
    }
  },
  "connectionSpec": {
    "id": "36965a81-b1c6-401b-99f8-22508f1e6a26", // SFTP connection spec
    "version": "1.0"
  }
}'

Antwort

accordion
SFTP - Antwort auf Basisverbindung
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}

Notieren Sie die Verbindungs-ID aus der Antwort. Diese ID ist im nächsten Schritt beim Erstellen der Zielverbindung erforderlich.

Erstellen einer Zielverbindung create-target-connection

Diagramm mit Schritt 4 im Workflow für Exportdatensätze

Als Nächstes müssen Sie eine Zielverbindung erstellen, in der die Exportparameter für Ihre Datensätze gespeichert werden. Zu den Exportparametern gehören Speicherort, Dateiformat, Komprimierung und andere Details. Informationen zu den unterstützten Eigenschaften für die einzelnen Zieltypen finden Sie in den Eigenschaften für targetSpec der Verbindungsspezifikation des Ziels. Referenzieren Sie die folgenden Registerkarten für die targetSpec -Eigenschaften aller unterstützten Ziele.

IMPORTANT
Exporte in JSON-Dateien werden nur im komprimierten Modus unterstützt. Exporte in Parquet -Dateien werden sowohl im komprimierten als auch im unkomprimierten Modus unterstützt.
Das Format der exportierten JSON-Datei ist NDJSON, das standardmäßige Austauschformat im Big Data-Ökosystem. Adobe empfiehlt die Verwendung eines NDJSON-kompatiblen Clients zum Lesen der exportierten Dateien.
Amazon S3
accordion
Amazon S3 - Connection spec zeigt Zielverbindungsparameter an

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Beispiel unten connection spec , die zusätzliche Informationen darüber enthalten, wo die Parameter target spec in der Verbindungsspezifikation zu finden sind. Im Beispiel unten sehen Sie auch, welche Zielparameter für die Datenexport-Ziele des Datensatzes nicht gelten.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-41 h-56
{
    "items": [
        {
            "id": "4fce964d-3f37-408f-9778-e597338a21ee",
            "name": "Amazon S3",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "bucketName": {
                            "title": "Bucket name",
                            "description": "Bucket name",
                            "type": "string",
                            "pattern": "(?=^.{3,63}$)(?!^(\\d+\\.)+\\d+$)(^(([a-z0-9]|[a-z0-9][a-z0-9\\-]*[a-z0-9])\\.)*([a-z0-9]|[a-z0-9][a-z0-9\\-]*[a-z0-9])$)",
                            "uiAttributes": {
                                "tooltip": {
                                    "id": "platform_destinations_connect_s3_bucket",
                                    "fallbackUrl": "http://www.adobe.com/go/destinations-amazon-s3-connection-parameters-en"
                                }
                            }
                        },
                        "path": {
                            "title": "Folder path",
                            "description": "Output path for copying files",
                            "type": "string",
                            "pattern": "^[0-9a-zA-Z\/\\!\\-_\\.\\*\\''\\(\\)]*((\\%SEGMENT_(NAME|ID)\\%)?\/?)+$",
                            "uiAttributes": {
                                "tooltip": {
                                    "id": "platform_destinations_connect_s3_folderpath",
                                    "fallbackUrl": "http://www.adobe.com/go/destinations-amazon-s3-connection-parameters-en"
                                }
                            }
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions": {...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "NONE",
                                "GZIP"
                            ]
                        }
                    },
                    "required": [
                        "bucketName",
                        "path",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                }
//...
Azure-Blobspeicher
accordion
Azure Blob Storage - Connection spec zeigt Zielverbindungsparameter an

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Beispiel unten connection spec , die zusätzliche Informationen darüber enthalten, wo die Parameter target spec in der Verbindungsspezifikation zu finden sind. Im Beispiel unten sehen Sie auch, welche Zielparameter für die Datenexport-Ziele des Datensatzes nicht gelten.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-29 h-44
{
    "items": [
        {
            "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2",
            "name": "Azure Blob Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "path": {
                            "title": "Folder path",
                            "description": "Output path (relative) indicating where to upload the data",
                            "type": "string",
                            "pattern": "^[0-9a-zA-Z\/\\!\\-_\\.\\*\\'\\(\\)]+$"
                        },
                        "container": {
                            "title": "Container",
                            "description": "Container within the storage where to upload the data",
                            "type": "string",
                            "pattern": "^[a-z0-9](?!.*--)[a-z0-9-]{1,61}[a-z0-9]$"
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions": {...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "NONE",
                                "GZIP"
                            ]
                        }
                    },
                    "required": [
                        "container",
                        "path",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                }
//...
Azure Data Lake Gen 2 (ADLS Gen2)
accordion
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec zeigt Zielverbindungsparameter an

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Beispiel unten connection spec , die zusätzliche Informationen darüber enthalten, wo die Parameter target spec in der Verbindungsspezifikation zu finden sind. Im Beispiel unten sehen Sie auch, welche Zielparameter für die Datenexport-Ziele des Datensatzes nicht gelten.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-22 h-37
{
    "items": [
        {
            "id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
            "name": "Azure Data Lake Gen2",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "path": {
                            "title": "Folder path",
                            "description": "Enter the path to your Azure Data Lake Storage folder",
                            "type": "string"
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions":{...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "NONE",
                                "GZIP"
                            ]
                        }
                    },
                    "required": [
                        "path",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                }
//...
Data Landing Zone(DLZ)
accordion
Data Landing Zone(DLZ) - Connection spec zeigt Zielverbindungsparameter an

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Beispiel unten connection spec , die zusätzliche Informationen darüber enthalten, wo die Parameter target spec in der Verbindungsspezifikation zu finden sind. Im Beispiel unten sehen Sie auch, welche Zielparameter für die Datenexport-Ziele des Datensatzes nicht gelten.

code language-json line-numbers data-start-1 data-line-offset-4 h-9 h-21 h-36
"items": [
    {
        "id": "10440537-2a7b-4583-ac39-ed38d4b848e8",
        "name": "Data Landing Zone",
        "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
        "version": "1.0",
        "authSpec": [],
        "encryptionSpecs": [],
        "targetSpec": { // describes the target connection parameters
            "name": "User based target",
            "type": "UserNamespace",
            "spec": {
                "$schema": "http://json-schema.org/draft-07/schema#",
                "type": "object",
                "properties": {
                    "path": {
                        "title": "Folder path",
                        "description": "Enter the path to your Azure Data Lake Storage folder",
                        "type": "string"
                    },
                    "fileType": {...}, // not applicable to dataset destinations
                    "datasetFileType": {
                        "conditional": {
                            "field": "flowSpec.attributes._workflow",
                            "operator": "CONTAINS",
                            "value": "DATASETS"
                        },
                        "title": "File Type",
                        "description": "Select file format",
                        "type": "string",
                        "enum": [
                            "JSON",
                            "PARQUET"
                        ]
                    },
                    "csvOptions": {...}, // not applicable to dataset destinations
                    "compression": {
                        "title": "Compression format",
                        "description": "Select the desired file compression format.",
                        "type": "string",
                        "enum": [
                            "NONE",
                            "GZIP"
                        ]
                    }
                },
                "required": [
                    "path",
                    "datasetFileType",
                    "compression",
                    "fileType"
                ]
            }
//...
Google Cloud Storage
accordion
Google Cloud Storage - Connection spec zeigt Zielverbindungsparameter an

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Beispiel unten connection spec , die zusätzliche Informationen darüber enthalten, wo die Parameter target spec in der Verbindungsspezifikation zu finden sind. Im Beispiel unten sehen Sie auch, welche Zielparameter für die Datenexport-Ziele des Datensatzes nicht gelten.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-29 h-44
{
    "items": [
        {
            "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
            "name": "Google Cloud Storage",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "bucketName": {
                            "title": "Bucket name",
                            "description": "Bucket name",
                            "type": "string",
                            "pattern": "(?!^goog.*$)(?!^.*g(o|0)(o|0)gle.*$)(((?=^.{3,63}$)(^([a-z0-9]|[a-z0-9][a-z0-9\\-_]*)[a-z0-9]$))|((?=^.{3,222}$)(?!^(\\d+\\.)+\\d+$)(^(([a-z0-9]{1,63}|[a-z0-9][a-z0-9\\-_]{1,61}[a-z0-9])\\.)*([a-z0-9]{1,63}|[a-z0-9][a-z0-9\\-_]{1,61}[a-z0-9])$)))"
                        },
                        "path": {
                            "title": "Folder path",
                            "description": "Output path for copying files",
                            "type": "string",
                            "pattern": "^[0-9a-zA-Z\/\\!\\-_\\.\\*\\''\\(\\)]*((\\%SEGMENT_(NAME|ID)\\%)?\/?)+$"
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions": {...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "NONE",
                                "GZIP"
                            ]
                        }
                    },
                    "required": [
                        "bucketName",
                        "path",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                }
//...
SFTP
accordion
SFTP - Connection spec zeigt Zielverbindungsparameter an

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Beispiel unten connection spec , die zusätzliche Informationen darüber enthalten, wo die Parameter target spec in der Verbindungsspezifikation zu finden sind. Im Beispiel unten sehen Sie auch, welche Zielparameter für die Datenexport-Ziele des Datensatzes nicht gelten.

code language-json line-numbers data-start-1 data-line-offset-4 h-10 h-22 h-37
{
    "items": [
        {
            "id": "36965a81-b1c6-401b-99f8-22508f1e6a26",
            "name": "SFTP",
            "providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
            "version": "1.0",
            "authSpec": [...],
            "encryptionSpecs": [...],
            "targetSpec": { // describes the target connection parameters
                "name": "User based target",
                "type": "UserNamespace",
                "spec": {
                    "$schema": "http://json-schema.org/draft-07/schema#",
                    "type": "object",
                    "properties": {
                        "remotePath": {
                            "title": "Folder path",
                            "description": "Enter your folder path",
                            "type": "string"
                        },
                        "fileType": {...}, // not applicable to dataset destinations
                        "datasetFileType": {
                            "conditional": {
                                "field": "flowSpec.attributes._workflow",
                                "operator": "CONTAINS",
                                "value": "DATASETS"
                            },
                            "title": "File Type",
                            "description": "Select file format",
                            "type": "string",
                            "enum": [
                                "JSON",
                                "PARQUET"
                            ]
                        },
                        "csvOptions": {...}, // not applicable to dataset destinations
                        "compression": {
                            "title": "Compression format",
                            "description": "Select the desired file compression format.",
                            "type": "string",
                            "enum": [
                                "GZIP",
                                "NONE"
                            ]
                        }
                    },
                    "required": [
                        "remotePath",
                        "datasetFileType",
                        "compression",
                        "fileType"
                    ]
                },
//...

Mithilfe des obigen Spezifikationen können Sie eine zielgerichtete Verbindungsanforderung erstellen, die speziell auf Ihr gewünschtes Cloud-Speicher-Ziel zugeschnitten ist, wie in den Registerkarten unten dargestellt.

Amazon S3

Anfrage

accordion
Amazon S3 - Target-Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Zielparameter finden Sie im Abschnitt Zieldetails ausfüllen der Zieldokumentationsseite Amazon S3.
Weitere unterstützte Werte von datasetFileType finden Sie in der API-Referenzdokumentation.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Amazon S3 Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "bucketName": "your-bucket-name",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "4fce964d-3f37-408f-9778-e597338a21ee", // Amazon S3 connection spec id
        "version": "1.0"
    }
}'

Antwort

accordion
Target-Verbindung - Antwort
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Azure-Blobspeicher

Anfrage

accordion
Azure Blob Storage - Target-Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Zielparameter finden Sie im Abschnitt Zieldetails ausfüllen der Zieldokumentationsseite Azure Blob Storage.
Weitere unterstützte Werte von datasetFileType finden Sie in der API-Referenzdokumentation.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Azure Blob Storage Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "container": "your-container-name",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2", // Azure Blob Storage connection spec id
        "version": "1.0"
    }
}'

Antwort

accordion
Target-Verbindung - Antwort
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Azure Data Lake Gen 2 (ADLS Gen2)

Anfrage

accordion
Azure Blob Storage - Target-Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Zielparameter finden Sie im Abschnitt Zieldetails ausfüllen der Azure Data Lake Gen 2(ADLS Gen2)-Zieldokumentation.
Weitere unterstützte Werte von datasetFileType finden Sie in der API-Referenzdokumentation.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Azure Data Lake Gen 2(ADLS Gen2) Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "be2c3209-53bc-47e7-ab25-145db8b873e1", // Azure Data Lake Gen 2(ADLS Gen2) connection spec id
        "version": "1.0"
    }
}'

Antwort

accordion
Target-Verbindung - Antwort
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Data Landing Zone(DLZ)

Anfrage

accordion
Data Landing Zone - Target-Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Zielparameter finden Sie im Abschnitt Zieldetails ausfüllen der Zieldokumentationsseite Data Landing Zone.
Weitere unterstützte Werte von datasetFileType finden Sie in der API-Referenzdokumentation.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Data Landing Zone Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "10440537-2a7b-4583-ac39-ed38d4b848e8", // Data Landing Zone connection spec id
        "version": "1.0"
    }
}'

Antwort

accordion
Target-Verbindung - Antwort
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Google Cloud Storage

Anfrage

accordion
Google Cloud Storage - Target-Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Zielparameter finden Sie im Abschnitt Zieldetails ausfüllen der Zieldokumentationsseite Google Cloud Storage.
Weitere unterstützte Werte von datasetFileType finden Sie in der API-Referenzdokumentation.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-19
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Google Cloud Storage Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "bucketName": "your-bucket-name",
        "path": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "c5d93acb-ea8b-4b14-8f53-02138444ae99", // Google Cloud Storage connection spec id
        "version": "1.0"
    }
}'

Antwort

accordion
Target-Verbindung - Antwort
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
SFTP

Anfrage

accordion
SFTP - Target-Verbindungsanforderung
note tip
TIP
Informationen zum Abrufen der erforderlichen Zielparameter finden Sie im Abschnitt Ausfüllen der Zieldetails der Dokumentation zum SFTP-Ziel.
Weitere unterstützte Werte von datasetFileType finden Sie in der API-Referenzdokumentation.

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-18
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "SFTP Target Connection",
    "baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
    "params": {
        "mode": "Server-to-server",
        "remotePath": "folder/subfolder",
        "compression": "NONE",
        "datasetFileType": "JSON"
    },
    "connectionSpec": {
        "id": "36965a81-b1c6-401b-99f8-22508f1e6a26", // SFTP connection spec id
        "version": "1.0"
    }
}'

Antwort

accordion
Target-Verbindung - Antwort
code language-json
{
    "id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}

Beachten Sie die Target-Verbindungs-ID aus der Antwort. Diese ID ist im nächsten Schritt beim Erstellen des Datenflusses zum Exportieren von Datensätzen erforderlich.

Erstellen eines Datenflusses create-dataflow

Diagramm mit Schritt 5 im Workflow für Exportdatensätze

Der letzte Schritt in der Zielkonfiguration besteht darin, einen Datenfluss einzurichten. Ein Datenfluss verknüpft zuvor erstellte Entitäten und bietet außerdem Optionen zum Konfigurieren des Datensatzexport-Zeitplans. Verwenden Sie zum Erstellen des Datenflusses je nach gewünschtem Cloud-Speicher-Ziel die folgenden Payloads und ersetzen Sie die Entitäts-IDs aus vorherigen Schritten.

Amazon S3

Anfrage

accordion
Datensatz-Datenfluss zum Ziel Amazon S3 erstellen - Anfrage

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to an Amazon S3 cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to an Amazon S3 cloud storage destination",
    "flowSpec": {
        "id": "269ba276-16fc-47db-92b0-c1049a3c131f", // Amazon S3 flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt scheduleParams , mit denen Sie Exportzeiten, Häufigkeit, Ort und mehr für Ihre Datensatzexporte anpassen können.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parameter Beschreibung
exportMode Wählen Sie "DAILY_FULL_EXPORT" oder "FIRST_FULL_THEN_INCREMENTAL" aus. Weitere Informationen zu den beiden Optionen finden Sie unter vollständige Dateien exportieren und inkrementelle Dateien exportieren im Tutorial zur Aktivierung der Batch-Ziele. Die drei verfügbaren Exportoptionen sind:
Vollständige Datei - Einmal: "DAILY_FULL_EXPORT" kann nur in Kombination mit timeUnit:day und interval:0 für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Der tägliche vollständige Export von Datensätzen wird nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .
Inkrementelle tägliche Exporte: Wählen Sie "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day und interval:1 für tägliche inkrementelle Exporte.
Inkrementelle stündliche Exporte: Wählen Sie für stündliche inkrementelle Exporte "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour und interval :3, 6, 9 oder 12 aus.
timeUnit Wählen Sie je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten, day oder hour aus.
interval Wählen Sie "1", wenn der timeUnit Tag ist, und "3", "6", "9", "12", wenn die Zeiteinheit hour ist.
startTime Datum und Uhrzeit in UNIX-Sekunden, zu der die Datensatzexporte beginnen sollen.
endTime Datum und Uhrzeit in UNIX Sekunden, zu der die Datensatzexporte enden sollen.
foldernameTemplate

Geben Sie die erwartete Ordnernamenstruktur in Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden sollen.

  • DATASET_ID = Eine eindeutige Kennung für den Datensatz.
  • ZIELORT = Der Name des Ziels.
  • DATETIME = Datum und Uhrzeit, formatiert als yyyyMM_HHmmss.
  • EXPORT_TIME = Die geplante Zeit für den Datenexport, formatiert als exportTime=YYYYMMDDHHMM.
  • DESTINATION_INSTANCE_NAME = Der Name der spezifischen Instanz des Ziels.
  • DESTINATION_INSTANCE_ID = Eine eindeutige Kennung für die Zielinstanz.
  • SANDBOX_NAME = Der Name der Sandbox-Umgebung.
  • ORGANIZATION_NAME = Der Name der Organisation.

Antwort

accordion
Datenfluss erstellen - Antwort
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Azure-Blobspeicher

Anfrage

accordion
Datensatz-Datenfluss zum Ziel Azure Blob Storage erstellen - Anfrage

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to an Azure Blob Storage cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to an Azure Blob Storage cloud storage destination",
    "flowSpec": {
        "id": "95bd8965-fc8a-4119-b9c3-944c2c2df6d2", // Azure Blob Storage flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt scheduleParams , mit denen Sie Exportzeiten, Häufigkeit, Ort und mehr für Ihre Datensatzexporte anpassen können.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parameter Beschreibung
exportMode Wählen Sie "DAILY_FULL_EXPORT" oder "FIRST_FULL_THEN_INCREMENTAL" aus. Weitere Informationen zu den beiden Optionen finden Sie unter vollständige Dateien exportieren und inkrementelle Dateien exportieren im Tutorial zur Aktivierung der Batch-Ziele. Die drei verfügbaren Exportoptionen sind:
Vollständige Datei - Einmal: "DAILY_FULL_EXPORT" kann nur in Kombination mit timeUnit:day und interval:0 für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Der tägliche vollständige Export von Datensätzen wird nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .
Inkrementelle tägliche Exporte: Wählen Sie "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day und interval:1 für tägliche inkrementelle Exporte.
Inkrementelle stündliche Exporte: Wählen Sie für stündliche inkrementelle Exporte "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour und interval :3, 6, 9 oder 12 aus.
timeUnit Wählen Sie je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten, day oder hour aus.
interval Wählen Sie "1", wenn der timeUnit Tag ist, und "3", "6", "9", "12", wenn die Zeiteinheit hour ist.
startTime Datum und Uhrzeit in UNIX-Sekunden, zu der die Datensatzexporte beginnen sollen.
endTime Datum und Uhrzeit in UNIX Sekunden, zu der die Datensatzexporte enden sollen.
foldernameTemplate

Geben Sie die erwartete Ordnernamenstruktur in Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden sollen.

  • DATASET_ID = Eine eindeutige Kennung für den Datensatz.
  • ZIELORT = Der Name des Ziels.
  • DATETIME = Datum und Uhrzeit, formatiert als yyyyMM_HHmmss.
  • EXPORT_TIME = Die geplante Zeit für den Datenexport, formatiert als exportTime=YYYYMMDDHHMM.
  • DESTINATION_INSTANCE_NAME = Der Name der spezifischen Instanz des Ziels.
  • DESTINATION_INSTANCE_ID = Eine eindeutige Kennung für die Zielinstanz.
  • SANDBOX_NAME = Der Name der Sandbox-Umgebung.
  • ORGANIZATION_NAME = Der Name der Organisation.

Antwort

accordion
Datenfluss erstellen - Antwort
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Azure Data Lake Gen 2 (ADLS Gen2)

Anfrage

accordion
Datensatz-Datenfluss zum Ziel Azure Data Lake Gen 2(ADLS Gen2) erstellen - Anfrage

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
    "flowSpec": {
        "id": "17be2013-2549-41ce-96e7-a70363bec293", // Azure Data Lake Gen 2(ADLS Gen2) flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt scheduleParams , mit denen Sie Exportzeiten, Häufigkeit, Ort und mehr für Ihre Datensatzexporte anpassen können.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parameter Beschreibung
exportMode Wählen Sie "DAILY_FULL_EXPORT" oder "FIRST_FULL_THEN_INCREMENTAL" aus. Weitere Informationen zu den beiden Optionen finden Sie unter vollständige Dateien exportieren und inkrementelle Dateien exportieren im Tutorial zur Aktivierung der Batch-Ziele. Die drei verfügbaren Exportoptionen sind:
Vollständige Datei - Einmal: "DAILY_FULL_EXPORT" kann nur in Kombination mit timeUnit:day und interval:0 für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Der tägliche vollständige Export von Datensätzen wird nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .
Inkrementelle tägliche Exporte: Wählen Sie "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day und interval:1 für tägliche inkrementelle Exporte.
Inkrementelle stündliche Exporte: Wählen Sie für stündliche inkrementelle Exporte "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour und interval :3, 6, 9 oder 12 aus.
timeUnit Wählen Sie je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten, day oder hour aus.
interval Wählen Sie "1", wenn der timeUnit Tag ist, und "3", "6", "9", "12", wenn die Zeiteinheit hour ist.
startTime Datum und Uhrzeit in UNIX-Sekunden, zu der die Datensatzexporte beginnen sollen.
endTime Datum und Uhrzeit in UNIX Sekunden, zu der die Datensatzexporte enden sollen.
foldernameTemplate

Geben Sie die erwartete Ordnernamenstruktur in Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden sollen.

  • DATASET_ID = Eine eindeutige Kennung für den Datensatz.
  • ZIELORT = Der Name des Ziels.
  • DATETIME = Datum und Uhrzeit, formatiert als yyyyMM_HHmmss.
  • EXPORT_TIME = Die geplante Zeit für den Datenexport, formatiert als exportTime=YYYYMMDDHHMM.
  • DESTINATION_INSTANCE_NAME = Der Name der spezifischen Instanz des Ziels.
  • DESTINATION_INSTANCE_ID = Eine eindeutige Kennung für die Zielinstanz.
  • SANDBOX_NAME = Der Name der Sandbox-Umgebung.
  • ORGANIZATION_NAME = Der Name der Organisation.

Antwort

accordion
Datenfluss erstellen - Antwort
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Data Landing Zone(DLZ)

Anfrage

accordion
Datensatz-Datenfluss zum Ziel Data Landing Zone erstellen - Anfrage

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to a Data Landing Zone cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to a Data Landing Zone cloud storage destination",
    "flowSpec": {
        "id": "cd2fc47e-e838-4f38-a581-8fff2f99b63a", // Data Landing Zone flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt scheduleParams , mit denen Sie Exportzeiten, Häufigkeit, Ort und mehr für Ihre Datensatzexporte anpassen können.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parameter Beschreibung
exportMode Wählen Sie "DAILY_FULL_EXPORT" oder "FIRST_FULL_THEN_INCREMENTAL" aus. Weitere Informationen zu den beiden Optionen finden Sie unter vollständige Dateien exportieren und inkrementelle Dateien exportieren im Tutorial zur Aktivierung der Batch-Ziele. Die drei verfügbaren Exportoptionen sind:
Vollständige Datei - Einmal: "DAILY_FULL_EXPORT" kann nur in Kombination mit timeUnit:day und interval:0 für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Der tägliche vollständige Export von Datensätzen wird nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .
Inkrementelle tägliche Exporte: Wählen Sie "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day und interval:1 für tägliche inkrementelle Exporte.
Inkrementelle stündliche Exporte: Wählen Sie für stündliche inkrementelle Exporte "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour und interval :3, 6, 9 oder 12 aus.
timeUnit Wählen Sie je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten, day oder hour aus.
interval Wählen Sie "1", wenn der timeUnit Tag ist, und "3", "6", "9", "12", wenn die Zeiteinheit hour ist.
startTime Datum und Uhrzeit in UNIX-Sekunden, zu der die Datensatzexporte beginnen sollen.
endTime Datum und Uhrzeit in UNIX Sekunden, zu der die Datensatzexporte enden sollen.
foldernameTemplate

Geben Sie die erwartete Ordnernamenstruktur in Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden sollen.

  • DATASET_ID = Eine eindeutige Kennung für den Datensatz.
  • ZIELORT = Der Name des Ziels.
  • DATETIME = Datum und Uhrzeit, formatiert als yyyyMM_HHmmss.
  • EXPORT_TIME = Die geplante Zeit für den Datenexport, formatiert als exportTime=YYYYMMDDHHMM.
  • DESTINATION_INSTANCE_NAME = Der Name der spezifischen Instanz des Ziels.
  • DESTINATION_INSTANCE_ID = Eine eindeutige Kennung für die Zielinstanz.
  • SANDBOX_NAME = Der Name der Sandbox-Umgebung.
  • ORGANIZATION_NAME = Der Name der Organisation.

Antwort

accordion
Datenfluss erstellen - Antwort
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Google Cloud Storage

Anfrage

accordion
Datensatz-Datenfluss zum Ziel Google Cloud Storage erstellen - Anfrage

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to a Google Cloud Storage cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to a Google Cloud Storage destination",
    "flowSpec": {
        "id": "585c15c4-6cbf-4126-8f87-e26bff78b657", // Google Cloud Storage flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt scheduleParams , mit denen Sie Exportzeiten, Häufigkeit, Ort und mehr für Ihre Datensatzexporte anpassen können.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parameter Beschreibung
exportMode Wählen Sie "DAILY_FULL_EXPORT" oder "FIRST_FULL_THEN_INCREMENTAL" aus. Weitere Informationen zu den beiden Optionen finden Sie unter vollständige Dateien exportieren und inkrementelle Dateien exportieren im Tutorial zur Aktivierung der Batch-Ziele. Die drei verfügbaren Exportoptionen sind:
Vollständige Datei - Einmal: "DAILY_FULL_EXPORT" kann nur in Kombination mit timeUnit:day und interval:0 für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Der tägliche vollständige Export von Datensätzen wird nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .
Inkrementelle tägliche Exporte: Wählen Sie "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day und interval:1 für tägliche inkrementelle Exporte.
Inkrementelle stündliche Exporte: Wählen Sie für stündliche inkrementelle Exporte "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour und interval :3, 6, 9 oder 12 aus.
timeUnit Wählen Sie je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten, day oder hour aus.
interval Wählen Sie "1", wenn der timeUnit Tag ist, und "3", "6", "9", "12", wenn die Zeiteinheit hour ist.
startTime Datum und Uhrzeit in UNIX-Sekunden, zu der die Datensatzexporte beginnen sollen.
endTime Datum und Uhrzeit in UNIX Sekunden, zu der die Datensatzexporte enden sollen.
foldernameTemplate

Geben Sie die erwartete Ordnernamenstruktur in Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden sollen.

  • DATASET_ID = Eine eindeutige Kennung für den Datensatz.
  • ZIELORT = Der Name des Ziels.
  • DATETIME = Datum und Uhrzeit, formatiert als yyyyMM_HHmmss.
  • EXPORT_TIME = Die geplante Zeit für den Datenexport, formatiert als exportTime=YYYYMMDDHHMM.
  • DESTINATION_INSTANCE_NAME = Der Name der spezifischen Instanz des Ziels.
  • DESTINATION_INSTANCE_ID = Eine eindeutige Kennung für die Zielinstanz.
  • SANDBOX_NAME = Der Name der Sandbox-Umgebung.
  • ORGANIZATION_NAME = Der Name der Organisation.

Antwort

accordion
Datenfluss erstellen - Antwort
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
SFTP

Anfrage

accordion
Erstellen eines Datensatzdataflow zum SFTP-Ziel - Anfrage

Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anforderung, wenn Sie die Anforderung kopieren und in Ihr Terminal Ihrer Wahl einfügen.

code language-shell line-numbers data-start-1 data-line-offset-4 h-12 h-22-25
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
    "name": "Activate datasets to an SFTP cloud storage destination",
    "description": "This operation creates a dataflow to export datasets to an SFTP cloud storage destination",
    "flowSpec": {
        "id": "354d6aad-4754-46e4-a576-1b384561c440", // SFTP flow spec ID
        "version": "1.0"
    },
    "sourceConnectionIds": [
        "<FROM_STEP_CREATE_SOURCE_CONNECTION>"
    ],
    "targetConnectionIds": [
        "<FROM_STEP_CREATE_TARGET_CONNECTION>"
    ],
    "transformations": [],
    "scheduleParams": { // specify the scheduling info
        "exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
        "interval": 3, // also supports 6, 9, 12 hour increments
        "timeUnit": "hour", // also supports "day" for daily increments.
        "interval": 1, // when you select "timeUnit": "day"
        "startTime": 1675901210, // UNIX timestamp start time (in seconds)
        "endTime": 1975901210, // UNIX timestamp end time (in seconds)
        "foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
    }
}'

Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt scheduleParams , mit denen Sie Exportzeiten, Häufigkeit, Ort und mehr für Ihre Datensatzexporte anpassen können.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 layout-auto
Parameter Beschreibung
exportMode Wählen Sie "DAILY_FULL_EXPORT" oder "FIRST_FULL_THEN_INCREMENTAL" aus. Weitere Informationen zu den beiden Optionen finden Sie unter vollständige Dateien exportieren und inkrementelle Dateien exportieren im Tutorial zur Aktivierung der Batch-Ziele. Die drei verfügbaren Exportoptionen sind:
Vollständige Datei - Einmal: "DAILY_FULL_EXPORT" kann nur in Kombination mit timeUnit:day und interval:0 für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Der tägliche vollständige Export von Datensätzen wird nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .
Inkrementelle tägliche Exporte: Wählen Sie "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day und interval:1 für tägliche inkrementelle Exporte.
Inkrementelle stündliche Exporte: Wählen Sie für stündliche inkrementelle Exporte "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour und interval :3, 6, 9 oder 12 aus.
timeUnit Wählen Sie je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten, day oder hour aus.
interval Wählen Sie "1", wenn der timeUnit Tag ist, und "3", "6", "9", "12", wenn die Zeiteinheit hour ist.
startTime Datum und Uhrzeit in UNIX-Sekunden, zu der die Datensatzexporte beginnen sollen.
endTime Datum und Uhrzeit in UNIX Sekunden, zu der die Datensatzexporte enden sollen.
foldernameTemplate

Geben Sie die erwartete Ordnernamenstruktur in Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden sollen.

  • DATASET_ID = Eine eindeutige Kennung für den Datensatz.
  • ZIELORT = Der Name des Ziels.
  • DATETIME = Datum und Uhrzeit, formatiert als yyyyMM_HHmmss.
  • EXPORT_TIME = Die geplante Zeit für den Datenexport, formatiert als exportTime=YYYYMMDDHHMM.
  • DESTINATION_INSTANCE_NAME = Der Name der spezifischen Instanz des Ziels.
  • DESTINATION_INSTANCE_ID = Eine eindeutige Kennung für die Zielinstanz.
  • SANDBOX_NAME = Der Name der Sandbox-Umgebung.
  • ORGANIZATION_NAME = Der Name der Organisation.

Antwort

accordion
Datenfluss erstellen - Antwort
code language-json
{
    "id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
    "etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}

Notieren Sie die Datenfluss-ID aus der Antwort. Diese ID ist im nächsten Schritt beim Abrufen der Datenflüsse erforderlich, um die erfolgreichen Datensatzexporte zu validieren.

Abrufen von Datenflüssen get-dataflow-runs

Diagramm mit Schritt 6 im Workflow für Exportdatensätze

Um die Ausführungen eines Datenflusses zu überprüfen, verwenden Sie die DataFlow-Ausführungen-API:

Anfrage

Abrufen von Datenfluss-Ausführungen - Anfrage

Fügen Sie in der Anfrage zum Abrufen der Datenflug-Ausführungen als Abfrageparameter die Datenflug-ID hinzu, die Sie beim Erstellen des Datenflusses im vorherigen Schritt erhalten haben.

code language-shell
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/runs?property=flowId==eb54b3b3-3949-4f12-89c8-64eafaba858f' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \

Antwort

Abrufen von Datenfluss-Ausführungen - Antwort
code language-json
{
    "items": [
        {
            "id": "4b7728dd-83c9-4c38-95a4-24ddab545404",
            "createdAt": 1675807718296,
            "updatedAt": 1675807731834,
            "createdBy": "aep_activation_batch@AdobeID",
            "updatedBy": "acp_foundation_connectors@AdobeID",
            "createdClient": "aep_activation_batch",
            "updatedClient": "acp_foundation_connectors",
            "sandboxId": "7dfdcd30-0a09-11ea-8ea6-7bf93ce86c28",
            "sandboxName": "sand-1",
            "imsOrgId": "5555467B5D8013E50A494220@AdobeOrg",
            "flowId": "aae5ec63-b0ac-4808-9a44-abf2ea67bd5a",
            "flowSpec": {
                "id": "615d3489-36d2-4671-9467-4ae1129facd3",
                "version": "1.0"
            },
            "providerRefId": "ba56f98e0c49b572adb249980c39b1c7",
            "etag": "\"08005e9e-0000-0200-0000-63e2cbf30000\"",
            "metrics": {
                "durationSummary": {
                    "startedAtUTC": 1675807719411,
                    "completedAtUTC": 1675807719416
                },
                "sizeSummary": {
                    "inputBytes": 0
                },
                "recordSummary": {
                    "inputRecordCount": 0,
                    "skippedRecordCount": 0,
                    "sourceSummaries": [
                        {
                            "id": "ea2b1205-4692-49de-b448-ebf75b1d188a",
                            "inputRecordCount": 0,
                            "skippedRecordCount": 0,
                            "entitySummaries": [
                                {
//...

Informationen zu den verschiedenen Parametern, die von der DataFlow-Ausführungs-API zurückgegeben werden, finden Sie in der API-Referenzdokumentation.

Überprüfen eines erfolgreichen Datensatzexports verify

Beim Exportieren von Datensätzen erstellt Experience Platform eine .json- oder .parquet-Datei an dem von Ihnen angegebenen Speicherort. Erwarten Sie, dass eine neue Datei entsprechend dem Exportplan, den Sie beim Erstellen eines Datenflusses angegeben haben, in Ihrem Speicherort abgelegt wird.

Experience Platform erstellt eine Ordnerstruktur am angegebenen Speicherort, in der die exportierten Datensatzdateien abgelegt werden. Für jeden Exportzeitpunkt wird ein neuer Ordner erstellt, wobei das folgende Muster befolgt wird:

folder-name-you-provided/datasetID/exportTime=YYYYMMDDHHMM

Der standardmäßige Dateiname wird nach dem Zufallsprinzip generiert, was sicherstellt, dass die Namen von exportierten Dateien eindeutig sind.

Beispiele für Datensatzdateien sample-files

Das Vorhandensein dieser Dateien an Ihrem Speicherort bestätigt einen erfolgreichen Export. Um zu verstehen, wie die exportierten Dateien strukturiert sind, können Sie eine Parquet- oder JSON-Beispieldatei herunterladen.

Komprimierte Datensatzdateien compressed-dataset-files

Im Schritt "Erstellen einer Zielverbindung"können Sie die exportierten Datensatzdateien auswählen, die komprimiert werden sollen.

Beachten Sie bei der Komprimierung den Unterschied im Dateiformat zwischen den beiden Dateitypen:

  • Beim Exportieren komprimierter JSON-Dateien ist das exportierte Dateiformat json.gz
  • Beim Exportieren komprimierter Parquet-Dateien ist das exportierte Dateiformat gz.parquet
  • JSON-Dateien können nur komprimiert exportiert werden.

Umgang mit API-Fehlern api-error-handling

Die API-Endpunkte in diesem Tutorial folgen den allgemeinen Experience Platform API-Fehlermeldungsprinzipien. Weitere Informationen zur Interpretation von Fehlerantworten finden Sie unter API-Status-Codes und Fehler in der Anforderungsheader im Handbuch zur Fehlerbehebung für Platform.

Häufig gestellte Fragen faq

Anzeigen einer Liste häufig gestellter Fragen zu Datensatzexporten.

Nächste Schritte next-steps

In diesem Tutorial haben Sie Platform erfolgreich mit einem Ihrer bevorzugten Batch-Cloud-Speicher-Ziele verbunden und einen Datenfluss zum entsprechenden Ziel eingerichtet, um Datensätze zu exportieren. Auf den folgenden Seiten finden Sie weitere Details, z. B. wie Sie vorhandene Datenflüsse mit der Flow Service-API bearbeiten:

7f4d1967-bf93-4dba-9789-bb6b505339d6