Exportieren von Datensätzen mithilfe der Flow Service API
- Themen:
- Ziele
Erstellt für:
- Admin
- Benutzende
- Diese Funktion steht Kunden zur Verfügung, die das Real-Time CDP Prime- und Ultimate-Paket, Adobe Journey Optimizer oder Customer Journey Analytics erworben haben. Weitere Informationen erhalten Sie vom Adobe-Support.
endTime
für den Export von Datensatzdatenflüssen festzulegen. Adobe führt außerdem das standardmäßige Enddatum 1. Mai 2025 für alle Datensatzexport-Datenflüsse ein, die vor der September-Version erstellt. Für einen dieser Datenflüsse müssen Sie das Enddatum im Datenfluss vor dem Enddatum manuell aktualisieren, da die Exporte sonst an diesem Datum gestoppt werden. Verwenden Sie die Experience Platform-Benutzeroberfläche, um anzuzeigen, welche Datenflüsse am 1. Mai gestoppt werden sollen.endTime
erstellen, standardmäßig eine Endzeit von sechs Monaten ab dem Zeitpunkt, zu dem sie erstellt werden.In diesem Artikel wird der Workflow erläutert, der erforderlich ist, um Flow Service API zum Exportieren Datensätze von Adobe Experience Platform an Ihren bevorzugten Cloud-Speicherort wie Amazon S3, SFTP-Speicherorte oder Google Cloud Storage zu verwenden.
Datensätze, die exportiert werden können
Die Datensätze, die Sie exportieren können, hängen von der Experience Platform-Anwendung (Real-Time CDP, Adobe Journey Optimizer), der Ebene (Prime oder Ultimate) und allen Add-ons ab, die Sie erworben haben (z. B. Data Distiller).
Informationen dazu, welche Datensätze Sie exportieren können finden Sie in der Tabelle aufTutorial-Seite zur Benutzeroberfläche .
Unterstützte Ziele
Derzeit können Sie Datensätze in die Cloud-Speicher-Ziele exportieren, die im Screenshot hervorgehoben und unten aufgeführt sind.
Erste Schritte
Dieses Handbuch setzt ein Verständnis der folgenden Komponenten von Adobe Experience Platform voraus:
- Experience Platform datasets: Alle Daten, die erfolgreich in Adobe Experience Platform aufgenommen werden, bleiben als Datensätze im Data Lake erhalten. Ein Datensatz ist ein Konstrukt zur Datenspeicherung und -verwaltung, in dem Daten (in der Regel) in einer Tabelle erfasst werden, die ein Schema (Spalten) und Felder (Zeilen) beinhaltet. Datensätze enthalten auch Metadaten, die verschiedene Aspekte der in ihnen gespeicherten Daten beschreiben.
- Sandboxes: Experience Platform bietet virtuelle Sandboxes, die eine einzelne Experience Platform-Instanz in separate virtuelle Umgebungen unterteilen, damit Sie Programme für digitale Erlebnisse besser entwickeln und weiterentwickeln können.
Die folgenden Abschnitte enthalten zusätzliche Informationen, die Sie kennen müssen, um Datensätze an Cloud-Speicher-Ziele in Experience Platform zu exportieren.
Erforderliche Berechtigungen
Zum Exportieren von Datensätzen benötigen Sie die Berechtigungen Ziele anzeigen, Datensätze anzeigen und Datensatzziele verwalten und aktivieren Zugriffssteuerungsberechtigungen. Lesen Sie die Übersicht über die Zugriffskontrolle oder wenden Sie sich an Ihren Produktadministrator, um die erforderlichen Berechtigungen zu erhalten.
Um sicherzustellen, dass Sie über die erforderlichen Berechtigungen zum Exportieren von Datensätzen verfügen und dass das Ziel den Export von Datensätzen unterstützt, durchsuchen Sie den Zielkatalog. Wenn ein Ziel über die Steuerung Aktivieren oder Datensätze exportieren verfügt, dann haben Sie die entsprechenden Berechtigungen.
Lesen von Beispiel-API-Aufrufen
In diesem Tutorial wird anhand von Beispielen für API-Aufrufe die korrekte Formatierung von Anfragen aufgezeigt. Dazu gehören Pfade, erforderliche Kopfzeilen und ordnungsgemäß formatierte Anfrage-Payloads. Außerdem wird ein Beispiel für eine von der API im JSON-Format zurückgegebene Antwort bereitgestellt. Informationen zu den Konventionen, die in der Dokumentation für Beispiel-API-Aufrufe verwendet werden, finden Sie im Abschnitt zum Lesen von Beispiel-API-Aufrufen im Handbuch zur Fehlerbehebung für Experience Platform
Sammeln der Werte für erforderliche und optionale Kopfzeilen
Um Experience Platform-APIs aufzurufen, müssen Sie zunächst das Tutorial zur Experience Platform-Authentifizierung abschließen. Durch Abschluss des Authentifizierungs-Tutorials werden die Werte für die einzelnen erforderlichen Header in allen Experience Platform-API-Aufrufen bereitgestellt, wie unten dargestellt:
- Authorization: Bearer
{ACCESS_TOKEN}
- x-api-key:
{API_KEY}
- x-gw-ims-org-id:
{ORG_ID}
Ressourcen in Experience Platform lassen sich in spezifischen virtuellen Sandboxes isolieren. Bei Anfragen an Experience Platform-APIs können Sie den Namen und die ID der Sandbox angeben, in der der Vorgang ausgeführt werden soll. Dies sind optionale Parameter.
- x-sandbox-name:
{SANDBOX_NAME}
Bei allen Anfragen, die eine Payload enthalten (POST, PUT, PATCH), ist eine zusätzliche Medientyp-Kopfzeile erforderlich:
- Content-Type:
application/json
API-Referenzdokumentation
Eine zugehörige Referenzdokumentation für alle API-Vorgänge finden Sie in diesem Tutorial. Weitere Informationen finden Sie in der Dokumentation zur Flow Service -Destinations-API auf der Adobe Developer-Website. Wir empfehlen, dass Sie dieses Tutorial und die API-Referenzdokumentation parallel verwenden.
Glossar
Beschreibungen der Begriffe, auf die Sie in diesem API-Tutorial stoßen werden, finden Sie im Glossarabschnitt der API-Referenzdokumentation.
Zusammenstellen von Verbindungsspezifikationen und Flussspezifikationen für Ihr gewünschtes Ziel
Bevor Sie den Workflow zum Exportieren eines Datensatzes starten, identifizieren Sie die Verbindungsspezifikations- und Flussspezifikations-IDs des Ziels, an das Sie Datensätze exportieren möchten. Verwenden Sie die nachstehende Tabelle als Referenz.
4fce964d-3f37-408f-9778-e597338a21ee
269ba276-16fc-47db-92b0-c1049a3c131f
6d6b59bf-fb58-4107-9064-4d246c0e5bb2
95bd8965-fc8a-4119-b9c3-944c2c2df6d2
be2c3209-53bc-47e7-ab25-145db8b873e1
17be2013-2549-41ce-96e7-a70363bec293
10440537-2a7b-4583-ac39-ed38d4b848e8
cd2fc47e-e838-4f38-a581-8fff2f99b63a
c5d93acb-ea8b-4b14-8f53-02138444ae99
585c15c4-6cbf-4126-8f87-e26bff78b657
36965a81-b1c6-401b-99f8-22508f1e6a26
354d6aad-4754-46e4-a576-1b384561c440
Sie benötigen diese IDs, um verschiedene Flow Service zu erstellen. Sie müssen auch auf Teile der Connection Spec selbst verweisen, um bestimmte Entitäten einzurichten, damit Sie die Connection Spec aus Flow Service APIs abrufen können. Nachfolgend finden Sie die Beispiele zum Abrufen von Verbindungsspezifikationen für alle Ziele in der Tabelle:
Anfrage
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/4fce964d-3f37-408f-9778-e597338a21ee' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'
Antwort
{
"items": [
{
"id": "4fce964d-3f37-408f-9778-e597338a21ee",
"name": "Amazon S3",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
//...
Anfrage
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/6d6b59bf-fb58-4107-9064-4d246c0e5bb2' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'
Antwort
{
"items": [
{
"id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2",
"name": "Azure Blob Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
//...
Anfrage
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/be2c3209-53bc-47e7-ab25-145db8b873e1' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'
Antwort
{
"items": [
{
"id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
"name": "Azure Data Lake Gen2",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
//...
Anfrage
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/10440537-2a7b-4583-ac39-ed38d4b848e8' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'
Antwort
{
"items": [
{
"id": "10440537-2a7b-4583-ac39-ed38d4b848e8",
"name": "Data Landing Zone",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
//...
Anfrage
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/c5d93acb-ea8b-4b14-8f53-02138444ae99' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'
Antwort
{
"items": [
{
"id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
"name": "Google Cloud Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
//...
Anfrage
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/36965a81-b1c6-401b-99f8-22508f1e6a26' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'
Antwort
{
"items": [
{
"id": "36965a81-b1c6-401b-99f8-22508f1e6a26",
"name": "SFTP",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
//...
Gehen Sie wie folgt vor, um einen Datensatzdatenfluss zu einem Cloud-Speicher-Ziel einzurichten. Für einige Schritte unterscheiden sich die Anfragen und Antworten zwischen den verschiedenen Cloud-Speicher-Zielen. Verwenden Sie in diesen Fällen die Registerkarten auf der Seite, um die Anfragen und Antworten abzurufen, die spezifisch für das Ziel sind, zu dem Sie eine Verbindung herstellen und Datensätze exportieren möchten. Stellen Sie sicher, dass Sie die richtigen connection spec und flow spec für das Ziel verwenden, das Sie konfigurieren.
Abrufen einer Liste von Datensätzen
Um eine Liste von Datensätzen abzurufen, die für die Aktivierung infrage kommen, führen Sie zunächst einen API-Aufruf an den folgenden Endpunkt durch.
Anfrage
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/connectionSpecs/23598e46-f560-407b-88d5-ea6207e49db0/configs?outputType=activationDatasets&outputField=datasets&start=0&limit=20&properties=name,state' \
--header 'accept: application/json' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-api-key: {API_KEY}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}'
Beachten Sie, dass zum Abrufen geeigneter Datensätze die in der Anfrage-URL verwendete connection spec-ID die Data-Lake-Quell-Verbindungsspezifikations-ID 23598e46-f560-407b-88d5-ea6207e49db0
sein muss und die beiden Abfrageparameter outputField=datasets
und outputType=activationDatasets
angegeben werden müssen. Alle anderen Abfrageparameter sind die Standardparameter, die von der Catalog Service API) unterstützt.
Antwort
{
"items": [
{
"id": "5ef3e324052581191aa6a466",
"name": "AAM Authenticated Profiles Meta Data",
"description": "Activation profile export dataset",
"fileDescription": {
"persisted": true,
"containerFormat": "parquet",
"format": "parquet"
},
"aspect": "production",
"state": "DRAFT"
},
{
"id": "5ef3e3259ad2a1191ab7dd7d",
"name": "AAM Devices Data",
"description": "Activation profile export dataset",
"fileDescription": {
"persisted": true,
"containerFormat": "parquet",
"format": "parquet"
},
"aspect": "production",
"state": "DRAFT"
},
{
"id": "5ef3e325582424191b1beb42",
"name": "AAM Devices Profile Meta Data",
"description": "Activation profile export dataset",
"fileDescription": {
"persisted": true,
"containerFormat": "parquet",
"format": "parquet"
},
"aspect": "production",
"state": "DRAFT"
},
{
"id": "5ef3e328582424191b1beb44",
"name": "AAM Realtime",
"description": "Activation profile export dataset",
"fileDescription": {
"persisted": true,
"containerFormat": "parquet",
"format": "parquet"
},
"aspect": "production",
"state": "DRAFT"
},
{
"id": "5ef3e328fe742a191b2b3ea5",
"name": "AAM Realtime Profile Updates",
"description": "Activation profile export dataset",
"fileDescription": {
"persisted": true,
"containerFormat": "parquet",
"format": "parquet"
},
"aspect": "production",
"state": "DRAFT"
}
],
"pageInfo": {
"start": 0,
"end": 4,
"total": 149,
"hasNext": true
}
}
Eine erfolgreiche Antwort enthält eine Liste von Datensätzen, die für die Aktivierung infrage kommen. Diese Datensätze können beim Erstellen der Quellverbindung im nächsten Schritt verwendet werden.
Informationen zu den verschiedenen Antwortparametern für jeden zurückgegebenen Datensatz finden Sie in der Entwicklerdokumentation Datasets-API.
Erstellen einer Quellverbindung
Nachdem Sie die Liste der Datensätze abgerufen haben, die Sie exportieren möchten, können Sie mit diesen Datensatz-IDs eine Quellverbindung erstellen.
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/sourceConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Connecting to Data Lake",
"description": "Data Lake source connection to export datasets",
"connectionSpec": {
"id": "23598e46-f560-407b-88d5-ea6207e49db0", // this connection spec ID is always the same for Source Connections
"version": "1.0"
},
"params": {
"datasets": [ // datasets to activate
{
"dataSetId": "5ef3e3259ad2a1191ab7dd7d",
"name": "AAM Devices Data"
}
]
}
}'
Antwort
{
"id": "900df191-b983-45cd-90d5-4c7a0326d650",
"etag": "\"0500ebe1-0000-0200-0000-63e28d060000\""
}
Bei einer erfolgreichen Antwort werden die ID (id
) der neu erstellten Quellverbindung und ein etag
zurückgegeben. Notieren Sie sich die Quellverbindungs-ID, da Sie sie später beim Erstellen des Datenflusses benötigen werden.
Beachten Sie bitte auch Folgendes:
- Die in diesem Schritt erstellte Quellverbindung muss mit einem Datenfluss verknüpft sein, damit ihre Datensätze für ein Ziel aktiviert werden. Informationen Verknüpfen einer Quellverbindung mit einem Datenfluss findenim Abschnitt „Erstellen eines Datenflusses“.
- Die Datensatz-IDs einer Quellverbindung können nach der Erstellung nicht mehr geändert werden. Wenn Sie Datensätze zu einer Quellverbindung hinzufügen oder daraus entfernen müssen, müssen Sie eine neue Quellverbindung erstellen und die ID der neuen Quellverbindung mit dem Datenfluss verknüpfen.
Erstellen einer (Ziel-)Basisverbindung
Eine Basisverbindung speichert die Anmeldeinformationen sicher in Ihrem Ziel. Je nach Zieltyp können die Anmeldeinformationen, die zur Authentifizierung für dieses Ziel erforderlich sind, variieren. Um diese Authentifizierungsparameter zu finden, rufen Sie zunächst die connection spec für Ihr gewünschtes Ziel ab, wie im Abschnitt Zusammenstellen von Verbindungsspezifikationen und Flussspezifikationen beschrieben, und betrachten Sie dann die authSpec
der Antwort. Auf den folgenden Registerkarten finden Sie die authSpec
Eigenschaften aller unterstützten Ziele.
Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.
{
"items": [
{
"id": "4fce964d-3f37-408f-9778-e597338a21ee",
"name": "Amazon S3",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [ // describes the authentication parameters
{
"name": "Access Key",
"type": "KeyBased",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "Defines auth params required for connecting to amazon-s3",
"type": "object",
"properties": {
"s3AccessKey": {
"description": "Access key id",
"type": "string",
"pattern": "^[A-Z2-7]{20}$"
},
"s3SecretKey": {
"description": "Secret access key for the user account",
"type": "string",
"format": "password",
"pattern": "^[A-Za-z0-9\/+]{40}$"
}
},
"required": [
"s3SecretKey",
"s3AccessKey"
]
}
}
],
//...
Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.
{
"items": [
{
"id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2",
"name": "Azure Blob Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [ // describes the authentication parameters
{
"name": "ConnectionString",
"type": "ConnectionString",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "Connection String for Azure Blob based destinations",
"type": "object",
"properties": {
"connectionString": {
"description": "connection string for login",
"type": "string",
"format": "password"
}
},
"required": [
"connectionString"
]
}
}
],
//...
Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.
{
"items": [
{
"id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
"name": "Azure Data Lake Gen2",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [ // describes the authentication parameters
{
"name": "Azure Service Principal Auth",
"type": "AzureServicePrincipal",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "defines auth params required for connecting to adlsgen2 using service principal",
"type": "object",
"properties": {
"url": {
"description": "Endpoint for Azure Data Lake Storage Gen2.",
"type": "string"
},
"servicePrincipalId": {
"description": "Service Principal Id to connect to ADLSGen2.",
"type": "string"
},
"servicePrincipalKey": {
"description": "Service Principal Key to connect to ADLSGen2.",
"type": "string",
"format": "password"
},
"tenant": {
"description": "Tenant information(domain name or tenant ID).",
"type": "string"
}
},
"required": [
"servicePrincipalKey",
"url",
"tenant",
"servicePrincipalId"
]
}
}
],
//...
{
"items": [
{
"id": "10440537-2a7b-4583-ac39-ed38d4b848e8",
"name": "Data Landing Zone",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [],
//...
Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.
{
"items": [
{
"id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
"name": "Google Cloud Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [ // describes the authentication parameters
{
"name": "Google Cloud Storage authentication credentials",
"type": "GoogleCloudStorageAuth",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "defines auth params required for connecting to google cloud storage connector.",
"type": "object",
"properties": {
"accessKeyId": {
"description": "Access Key Id for the user account",
"type": "string"
},
"secretAccessKey": {
"description": "Secret Access Key for the user account",
"type": "string",
"format": "password"
}
},
"required": [
"accessKeyId",
"secretAccessKey"
]
}
}
],
//...
Beachten Sie die hervorgehobene Zeile mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die Authentifizierungsparameter in der connection spec zu finden sind.
{
"items": [
{
"id": "36965a81-b1c6-401b-99f8-22508f1e6a26",
"name": "SFTP",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [ // describes the authentication parameters
{
"name": "SFTP with Password",
"type": "SFTP",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "defines auth params required for connecting to sftp locations with a password",
"type": "object",
"properties": {
"domain": {
"description": "Domain of server",
"type": "string"
},
"username": {
"description": "Username",
"type": "string"
},
"password": {
"description": "Password",
"type": "string",
"format": "password"
}
},
"required": [
"password",
"domain",
"username"
]
}
},
{
"name": "SFTP with SSH Key",
"type": "SFTP",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "defines auth params required for connecting to sftp locations using SSH Key",
"type": "object",
"properties": {
"domain": {
"description": "Domain of server",
"type": "string"
},
"username": {
"description": "Username",
"type": "string"
},
"sshKey": {
"description": "Base64 string of the private SSH key",
"type": "string",
"format": "password",
"contentEncoding": "base64",
"uiAttributes": {
"tooltip": {
"id": "platform_destinations_connect_sftp_ssh",
"fallbackUrl": "http://www.adobe.com/go/destinations-sftp-connection-parameters-en "
}
}
}
},
"required": [
"sshKey",
"domain",
"username"
]
}
}
],
//...
Mithilfe der in der Authentifizierungsspezifikation angegebenen Eigenschaften (d. h. authSpec
aus der Antwort) können Sie eine Basisverbindung mit den erforderlichen Anmeldeinformationen erstellen, die für jeden Zieltyp spezifisch sind, wie in den Beispielen unten dargestellt:
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
"name": "Amazon S3 Base Connection",
"auth": {
"specName": "Access Key",
"params": {
"s3SecretKey": "<Add secret key>",
"s3AccessKey": "<Add access key>"
}
},
"connectionSpec": {
"id": "4fce964d-3f37-408f-9778-e597338a21ee", // Amazon S3 connection spec
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
"name": "Azure Blob Storage Base Connection",
"auth": {
"specName": "ConnectionString",
"params": {
"connectionString": "<Add Azure Blob connection string>"
}
},
"connectionSpec": {
"id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2", // Azure Blob Storage connection spec
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
"name": "Azure Data Lake Gen 2(ADLS Gen2) Base Connection",
"auth": {
"specName": "Azure Service Principal Auth",
"params": {
"servicePrincipalKey": "<Add servicePrincipalKey>",
"url": "<Add url>",
"tenant": "<Add tenant>",
"servicePrincipalId": "<Add servicePrincipalId>"
}
},
"connectionSpec": {
"id": "be2c3209-53bc-47e7-ab25-145db8b873e1", // Azure Data Lake Gen 2(ADLS Gen2) connection spec
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
"name": "Data Landing Zone Base Connection",
"connectionSpec": {
"id": "3567r537-2a7b-4583-ac39-ed38d4b848e8",
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
"name": "Google Cloud Storage Base Connection",
"auth": {
"specName": "Google Cloud Storage authentication credentials",
"params": {
"accessKeyId": "<Add accessKeyId>",
"secretAccessKey": "<Add secret Access Key>"
}
},
"connectionSpec": {
"id": "c5d93acb-ea8b-4b14-8f53-02138444ae99", // Google Cloud Storage connection spec
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
"name": "SFTP with password Base Connection",
"auth": {
"specName": "SFTP with Password",
"params": {
"domain": "<Add domain>",
"username": "<Add username>",
"password": "<Add password>"
}
},
"connectionSpec": {
"id": "36965a81-b1c6-401b-99f8-22508f1e6a26", // SFTP connection spec
"version": "1.0"
}
}'
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/connections' \
--header 'accept: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--header 'x-api-key: <API-KEY>' \
--header 'x-gw-ims-org-id: <IMS-ORG-ID>' \
--header 'x-sandbox-name: <SANDBOX-NAME>' \
--header 'Content-Type: application/json' \
--data-raw '{
"name": "SFTP with SSH key Base Connection",
"auth": {
"specName": "SFTP with SSH Key",
"params": {
"domain": "<Add domain>",
"username": "<Add username>",
"sshKey": "<Add SSH key>"
}
},
"connectionSpec": {
"id": "36965a81-b1c6-401b-99f8-22508f1e6a26", // SFTP connection spec
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Notieren Sie die Verbindungs-ID aus der Antwort. Diese ID ist im nächsten Schritt beim Erstellen der Zielverbindung erforderlich.
Erstellen einer Zielverbindung
Als Nächstes müssen Sie eine Zielverbindung erstellen, die die Exportparameter für Ihre Datensätze speichert. Zu den Exportparametern gehören Speicherort, Dateiformat, Komprimierung und andere Details. Die unterstützten Eigenschaften für jeden Zieltyp werden durch die in der -Verbindungsspezifikation des Ziels bereitgestellten targetSpec
-Eigenschaften erklärt. Auf den folgenden Registerkarten finden Sie die targetSpec
Eigenschaften aller unterstützten Ziele.
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die target spec in der Verbindungsspezifikation zu finden sind. Im folgenden Beispiel können Sie auch sehen, welche Zielparameter für Datensatzexportziele nicht anwendbar sind.
{
"items": [
{
"id": "4fce964d-3f37-408f-9778-e597338a21ee",
"name": "Amazon S3",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [...],
"encryptionSpecs": [...],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"bucketName": {
"title": "Bucket name",
"description": "Bucket name",
"type": "string",
"pattern": "(?=^.{3,63}$)(?!^(\\d+\\.)+\\d+$)(^(([a-z0-9]|[a-z0-9][a-z0-9\\-]*[a-z0-9])\\.)*([a-z0-9]|[a-z0-9][a-z0-9\\-]*[a-z0-9])$)",
"uiAttributes": {
"tooltip": {
"id": "platform_destinations_connect_s3_bucket",
"fallbackUrl": "http://www.adobe.com/go/destinations-amazon-s3-connection-parameters-en"
}
}
},
"path": {
"title": "Folder path",
"description": "Output path for copying files",
"type": "string",
"pattern": "^[0-9a-zA-Z\/\\!\\-_\\.\\*\\''\\(\\)]*((\\%SEGMENT_(NAME|ID)\\%)?\/?)+$",
"uiAttributes": {
"tooltip": {
"id": "platform_destinations_connect_s3_folderpath",
"fallbackUrl": "http://www.adobe.com/go/destinations-amazon-s3-connection-parameters-en"
}
}
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions": {...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"NONE",
"GZIP"
]
}
},
"required": [
"bucketName",
"path",
"datasetFileType",
"compression",
"fileType"
]
}
//...
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die target spec in der Verbindungsspezifikation zu finden sind. Im folgenden Beispiel können Sie auch sehen, welche Zielparameter für Datensatzexportziele nicht anwendbar sind.
{
"items": [
{
"id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2",
"name": "Azure Blob Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [...],
"encryptionSpecs": [...],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"path": {
"title": "Folder path",
"description": "Output path (relative) indicating where to upload the data",
"type": "string",
"pattern": "^[0-9a-zA-Z\/\\!\\-_\\.\\*\\'\\(\\)]+$"
},
"container": {
"title": "Container",
"description": "Container within the storage where to upload the data",
"type": "string",
"pattern": "^[a-z0-9](?!.*--)[a-z0-9-]{1,61}[a-z0-9]$"
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions": {...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"NONE",
"GZIP"
]
}
},
"required": [
"container",
"path",
"datasetFileType",
"compression",
"fileType"
]
}
//...
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die target spec in der Verbindungsspezifikation zu finden sind. Im folgenden Beispiel können Sie auch sehen, welche Zielparameter für Datensatzexportziele nicht anwendbar sind.
{
"items": [
{
"id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
"name": "Azure Data Lake Gen2",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [...],
"encryptionSpecs": [...],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"path": {
"title": "Folder path",
"description": "Enter the path to your Azure Data Lake Storage folder",
"type": "string"
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions":{...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"NONE",
"GZIP"
]
}
},
"required": [
"path",
"datasetFileType",
"compression",
"fileType"
]
}
//...
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die target spec in der Verbindungsspezifikation zu finden sind. Im folgenden Beispiel können Sie auch sehen, welche Zielparameter für Datensatzexportziele nicht anwendbar sind.
"items": [
{
"id": "10440537-2a7b-4583-ac39-ed38d4b848e8",
"name": "Data Landing Zone",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [],
"encryptionSpecs": [],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"path": {
"title": "Folder path",
"description": "Enter the path to your Azure Data Lake Storage folder",
"type": "string"
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions": {...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"NONE",
"GZIP"
]
}
},
"required": [
"path",
"datasetFileType",
"compression",
"fileType"
]
}
//...
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die target spec in der Verbindungsspezifikation zu finden sind. Im folgenden Beispiel können Sie auch sehen, welche Zielparameter für Datensatzexportziele nicht anwendbar sind.
{
"items": [
{
"id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
"name": "Google Cloud Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [...],
"encryptionSpecs": [...],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"bucketName": {
"title": "Bucket name",
"description": "Bucket name",
"type": "string",
"pattern": "(?!^goog.*$)(?!^.*g(o|0)(o|0)gle.*$)(((?=^.{3,63}$)(^([a-z0-9]|[a-z0-9][a-z0-9\\-_]*)[a-z0-9]$))|((?=^.{3,222}$)(?!^(\\d+\\.)+\\d+$)(^(([a-z0-9]{1,63}|[a-z0-9][a-z0-9\\-_]{1,61}[a-z0-9])\\.)*([a-z0-9]{1,63}|[a-z0-9][a-z0-9\\-_]{1,61}[a-z0-9])$)))"
},
"path": {
"title": "Folder path",
"description": "Output path for copying files",
"type": "string",
"pattern": "^[0-9a-zA-Z\/\\!\\-_\\.\\*\\''\\(\\)]*((\\%SEGMENT_(NAME|ID)\\%)?\/?)+$"
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions": {...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"NONE",
"GZIP"
]
}
},
"required": [
"bucketName",
"path",
"datasetFileType",
"compression",
"fileType"
]
}
//...
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im folgenden connection spec, die zusätzliche Informationen darüber enthalten, wo die target spec in der Verbindungsspezifikation zu finden sind. Im folgenden Beispiel können Sie auch sehen, welche Zielparameter für Datensatzexportziele nicht anwendbar sind.
{
"items": [
{
"id": "36965a81-b1c6-401b-99f8-22508f1e6a26",
"name": "SFTP",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [...],
"encryptionSpecs": [...],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"remotePath": {
"title": "Folder path",
"description": "Enter your folder path",
"type": "string"
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions": {...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"GZIP",
"NONE"
]
}
},
"required": [
"remotePath",
"datasetFileType",
"compression",
"fileType"
]
},
//...
Mithilfe der obigen Spezifikation können Sie eine Zielverbindungsanfrage für Ihr gewünschtes Cloud-Speicher-Ziel erstellen, wie in den folgenden Registerkarten dargestellt.
Anfrage
Weitere unterstützte Werte von
datasetFileType
finden Sie in der API-Referenzdokumentation.Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Amazon S3 Target Connection",
"baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
"params": {
"mode": "Server-to-server",
"bucketName": "your-bucket-name",
"path": "folder/subfolder",
"compression": "NONE",
"datasetFileType": "JSON"
},
"connectionSpec": {
"id": "4fce964d-3f37-408f-9778-e597338a21ee", // Amazon S3 connection spec id
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Weitere unterstützte Werte von
datasetFileType
finden Sie in der API-Referenzdokumentation.Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Azure Blob Storage Target Connection",
"baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
"params": {
"mode": "Server-to-server",
"container": "your-container-name",
"path": "folder/subfolder",
"compression": "NONE",
"datasetFileType": "JSON"
},
"connectionSpec": {
"id": "6d6b59bf-fb58-4107-9064-4d246c0e5bb2", // Azure Blob Storage connection spec id
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Weitere unterstützte Werte von
datasetFileType
finden Sie in der API-Referenzdokumentation.Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Azure Data Lake Gen 2(ADLS Gen2) Target Connection",
"baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
"params": {
"mode": "Server-to-server",
"path": "folder/subfolder",
"compression": "NONE",
"datasetFileType": "JSON"
},
"connectionSpec": {
"id": "be2c3209-53bc-47e7-ab25-145db8b873e1", // Azure Data Lake Gen 2(ADLS Gen2) connection spec id
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Weitere unterstützte Werte von
datasetFileType
finden Sie in der API-Referenzdokumentation.Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Data Landing Zone Target Connection",
"baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
"params": {
"mode": "Server-to-server",
"path": "folder/subfolder",
"compression": "NONE",
"datasetFileType": "JSON"
},
"connectionSpec": {
"id": "10440537-2a7b-4583-ac39-ed38d4b848e8", // Data Landing Zone connection spec id
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Weitere unterstützte Werte von
datasetFileType
finden Sie in der API-Referenzdokumentation.Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Google Cloud Storage Target Connection",
"baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
"params": {
"mode": "Server-to-server",
"bucketName": "your-bucket-name",
"path": "folder/subfolder",
"compression": "NONE",
"datasetFileType": "JSON"
},
"connectionSpec": {
"id": "c5d93acb-ea8b-4b14-8f53-02138444ae99", // Google Cloud Storage connection spec id
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Weitere unterstützte Werte von
datasetFileType
finden Sie in der API-Referenzdokumentation.Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/targetConnections' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "SFTP Target Connection",
"baseConnectionId": "<FROM_STEP_CREATE_TARGET_BASE_CONNECTION>",
"params": {
"mode": "Server-to-server",
"remotePath": "folder/subfolder",
"compression": "NONE",
"datasetFileType": "JSON"
},
"connectionSpec": {
"id": "36965a81-b1c6-401b-99f8-22508f1e6a26", // SFTP connection spec id
"version": "1.0"
}
}'
Antwort
{
"id": "12401496-2573-4ca7-8137-fef1aeb9dd4c",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Notieren Sie sich die Zielverbindungs-ID aus der Antwort. Diese ID ist im nächsten Schritt erforderlich, wenn der Datenfluss zum Exportieren von Datensätzen erstellt wird.
Erstellen eines Datenflusses
Der letzte Schritt in der Zielkonfiguration besteht darin, einen Datenfluss einzurichten. Ein Datenfluss verbindet zuvor erstellte Entitäten und bietet außerdem Optionen zum Konfigurieren des Zeitplans für den Datensatzexport. Verwenden Sie zum Erstellen des Datenflusses die folgenden Payloads, je nach dem gewünschten Cloud-Speicher-Ziel, und ersetzen Sie die Entitäts-IDs aus den vorherigen Schritten.
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Amazon S3 cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Amazon S3 cloud storage destination",
"flowSpec": {
"id": "269ba276-16fc-47db-92b0-c1049a3c131f", // Amazon S3 flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt "scheduleParams
", mit denen Sie die Exportzeiten, die Häufigkeit, den Ort und mehr für Ihre Datensatzexporte anpassen können.
exportMode
"DAILY_FULL_EXPORT"
oder "FIRST_FULL_THEN_INCREMENTAL"
aus. Weitere Informationen zu den beiden Optionen finden Sie unter Exportieren von vollständigen Dateien und Exportieren von inkrementellen Dateien im Tutorial zur Aktivierung von Batch-Zielen. Die drei verfügbaren Exportoptionen sind:Vollständige Datei - Einmal:
"DAILY_FULL_EXPORT"
kann nur in Kombination mit timeUnit
:day
und interval
:0
für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Tägliche vollständige Exporte von Datensätzen werden nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .Inkrementelle tägliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:day
und interval
:1
für tägliche inkrementelle Exporte.Inkrementelle stündliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:hour
und interval
:3
,6
,9
oder 12
für stündliche inkrementelle Exporte.timeUnit
day
oder hour
aus, je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten.interval
1
, wenn der timeUnit
Tag ist, und 3
,6
,9
,12
, wenn die Zeiteinheit hour
ist.startTime
endTime
foldernameTemplate
Geben Sie die erwartete Ordnernamenstruktur an Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden.
DATASET_ID
= Eine eindeutige Kennung für den Datensatz.ZIEL
= Der Name des Ziels.DATETIME
= Datum und Uhrzeit formatiert als JJJJMMtt_HHMMSS.EXPORTZEIT
= Die geplante Zeit für den Datenexport, formatiert alsexportTime=YYYYMMDDHHMM
.DESTINATION_INSTANCE_NAME
= Der Name der spezifischen Instanz des Ziels.DESTINATION_INSTANCE_ID
= Eindeutige Kennung für die Zielinstanz.SANDBOX_NAME
= Der Name der Sandbox-Umgebung.ORGANISATION_NAME
= Der Name der Organisation.
Antwort
{
"id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Blob Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Blob Storage cloud storage destination",
"flowSpec": {
"id": "95bd8965-fc8a-4119-b9c3-944c2c2df6d2", // Azure Blob Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt "scheduleParams
", mit denen Sie die Exportzeiten, die Häufigkeit, den Ort und mehr für Ihre Datensatzexporte anpassen können.
exportMode
"DAILY_FULL_EXPORT"
oder "FIRST_FULL_THEN_INCREMENTAL"
aus. Weitere Informationen zu den beiden Optionen finden Sie unter Exportieren von vollständigen Dateien und Exportieren von inkrementellen Dateien im Tutorial zur Aktivierung von Batch-Zielen. Die drei verfügbaren Exportoptionen sind:Vollständige Datei - Einmal:
"DAILY_FULL_EXPORT"
kann nur in Kombination mit timeUnit
:day
und interval
:0
für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Tägliche vollständige Exporte von Datensätzen werden nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .Inkrementelle tägliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:day
und interval
:1
für tägliche inkrementelle Exporte.Inkrementelle stündliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:hour
und interval
:3
,6
,9
oder 12
für stündliche inkrementelle Exporte.timeUnit
day
oder hour
aus, je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten.interval
1
, wenn der timeUnit
Tag ist, und 3
,6
,9
,12
, wenn die Zeiteinheit hour
ist.startTime
endTime
foldernameTemplate
Geben Sie die erwartete Ordnernamenstruktur an Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden.
DATASET_ID
= Eine eindeutige Kennung für den Datensatz.ZIEL
= Der Name des Ziels.DATETIME
= Datum und Uhrzeit formatiert als JJJJMMtt_HHMMSS.EXPORTZEIT
= Die geplante Zeit für den Datenexport, formatiert alsexportTime=YYYYMMDDHHMM
.DESTINATION_INSTANCE_NAME
= Der Name der spezifischen Instanz des Ziels.DESTINATION_INSTANCE_ID
= Eindeutige Kennung für die Zielinstanz.SANDBOX_NAME
= Der Name der Sandbox-Umgebung.ORGANISATION_NAME
= Der Name der Organisation.
Antwort
{
"id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"flowSpec": {
"id": "17be2013-2549-41ce-96e7-a70363bec293", // Azure Data Lake Gen 2(ADLS Gen2) flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt "scheduleParams
", mit denen Sie die Exportzeiten, die Häufigkeit, den Ort und mehr für Ihre Datensatzexporte anpassen können.
exportMode
"DAILY_FULL_EXPORT"
oder "FIRST_FULL_THEN_INCREMENTAL"
aus. Weitere Informationen zu den beiden Optionen finden Sie unter Exportieren von vollständigen Dateien und Exportieren von inkrementellen Dateien im Tutorial zur Aktivierung von Batch-Zielen. Die drei verfügbaren Exportoptionen sind:Vollständige Datei - Einmal:
"DAILY_FULL_EXPORT"
kann nur in Kombination mit timeUnit
:day
und interval
:0
für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Tägliche vollständige Exporte von Datensätzen werden nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .Inkrementelle tägliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:day
und interval
:1
für tägliche inkrementelle Exporte.Inkrementelle stündliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:hour
und interval
:3
,6
,9
oder 12
für stündliche inkrementelle Exporte.timeUnit
day
oder hour
aus, je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten.interval
1
, wenn der timeUnit
Tag ist, und 3
,6
,9
,12
, wenn die Zeiteinheit hour
ist.startTime
endTime
foldernameTemplate
Geben Sie die erwartete Ordnernamenstruktur an Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden.
DATASET_ID
= Eine eindeutige Kennung für den Datensatz.ZIEL
= Der Name des Ziels.DATETIME
= Datum und Uhrzeit formatiert als JJJJMMtt_HHMMSS.EXPORTZEIT
= Die geplante Zeit für den Datenexport, formatiert alsexportTime=YYYYMMDDHHMM
.DESTINATION_INSTANCE_NAME
= Der Name der spezifischen Instanz des Ziels.DESTINATION_INSTANCE_ID
= Eindeutige Kennung für die Zielinstanz.SANDBOX_NAME
= Der Name der Sandbox-Umgebung.ORGANISATION_NAME
= Der Name der Organisation.
Antwort
{
"id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Data Landing Zone cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Data Landing Zone cloud storage destination",
"flowSpec": {
"id": "cd2fc47e-e838-4f38-a581-8fff2f99b63a", // Data Landing Zone flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt "scheduleParams
", mit denen Sie die Exportzeiten, die Häufigkeit, den Ort und mehr für Ihre Datensatzexporte anpassen können.
exportMode
"DAILY_FULL_EXPORT"
oder "FIRST_FULL_THEN_INCREMENTAL"
aus. Weitere Informationen zu den beiden Optionen finden Sie unter Exportieren von vollständigen Dateien und Exportieren von inkrementellen Dateien im Tutorial zur Aktivierung von Batch-Zielen. Die drei verfügbaren Exportoptionen sind:Vollständige Datei - Einmal:
"DAILY_FULL_EXPORT"
kann nur in Kombination mit timeUnit
:day
und interval
:0
für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Tägliche vollständige Exporte von Datensätzen werden nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .Inkrementelle tägliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:day
und interval
:1
für tägliche inkrementelle Exporte.Inkrementelle stündliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:hour
und interval
:3
,6
,9
oder 12
für stündliche inkrementelle Exporte.timeUnit
day
oder hour
aus, je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten.interval
1
, wenn der timeUnit
Tag ist, und 3
,6
,9
,12
, wenn die Zeiteinheit hour
ist.startTime
endTime
foldernameTemplate
Geben Sie die erwartete Ordnernamenstruktur an Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden.
DATASET_ID
= Eine eindeutige Kennung für den Datensatz.ZIEL
= Der Name des Ziels.DATETIME
= Datum und Uhrzeit formatiert als JJJJMMtt_HHMMSS.EXPORTZEIT
= Die geplante Zeit für den Datenexport, formatiert alsexportTime=YYYYMMDDHHMM
.DESTINATION_INSTANCE_NAME
= Der Name der spezifischen Instanz des Ziels.DESTINATION_INSTANCE_ID
= Eindeutige Kennung für die Zielinstanz.SANDBOX_NAME
= Der Name der Sandbox-Umgebung.ORGANISATION_NAME
= Der Name der Organisation.
Antwort
{
"id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Google Cloud Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Google Cloud Storage destination",
"flowSpec": {
"id": "585c15c4-6cbf-4126-8f87-e26bff78b657", // Google Cloud Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt "scheduleParams
", mit denen Sie die Exportzeiten, die Häufigkeit, den Ort und mehr für Ihre Datensatzexporte anpassen können.
exportMode
"DAILY_FULL_EXPORT"
oder "FIRST_FULL_THEN_INCREMENTAL"
aus. Weitere Informationen zu den beiden Optionen finden Sie unter Exportieren von vollständigen Dateien und Exportieren von inkrementellen Dateien im Tutorial zur Aktivierung von Batch-Zielen. Die drei verfügbaren Exportoptionen sind:Vollständige Datei - Einmal:
"DAILY_FULL_EXPORT"
kann nur in Kombination mit timeUnit
:day
und interval
:0
für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Tägliche vollständige Exporte von Datensätzen werden nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .Inkrementelle tägliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:day
und interval
:1
für tägliche inkrementelle Exporte.Inkrementelle stündliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:hour
und interval
:3
,6
,9
oder 12
für stündliche inkrementelle Exporte.timeUnit
day
oder hour
aus, je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten.interval
1
, wenn der timeUnit
Tag ist, und 3
,6
,9
,12
, wenn die Zeiteinheit hour
ist.startTime
endTime
foldernameTemplate
Geben Sie die erwartete Ordnernamenstruktur an Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden.
DATASET_ID
= Eine eindeutige Kennung für den Datensatz.ZIEL
= Der Name des Ziels.DATETIME
= Datum und Uhrzeit formatiert als JJJJMMtt_HHMMSS.EXPORTZEIT
= Die geplante Zeit für den Datenexport, formatiert alsexportTime=YYYYMMDDHHMM
.DESTINATION_INSTANCE_NAME
= Der Name der spezifischen Instanz des Ziels.DESTINATION_INSTANCE_ID
= Eindeutige Kennung für die Zielinstanz.SANDBOX_NAME
= Der Name der Sandbox-Umgebung.ORGANISATION_NAME
= Der Name der Organisation.
Antwort
{
"id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Anfrage
Beachten Sie die hervorgehobenen Zeilen mit Inline-Kommentaren im Anfragebeispiel, die zusätzliche Informationen bereitstellen. Entfernen Sie die Inline-Kommentare in der Anfrage, wenn Sie die Anfrage in das Terminal Ihrer Wahl kopieren.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an SFTP cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an SFTP cloud storage destination",
"flowSpec": {
"id": "354d6aad-4754-46e4-a576-1b384561c440", // SFTP flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
Die nachstehende Tabelle enthält Beschreibungen aller Parameter im Abschnitt "scheduleParams
", mit denen Sie die Exportzeiten, die Häufigkeit, den Ort und mehr für Ihre Datensatzexporte anpassen können.
exportMode
"DAILY_FULL_EXPORT"
oder "FIRST_FULL_THEN_INCREMENTAL"
aus. Weitere Informationen zu den beiden Optionen finden Sie unter Exportieren von vollständigen Dateien und Exportieren von inkrementellen Dateien im Tutorial zur Aktivierung von Batch-Zielen. Die drei verfügbaren Exportoptionen sind:Vollständige Datei - Einmal:
"DAILY_FULL_EXPORT"
kann nur in Kombination mit timeUnit
:day
und interval
:0
für einen einmaligen vollständigen Export des Datensatzes verwendet werden. Tägliche vollständige Exporte von Datensätzen werden nicht unterstützt. Wenn Sie tägliche Exporte benötigen, verwenden Sie die Option Inkrementeller Export .Inkrementelle tägliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:day
und interval
:1
für tägliche inkrementelle Exporte.Inkrementelle stündliche Exporte: Wählen Sie
"FIRST_FULL_THEN_INCREMENTAL"
, timeUnit
:hour
und interval
:3
,6
,9
oder 12
für stündliche inkrementelle Exporte.timeUnit
day
oder hour
aus, je nach der Häufigkeit, mit der Sie Datensatzdateien exportieren möchten.interval
1
, wenn der timeUnit
Tag ist, und 3
,6
,9
,12
, wenn die Zeiteinheit hour
ist.startTime
endTime
foldernameTemplate
Geben Sie die erwartete Ordnernamenstruktur an Ihrem Speicherort an, an dem die exportierten Dateien abgelegt werden.
DATASET_ID
= Eine eindeutige Kennung für den Datensatz.ZIEL
= Der Name des Ziels.DATETIME
= Datum und Uhrzeit formatiert als JJJJMMtt_HHMMSS.EXPORTZEIT
= Die geplante Zeit für den Datenexport, formatiert alsexportTime=YYYYMMDDHHMM
.DESTINATION_INSTANCE_NAME
= Der Name der spezifischen Instanz des Ziels.DESTINATION_INSTANCE_ID
= Eindeutige Kennung für die Zielinstanz.SANDBOX_NAME
= Der Name der Sandbox-Umgebung.ORGANISATION_NAME
= Der Name der Organisation.
Antwort
{
"id": "eb54b3b3-3949-4f12-89c8-64eafaba858f",
"etag": "\"0000d781-0000-0200-0000-63e29f420000\""
}
Notieren Sie die Datenfluss-ID aus der Antwort. Diese ID ist im nächsten Schritt erforderlich, wenn der Datenfluss abgerufen wird, um die erfolgreichen Datensatzexporte zu validieren.
Abrufen der Datenflussausführungen
Um die Ausführungen eines Datenflusses zu überprüfen, verwenden Sie die Datenflussausführungs-API:
Anfrage
Fügen Sie in der Anfrage zum Abrufen des Datenflusses als Abfrageparameter die Datenfluss-ID hinzu, die Sie im vorherigen Schritt beim Erstellen des Datenflusses erhalten haben.
curl --location --request GET 'https://platform.adobe.io/data/foundation/flowservice/runs?property=flowId==eb54b3b3-3949-4f12-89c8-64eafaba858f' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
Antwort
{
"items": [
{
"id": "4b7728dd-83c9-4c38-95a4-24ddab545404",
"createdAt": 1675807718296,
"updatedAt": 1675807731834,
"createdBy": "aep_activation_batch@AdobeID",
"updatedBy": "acp_foundation_connectors@AdobeID",
"createdClient": "aep_activation_batch",
"updatedClient": "acp_foundation_connectors",
"sandboxId": "7dfdcd30-0a09-11ea-8ea6-7bf93ce86c28",
"sandboxName": "sand-1",
"imsOrgId": "5555467B5D8013E50A494220@AdobeOrg",
"flowId": "aae5ec63-b0ac-4808-9a44-abf2ea67bd5a",
"flowSpec": {
"id": "615d3489-36d2-4671-9467-4ae1129facd3",
"version": "1.0"
},
"providerRefId": "ba56f98e0c49b572adb249980c39b1c7",
"etag": "\"08005e9e-0000-0200-0000-63e2cbf30000\"",
"metrics": {
"durationSummary": {
"startedAtUTC": 1675807719411,
"completedAtUTC": 1675807719416
},
"sizeSummary": {
"inputBytes": 0
},
"recordSummary": {
"inputRecordCount": 0,
"skippedRecordCount": 0,
"sourceSummaries": [
{
"id": "ea2b1205-4692-49de-b448-ebf75b1d188a",
"inputRecordCount": 0,
"skippedRecordCount": 0,
"entitySummaries": [
{
//...
Informationen zu den verschiedenen von der Datenflussausführungs-API zurückgegebenen Parametern“ finden Sieder API-Referenzdokumentation.
Überprüfen eines erfolgreichen Datensatzexports
Beim Exportieren von Datensätzen erstellt Experience Platform eine .json
- oder .parquet
-Datei an dem von Ihnen angegebenen Speicherort. Erwarten Sie, dass eine neue Datei entsprechend dem Exportplan, den Sie beim Erstellen eines Datenflusses angegeben haben, an Speicherort abgelegt.
Experience Platform erstellt eine Ordnerstruktur am angegebenen Speicherort, in der die exportierten Datensatzdateien abgelegt werden. Für jeden Exportzeitpunkt wird ein neuer Ordner erstellt, wobei das folgende Muster befolgt wird:
folder-name-you-provided/datasetID/exportTime=YYYYMMDDHHMM
Der standardmäßige Dateiname wird nach dem Zufallsprinzip generiert, was sicherstellt, dass die Namen von exportierten Dateien eindeutig sind.
Beispiele für Datensatzdateien
Das Vorhandensein dieser Dateien an Ihrem Speicherort bestätigt einen erfolgreichen Export. Um zu verstehen, wie die exportierten Dateien strukturiert sind, können Sie eine Parquet- oder JSON-Beispieldatei herunterladen.
Komprimierte Datensatzdateien
Im Schritt zum Erstellen einer Zielverbindung können Sie die exportierten Datensatzdateien auswählen, die komprimiert werden sollen.
Beachten Sie den Unterschied im Dateiformat zwischen den beiden Dateitypen, wenn sie komprimiert werden:
- Beim Exportieren komprimierter JSON-Dateien wird das exportierte Dateiformat
json.gz
- Beim Exportieren von komprimierten Parquet-Dateien wird das exportierte Dateiformat
gz.parquet
- JSON-Dateien können nur im komprimierten Modus exportiert werden.
Umgang mit API-Fehlern
Die API-Endpunkte in diesem Tutorial folgen den allgemeinen Grundsätzen von Experience Platform API-Fehlermeldungen. Weitere Informationen Interpretieren von Fehlerantworten finden Sie unterAPI-Status-Codes undFehler in der Anfragekopfzeile im Handbuch zur Fehlerbehebung bei Experience Platform .
Bekannte Einschränkungen
Ansicht Bekannte Einschränkungen zu Datensatzexporten.
Häufig gestellte Fragen
Anzeigen einer Liste häufig gestellter Fragen zu Datensatzexporten.
Nächste Schritte
In diesem Tutorial haben Sie Experience Platform erfolgreich mit einem Ihrer bevorzugten Batch-Cloud-Speicher-Ziele verbunden und einen Datenfluss zum entsprechenden Ziel eingerichtet, um Datensätze zu exportieren. Auf den folgenden Seiten finden Sie weitere Details, z. B. wie Sie vorhandene Datenflüsse mit der Flow Service-API bearbeiten: