Deze functionaliteit is beschikbaar voor klanten die het Real-Time CDP-pakket Premier en Ultimate, Adobe Journey Optimizer of Customer Journey Analytics hebben aangeschaft. Neem contact op met uw Adobe voor meer informatie.
IMPORTANT
het punt van de Actie: De versie van 2024 van Experience Platformintroduceert de optie om een endTime datum voor de gegevensstroom van de uitvoerdataset te plaatsen. De Adobe introduceert ook een standaardeinddatum van 1 Mei 2025 voor alle gegevens van de datasetuitvoer dataflows die voorafgaand aan de versie van september worden gecreeerd. Voor om het even welke dataflows, moet u de einddatum in dataflow manueel vóór de einddatum bijwerken, anders uw uitvoer voor stop op die datum. Gebruik het Experience Platform UI om te bekijken welke dataflows aan einde op 1 Mei zullen worden geplaatst.
Op dezelfde manier voor dataflows die u maakt zonder een endTime -datum op te geven, worden deze standaard ingesteld op een eindtijd van zes maanden vanaf het tijdstip waarop ze worden gemaakt.
Dit artikel verklaart het werkschema wordt vereist om Flow Service API te gebruiken om datasetsvan Adobe Experience Platform naar uw aangewezen plaats van de wolkenopslag, zoals Amazon S3, plaatsen SFTP, of Google Cloud Storage uit te voeren die.
TIP
U kunt het gebruikersinterface van het Experience Platform ook gebruiken om datasets uit te voeren. Lees het leerprogramma van de de uitvoerdatasets UIvoor meer informatie.
Beschikbare gegevensbestanden voor exporteren datasets-to-export
De gegevenssets die u kunt exporteren, zijn afhankelijk van de toepassing Experience Platform (Real-Time CDP, Adobe Journey Optimizer), de laag (Premier of Ultimate) en alle invoegtoepassingen die u hebt aangeschaft (bijvoorbeeld Data Distiller).
Momenteel, kunt u datasets naar de bestemmingen van de wolkenopslag uitvoeren die in het schermafbeelding worden benadrukt en hieronder worden vermeld.
Deze handleiding vereist een goed begrip van de volgende onderdelen van Adobe Experience Platform:
Experience Platform datasets: alle gegevens die met succes in Adobe Experience Platform worden opgenomen, blijven in Data Lake als gegevenssets behouden. Een dataset is een opslag en beheersconstructie voor een inzameling van gegevens, typisch een lijst, die een schema (kolommen) en gebieden (rijen) bevat. Datasets bevatten ook metagegevens die verschillende aspecten van de gegevens beschrijven die ze opslaan.
Sandboxes: Experience Platform biedt virtuele sandboxen die één Platform -instantie in afzonderlijke virtuele omgevingen verdelen om toepassingen voor digitale ervaringen te ontwikkelen en te ontwikkelen.
De volgende secties verstrekken extra informatie die u moet weten om datasets naar de bestemmingen van de wolkenopslag in Platform uit te voeren.
Vereiste machtigingen permissions
Om datasets uit te voeren, hebt u View Destinations, View Datasets, en Manage and Activate Dataset Destinationstoegangsbeheertoestemmingennodig. Lees het overzicht van de toegangscontroleof contacteer uw productbeheerder om de vereiste toestemmingen te verkrijgen.
Om ervoor te zorgen dat u de noodzakelijke toestemmingen hebt om datasets uit te voeren en dat de bestemming het uitvoeren van datasets steunt, doorblader de bestemmingscatalogus. Als een doel een Activate - of Export datasets -besturingselement heeft, hebt u de juiste machtigingen.
Deze zelfstudie biedt voorbeeld-API-aanroepen om aan te tonen hoe uw verzoeken moeten worden opgemaakt. Dit zijn paden, vereiste kopteksten en correct opgemaakte ladingen voor aanvragen. Voorbeeld-JSON die wordt geretourneerd in API-reacties, wordt ook verschaft. Voor informatie over de overeenkomsten die in documentatie voor steekproef API vraag worden gebruikt, zie de sectie op hoe te om voorbeeld API vraagin de Experience Platform het oplossen van problemengids te lezen.
Waarden verzamelen voor vereiste en optionele koppen gather-values-headers
Om vraag aan Platform APIs te maken, moet u het Experience Platform authentificatieleerprogrammaeerst voltooien. Als u de zelfstudie over verificatie voltooit, krijgt u de waarden voor elk van de vereiste headers in alle API-aanroepen van Experience Platform , zoals hieronder wordt getoond:
Autorisatie: Drager {ACCESS_TOKEN}
x-api-key: {API_KEY}
x-gw-ims-org-id: {ORG_ID}
Bronnen in Experience Platform kunnen worden geïsoleerd naar specifieke virtuele sandboxen. In aanvragen voor Platform API's kunt u de naam en id opgeven van de sandbox waarin de bewerking plaatsvindt. Dit zijn optionele parameters.
In deze zelfstudie vindt u begeleidende referentiedocumentatie voor alle API-bewerkingen. Raadpleeg de documentatie bij de API voor Flow Service Doelen op de Adobe Developer-website. We raden u aan deze zelfstudie en de API-naslagdocumentatie parallel te gebruiken.
Woordenlijst glossary
Voor beschrijvingen van de termijnen die u in dit API leerprogramma zult ontmoeten, lees de verklarende woordenlijstsectievan de API verwijzingsdocumentatie.
Verbindingsspecificaties en stroomspecificaties voor uw gewenste doel verzamelen gather-connection-spec-flow-spec
Alvorens de werkschema te beginnen om een dataset uit te voeren, identificeer de verbindingsspecificatie en stroom specificiteit IDs van de bestemming waarnaar u datasets wilt uitvoeren. Gebruik de onderstaande tabel ter referentie.
Bestemming
Verbindingsspecificatie
Stroomspecificatie
Amazon S3
4fce964d-3f37-408f-9778-e597338a21ee
269ba276-16fc-47db-92b0-c1049a3c131f
Azure Blob Storage
6d6b59bf-fb58-4107-9064-4d246c0e5bb2
95bd8965-fc8a-4119-b9c3-944c2c2df6d2
Azure Data Lake Gen 2(ADLS Gen2)
be2c3209-53bc-47e7-ab25-145db8b873e1
17be2013-2549-41ce-96e7-a70363bec293
Data Landing Zone(DLZ)
10440537-2a7b-4583-ac39-ed38d4b848e8
cd2fc47e-e838-4f38-a581-8fff2f99b63a
Google Cloud Storage
c5d93acb-ea8b-4b14-8f53-02138444ae99
585c15c4-6cbf-4126-8f87-e26bff78b657
SFTP
36965a81-b1c6-401b-99f8-22508f1e6a26
354d6aad-4754-46e4-a576-1b384561c440
U hebt deze id's nodig om verschillende Flow Service -entiteiten samen te stellen. U moet ook naar delen van de Connection Spec zelf verwijzen om bepaalde entiteiten in te stellen, zodat u de instructie Connection Spec from Flow Service APIs kunt ophalen. Zie de voorbeelden hieronder van het terugwinnen van verbindingsspecificaties voor alle bestemmingen in de lijst:
Voer de onderstaande stappen uit om een gegevenssetgegevensstroom in te stellen naar een opslaglocatie in de cloud. Voor sommige stappen verschillen de verzoeken en antwoorden tussen de verschillende cloudopslagbestemmingen. In die gevallen, gebruik de lusjes op de pagina om de verzoeken en de reacties terug te winnen specifiek voor de bestemming die u wilt verbinden en datasets uitvoeren naar. Gebruik de juiste connection spec en flow spec voor het doel dat u configureert.
Een lijst met gegevenssets ophalen retrieve-list-of-available-datasets
Om een lijst van datasets terug te winnen geschikt voor activering, begin door een API vraag aan het hieronder eindpunt te maken.
recommendation-more-help
Verzoek
In aanmerking komende gegevenssets ophalen - Verzoek
Merk op dat om in aanmerking komende datasets terug te winnen, connection spec identiteitskaart die in het verzoek URL wordt gebruikt specificeer identiteitskaart van de bron van de gegevensmeerverbinding, 23598e46-f560-407b-88d5-ea6207e49db0 moet zijn, en de twee vraagparameters outputField=datasets en outputType=activationDatasets moeten worden gespecificeerd. Alle andere vraagparameters zijn de standaarddegenen die door de Dienst API van de Catalogusworden gesteund.
Een succesvol antwoord bevat een lijst met gegevenssets die in aanmerking komen voor activering. Deze datasets kunnen worden gebruikt wanneer het construeren van de bronverbinding in de volgende stap.
Na het terugwinnen van de lijst van datasets die u wilt uitvoeren, kunt u een bronverbinding tot stand brengen gebruikend die dataset IDs.
Verzoek
Bronverbinding maken - Verzoek
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Een geslaagde reactie retourneert de id (id) van de nieuwe bronverbinding en een etag . Noteer de bron-verbindings-id zoals u deze later nodig hebt wanneer u de gegevensstroom maakt.
Houd er rekening mee dat:
De bronverbinding die in deze stap wordt gecreeerd moet met een dataflow voor zijn datasets worden verbonden om aan een bestemming te worden geactiveerd. Zie een dataflowsectie voor informatie tot stand brengen over hoe te om een bronverbinding aan een dataflow te verbinden.
De dataset IDs van een bronverbinding kan niet na verwezenlijking worden gewijzigd. Als u datasets uit een bronverbinding moet toevoegen of verwijderen, moet u een nieuwe bronverbinding tot stand brengen en identiteitskaart van de nieuwe bronverbinding met dataflow verbinden.
Een basisverbinding (doel) maken create-base-connection
Een basisverbinding slaat veilig de geloofsbrieven aan uw bestemming op. Afhankelijk van het bestemmingstype, kunnen de geloofsbrieven nodig om tegen die bestemming voor authentiek te verklaren variëren. Om deze authentificatieparameters te vinden, wint eerst connection spec voor uw gewenste bestemming zoals die in de sectie wordt beschreven terug verzamelen verbindingsspecs en stroom specsen bekijk dan authSpec van de reactie. Verwijs in de onderstaande tabbladen naar de eigenschappen authSpec van alle ondersteunde doelen.
Amazon S3
accordion
Amazon S3 - Connection spec show auth spec
Noteer de gemarkeerde regel met inline opmerkingen in het onderstaande connection spec voorbeeld, die aanvullende informatie geven over waar u de verificatieparameters in connection spec kunt vinden.
Azure Blob Storage - Connection spec show auth spec
Noteer de gemarkeerde regel met inline opmerkingen in het onderstaande connection spec voorbeeld, die aanvullende informatie geven over waar u de verificatieparameters in connection spec kunt vinden.
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec show auth spec
Noteer de gemarkeerde regel met inline opmerkingen in het onderstaande connection spec voorbeeld, die aanvullende informatie geven over waar u de verificatieparameters in connection spec kunt vinden.
Google Cloud Storage - Connection spec show auth spec
Noteer de gemarkeerde regel met inline opmerkingen in het onderstaande connection spec voorbeeld, die aanvullende informatie geven over waar u de verificatieparameters in connection spec kunt vinden.
{
"items": [
{
"id": "c5d93acb-ea8b-4b14-8f53-02138444ae99",
"name": "Google Cloud Storage",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [ // describes the authentication parameters
{
"name": "Google Cloud Storage authentication credentials",
"type": "GoogleCloudStorageAuth",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"description": "defines auth params required for connecting to google cloud storage connector.",
"type": "object",
"properties": {
"accessKeyId": {
"description": "Access Key Id for the user account",
"type": "string"
},
"secretAccessKey": {
"description": "Secret Access Key for the user account",
"type": "string",
"format": "password"
}
},
"required": [
"accessKeyId",
"secretAccessKey"
]
}
}
],
//...
SFTP
accordion
SFTP - Connection spec weergeven auth spec
note note
NOTE
De bestemming SFTP bevat twee afzonderlijke punten in auth spec, aangezien het zowel wachtwoord als SSH zeer belangrijke authentificatie steunt.
Noteer de gemarkeerde regel met inline opmerkingen in het onderstaande connection spec voorbeeld, die aanvullende informatie geven over waar u de verificatieparameters in connection spec kunt vinden.
Met behulp van de eigenschappen die zijn opgegeven in de verificatietoets (d.w.z. authSpec uit het antwoord) kunt u een basisverbinding maken met de vereiste referenties, specifiek voor elk doeltype, zoals in de volgende voorbeelden wordt getoond:
Amazon S3
Verzoek
accordion
Amazon S3 - Aanvraag voor basisverbinding
note tip
TIP
Voor informatie over hoe te om de vereiste authentificatiegeloofsbrieven te verkrijgen, verwijs naar voor authentiek verklaren aan bestemmingssectie van de pagina van de de bestemmingsdocumentatie van Amazon S3.
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Azure Blob Storage - Aanvraag voor basisverbinding
note tip
TIP
Voor informatie over hoe te om de vereiste authentificatiegeloofsbrieven te verkrijgen, verwijs naar voor authentiek verklaren aan bestemmingssectie van de de bestemmingsdocumentatiepagina van de opslag van Azure Blob.
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Azure Data Lake Gen 2(ADLS Gen2) - Aanvraag voor basisverbinding
note tip
TIP
Voor informatie over hoe te om de vereiste authentificatiegeloofsbrieven te verkrijgen, verwijs naar voor authentiek verklaren aan bestemmingssectie van de Azure pagina van de de bestemmingsdocumentatie van het Leer van Gegevens 2 (ADLS Gen2).
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Data Landing Zone(DLZ) - Aanvraag voor basisverbinding
note tip
TIP
Er zijn geen verificatiereferenties vereist voor de bestemming Landing Zone voor gegevens. Voor meer informatie, verwijs naar voor authentiek verklaren aan bestemmingssectie van de Gegevens Landing de documentatiepagina van de Zone van de bestemmingsbestemming.
Google Cloud Storage - Aanvraag voor basisverbinding
note tip
TIP
Voor informatie over hoe te om de vereiste authentificatiegeloofsbrieven te verkrijgen, verwijs naar voor authentiek verklaren aan bestemmingssectie van de de bestemmingsdocumentatiepagina van de Opslag van de Wolk van Google.
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
SFTP met wachtwoord - de Verzoek van de Verbinding van de basis
note tip
TIP
Voor informatie over hoe te om de vereiste authentificatiegeloofsbrieven te verkrijgen, verwijs naar voor authentiek verklaren aan bestemmingssectie van de pagina van de de bestemmingsdocumentatie van SFTP.
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
SFTP met SSH-sleutel - Aanvraag voor basisverbinding
note tip
TIP
Voor informatie over hoe te om de vereiste authentificatiegeloofsbrieven te verkrijgen, verwijs naar voor authentiek verklaren aan bestemmingssectie van de pagina van de de bestemmingsdocumentatie van SFTP.
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Noteer de verbinding-id in het antwoord. Deze id is vereist in de volgende stap bij het maken van de doelverbinding.
Een doelverbinding maken create-target-connection
Daarna, moet u een doelverbinding tot stand brengen die de uitvoerparameters voor uw datasets opslaat. Exportparameters zijn onder andere locatie, bestandsindeling, compressie en andere details. Raadpleeg de targetSpec -eigenschappen in de verbindingsspecificatie van het doel voor meer informatie over de ondersteunde eigenschappen voor elk doeltype. Verwijs in de onderstaande tabbladen naar de eigenschappen targetSpec van alle ondersteunde doelen.
IMPORTANT
Exporteren naar JSON-bestanden worden alleen in de gecomprimeerde modus ondersteund. Exporteren naar Parquet -bestanden worden ondersteund in zowel de gecomprimeerde als de niet-gecomprimeerde modus.
De indeling van het geëxporteerde JSON-bestand is NDJSON, de standaardindeling voor gegevensuitwisseling in het ecosysteem big data. Adobe raadt u aan een NDJSON-compatibele client te gebruiken om de geëxporteerde bestanden te lezen.
Amazon S3
accordion
Amazon S3 - Connection spec parameters voor doelverbinding weergeven
Let op de gemarkeerde regels met inline opmerkingen in het onderstaande connection spec voorbeeld. Deze bevatten aanvullende informatie over waar u de target spec -parameters in de verbindingsspecificatie kunt vinden. U kunt ook in het voorbeeld zien waaronder de doelparameters ** niet van toepassing zijn op dataset de uitvoerbestemmingen.
Azure Blob Storage - Connection spec parameters voor doelverbinding weergeven
Let op de gemarkeerde regels met inline opmerkingen in het onderstaande connection spec voorbeeld. Deze bevatten aanvullende informatie over waar u de target spec -parameters in de verbindingsspecificatie kunt vinden. U kunt ook in het voorbeeld zien waaronder de doelparameters ** niet van toepassing zijn op dataset de uitvoerbestemmingen.
Azure Data Lake Gen 2(ADLS Gen2) - Connection spec parameters voor doelverbinding weergeven
Let op de gemarkeerde regels met inline opmerkingen in het onderstaande connection spec voorbeeld. Deze bevatten aanvullende informatie over waar u de target spec -parameters in de verbindingsspecificatie kunt vinden. U kunt ook in het voorbeeld zien waaronder de doelparameters ** niet van toepassing zijn op dataset de uitvoerbestemmingen.
{
"items": [
{
"id": "be2c3209-53bc-47e7-ab25-145db8b873e1",
"name": "Azure Data Lake Gen2",
"providerId": "14e34fac-d307-11e9-bb65-2a2ae2dbcce4",
"version": "1.0",
"authSpec": [...],
"encryptionSpecs": [...],
"targetSpec": { // describes the target connection parameters
"name": "User based target",
"type": "UserNamespace",
"spec": {
"$schema": "http://json-schema.org/draft-07/schema#",
"type": "object",
"properties": {
"path": {
"title": "Folder path",
"description": "Enter the path to your Azure Data Lake Storage folder",
"type": "string"
},
"fileType": {...}, // not applicable to dataset destinations
"datasetFileType": {
"conditional": {
"field": "flowSpec.attributes._workflow",
"operator": "CONTAINS",
"value": "DATASETS"
},
"title": "File Type",
"description": "Select file format",
"type": "string",
"enum": [
"JSON",
"PARQUET"
]
},
"csvOptions":{...}, // not applicable to dataset destinations
"compression": {
"title": "Compression format",
"description": "Select the desired file compression format.",
"type": "string",
"enum": [
"NONE",
"GZIP"
]
}
},
"required": [
"path",
"datasetFileType",
"compression",
"fileType"
]
}
//...
Gegevens die Zone (DLZ) aanvoeren
accordion
Data Landing Zone(DLZ) - Connection spec parameters voor doelverbinding weergeven
Let op de gemarkeerde regels met inline opmerkingen in het onderstaande connection spec voorbeeld. Deze bevatten aanvullende informatie over waar u de target spec -parameters in de verbindingsspecificatie kunt vinden. U kunt ook in het voorbeeld zien waaronder de doelparameters ** niet van toepassing zijn op dataset de uitvoerbestemmingen.
Google Cloud Storage - Connection spec parameters voor doelverbinding weergeven
Let op de gemarkeerde regels met inline opmerkingen in het onderstaande connection spec voorbeeld. Deze bevatten aanvullende informatie over waar u de target spec -parameters in de verbindingsspecificatie kunt vinden. U kunt ook in het voorbeeld zien waaronder de doelparameters ** niet van toepassing zijn op dataset de uitvoerbestemmingen.
SFTP - Connection spec parameters voor doelverbinding weergeven
Let op de gemarkeerde regels met inline opmerkingen in het onderstaande connection spec voorbeeld. Deze bevatten aanvullende informatie over waar u de target spec -parameters in de verbindingsspecificatie kunt vinden. U kunt ook in het voorbeeld zien waaronder de doelparameters ** niet van toepassing zijn op dataset de uitvoerbestemmingen.
Aan de hand van de bovenstaande specificatie kunt u een aanvraag voor een doelverbinding samenstellen die specifiek is voor uw gewenste bestemming voor cloudopslag, zoals weergegeven in de onderstaande tabbladen.
Amazon S3
Verzoek
accordion
Amazon S3 - Aanvraag voor doelverbinding
note tip
TIP
Voor informatie over hoe te om de vereiste doelparameters te verkrijgen, verwijs naar invullen bestemmingsdetailssectie van de Amazon S3 pagina van de bestemmingsdocumentatie. Zie de API-naslagdocumentatie voor andere ondersteunde waarden van datasetFileType .
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Voor informatie over hoe te om de vereiste doelparameters te verkrijgen, verwijs naar invullen bestemmingsdetailssectie van de Azure Blob Storage pagina van de bestemmingsdocumentatie. Zie de API-naslagdocumentatie voor andere ondersteunde waarden van datasetFileType .
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Voor informatie over hoe te om de vereiste doelparameters te verkrijgen, verwijs naar invul in bestemmingsdetailssectie van de Azure Data Lake Gen 2(ADLS Gen2) pagina van de bestemmingsdocumentatie. Zie de API-naslagdocumentatie voor andere ondersteunde waarden van datasetFileType .
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Voor informatie over hoe te om de vereiste doelparameters te verkrijgen, verwijs naar invullen bestemmingsdetailssectie van de Data Landing Zone pagina van de bestemmingsdocumentatie. Zie de API-naslagdocumentatie voor andere ondersteunde waarden van datasetFileType .
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Google Cloud Storage - Aanvraag voor doelverbinding
note tip
TIP
Voor informatie over hoe te om de vereiste doelparameters te verkrijgen, verwijs naar invullen bestemmingsdetailssectie van de Google Cloud Storage pagina van de bestemmingsdocumentatie. Zie de API-naslagdocumentatie voor andere ondersteunde waarden van datasetFileType .
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Voor informatie over hoe te om de vereiste doelparameters te verkrijgen, verwijs naar invul in bestemmingsdetailssectie van de pagina van de de bestemmingsdocumentatie van SFTP. Zie de API-naslagdocumentatie voor andere ondersteunde waarden van datasetFileType .
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
Noteer de doel-verbindings-id uit het antwoord. Deze id zal in de volgende stap worden vereist wanneer het creëren van dataflow om datasets uit te voeren.
Een gegevensstroom maken create-dataflow
De definitieve stap in de bestemmingsconfiguratie is aan opstelling een dataflow. Een dataflow verbindt eerder gecreeerd entiteiten samen en verstrekt ook opties om het programma van de datasetuitvoer te vormen. Om de gegevensstroom tot stand te brengen, gebruik hieronder de ladingen, afhankelijk van uw gewenste bestemming van de wolkenopslag, en vervang entiteit IDs van vorige stappen.
Amazon S3
Verzoek
accordion
Gegevensset maken naar Amazon S3 doel - Verzoek
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Amazon S3 cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Amazon S3 cloud storage destination",
"flowSpec": {
"id": "269ba276-16fc-47db-92b0-c1049a3c131f", // Amazon S3 flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
De onderstaande tabel bevat beschrijvingen van alle parameters in de sectie scheduleParams . Hiermee kunt u de exporttijden, frequentie, locatie en meer aanpassen voor het exporteren van uw gegevensset.
Selecteer "DAILY_FULL_EXPORT" of "FIRST_FULL_THEN_INCREMENTAL" . Voor meer informatie over de twee opties, verwijs naar uitvoer volledige dossiersen de uitvoer stijgende dossiersin het leerprogramma van de de activering van partijbestemmingen. De drie beschikbare exportopties zijn: Volledig dossier - eens: "DAILY_FULL_EXPORT" kan slechts in combinatie met timeUnit worden gebruikt:day en interval:0 voor eenmalig volledige uitvoer van de dataset. Dagelijkse volledige uitvoer van gegevenssets wordt niet ondersteund. Gebruik de optie voor incrementele export als u dagelijks wilt exporteren. Incrementele dagelijkse uitvoer: Selecteer "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day, en interval :1 voor dagelijkse stijgende uitvoer. Incrementele uuruitvoer: Uitgezocht "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour, en interval :3, 6, 9, of 12 voor per uur stijgende uitvoer.
timeUnit
Selecteer day of hour afhankelijk van de frequentie waarmee u gegevenssetbestanden wilt exporteren.
interval
Selecteer 1 wanneer timeUnit dag en 3 is, 6, 9, 12 wanneer de tijdeenheid hour is.
startTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beginnen.
endTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beëindigen.
foldernameTemplate
Geef de verwachte mapnaamstructuur op in de opslaglocatie waar de geëxporteerde bestanden worden gedeponeerd.
DATASET_ID = een uniek herkenningsteken voor de dataset.
BESTEMMING = de naam van de bestemming.
DATETIME = de datum en de tijd die als yyyyMMdd_HHmmss wordt geformatteerd.
EXPORT_TIME = de geplande tijd voor gegevens die als exportTime=YYYYMMDDHHMM worden geformatteerd.
DESTINATION_INSTANCE_NAME = de naam van de specifieke instantie van de bestemming.
DESTINATION_INSTANCE_ID = een uniek herkenningsteken voor de bestemmingsinstantie.
Gegevensset maken naar Azure Blob Storage doel - Verzoek
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Blob Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Blob Storage cloud storage destination",
"flowSpec": {
"id": "95bd8965-fc8a-4119-b9c3-944c2c2df6d2", // Azure Blob Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
De onderstaande tabel bevat beschrijvingen van alle parameters in de sectie scheduleParams . Hiermee kunt u de exporttijden, frequentie, locatie en meer aanpassen voor het exporteren van uw gegevensset.
Selecteer "DAILY_FULL_EXPORT" of "FIRST_FULL_THEN_INCREMENTAL" . Voor meer informatie over de twee opties, verwijs naar uitvoer volledige dossiersen de uitvoer stijgende dossiersin het leerprogramma van de de activering van partijbestemmingen. De drie beschikbare exportopties zijn: Volledig dossier - eens: "DAILY_FULL_EXPORT" kan slechts in combinatie met timeUnit worden gebruikt:day en interval:0 voor eenmalig volledige uitvoer van de dataset. Dagelijkse volledige uitvoer van gegevenssets wordt niet ondersteund. Gebruik de optie voor incrementele export als u dagelijks wilt exporteren. Incrementele dagelijkse uitvoer: Selecteer "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day, en interval :1 voor dagelijkse stijgende uitvoer. Incrementele uuruitvoer: Uitgezocht "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour, en interval :3, 6, 9, of 12 voor per uur stijgende uitvoer.
timeUnit
Selecteer day of hour afhankelijk van de frequentie waarmee u gegevenssetbestanden wilt exporteren.
interval
Selecteer 1 wanneer timeUnit dag en 3 is, 6, 9, 12 wanneer de tijdeenheid hour is.
startTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beginnen.
endTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beëindigen.
foldernameTemplate
Geef de verwachte mapnaamstructuur op in de opslaglocatie waar de geëxporteerde bestanden worden gedeponeerd.
DATASET_ID = een uniek herkenningsteken voor de dataset.
BESTEMMING = de naam van de bestemming.
DATETIME = de datum en de tijd die als yyyyMMdd_HHmmss wordt geformatteerd.
EXPORT_TIME = de geplande tijd voor gegevens die als exportTime=YYYYMMDDHHMM worden geformatteerd.
DESTINATION_INSTANCE_NAME = de naam van de specifieke instantie van de bestemming.
DESTINATION_INSTANCE_ID = een uniek herkenningsteken voor de bestemmingsinstantie.
Gegevensset maken naar Azure Data Lake Gen 2(ADLS Gen2) doel - Verzoek
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an Azure Data Lake Gen 2(ADLS Gen2) cloud storage destination",
"flowSpec": {
"id": "17be2013-2549-41ce-96e7-a70363bec293", // Azure Data Lake Gen 2(ADLS Gen2) flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
De onderstaande tabel bevat beschrijvingen van alle parameters in de sectie scheduleParams . Hiermee kunt u de exporttijden, frequentie, locatie en meer aanpassen voor het exporteren van uw gegevensset.
Selecteer "DAILY_FULL_EXPORT" of "FIRST_FULL_THEN_INCREMENTAL" . Voor meer informatie over de twee opties, verwijs naar uitvoer volledige dossiersen de uitvoer stijgende dossiersin het leerprogramma van de de activering van partijbestemmingen. De drie beschikbare exportopties zijn: Volledig dossier - eens: "DAILY_FULL_EXPORT" kan slechts in combinatie met timeUnit worden gebruikt:day en interval:0 voor eenmalig volledige uitvoer van de dataset. Dagelijkse volledige uitvoer van gegevenssets wordt niet ondersteund. Gebruik de optie voor incrementele export als u dagelijks wilt exporteren. Incrementele dagelijkse uitvoer: Selecteer "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day, en interval :1 voor dagelijkse stijgende uitvoer. Incrementele uuruitvoer: Uitgezocht "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour, en interval :3, 6, 9, of 12 voor per uur stijgende uitvoer.
timeUnit
Selecteer day of hour afhankelijk van de frequentie waarmee u gegevenssetbestanden wilt exporteren.
interval
Selecteer 1 wanneer timeUnit dag en 3 is, 6, 9, 12 wanneer de tijdeenheid hour is.
startTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beginnen.
endTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beëindigen.
foldernameTemplate
Geef de verwachte mapnaamstructuur op in de opslaglocatie waar de geëxporteerde bestanden worden gedeponeerd.
DATASET_ID = een uniek herkenningsteken voor de dataset.
BESTEMMING = de naam van de bestemming.
DATETIME = de datum en de tijd die als yyyyMMdd_HHmmss wordt geformatteerd.
EXPORT_TIME = de geplande tijd voor gegevens die als exportTime=YYYYMMDDHHMM worden geformatteerd.
DESTINATION_INSTANCE_NAME = de naam van de specifieke instantie van de bestemming.
DESTINATION_INSTANCE_ID = een uniek herkenningsteken voor de bestemmingsinstantie.
Gegevensset maken naar Data Landing Zone doel - Verzoek
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Data Landing Zone cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Data Landing Zone cloud storage destination",
"flowSpec": {
"id": "cd2fc47e-e838-4f38-a581-8fff2f99b63a", // Data Landing Zone flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
De onderstaande tabel bevat beschrijvingen van alle parameters in de sectie scheduleParams . Hiermee kunt u de exporttijden, frequentie, locatie en meer aanpassen voor het exporteren van uw gegevensset.
Selecteer "DAILY_FULL_EXPORT" of "FIRST_FULL_THEN_INCREMENTAL" . Voor meer informatie over de twee opties, verwijs naar uitvoer volledige dossiersen de uitvoer stijgende dossiersin het leerprogramma van de de activering van partijbestemmingen. De drie beschikbare exportopties zijn: Volledig dossier - eens: "DAILY_FULL_EXPORT" kan slechts in combinatie met timeUnit worden gebruikt:day en interval:0 voor eenmalig volledige uitvoer van de dataset. Dagelijkse volledige uitvoer van gegevenssets wordt niet ondersteund. Gebruik de optie voor incrementele export als u dagelijks wilt exporteren. Incrementele dagelijkse uitvoer: Selecteer "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day, en interval :1 voor dagelijkse stijgende uitvoer. Incrementele uuruitvoer: Uitgezocht "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour, en interval :3, 6, 9, of 12 voor per uur stijgende uitvoer.
timeUnit
Selecteer day of hour afhankelijk van de frequentie waarmee u gegevenssetbestanden wilt exporteren.
interval
Selecteer 1 wanneer timeUnit dag en 3 is, 6, 9, 12 wanneer de tijdeenheid hour is.
startTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beginnen.
endTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beëindigen.
foldernameTemplate
Geef de verwachte mapnaamstructuur op in de opslaglocatie waar de geëxporteerde bestanden worden gedeponeerd.
DATASET_ID = een uniek herkenningsteken voor de dataset.
BESTEMMING = de naam van de bestemming.
DATETIME = de datum en de tijd die als yyyyMMdd_HHmmss wordt geformatteerd.
EXPORT_TIME = de geplande tijd voor gegevens die als exportTime=YYYYMMDDHHMM worden geformatteerd.
DESTINATION_INSTANCE_NAME = de naam van de specifieke instantie van de bestemming.
DESTINATION_INSTANCE_ID = een uniek herkenningsteken voor de bestemmingsinstantie.
Gegevensset maken naar Google Cloud Storage doel - Verzoek
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to a Google Cloud Storage cloud storage destination",
"description": "This operation creates a dataflow to export datasets to a Google Cloud Storage destination",
"flowSpec": {
"id": "585c15c4-6cbf-4126-8f87-e26bff78b657", // Google Cloud Storage flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
De onderstaande tabel bevat beschrijvingen van alle parameters in de sectie scheduleParams . Hiermee kunt u de exporttijden, frequentie, locatie en meer aanpassen voor het exporteren van uw gegevensset.
Selecteer "DAILY_FULL_EXPORT" of "FIRST_FULL_THEN_INCREMENTAL" . Voor meer informatie over de twee opties, verwijs naar uitvoer volledige dossiersen de uitvoer stijgende dossiersin het leerprogramma van de de activering van partijbestemmingen. De drie beschikbare exportopties zijn: Volledig dossier - eens: "DAILY_FULL_EXPORT" kan slechts in combinatie met timeUnit worden gebruikt:day en interval:0 voor eenmalig volledige uitvoer van de dataset. Dagelijkse volledige uitvoer van gegevenssets wordt niet ondersteund. Gebruik de optie voor incrementele export als u dagelijks wilt exporteren. Incrementele dagelijkse uitvoer: Selecteer "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day, en interval :1 voor dagelijkse stijgende uitvoer. Incrementele uuruitvoer: Uitgezocht "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour, en interval :3, 6, 9, of 12 voor per uur stijgende uitvoer.
timeUnit
Selecteer day of hour afhankelijk van de frequentie waarmee u gegevenssetbestanden wilt exporteren.
interval
Selecteer 1 wanneer timeUnit dag en 3 is, 6, 9, 12 wanneer de tijdeenheid hour is.
startTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beginnen.
endTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beëindigen.
foldernameTemplate
Geef de verwachte mapnaamstructuur op in de opslaglocatie waar de geëxporteerde bestanden worden gedeponeerd.
DATASET_ID = een uniek herkenningsteken voor de dataset.
BESTEMMING = de naam van de bestemming.
DATETIME = de datum en de tijd die als yyyyMMdd_HHmmss wordt geformatteerd.
EXPORT_TIME = de geplande tijd voor gegevens die als exportTime=YYYYMMDDHHMM worden geformatteerd.
DESTINATION_INSTANCE_NAME = de naam van de specifieke instantie van de bestemming.
DESTINATION_INSTANCE_ID = een uniek herkenningsteken voor de bestemmingsinstantie.
Gegevensset maken gegevensstroom naar SFTP-bestemming - Verzoek
Maak een notitie van de gemarkeerde regels met inline opmerkingen in het aanvraagvoorbeeld, die aanvullende informatie bevatten. Verwijder de inline commentaren in het verzoek wanneer het kopiëren-kleeft van het verzoek in uw terminal van keus.
curl --location --request POST 'https://platform.adobe.io/data/foundation/flowservice/flows' \
--header 'accept: application/json' \
--header 'x-api-key: {API_KEY}' \
--header 'x-gw-ims-org-id: {ORG_ID}' \
--header 'x-sandbox-name: {SANDBOX_NAME}' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer {ACCESS_TOKEN}' \
--data-raw '{
"name": "Activate datasets to an SFTP cloud storage destination",
"description": "This operation creates a dataflow to export datasets to an SFTP cloud storage destination",
"flowSpec": {
"id": "354d6aad-4754-46e4-a576-1b384561c440", // SFTP flow spec ID
"version": "1.0"
},
"sourceConnectionIds": [
"<FROM_STEP_CREATE_SOURCE_CONNECTION>"
],
"targetConnectionIds": [
"<FROM_STEP_CREATE_TARGET_CONNECTION>"
],
"transformations": [],
"scheduleParams": { // specify the scheduling info
"exportMode": DAILY_FULL_EXPORT or FIRST_FULL_THEN_INCREMENTAL
"interval": 3, // also supports 6, 9, 12 hour increments
"timeUnit": "hour", // also supports "day" for daily increments.
"interval": 1, // when you select "timeUnit": "day"
"startTime": 1675901210, // UNIX timestamp start time (in seconds)
"endTime": 1975901210, // UNIX timestamp end time (in seconds)
"foldernameTemplate": "%DESTINATION%_%DATASET_ID%_%DATETIME(YYYYMMdd_HHmmss)%"
}
}'
De onderstaande tabel bevat beschrijvingen van alle parameters in de sectie scheduleParams . Hiermee kunt u de exporttijden, frequentie, locatie en meer aanpassen voor het exporteren van uw gegevensset.
Selecteer "DAILY_FULL_EXPORT" of "FIRST_FULL_THEN_INCREMENTAL" . Voor meer informatie over de twee opties, verwijs naar uitvoer volledige dossiersen de uitvoer stijgende dossiersin het leerprogramma van de de activering van partijbestemmingen. De drie beschikbare exportopties zijn: Volledig dossier - eens: "DAILY_FULL_EXPORT" kan slechts in combinatie met timeUnit worden gebruikt:day en interval:0 voor eenmalig volledige uitvoer van de dataset. Dagelijkse volledige uitvoer van gegevenssets wordt niet ondersteund. Gebruik de optie voor incrementele export als u dagelijks wilt exporteren. Incrementele dagelijkse uitvoer: Selecteer "FIRST_FULL_THEN_INCREMENTAL", timeUnit:day, en interval :1 voor dagelijkse stijgende uitvoer. Incrementele uuruitvoer: Uitgezocht "FIRST_FULL_THEN_INCREMENTAL", timeUnit:hour, en interval :3, 6, 9, of 12 voor per uur stijgende uitvoer.
timeUnit
Selecteer day of hour afhankelijk van de frequentie waarmee u gegevenssetbestanden wilt exporteren.
interval
Selecteer 1 wanneer timeUnit dag en 3 is, 6, 9, 12 wanneer de tijdeenheid hour is.
startTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beginnen.
endTime
De datum en de tijd in de seconden van UNIX wanneer de datasetuitvoer zou moeten beëindigen.
foldernameTemplate
Geef de verwachte mapnaamstructuur op in de opslaglocatie waar de geëxporteerde bestanden worden gedeponeerd.
DATASET_ID = een uniek herkenningsteken voor de dataset.
BESTEMMING = de naam van de bestemming.
DATETIME = de datum en de tijd die als yyyyMMdd_HHmmss wordt geformatteerd.
EXPORT_TIME = de geplande tijd voor gegevens die als exportTime=YYYYMMDDHHMM worden geformatteerd.
DESTINATION_INSTANCE_NAME = de naam van de specifieke instantie van de bestemming.
DESTINATION_INSTANCE_ID = een uniek herkenningsteken voor de bestemmingsinstantie.
Noteer de Dataflow-id uit het antwoord. Deze id wordt vereist in de volgende stap bij het ophalen van de gegevensstroomuitvoering om de geslaagde export van de gegevensset te valideren.
De gegevensstroomuitvoering ophalen get-dataflow-runs
Om de uitvoering van een gegevensstroom te controleren, gebruik Dataflow loops API:
Verzoek
Dataflow-uitvoering ophalen - Verzoek
In het verzoek om dataflow looppas terug te winnen, voeg als vraagparameter dataflow identiteitskaart toe die u in de vorige stap verwierf, toen het creëren van dataflow.
Bij het exporteren van gegevenssets maakt Experience Platform een .json - of .parquet -bestand op de opslaglocatie die u hebt opgegeven. Verwacht een nieuw dossier dat in uw opslagplaats volgens het de uitvoerprogramma moet worden gedeponeerd u verstrekte toen creërend een dataflow.
Experience Platform leidt tot een omslagstructuur in de opslagplaats u specificeerde, waar het de uitgevoerde datasetdossiers bewaart. Voor elke exporttijd wordt een nieuwe map gemaakt volgens het onderstaande patroon:
De standaardbestandsnaam wordt willekeurig gegenereerd en zorgt ervoor dat geëxporteerde bestandsnamen uniek zijn.
Voorbeeldgegevenssetbestanden sample-files
De aanwezigheid van deze bestanden op uw opslaglocatie is een bevestiging van een geslaagde export. Om te begrijpen hoe de uitgevoerde dossiers gestructureerd zijn, kunt u een steekproef .parquet dossierof .json dossierdownloaden.
In de stap om tot een doelverbindingte leiden, kunt u de uitgevoerde datasetdossiers selecteren om worden samengeperst.
Houd rekening met het verschil in bestandsindeling tussen de twee bestandstypen bij het comprimeren:
Bij het exporteren van gecomprimeerde JSON-bestanden is de geëxporteerde bestandsindeling json.gz
Bij het exporteren van gecomprimeerde parketbestanden is de geëxporteerde bestandsindeling gz.parquet
JSON-bestanden kunnen alleen in de gecomprimeerde modus worden geëxporteerd.
API-foutafhandeling api-error-handling
De API-eindpunten in deze zelfstudie volgen de algemene beginselen van het API-foutbericht voor Experience Platforms. Verwijs naar API statuscodesen de fouten van de verzoekkopbalin de het oplossen van problemengids van het Platform voor meer informatie bij het interpreteren van foutenreacties.
Door deze zelfstudie te volgen, hebt u Platform met succes verbonden met één van uw aangewezen bestemmingen van de de opslagopslag van de partijwolk en opstelling een dataflow aan de respectieve bestemming om datasets uit te voeren. Zie de volgende pagina's voor meer informatie, zoals hoe u bestaande gegevensstromen kunt bewerken met de Flow Service API: