Query-service (Data Distiller) en exportgegevenssets
Dit artikel schetst hoe de combinatie van de Dienst van de Vraag van Experience Platform (Gegevens Distiller) en de uitvoer van Dataset kan worden gebruikt om de volgende gevallen van het de uitvoergebruik van gegevens uit te voeren :
- Gegevensvalidatie
- Data Lake, Data Warehouse of BI tools
- Gereedheid voor kunstmatig slim en machinaal leren.
Adobe Analytics kan deze gebruiksgevallen uitvoeren gebruikend zijn functionaliteit 0} van de Diefstal van Gegevens {. Gegevensfeeds zijn een krachtige manier om onbewerkte gegevens uit Adobe Analytics te halen. In dit artikel wordt beschreven hoe u vergelijkbare onbewerkte gegevens uit Experience Platform kunt ophalen, zodat u de hierboven vermelde gebruiksgevallen kunt implementeren. Indien van toepassing worden de in dit artikel beschreven functies vergeleken met Adobe Analytics Data Feeds om verschillen in gegevens en processen te verduidelijken.
Inleiding
Het uitvoeren van gegevens gebruikend de Dienst van de Vraag (Gegevens Distiller) en de uitvoer van Dataset bestaat uit:
- het bepalen van a geplande vraag die de gegevens voor uw gegevensvoer als 2} de outputdataset van de outputdataset
Dienst van de Vraag . - het bepalen van de uitvoer van de a geplande dataset die de outputdataset naar een bestemming van de wolkenopslag uitvoert, gebruikend de uitvoer van de Dataset.
Vereisten
Zorg ervoor dat u aan alle volgende vereisten voldoet voordat u de functionaliteit gebruikt die in dit gebruiksgeval wordt beschreven:
- Een werkende implementatie die gegevens verzamelt in het gegevensmeer van Experience Platform.
- Toegang tot de gegevensinvoegtoepassing Distiller om te controleren of u batch-query's mag uitvoeren. Zie het verpakken van de Dienst van de Vraag voor meer informatie.
- Toegang tot de functionaliteit voor exportgegevenssets die beschikbaar is wanneer u het Real-Time CDP Prime- of Ultimate-pakket, Adobe Journey Optimizer of Customer Journey Analytics hebt aangeschaft. Zie datasets van de Uitvoer aan de bestemmingen van de wolkenopslag voor meer informatie.
- Een of meer geconfigureerde doelen (bijvoorbeeld Amazon S3, Google Cloud Storage) waarnaar u de onbewerkte gegevens van uw gegevensfeed kunt exporteren.
Query-service
De Dienst van de Vraag van Experience Platform staat u toe om het even welke dataset in het de gegevensmeer van Experience Platform te vragen en zich aan te sluiten alsof het een gegevensbestandlijst is. Vervolgens kunt u de resultaten vastleggen als een nieuwe gegevensset voor verder gebruik in rapportage of voor export.
U kunt het gebruikersinterface van de Dienst van de Vraag gebruiken, a cliënt die door het protocol PostgresQL wordt aangesloten, of RESTful APIs om vragen tot stand te brengen en te plannen die de gegevens voor uw gegevensvoer verzamelen.
Query maken
U kunt alle functionaliteit van standaardANSI SQL voor UITGEZOCHTE verklaringen en andere beperkte bevelen gebruiken om vragen tot stand te brengen en uit te voeren die de gegevens voor uw gegevensvoer produceren. Zie SQL syntaxis voor meer informatie. Buiten deze SQL-syntaxis biedt Adobe ondersteuning voor:
- prebuilt Adobe-defined functies (ADF) die helpen gemeenschappelijke zaken-gerelateerde taken op gebeurtenisgegevens uitvoeren die in het de gegevensmeer van Experience Platform worden opgeslagen, met inbegrip van functies voor Sessionisatie en Attributie ,
- verscheidene ingebouwde functies van de Vonk SQL ,
- meta-gegevens PostgreSQL bevelen ,
- voorbereide verklaringen .
Gegevensvoederkolommen
De XDM gebieden die u in uw vraag kunt gebruiken hangen van de schemadefinitie af waarop uw datasets worden gebaseerd. Zorg ervoor u het schema onderaan de dataset begrijpt. Zie voor meer informatie de gids UI van Datasets .
Om u te helpen om de afbeelding tussen de kolommen van het Gegevensvoer en de gebieden te bepalen XDM, zie het gebiedstoewijzing van Analytics . Zie ook het overzicht van Schema's UI voor meer informatie over hoe te om middelen XDM, met inbegrip van schema's, klassen, gebiedsgroepen, en gegevenstypes te beheren.
Bijvoorbeeld, voor het geval u paginanaam als deel van uw gegevensvoer wilt gebruiken:
- In de gebruikersinterface van Adobe Analytics Data Feed selecteert u pagename als kolom die u wilt toevoegen aan de definitie van de gegevensfeed.
- In de Dienst van de Vraag, omvat u
web.webPageDetails.namevan desample_event_dataset_for_website_global_v1_1dataset (die op het Schema van de Gebeurtenis van de Steekproef voor Website (Globale v1.1) ervaringsgebeurtenisschema) in uw vraag wordt gebaseerd. Zie de groep van het het schemagebied van Details van het Web voor meer informatie.
Identiteiten
In Experience Platform zijn verschillende identiteiten beschikbaar. Zorg er bij het maken van query's voor dat u de id's correct opvraagt.
Vaak vindt u identiteiten in een afzonderlijke veldgroep. In een implementatie kan ECID (ecid) worden gedefinieerd als onderdeel van een veldgroep met een core -object, dat zelf deel uitmaakt van een identification -object (bijvoorbeeld: _sampleorg.identification.core.ecid). De ECIDs zou verschillend in uw schema's kunnen worden georganiseerd.
U kunt identityMap ook gebruiken om te zoeken naar identiteiten. identityMap is van type Map en gebruikt a genestelde gegevensstructuur .
Zie identiteitsgebieden in UI voor meer informatie over hoe te om identiteitsgebieden in Experience Platform te bepalen.
Verwijs naar Primaire herkenningstekens in de gegevens van Analytics voor een begrip hoe de identiteiten van Adobe Analytics aan de identiteiten van Experience Platform wanneer het gebruiken van de Analytics bronschakelaar in kaart worden gebracht. Deze toewijzing kan als richtlijn voor vestiging uw identiteiten dienen, zelfs wanneer het gebruiken van niet de analytische bronschakelaar.
Gegevens en identificatie op bedrijfsniveau
Op basis van de implementatie worden gegevens op raakniveau die traditioneel in Adobe Analytics worden verzameld, nu opgeslagen als tijdstempelgegevens voor gebeurtenissen in Experience Platform. De volgende lijst wordt gehaald uit het gebiedstoewijzing van Analytics en toont voorbeelden hoe te om niveau-specifieke kolommen van de Invoer van Gegevens van Adobe Analytics met overeenkomstige XDM gebieden in uw vragen in kaart te brengen. De tabel bevat ook voorbeelden van hoe treffers, bezoeken en bezoekers worden geïdentificeerd met behulp van XDM-velden.
hitid_high + hitid_low_idhitid_low_idhitid_high om een treffer uniek te identificeren.hitid_high_idhitid_high om een treffer uniek te identificeren.hit_time_gmtreceivedTimestampcust_hit_time_gmttimestampvisid_high + visid_lowidentityMapvisid_high + visid_lowendUserIDs._experience.aaid.idvisid_highendUserIDs._experience.aaid.primaryvisid_low gebruikt om een bezoek op unieke wijze te identificeren.visid_highendUserIDs._experience.aaid.namespace.codevisid_low gebruikt om een bezoek op unieke wijze te identificeren.visid_lowidentityMapvisid_high gebruikt om een bezoek op unieke wijze te identificeren.cust_visididentityMapcust_visidendUserIDs._experience.aacustomid.idcust_visidendUserIDs._experience.aacustomid.primarycust_visidendUserIDs._experience.aacustomid.namespace.codevisid_low om de bezoeker-id van de klant op unieke wijze te identificeren.geo\_*placeContext.geo.*event_listcommerce.purchases, commerce.productViews, commerce.productListOpens, commerce.checkouts, commerce.productListAdds, commerce.productListRemovals, commerce.productListViews, _experience.analytics.event101to200.*, …, _experience.analytics.event901_1000.*page_eventweb.webInteraction.typepage_eventweb.webInteraction.linkClicks.valuepage_event_var_1web.webInteraction.URLpage_event_var_2web.webInteraction.namepaid_searchsearch.isPaidref_typeweb.webReferrertypeKolommen na
Adobe Analytics Data Feeds gebruikt het concept kolommen met een voorvoegsel post_ . Dit zijn kolommen met gegevens na verwerking. Zie Veelgestelde Veelgestelde vragen van het voer van Gegevens voor meer informatie.
Gegevens die via de Experience Platform Edge Network (Web SDK, Mobile SDK, Server API) in gegevenssets zijn verzameld, hebben geen concept van post_ -velden. Dientengevolge, post_ prefixed en niet - post_ vooraf vastgestelde de kolommen van de gegevensvoer aan de zelfde gebieden XDM in kaart brengen. Zowel page_url als post_page_url gegevensfeed-kolommen worden bijvoorbeeld toegewezen aan hetzelfde web.webPageDetails.URL XDM-veld.
Zie gegevensverwerking over Adobe Analytics en Customer Journey Analytics voor een overzicht van het verschil in verwerking van gegevens vergelijken.
Het kolomtype van de prefix post_ van gegevens, wanneer verzameld in het gegevenshoop van Experience Platform, vereist echter geavanceerde transformaties alvorens het in een gegeven kan met succes worden gebruikt het gebruikt geval van de gegevensvoer. Het uitvoeren van deze geavanceerde transformaties in uw vragen impliceert het gebruik van Adobe-bepaalde functies voor zittingssessie, attributie, en deduplicatie. Zie Voorbeelden op hoe te om deze functies te gebruiken.
Zoeken
Als u gegevens uit andere gegevenssets wilt opzoeken, gebruikt u standaard SQL-functionaliteit (WHERE -component, INNER JOIN , OUTER JOIN en andere).
Berekeningen
Om berekeningen op gebieden (kolommen) uit te voeren, gebruik de standaardSQL functies (bijvoorbeeld COUNT(*)), of wiskunde en statistische exploitanten en functies deel van SQL van de Vonk. Ook, vensterfuncties verlenen steun om samenvoegingen bij te werken en enige punten voor elke rij in een bevolen ondergroep terug te keren. Zie Voorbeelden op hoe te om deze functies te gebruiken.
Geneste gegevensstructuur
De schema's waarop de datasets worden gebaseerd bevatten vaak complexe gegevenstypen, met inbegrip van geneste gegevensstructuren. Eerder vermeld identityMap is een voorbeeld van een geneste gegevensstructuur. Zie hieronder voor een voorbeeld van identityMap data.
{
"identityMap":{
"FPID":[
{
"id":"55613368189701342632255821452918751312",
"authenticatedState":"ambiguous"
}
],
"CRM":[
{
"id":"2394509340-30453470347",
"authenticatedState":"authenticated"
}
]
}
}
U kunt explode() of andere functies van Arrays van SQL van de Vonk gebruiken om aan de gegevens binnen een genestelde gegevensstructuur, bijvoorbeeld te krijgen:
select explode(identityMap) from demosys_cja_ee_v1_website_global_v1_1 limit 15;
U kunt ook naar afzonderlijke elementen verwijzen met puntnotatie. Bijvoorbeeld:
select identityMap.ecid from demosys_cja_ee_v1_website_global_v1_1 limit 15;
Zie Werkend met genestelde gegevensstructuren in de Dienst van de Vraag voor meer informatie.
Voorbeelden
Voor vragen:
- die gegevens uit gegevensreeksen in het gegevensmeer van Experience Platform gebruiken;
- tikken op de extra mogelijkheden van Adobe Defined Functions en/of Spark SQL, en
- die vergelijkbare resultaten zouden opleveren als een gelijkwaardige Adobe Analytics-gegevenstoevoer,
zie:
Hieronder ziet u een voorbeeld waarin u de toewijzing op de juiste wijze kunt toepassen op verschillende sessies. Zo ziet u hoe u
-
de laatste 90 dagen gebruiken als terugzoekactie;
-
vensterfuncties zoals sessionisatie en / of attributie toepassen, en
-
de uitvoer beperken op basis van de
ingest_time.accordion Details Om dit te doen, moet je…
- Gebruik een tabel met verwerkingsstatus,
checkpoint_log, om de huidige versus de laatste ingangstijd bij te houden. Zie deze gids voor meer informatie. - Schakel het neerzetten van systeemkolommen uit, zodat u
_acp_system_metadata.ingestTimekunt gebruiken. - Gebruik een binnenste
SELECTom de velden te grijpen die u wilt gebruiken en de gebeurtenissen te beperken tot de terugzoekperiode voor sessionisatie- en/of attributieberekeningen. Bijvoorbeeld 90 dagen. - Gebruik een niveau op het volgende niveau
SELECTom u sessionisatie- en/of attributievensters en andere berekeningen toe te passen. - Gebruik
INSERT INTOin de uitvoertabel om de terugzoekopdracht te beperken tot alleen de gebeurtenissen die zijn gearriveerd sinds de laatste verwerkingstijd. U doet dit door op_acp_system_metadata.ingestTimetegenover de tijd te filtreren laatst die in uw lijst van de verwerkingsstatus wordt opgeslagen.
de functies van het venster van de Zitting voorbeeld
code language-sql $$ BEGIN -- Disable dropping system columns set drop_system_columns=false; -- Initialize variables SET @last_updated_timestamp = SELECT CURRENT_TIMESTAMP; -- Get the last processed batch ingestion time SET @from_batch_ingestion_time = SELECT coalesce(last_batch_ingestion_time, 'HEAD') FROM checkpoint_log a JOIN ( SELECT MAX(process_timestamp) AS process_timestamp FROM checkpoint_log WHERE process_name = 'data_feed' AND process_status = 'SUCCESSFUL' ) b ON a.process_timestamp = b.process_timestamp; -- Get the last batch ingestion time SET @to_batch_ingestion_time = SELECT MAX(_acp_system_metadata.ingestTime) FROM events_dataset; -- Sessionize the data and insert into data_feed. INSERT INTO data_feed SELECT * FROM ( SELECT userIdentity, timestamp, SESS_TIMEOUT(timestamp, 60 * 30) OVER ( PARTITION BY userIdentity ORDER BY timestamp ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW ) AS session_data, page_name, ingest_time FROM ( SELECT userIdentity, timestamp, web.webPageDetails.name AS page_name, _acp_system_metadata.ingestTime AS ingest_time FROM events_dataset WHERE timestamp >= current_date - 90 ) AS a ORDER BY userIdentity, timestamp ASC ) AS b WHERE b.ingest_time >= @from_batch_ingestion_time; -- Update the checkpoint_log table INSERT INTO checkpoint_log SELECT 'data_feed' process_name, 'SUCCESSFUL' process_status, cast(@to_batch_ingestion_time AS string) last_batch_ingestion_time, cast(@last_updated_timestamp AS TIMESTAMP) process_timestamp END $$;de functies van het venster van de Attributie voorbeeld
code language-sql $$ BEGIN SET drop_system_columns=false; -- Initialize variables SET @last_updated_timestamp = SELECT CURRENT_TIMESTAMP; -- Get the last processed batch ingestion time 1718755872325 SET @from_batch_ingestion_time = SELECT coalesce(last_snapshot_id, 'HEAD') FROM checkpoint_log a JOIN ( SELECT MAX(process_timestamp) AS process_timestamp FROM checkpoint_log WHERE process_name = 'data_feed' AND process_status = 'SUCCESSFUL' ) b ON a.process_timestamp = b.process_timestamp; -- Get the last batch ingestion time 1718758687865 SET @to_batch_ingestion_time = SELECT MAX(_acp_system_metadata.ingestTime) FROM demo_data_trey_mcintyre_midvalues; -- Sessionize the data and insert into new_sessionized_data INSERT INTO new_sessionized_data SELECT * FROM ( SELECT _id, timestamp, struct(User_Identity, cast(SESS_TIMEOUT(timestamp, 60 * 30) OVER ( PARTITION BY User_Identity ORDER BY timestamp ROWS BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW ) as string) AS SessionData, to_timestamp(from_unixtime(ingest_time/1000, 'yyyy-MM-dd HH:mm:ss')) AS IngestTime, PageName, first_url, first_channel_type ) as _demosystem5 FROM ( SELECT _id, ENDUSERIDS._EXPERIENCE.MCID.ID as User_Identity, timestamp, web.webPageDetails.name AS PageName, attribution_first_touch(timestamp, '', web.webReferrer.url) OVER (PARTITION BY ENDUSERIDS._EXPERIENCE.MCID.ID ORDER BY timestamp ASC ROWS BETWEEN UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING).value AS first_url, attribution_first_touch(timestamp, '',channel.typeAtSource) OVER (PARTITION BY ENDUSERIDS._EXPERIENCE.MCID.ID ORDER BY timestamp ASC ROWS BETWEEN UNBOUNDED PRECEDING AND UNBOUNDED FOLLOWING).value AS first_channel_type, _acp_system_metadata.ingestTime AS ingest_time FROM demo_data_trey_mcintyre_midvalues WHERE timestamp >= current_date - 90 ) ORDER BY User_Identity, timestamp ASC ) WHERE _demosystem5.IngestTime >= to_timestamp(from_unixtime(@from_batch_ingestion_time/1000, 'yyyy-MM-dd HH:mm:ss')); -- Update the checkpoint_log table INSERT INTO checkpoint_log SELECT 'data_feed' as process_name, 'SUCCESSFUL' as process_status, cast(@to_batch_ingestion_time AS string) as last_snapshot_id, cast(@last_updated_timestamp AS timestamp) as process_timestamp; END $$; - Gebruik een tabel met verwerkingsstatus,
Zoekopdracht plannen
U plant de vraag om ervoor te zorgen dat de vraag wordt uitgevoerd en dat de resultaten bij uw aangewezen interval worden geproduceerd.
Query-editor gebruiken
U kunt een vraag plannen gebruikend de Redacteur van de Vraag. Wanneer het plannen van de vraag, bepaalt u een outputdataset. Zie de programma's van de Vraag voor meer informatie.
API voor Query Service gebruiken
Alternatief kunt u RESTful APIs gebruiken om een vraag en een programma voor de vraag te bepalen. Zie de gids van de Dienst API van de Vraag voor meer informatie.
Verzeker u de outputdataset als deel van het facultatieve ctasParameters bezit wanneer het creëren van de vraag ( creeer een vraag ) of wanneer het creëren van het programma voor een vraag ( creeer een geplande vraag ).
Gegevensbestanden exporteren
Zodra u hebt gecreeerd en uw vraag gepland, en de resultaten geverifieerd, kunt u de ruwe datasets aan de bestemmingen van de wolkenopslag dan uitvoeren. Deze uitvoer is in de terminologie van de Doelen van Experience Platform die als de uitvoerbestemmingen van de Dataset wordt bedoeld. Zie datasets van de Uitvoer aan de bestemmingen van de wolkenopslag voor een overzicht.
De volgende bestemmingen voor cloudopslag worden ondersteund:
EXPERIENCE PLATFORM UI
U kunt de uitvoer van uw outputdatasets door Experience Platform UI uitvoeren en plannen. In dit gedeelte worden de desbetreffende stappen beschreven.
Doel selecteren
Wanneer u hebt bepaald welke bestemming van de wolkenopslag u de outputdataset aan wilt uitvoeren, selecteer de bestemming . Wanneer u nog geen bestemming voor uw aangewezen wolkenopslag hebt gevormd, moet u een nieuwe bestemmingsverbinding tot stand brengen.
Als deel van het vormen van een bestemming, kunt u
- het bestandstype (JSON of Parquet) definiëren;
- of het resulterende bestand al dan niet moet worden gecomprimeerd, en
- of een manifestbestand al dan niet moet worden opgenomen.
Gegevensset selecteren
Wanneer u het doel hebt geselecteerd, moet u in de volgende Select datasets stap uw outputdataset van de lijst van datasets selecteren. Als u veelvoudige geplande vragen hebt tot stand gebracht, en u de outputdatasets naar de zelfde bestemming van de wolkenopslag wilt verzenden, kunt u de overeenkomstige outputdatasets selecteren. Zie selecteren uw datasets voor meer informatie.
Gegevensexport voor schema
Tot slot wilt u de uitvoer van uw dataset plannen als deel van de Scheduling stap. In die stap kunt u het programma bepalen en of de uitvoer van de outputdataset incrementeel of niet zou moeten zijn. Zie de datasetuitvoer van het Programma voor meer informatie.
Slotstappen
Overzicht uw selectie, en wanneer correct, begin uw outputdataset aan de bestemming van de wolkenopslag te exporteren.
U moet verifiëren een succesvolle gegevensuitvoer. Bij het exporteren van gegevenssets maakt Experience Platform een of meer .json - of .parquet -bestanden op de opslaglocatie die in uw bestemming is gedefinieerd. Nieuwe bestanden worden naar verwachting op uw opslaglocatie gedeponeerd volgens het exportschema dat u instelt. Experience Platform maakt een mapstructuur op de opslaglocatie die u hebt opgegeven als onderdeel van de geselecteerde bestemming, waar de geëxporteerde bestanden worden opgeslagen. Voor elke exporttijd wordt een nieuwe map gemaakt, volgens het patroon: folder-name-you-provided/datasetID/exportTime=YYYYMMDDHHMM . De standaardbestandsnaam wordt willekeurig gegenereerd en zorgt ervoor dat geëxporteerde bestandsnamen uniek zijn.
Flow Service-API
Alternatief, kunt u de uitvoer van outputdatasets uitvoeren en plannen gebruikend APIs. De betrokken stappen worden gedocumenteerd in datasets van de Uitvoer door de Dienst API van de Stroom te gebruiken .
Aan de slag
Om datasets uit te voeren, verzeker u de vereiste toestemmingen hebt. Verifieer ook dat de bestemming waarnaar u uw outputdataset wilt verzenden het uitvoeren van datasets steunt. U moet dan de waarden voor vereiste en facultatieve kopballen verzamelen die u in de API vraag gebruikt. U moet ook de verbindingsspecificatie en stroom specifieke IDs van de bestemming identificeren u van plan bent datasets naar uit te voeren.
In aanmerking komende gegevenssets ophalen
U kunt een lijst van in aanmerking komende datasets voor de uitvoer terugwinnen en verifiëren of uw outputdataset deel van die lijst gebruikend GET /connectionSpecs/{id}/configs API uitmaakt.
Bronverbinding maken
Daarna moet u een bronverbinding voor de outputdataset tot stand brengen, gebruikend zijn unieke identiteitskaart, die u naar de bestemming van de wolkenopslag wilt uitvoeren. U gebruikt POST /sourceConnections API.
Verifiëren voor bestemming (basisverbinding maken)
U moet nu een basisverbinding tot stand brengen om de geloofsbrieven aan uw bestemming van de wolkenopslag voor authentiek te verklaren en veilig op te slaan gebruikend POST /targetConection API.
Exportparameters opgeven
Daarna, moet u een extra doelverbinding tot stand brengen die de uitvoerparameters voor uw outputdataset opslaat gebruikend, eens meer, POST /targetConection API. Deze exportparameters zijn onder andere locatie, bestandsindeling, compressie en meer.
Gegevensstroom instellen
Tot slot opstelling dataflow om ervoor te zorgen dat uw outputdataset wordt uitgevoerd naar uw bestemming van de wolkenopslag gebruikend POST /flows API. In deze stap, kunt u het programma voor de uitvoer bepalen, gebruikend de scheduleParams parameter.
Gegevensstroom valideren
Om succesvolle uitvoeringen van uw dataflow te controleren, gebruik GET /runs API, die dataflow identiteitskaart als vraagparameter specificeren. Deze gegevensstroom-id is een id die wordt geretourneerd wanneer u de gegevensstroom instelt.
verifieer een succesvolle gegevensuitvoer. Bij het exporteren van gegevenssets maakt Experience Platform een of meer .json - of .parquet -bestanden op de opslaglocatie die in uw bestemming is gedefinieerd. Nieuwe bestanden worden naar verwachting op uw opslaglocatie gedeponeerd volgens het exportschema dat u instelt. Experience Platform maakt een mapstructuur op de opslaglocatie die u hebt opgegeven als onderdeel van de geselecteerde bestemming, waar de geëxporteerde bestanden worden opgeslagen. Voor elke exporttijd wordt een nieuwe map gemaakt, volgens het patroon: folder-name-you-provided/datasetID/exportTime=YYYYMMDDHHMM . De standaardbestandsnaam wordt willekeurig gegenereerd en zorgt ervoor dat geëxporteerde bestandsnamen uniek zijn.
Conclusie
Kortom, het emuleren van de functionaliteit Adobe Analytics Data Feed impliceert het instellen van geplande query's met behulp van Query Service en het gebruik van de resultaten van deze query's in geplande gegevensset-exportbewerkingen.