Importera batchdata
I den här lektionen ska du importera gruppdata till Experience Platform på olika sätt.
Genom att lägga in data i grupp kan du samtidigt importera en stor mängd data till Adobe Experience Platform. Du kan importera gruppdata i en enda överföring inom plattformens gränssnitt eller med API:t. Du kan också konfigurera regelbundet schemalagda batchöverföringar från tredjepartstjänster som molnlagringstjänster med hjälp av Source-anslutningar.
Datatekniker måste importera batchdata utanför den här självstudiekursen.
Innan du börjar övningarna ska du titta på den här korta videon för att lära dig mer om datainhämtning:
Behörigheter krävs
I lektionen Konfigurera behörigheter ställer du in alla åtkomstkontroller som krävs för att slutföra lektionen.
Du måste ha tillgång till en (S)FTP-server eller molnlagringslösning för Sources-övningen. Det finns en lösning om du inte har någon.
Samla in data gruppvis med användargränssnittet i plattformen
Data kan överföras direkt till en datauppsättning på datauppsättningsskärmen i JSON- och parquet-format. Detta är ett bra sätt att testa intag av vissa data efter att ha skapat en
Hämta och förbereda data
Börja med att hämta exempeldata och anpassa dem för din klientorganisation:
-
Hämta luma-data.zip till din luma Tutorial Assets -mapp.
-
Zippa upp filen och skapa en mapp med namnet
luma-data
som innehåller de fyra datafilerna som vi ska använda i lektionen -
Öppna
luma-loyalty.json
i en textredigerare och ersätt alla förekomster av_techmarketingdemos
med ditt eget understreck-tenant-ID, som i dina egna scheman:
-
Spara den uppdaterade filen
Infoga data
-
Välj Datasets i den vänstra navigeringen i plattformens användargränssnitt
-
Öppna
Luma Loyalty Dataset
-
Bläddra nedåt tills du ser avsnittet Add Data i den högra kolumnen
-
Överför filen
luma-loyalty.json
. -
När filen har överförts visas en rad för gruppen
-
Om du läser in sidan igen efter några minuter bör du se att batchen har överförts med 1 000 poster och 1 000 profilfragment.
- Om du aktiverar feldiagnostik genereras data om inmatningen av data, som du sedan kan granska med hjälp av API:t för dataåtkomst. Läs mer om det i dokumentationen.
- Delvis intag gör att du kan importera data som innehåller fel, upp till ett visst tröskelvärde som du kan ange. Läs mer om det i dokumentationen
Validera data
Det finns några sätt att bekräfta att data har importerats.
Validera i användargränssnittet för plattformen
Så här bekräftar du att data har importerats till datauppsättningen:
-
På samma sida där du har inhämtat data markerar du knappen Preview dataset överst till höger
-
Välj knappen Förhandsgranska så kan du se några av de inkapslade data.
Så här bekräftar du att data landats i profilen (det kan ta några minuter innan data landas):
- Gå till Profiles i den vänstra navigeringen
- Markera ikonen bredvid fältet Select identity namespace för att öppna det modala
- Välj namnområde för
Luma Loyalty Id
- Ange sedan ett av
loyaltyId
-värdena från datauppsättningen,5625458
- Välj View
Validera med dataöverföringshändelser
Om du prenumererar på dataöverföringshändelser i den föregående lektionen ska du kontrollera din unika webkrok.site-URL. Du bör se tre begäranden som visas i följande ordning, med en viss tid mellan dem, med följande eventCode
-värden:
ing_load_success
- batchen är kapsladig_load_success
- batchen skapades i identitetsdiagrammetps_load_success
- batchen skapades i profiltjänsten
Mer information om meddelanden finns i dokumentationen.
Importera data gruppvis med Platform API
Nu ska vi ladda upp data med API:t.
Hämta och förbereda data
- Du bör redan ha hämtat och packat upp luma-data.zip till mappen
Luma Tutorial Assets
. - Öppna
luma-crm.json
i en textredigerare och ersätt alla förekomster av_techmarketingdemos
med ditt eget understreck-tenant-ID, så som du ser i dina scheman - Spara den uppdaterade filen
Hämta datauppsättnings-ID
Först hämtar vi ID:t för datauppsättnings-ID:t för den datauppsättning som vi vill importera data till:
- Öppna Postman
- Om du inte har någon åtkomsttoken öppnar du begäran OAuth: Request Access Token och väljer Skicka för att begära en ny åtkomsttoken, precis som i lektionen Postman.
- Öppna dina miljövariabler och kontrollera att värdet för CONTAINER_ID fortfarande är
tenant
- Öppna förfrågan Catalog Service API > Datasets > Retrieve a list of datasets. och välj Skicka
- Du bör få ett
200 OK
-svar - Kopiera ID för
Luma CRM Dataset
från svarstexten
Skapa gruppen
Nu kan vi skapa en batch i datauppsättningen:
-
Hämta API för datainmatning.postman_collection.json till din
Luma Tutorial Assets
-mapp -
Importera samlingen till Postman
-
Välj begäran Data Ingestion API > Batch Ingestion > Create a new batch in Catalog Service.
-
Klistra in följande som Body i begäran och ersätt dataId-värdet med ditt:
code language-json { "datasetId":"REPLACE_WITH_YOUR_OWN_DATASETID", "inputFormat": { "format": "json" } }
-
Välj knappen Skicka
-
Du bör få ett svar från 201 Created som innehåller ID:t för din nya batch!
-
Kopiera
id
för den nya gruppen
Infoga data
Nu kan vi överföra data till gruppen:
-
Välj begäran Data Ingestion API > Batch Ingestion > Upload a file to a dataset in a batch.
-
På fliken Params anger du datauppsättnings-ID och batch-ID i deras respektive fält
-
På fliken Params anger du
luma-crm.json
som filePath -
Välj alternativet binärt på fliken Brödtext
-
Välj den hämtade
luma-crm.json
från din lokalaLuma Tutorial Assets
-mapp -
Välj Skicka så får du ett 200 OK-svar med 1 i svarstexten
Om du nu tittar på din batch i användargränssnittet för plattformen ser du att den har statusen Loading:
Eftersom API:t för batch ofta används för att överföra flera filer måste du ange för Platform när en batch är slutförd, vilket vi gör i nästa steg.
Slutför batchen
Så här slutför du gruppen:
-
Välj begäran Data Ingestion API > Batch Ingestion > Finish uploading a file to a dataset in a batch.
-
Ange
COMPLETE
som åtgärd på fliken Params. -
Ange ditt batch-ID på fliken Params. Du behöver inte bekymra dig om datauppsättnings-ID eller filePath om de finns.
-
Kontrollera att POSTENS URL är
https://platform.adobe.io/data/foundation/import/batches/:batchId?action=COMPLETE
och att det inte finns några onödiga referenser tilldatasetId
ellerfilePath
-
Välj Skicka så får du ett 200 OK-svar med 1 i svarstexten
Validera data
Validera i användargränssnittet för plattformen
Validera att data har landats i användargränssnittet för plattformen på samma sätt som för lojalitetsdatauppsättningen.
Bekräfta först att batchen visar att 1 000 poster har importerats:
Bekräfta sedan gruppen med datauppsättningen Preview:
Bekräfta slutligen att en av dina profiler har skapats genom att leta upp en av profilerna i namnutrymmet Luma CRM Id
, till exempel 112ca06ed53d3db37e4cea49cc45b71e
Det finns en intressant sak som just hände som jag vill understryka. Öppna den Danny Wright
-profilen. Profilen har både Lumacrmid
och Lumaloyaltyid
. Kom ihåg att Luma Loyalty Schema
innehöll två identitetsfält, Luma Loyalty Id och CRM Id. Nu när vi har överfört båda datauppsättningarna har de sammanfogats till en enda profil. Lojalitetsdata hade Daniel
som förnamn och New York City som hemadress, medan CRM-data hade Danny
som förnamn och Portland
som hemadress för kunden med samma Lojalty-ID. Vi återkommer till varför förnamnet visas Danny
i lektionen om sammanfogningsprinciper.
Grattis, du har just sammanfogat profiler!
Validera med dataöverföringshändelser
Om du prenumererar på dataöverföringshändelser i den föregående lektionen ska du kontrollera din unika webkrok.site-URL. Du bör se tre förfrågningar som kommer in, precis som med lojalitetsdata:
Mer information om meddelanden finns i dokumentationen.
Importera data med arbetsflöden
Låt oss titta på ett annat sätt att överföra data. Med arbetsflödesfunktionen kan du importera CSV-data som inte redan är modellerade i XDM.
Hämta och förbereda data
- Du bör redan ha hämtat och packat upp luma-data.zip till mappen
Luma Tutorial Assets
. - Bekräfta att du har
luma-products.csv
Skapa ett arbetsflöde
Nu ska vi skapa ett arbetsflöde:
- Gå till Workflows i den vänstra navigeringen
- Markera Map CSV to XDM schema och välj knappen Launch
- Markera
Luma Product Catalog Dataset
och välj knappen Next
- Lägg till filen
luma-products.csv
som du hämtade och välj knappen Next
- Nu är du i mappningsgränssnittet, i vilket du kan mappa ett fält från källdata (ett av kolumnnamnen i filen
luma-products.csv
) till XDM-fält i målschemat. I det här exemplet är kolumnnamnen tillräckligt nära schemafältnamnen för att mapparen automatiskt ska kunna identifiera rätt mappning. Om mapparen inte kunde identifiera rätt fält automatiskt, skulle du markera ikonen till höger om målfältet för att välja rätt XDM-fält. Om du inte vill importera en av kolumnerna från CSV-filen kan du ta bort raden från mapparen. Du kan spela runt och ändra kolumnrubriker iluma-products.csv
för att få reda på hur mappningen fungerar. - Markera knappen Finish
Validera data
När gruppen har överförts verifierar du överföringen genom att förhandsgranska datauppsättningen.
Eftersom Luma Product SKU
är ett namnområde som inte är ett personnamn visas inga profiler för produktskus.
Du borde se de tre träffarna till din webkrok.
Importera data med källor
Okej, du gjorde saker på den hårda vägen. Låt oss nu gå in i det utlovade landet för automatiserad batchförtäring! När jag säger: "SÄTT IN DET!" "GLÖM DET!" "SÄTT DIG!" "GLÖM DET!" "SÄTT DIG!" "GLÖM DET!" Skämtar du bara, du skulle aldrig göra något sådant! Okej, tillbaka till jobbet. Du är nästan klar.
Gå till Sources i den vänstra navigeringen för att öppna källkatalogen. Här ser du en mängd färdiga integreringar med branschledande data- och lagringsleverantörer.
Okej, vi importerar data med hjälp av en källanslutning.
Den här övningen kommer att vara din egen stil. Jag ska visa arbetsflödet med FTP-källkopplingen. Du kan antingen använda en annan anslutning till molnlagringskällan som du använder på ditt företag, eller överföra json-filen med datauppsättningens användargränssnitt på samma sätt som med lojalitetsdata.
Många av källorna har ett liknande konfigurationsarbetsflöde där du:
- Ange din autentiseringsinformation
- Markera de data som du vill importera
- Välj den plattformsdatauppsättning som du vill importera den till
- Mappa fälten till XDM-schemat
- Välj hur ofta du vill hämta data från den platsen
Hämta, förbered och överföra data till den molnlagringsleverantör du föredrar
- Du bör redan ha hämtat och packat upp luma-data.zip till mappen
Luma Tutorial Assets
. - Öppna
luma-offline-purchases.json
i en textredigerare och ersätt alla förekomster av_techmarketingdemos
med ditt eget understreck-tenant-ID, så som du ser i dina scheman - Uppdatera alla tidsstämplar så att händelserna inträffar den senaste månaden (sök till exempel efter
"timestamp":"2022-06
och ersätt år och månad) - Välj önskad molnlagringsleverantör och kontrollera att den är tillgänglig i katalogen Sources
- Överför
luma-offline-purchases.json
till en plats i den molnlagringsleverantör du föredrar
Importera data till den önskade molnlagringsplatsen
-
Filtrera katalogen Sources till Cloud storage i användargränssnittet för plattformen
-
Observera att det finns praktiska länkar till dokumentation under
...
-
Välj knappen Configure i rutan för den molnlagringsleverantör du föredrar
-
Authentication är det första steget. Ange namnet på ditt konto, till exempel
Luma's FTP Account
, och din autentiseringsinformation. Det här steget bör vara ungefär likadant för alla molnlagringskällor, men fälten kan variera något. När du har angett autentiseringsinformationen för ett konto kan du återanvända dem för andra källanslutningar som kan skicka andra data i olika scheman från andra filer på samma konto -
Välj Connect to source button
-
När plattformen har anslutit till Source väljer du knappen Next
-
I steget Select data använder användargränssnittet dina autentiseringsuppgifter för att öppna mappen i din molnlagringslösning
-
Markera de filer som du vill importera, till exempel
luma-offline-purchases.json
-
Som Data format väljer du
XDM JSON
-
Sedan kan du förhandsgranska JSON-strukturen och exempeldata i filen
-
Markera knappen Next
-
I steget Mapping väljer du
Luma Offline Purchase Events Dataset
och klickar på knappen Next. Observera i meddelandet att eftersom de data vi samlar in är en JSON-fil finns det inget mappningssteg där vi mappar källfält till målfält. JSON-data måste redan finnas i XDM. Om du importerade en CSV-fil ser du hela mappningsgränssnittet i det här steget:
-
I steget Scheduling väljer du hur ofta du vill hämta data från Source. Ta en stund och titta på alternativen. Vi ska bara göra en engångsinmatning, så lämna Frequency på Once och välj knappen Next:
-
I steget Dataflow detail kan du välja ett namn för dataflödet, ange en valfri beskrivning, aktivera feldiagnostik och partiellt intag. Låt inställningarna vara som de är och välj knappen Next:
-
I steget Review kan du granska alla dina inställningar tillsammans och antingen redigera dem eller välja knappen Finish
-
När du har sparat kommer du att landa på en skärm som den här:
Validera data
När gruppen har överförts verifierar du överföringen genom att förhandsgranska datauppsättningen.
Du borde se de tre träffarna till din webkrok.
Slå upp profilen med värdet 5625458
i namnområdet loyaltyId
igen för att se om det finns några köphändelser i profilen. Du borde se ett köp. Du kan utforska information om köpet genom att välja View JSON:
ETL-verktyg
Adobe samarbetar med flera ETL-leverantörer för att stödja datainhämtning till Experience Platform. På grund av de många olika tredjepartsleverantörerna ingår inte ETL i kursen, även om du gärna vill titta närmare på några av dessa resurser:
Ytterligare resurser
Låt nu strömma data med Web SDK