Skapa ett dataflöde för en betalningskälla i användargränssnittet

Ett dataflöde är en schemalagd aktivitet som hämtar och importerar data från en källa till en datauppsättning i Adobe Experience Platform. I den här självstudiekursen beskrivs hur du skapar ett dataflöde för en betalningskälla med hjälp av plattformsgränssnittet.

NOTE
  • För att kunna skapa ett dataflöde måste du redan ha ett autentiserat konto med en betalningskälla. En lista med självstudiekurser för att skapa olika betalningskällkonton i användargränssnittet finns i källöversikt.
  • För att Experience Platform ska kunna importera data måste tidszoner för alla tabellbaserade batchkällor konfigureras till UTC.

Komma igång

Den här självstudiekursen kräver en fungerande förståelse av följande plattformskomponenter:

  • Källor: Plattformen tillåter att data hämtas från olika källor samtidigt som du kan strukturera, etikettera och förbättra inkommande data med Platform tjänster.

  • Experience Data Model (XDM) System: Det standardiserade ramverk som Experience Platform använder för att ordna kundupplevelsedata.

  • Real-Time Customer Profile: Ger en enhetlig konsumentprofil i realtid baserad på aggregerade data från flera källor.

  • Data Prep: Tillåter datatekniker att mappa, omvandla och validera data till och från Experience Data Model (XDM).

Lägg till data

När du har skapat ditt betalningskällkonto Add data visas, där du får ett gränssnitt där du kan utforska kontots tabellhierarki.

  • Den vänstra halvan av gränssnittet är en webbläsare som visar en lista över datatabeller som finns i ditt konto. Gränssnittet innehåller också ett sökalternativ som gör att du snabbt kan identifiera de källdata som du tänker använda.
  • Den högra halvan av gränssnittet är en förhandsgranskningspanel som gör att du kan förhandsgranska upp till 100 rader med data.
NOTE
Sökkällans dataalternativ är tillgängligt för alla tabellbaserade källor utom Adobe Analytics, Amazon Kinesisoch Azure Event Hubs.

När du har hittat källdata markerar du tabellen och väljer sedan Next.

select-data

Ange information om dataflöde

The Dataflow detail kan du välja om du vill använda en befintlig datamängd eller en ny datamängd. Under den här processen kan du även konfigurera inställningar för Profile dataset, Error diagnostics, Partial ingestionoch Alerts.

dataflöde-detail

Använd en befintlig datamängd

Om du vill importera data till en befintlig datauppsättning väljer du Existing dataset. Du kan antingen hämta en befintlig datauppsättning med Advanced search eller genom att bläddra igenom listan med befintliga datauppsättningar i listrutan. När du har valt en datauppsättning anger du ett namn och en beskrivning för dataflödet.

befintlig datamängd

Använd en ny datauppsättning

Om du vill importera till en ny datauppsättning väljer du New dataset och ange sedan ett namn och en valfri beskrivning för utdatauppsättningen. Välj sedan ett schema att mappa till med Advanced search eller genom att bläddra igenom listan med befintliga scheman i listrutan. När du har valt ett schema anger du ett namn och en beskrivning för dataflödet.

new-dataset

Aktivera Profile och feldiagnostik

Nästa steg är att välja Profile dataset växla för att aktivera datauppsättningen för Profile. På så sätt kan du skapa en helhetsbild av en enhets attribut och beteenden. Data från alla Profile-aktiverade datauppsättningar kommer att inkluderas i Profile och ändringarna tillämpas när du sparar dataflödet.

Error diagnostics möjliggör detaljerad generering av felmeddelanden för alla felaktiga poster som inträffar i dataflödet, medan Partial ingestion gör att du kan importera data som innehåller fel, upp till ett visst tröskelvärde som du manuellt anger. Se partiell batchingång - översikt för mer information.

profil-och-fel

Aktivera aviseringar

Du kan aktivera varningar för att få meddelanden om status för ditt dataflöde. Välj en avisering i listan om du vill prenumerera och få meddelanden om statusen för ditt dataflöde. Mer information om varningar finns i guiden på prenumerera på källvarningar med användargränssnittet.

När du är klar med informationen om dataflödet väljer du Next.

varningar

Mappa datafält till ett XDM-schema

The Mapping visas med ett gränssnitt för att mappa källfälten från källschemat till rätt mål-XDM-fält i målschemat.

Plattformen ger intelligenta rekommendationer för automatiskt mappade fält baserat på det målschema eller den datamängd du valt. Du kan justera mappningsreglerna manuellt så att de passar dina användningsfall. Beroende på dina behov kan du välja att mappa fält direkt eller använda förinställningsfunktioner för data för att omvandla källdata för att härleda beräknade eller beräknade värden. Mer information om hur du använder mappningsgränssnittet och beräkningsfälten finns i Användargränssnittsguide för dataprep.

När källdata har mappats väljer du Next.

mappning

Schemalägg körning av inmatning

The Scheduling visas så att du kan konfigurera ett matningsschema att automatiskt importera valda källdata med de konfigurerade mappningarna. Som standard är schemaläggning inställd på Once. Om du vill justera din matningsfrekvens väljer du Frequency och välj sedan ett alternativ i listrutan.

TIP
Intervall och bakåtfyllnad syns inte vid engångsbruk.

schemaläggning

Om du ställer in din matningsfrekvens på Minute, Hour, Day, eller Weekmåste du ange ett intervall för att skapa en fast tidsram mellan varje intag. Till exempel en matningsfrekvens som är inställd på Day och ett intervall anges till 15 innebär att ditt dataflöde är schemalagt att importera data var 15:e dag.

Under det här steget kan du även aktivera bakfyllning och definiera en kolumn för stegvis inmatning av data. Backfill används för att importera historiska data, medan kolumnen som du definierar för inkrementellt intag gör att nya data kan skiljas från befintliga data.

Se tabellen nedan för mer information om schemaläggningskonfigurationer.

Fält
Beskrivning
Frekvens
Frekvensen med vilken ett intag sker. Valbara frekvenser inkluderar Once, Minute, Hour, Dayoch Week.
Intervall
Ett heltal som anger intervallet för den valda frekvensen. Intervallets värde måste vara ett heltal som inte är noll och måste vara större än eller lika med 15.
Starttid
En UTC-tidsstämpel som anger när det allra första intaget är inställt att ske. Starttiden måste vara större än eller lika med den aktuella UTC-tiden.
Backfill
Ett booleskt värde som avgör vilka data som hämtas från början. Om bakåtfyllning är aktiverad, kommer alla aktuella filer i den angivna sökvägen att importeras under det första schemalagda intaget. Om underfyllning är inaktiverad importeras endast de filer som läses in mellan den första importkörningen och starttiden. Filer som lästs in före starttiden importeras inte.
Läs in inkrementella data med
Ett alternativ med en filtrerad uppsättning källschemafält av typen, datumet eller tiden. Fältet som du väljer för Load incremental data by måste ha sina datum/tid-värden i UTC-tidszonen för att inkrementella data ska kunna läsas in korrekt. Alla tabellbaserade batchkällor hämtar inkrementella data genom att jämföra ett deltskolumnens tidsstämpelvärde med motsvarande körningsfönster UTC-tid och sedan kopiera data från källan, om nya data hittas i UTC-tidsfönstret.

bakfyllning

Granska ditt dataflöde

The Review visas så att du kan granska det nya dataflödet innan det skapas. Informationen är grupperad i följande kategorier:

  • Connection: Visar källtypen, den relevanta sökvägen till den valda källfilen och mängden kolumner i källfilen.
  • Assign dataset & map fields: Visar vilken datauppsättning källdata hämtas till, inklusive det schema som datauppsättningen följer.
  • Scheduling: Visar den aktiva perioden, frekvensen och intervallet för intag-schemat.

När du har granskat dataflödet väljer du Finish så att dataflödet kan skapas.

recension

Övervaka dataflödet

När dataflödet har skapats kan du övervaka de data som importeras genom det för att se information om hur mycket data som har intagits, hur bra de är och vilka fel som har uppstått. Mer information om hur du övervakar dataflöde finns i självstudiekursen om övervaka konton och dataflöden i användargränssnittet.

Ta bort ditt dataflöde

Du kan ta bort dataflöden som inte längre är nödvändiga eller som har skapats felaktigt med Delete finns i Dataflows arbetsyta. Mer information om hur du tar bort dataflöden finns i självstudiekursen om ta bort dataflöden i användargränssnittet.

Nästa steg

Genom att följa den här självstudiekursen har du skapat ett dataflöde för att överföra data från din betalningskälla till Platform. Inkommande data kan nu användas av underordnade Platform tjänster som Real-Time Customer Profile och Data Science Workspace. Mer information finns i följande dokument:

WARNING
Det plattformsgränssnitt som visas i följande video är inaktuellt. Läs dokumentationen ovan för de senaste skärmbilderna och funktionerna i användargränssnittet.
recommendation-more-help
337b99bb-92fb-42ae-b6b7-c7042161d089