[Ultimate]{class="badge positive"}

Strömma data från din Snowflake-databas till Experience Platform med hjälp av användargränssnittet

Lär dig hur du använder användargränssnittet för att strömma data från din Snowflake-databas till Adobe Experience Platform genom att följa den här guiden.

Kom igång

Den här självstudiekursen kräver en fungerande förståelse av följande komponenter i Experience Platform:

Autentisering

Läs guiden om nödvändig konfiguration för Snowflake direktuppspelningsdata om du vill ha information om hur du måste slutföra innan du kan importera direktuppspelningsdata från Snowflake till Experience Platform.

Använd Snowflake Streaming-källan för att strömma Snowflake-data till Experience Platform

I plattformsgränssnittet väljer du Sources i den vänstra navigeringen för att komma åt arbetsytan i Sources. Du kan välja lämplig kategori i katalogen till vänster på skärmen. Du kan också hitta den källa du vill arbeta med med med sökalternativet.

Under kategorin Databaser väljer du Snowflake Streaming och sedan Add data.

TIP
Källor som inte har något autentiserat konto i källkatalogen visar alternativet Set up. När det finns ett autentiserat konto ändras det här alternativet till Add data.

Källkatalogen i användargränssnittet i Experience Platform med källkortet för direktuppspelning i Snowflake markerat.

Sidan Connect Snowflake Streaming account visas. På den här sidan kan du antingen använda nya eller befintliga autentiseringsuppgifter.

Skapa ett nytt konto

Om du vill skapa ett nytt konto väljer du New account och anger ett namn, en valfri beskrivning och dina autentiseringsuppgifter.

När du är klar väljer du Connect to source och tillåt sedan lite tid för att upprätta den nya anslutningen.

Det nya gränssnittet för att skapa konton i källarbetsflödet.

table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 7-row-2
Autentiseringsuppgifter Beskrivning
Konto Namnet på ditt Snowflake-konto.
Lagerställe Namnet på ditt Snowflake-lagerställe. Lagerställen hanterar körningen av frågor i Snowflake. Varje Snowflake-lagerställe är oberoende av varandra och måste nås individuellt för att data ska kunna hämtas till Experience Platform.
Databas Namnet på din Snowflake-databas. Databasen innehåller de data som du vill ta med till Experience Platform.
Schema (Valfritt) Databasschemat som är associerat med ditt Snowflake-konto.
Användarnamn Användarnamnet för ditt Snowflake-konto.
Lösenord Lösenordet till ditt Snowflake-konto.
Roll (Valfritt) En anpassad definierad roll som kan ges till en användare för en viss anslutning. Om det inte anges används standardvärdet public.

Mer information om att skapa konto finns i avsnittet konfigurera rollinställningar i översikten Snowflake Streaming.

Använd ett befintligt konto

Om du vill använda ett befintligt konto väljer du Existing account och väljer sedan önskat konto i den befintliga kontokatalogen.

Välj Next om du vill fortsätta.

Den befintliga kontourvalssidan för källkatalogen.

Markera data select-data

IMPORTANT
Det måste finnas en tidsstämpelkolumn i källtabellen för att ett direktuppspelat dataflöde ska kunna skapas. Tidsstämpeln krävs för att Experience Platform ska kunna veta när data kommer att importeras och när inkrementella data kommer att direktuppspelas. Du kan lägga till en tidsstämpelkolumn retroaktivt för en befintlig anslutning och skapa ett nytt dataflöde.

Select data-steget visas. I det här steget måste du markera de data som du vill importera till Experience Platform, konfigurera tidsstämplar och tidszoner samt tillhandahålla en exempelkälldatafil för inmatning av rådata.

Använd databaskatalogen till vänster på skärmen och markera den tabell som du vill importera till Experience Platform.

Det valda datagränssnittet med en databastabell markerad.

Välj sedan kolumntypen för tidsstämpling för tabellen. Du kan välja mellan två typer av tidsstämpelkolumner: TIMESTAMP_NTZ eller TIMESTAMP_LTZ. Om du väljer kolumntypen TIMESTAMP_NTZ måste du också ange en tidszon. Kolumnerna ska ha en begränsning som inte är null. Mer information finns i avsnittet [Begränsningar och vanliga frågor]

Du kan också konfigurera inställningar för bakgrundsfyllning under det här steget. Backfill avgör vilka data som hämtas från början. Om bakåtfyllning är aktiverad, kommer alla aktuella filer i den angivna sökvägen att importeras under det första schemalagda intaget. Om så inte är fallet importeras endast de filer som läses in mellan den första importkörningen och starttiden. Filer som lästs in före starttiden importeras inte.

Markera växlingsknappen Backfill om du vill aktivera bakåtfyllning.

Konfigurationsstegen för tidsstämpel, tidszon och bakgrundsfyllning.

Välj slutligen Choose file om du vill överföra exempelkälldata för att skapa mappningsuppsättningen, som används i ett senare steg för att mappa originaldata till Experience Data Model (XDM).

När du är klar väljer du Next för att fortsätta.

Förhandsgranskningen av källans exempeldata.

Ange information om datauppsättning och dataflöde provide-dataset-and-dataflow-details

Därefter måste du ange information om datauppsättningen och dataflödet.

Information om datauppsättning dataset-details

En datauppsättning är en lagrings- och hanteringskonstruktion för en datamängd, vanligtvis en tabell, som innehåller ett schema (kolumner) och fält (rader). Data som har inhämtats till Experience Platform bevaras i sjön som datamängder. Under det här steget kan du skapa en ny datauppsättning eller använda en befintlig datauppsättning.

Använd en ny datauppsättning

Om du vill använda en ny datauppsättning väljer du New dataset och anger sedan ett namn och en valfri beskrivning för datauppsättningen. Du måste också välja ett XDM-schema (Experience Data Model) som datauppsättningen följer.

Det nya gränssnittet för val av datauppsättning.

table 0-row-2 1-row-2 2-row-2 3-row-2
Ny datauppsättningsinformation Beskrivning
Namn på utdatauppsättning Namnet på den nya datauppsättningen.
Beskrivning (Valfritt) En kort översikt över den nya datauppsättningen.
Schema En listruta med scheman som finns i organisationen. Du kan också skapa ett eget schema före källkonfigurationsprocessen. Mer information finns i guiden om att skapa ett XDM-schema i användargränssnittet.
Använd en befintlig datamängd

Om du redan har en befintlig datauppsättning väljer du Existing dataset och använder sedan alternativet Advanced search för att visa ett fönster med alla datauppsättningar i organisationen, inklusive deras respektive information, t.ex. om de har aktiverats för inmatning i kundprofilen i realtid.

Det befintliga gränssnittet för val av datauppsättning.

Välj om du vill ha steg för att aktivera profilintagning, feldiagnostik och partiell förtäring.

Om din datauppsättning är aktiverad för kundprofil i realtid kan du under det här steget växla Profile dataset för att aktivera dina data för profilinmatning. Du kan också använda det här steget för att aktivera Error diagnostics och Partial ingestion.

  • Error diagnostics: Välj Error diagnostics om du vill instruera källan att skapa feldiagnostik som du kan referera till senare när du övervakar datauppsättningsaktiviteten och dataflödesstatusen.
  • Partial ingestion: Partiell gruppinmatning är möjligheten att importera data som innehåller fel, upp till ett visst konfigurerbart tröskelvärde. Med den här funktionen kan du importera alla korrekta data till Experience Platform, medan alla felaktiga data batchas separat med information om varför de är ogiltiga.

Information om dataflöde dataflow-details

När datauppsättningen har konfigurerats måste du ange information om dataflödet, inklusive ett namn, en valfri beskrivning och aviseringskonfigurationer.

Konfigurationssteget för dataflödesinformation.

Dataflödeskonfigurationer
Beskrivning
Dataflödesnamn
Dataflödets namn. Som standard används namnet på filen som importeras.
Beskrivning
(Valfritt) En kort beskrivning av dataflödet.
Larm

Experience Platform kan skapa händelsebaserade aviseringar som användare kan prenumerera på. Dessa alternativ kräver ett öppet dataflöde för att utlösa dem. Mer information finns i varningsöversikten

  • Källdataflödeskörning Start: Välj den här aviseringen för att få ett meddelande när dataflödeskörningen börjar.
  • Källdataflödet har körts: Välj den här aviseringen om du vill få ett meddelande om dataflödet slutar utan fel.
  • Körningsfel för källdataflöde: Välj den här aviseringen för att få ett meddelande om dataflödet avslutas med fel.

När du är klar väljer du Next för att fortsätta.

Mappa fält till ett XDM-schema mapping

Mapping-steget visas. Använd mappningsgränssnittet för att mappa dina källdata till rätt schemafält innan du importerar dessa data till Experience Platform och välj sedan Next. En utförlig guide om hur du använder mappningsgränssnittet finns i Användargränssnittshandboken för dataförberedelser för mer information.

Mappningsgränssnittet för källarbetsflödet.

Granska ditt dataflöde review

Det sista steget i processen för att skapa dataflöde är att granska dataflödet innan det körs. Använd steget Review om du vill granska informationen om det nya dataflödet innan det körs. Detaljerna är grupperade i följande kategorier:

  • Anslutning: Visar källtypen, den relevanta sökvägen för den valda källfilen och antalet kolumner i källfilen.
  • Tilldela datauppsättnings- och mappningsfält: Visar vilka datauppsättningar som källdata importeras till, inklusive det schema som datauppsättningen följer.

När du har granskat dataflödet väljer du Finish och tillåt en tid innan dataflödet skapas.

Granskningssteget för källarbetsflödet.

Nästa steg

Genom att följa den här självstudiekursen har du skapat ett dataflöde för direktuppspelning för Snowflake data. Mer information finns i dokumentationen nedan.

Övervaka dataflödet

När dataflödet har skapats kan du övervaka de data som hämtas genom det för att visa information om hur mycket data som har importerats, hur bra de är och vilka fel som har uppstått. Mer information om hur du övervakar direktuppspelade dataflöden finns i självstudiekursen Övervaka direktuppspelade dataflöden i användargränssnittet.

Uppdatera ditt dataflöde

Om du vill uppdatera konfigurationer för schemaläggning, mappning och allmän information för dina dataflöden går du till självstudiekursen Uppdatera källornas dataflöden i användargränssnittet.

Ta bort ditt dataflöde

Du kan ta bort dataflöden som inte längre är nödvändiga eller som har skapats felaktigt med funktionen Delete som finns på arbetsytan i Dataflows. Mer information om hur du tar bort dataflöden finns i självstudiekursen Ta bort dataflöden i användargränssnittet.

recommendation-more-help
337b99bb-92fb-42ae-b6b7-c7042161d089