Erstellen eines Datenflusses mithilfe einer Datenbankquelle in der Benutzeroberfläche
Ein Datenfluss ist eine geplante Aufgabe, mit der Daten aus einer Quelle abgerufen und in einen Datensatz in Adobe Experience Platform aufgenommen werden. In diesem Tutorial erfahren Sie, wie Sie mithilfe der Experience Platform-Benutzeroberfläche einen Datenfluss für eine Datenbankquelle erstellen.
-
Um einen Datenfluss zu erstellen, müssen Sie bereits über ein authentifiziertes Konto mit einer Datenbankquelle verfügen. Eine Liste von Tutorials zum Erstellen verschiedener Datenbankquellenkonten in der Benutzeroberfläche finden Sie in der Quellenübersicht.
-
Damit Experience Platform Daten aufnehmen kann, müssen die Zeitzonen für alle tabellenbasierten Batch-Quellen als UTC konfiguriert werden. Der einzige Zeitstempel, der für die Snowflake Quelle unterstützt wird, ist TIMESTAMP_NTZ mit UTC-Zeit.
Erste Schritte
Dieses Tutorial setzt ein Grundverständnis der folgenden Komponenten von Experience Platform voraus:
-
Quellen: Experience Platform ermöglicht die Aufnahme von Daten aus verschiedenen Quellen und bietet Ihnen die Möglichkeit, die eingehenden Daten mithilfe von Experience Platform-Services zu strukturieren, zu kennzeichnen und anzureichern.
-
Experience Data Model (XDM) System: Das standardisierte Framework, mit dem Experience Platform Kundenerlebnisdaten organisiert.
- Grundlagen der Schemakomposition: Machen Sie sich mit den grundlegenden Bausteinen von XDM-Schemata vertraut, einschließlich der wichtigsten Prinzipien und Best Practices bei der Schemaerstellung.
- Tutorial zum Schema-Editor: Erfahren Sie, wie Sie benutzerdefinierte Schemata mithilfe der Benutzeroberfläche des Schema-Editors erstellen können.
-
Real-Time Customer Profile: Bietet ein einheitliches Echtzeit-Kundenprofil, das auf aggregierten Daten aus verschiedenen Quellen basiert.
-
Data Prep: Ermöglicht es Dateningenieuren, Daten dem Experience-Datenmodell (XDM) zuzuordnen, umzuformen und zu validieren.
Daten hinzufügen
Nachdem Sie Ihr Datenbankquellenkonto erstellt haben, wird der Schritt Add data angezeigt, der Ihnen eine Schnittstelle bietet, um die Tabellenhierarchie Ihres Datenbankquellenkontos zu untersuchen.
- Die linke Hälfte der Benutzeroberfläche ist ein Browser, der eine Liste der in Ihrem Konto enthaltenen Datentabellen anzeigt. Die Benutzeroberfläche umfasst auch eine Suchoption, mit der Sie die zu verwendenden Quelldaten schnell identifizieren können.
- Die rechte Hälfte der Benutzeroberfläche ist ein Vorschaufenster, in dem Sie bis zu 100 Datenzeilen in der Vorschau anzeigen können.
Nachdem Sie die Quelldaten gefunden haben, wählen Sie die Tabelle aus und klicken Sie dann auf Next.
Angeben von Datenflussdetails
Auf der Seite Dataflow detail können Sie auswählen, ob Sie einen vorhandenen Datensatz oder einen neuen Datensatz verwenden möchten. Während dieses Vorgangs können Sie auch Einstellungen für Profile dataset, Error diagnostics, Partial ingestion und Alerts konfigurieren.
Verwenden eines vorhandenen Datensatzes
Um Daten in einen vorhandenen Datensatz aufzunehmen, wählen Sie Existing dataset aus. Sie können einen vorhandenen Datensatz entweder über die Option Advanced search oder durch Scrollen durch die Liste der vorhandenen Datensätze im Dropdown-Menü abrufen. Nachdem Sie einen Datensatz ausgewählt haben, geben Sie einen Namen und eine Beschreibung für Ihren Datenfluss ein.
Verwenden eines neuen Datensatzes
Um einen neuen Datensatz aufzunehmen, wählen Sie New dataset aus und geben Sie dann einen Namen für den Ausgabedatensatz und eine optionale Beschreibung an. Wählen Sie als Nächstes mithilfe der Option Advanced search oder durch Scrollen durch die Liste der vorhandenen Schemata im Dropdown-Menü ein Schema zum Zuordnen aus. Nachdem Sie ein Schema ausgewählt haben, geben Sie einen Namen und eine Beschreibung für Ihren Datenfluss ein.
Aktivieren von Profile und Fehlerdiagnose
Wählen Sie als Nächstes den Umschalter Profile dataset aus, um Ihren Datensatz für die Profile zu aktivieren. Auf diese Weise können Sie eine ganzheitliche Ansicht der Attribute und Verhaltensweisen einer Entität erstellen. Daten aus allen Profile-aktivierten Datensätzen werden in Profile eingeschlossen und Änderungen werden wirksam, wenn Sie Ihren Datenfluss speichern.
Error diagnostics ermöglicht eine detaillierte Erstellung von Fehlermeldungen für alle fehlerhaften Datensätze, die in Ihrem Datenfluss auftreten, während Partial ingestion die Aufnahme von fehlerhaften Daten bis zu einem gewissen Schwellenwert, den Sie manuell definieren, ermöglicht. Weitere Informationen finden Sie in der Übersicht zur partiellen Batch-Aufnahme.
Aktivieren von Warnhinweisen
Sie können Warnhinweise aktivieren, um Benachrichtigungen zum Status Ihres Datenflusses zu erhalten. Wählen Sie einen Warnhinweis aus der zu abonnierenden Liste aus, um Benachrichtigungen über den Status Ihres Datenflusses zu erhalten. Weitere Informationen zu Warnhinweisen finden Sie im Handbuch zum Abonnieren von Warnhinweisen zu Quellen über die Benutzeroberfläche.
Wenn Sie mit dem Eingeben der Details für Ihren Datenfluss fertig sind, wählen Sie Next aus.
Zuordnen von Datenfeldern zu einem XDM-Schema
Der Schritt Mapping wird angezeigt und bietet Ihnen eine Schnittstelle zum Zuordnen der Quellfelder aus Ihrem Quellschema zu den entsprechenden XDM-Zielfeldern im Zielschema.
Experience Platform bietet intelligente Empfehlungen für automatisch zugeordnete Felder, die auf dem ausgewählten Zielschema oder Datensatz basieren. Sie können die Zuordnungsregeln manuell an Ihre Anwendungsfälle anpassen. Je nach Bedarf können Sie wahlweise Felder direkt zuordnen oder mithilfe von Datenvorbereitungsfunktionen Quelldaten transformieren, um berechnete oder anderweitig ermittelte Werte abzuleiten. Eine ausführliche Anleitung zur Verwendung der Zuordnungsschnittstelle und berechneter Felder finden Sie im Handbuch zur Datenvorbereitungs-Benutzeroberfläche.
Kontrollspalten wie _change_request_type, die für die Änderungsdatenerfassung verwendet werden, werden während der Aufnahme gelesen, aber nicht im Zielschema gespeichert.
Relationale Schemata unterstützen auch Beziehungen zwischen Datensätzen, die Primär- und Fremdschlüsselzuordnungen verwenden.
Weitere Informationen finden Sie unter Übersicht über Data Mirror und in der technischen Referenz zu relationalen Schemata.
Nachdem Ihre Quelldaten erfolgreich zugeordnet wurden, wählen Sie Next aus.
Planen von Aufnahmedurchgängen
Der Scheduling Schritt wird angezeigt, in dem Sie einen Aufnahmezeitplan konfigurieren können, um die ausgewählten Quelldaten mithilfe der konfigurierten Zuordnungen automatisch aufzunehmen. Standardmäßig ist die Zeitplanung auf Once festgelegt. Um Ihre Aufnahmefrequenz anzupassen, wählen Sie Frequency und dann eine Option aus dem Dropdown-Menü aus.
Wenn Sie die Aufnahmefrequenz auf Minute, Hour, Day oder Week festlegen, müssen Sie ein Intervall festlegen, um zwischen den einzelnen Aufnahmen einen bestimmten Zeitrahmen festzulegen. Wenn beispielsweise die Aufnahmefrequenz auf Day und das Intervall auf 15 festgelegt ist, bedeutet dies, dass der Datenfluss alle 15 Tage Daten aufnehmen soll.
In diesem Schritt können Sie auch Aufstockung“ aktivieren eine Spalte für die inkrementelle Aufnahme von Daten definieren. Die Aufstockung wird verwendet, um historische Daten aufzunehmen, während die Spalte, die Sie für die inkrementelle Aufnahme definieren, es ermöglicht, neue Daten von vorhandenen Daten zu unterscheiden.
Weitere Informationen zur Planung von Konfigurationen finden Sie in der folgenden Tabelle.
Konfigurieren Sie die Häufigkeit , um anzugeben, wie oft der Datenfluss ausgeführt werden soll. Sie können Ihre Häufigkeit auf Folgendes festlegen:
- Einmal: Legen Sie für die Häufigkeit
oncefest, um eine einmalige Aufnahme zu erstellen. Konfigurationen für Intervall und Aufstockung sind beim Erstellen eines einmaligen Aufnahme-Datenflusses nicht verfügbar. Standardmäßig ist die Zeitplanfrequenz auf einmal festgelegt. - Minute: Legen Sie für die Häufigkeit
minutefest, um Ihren Datenfluss so zu planen, dass Daten pro Minute aufgenommen werden. - Stunde: Legen Sie für die Häufigkeit
hourfest, um den Datenfluss zu planen und Daten stündlich aufzunehmen. - Tag: Legen Sie für Ihre Häufigkeit
dayfest, um Ihren Datenfluss so zu planen, dass Daten täglich aufgenommen werden. - Woche: Legen Sie für Ihre Häufigkeit
weekfest, um Ihren Datenfluss zu planen und Daten pro Woche aufzunehmen.
Nachdem Sie eine Häufigkeit ausgewählt haben, können Sie die Intervalleinstellung konfigurieren, um den Zeitrahmen zwischen jeder Aufnahme festzulegen. Wenn Sie beispielsweise Ihre Häufigkeit auf „Tag“ festlegen und das Intervall auf 15 konfigurieren, wird Ihr Datenfluss alle 15 Tage ausgeführt. Das Intervall kann nicht auf null festgelegt werden. Der akzeptierte Mindestintervallwert für jede Häufigkeit ist wie folgt:
- Einmal: nicht zutreffend
- Minute: 15
- Stunde: 1
- Tag: 1
- Woche: 1
Überprüfen des Datenflusses
Der Schritt Review wird angezeigt, in dem Sie Ihren neuen Datenfluss überprüfen können, bevor er erstellt wird. Die Details lassen sich wie folgt kategorisieren:
- Connection: Zeigt den Quelltyp, den relevanten Pfad der ausgewählten Quelldatei und die Anzahl der Spalten innerhalb dieser Quelldatei an.
- Assign dataset & map fields: Zeigt den Datensatz an, in den die Quelldaten aufgenommen werden, zusammen mit dem zugehörigen Schema. Wenn Sie ein relationales Schema verwenden, stellen Sie sicher, dass die erforderlichen Felder, wie der Primärschlüssel und die Versionskennung, korrekt zugeordnet sind. Stellen Sie außerdem sicher, dass alle geänderten Datenerfassungssteuerungsspalten ordnungsgemäß konfiguriert sind. Datensätze, die relationale Schemata verwenden, unterstützen mehrere Datenmodelle und ermöglichen Workflows zur Datenerfassung ändern.
- Scheduling: Zeigt den aktiven Zeitraum, die Häufigkeit und das Intervall der Aufnahme an.
Nachdem Sie Ihren Datenfluss überprüft haben, wählen Sie Finish aus und gewähren Sie etwas Zeit für die Erstellung des Datenflusses.
Überwachen Ihres Datenflusses
Nachdem Ihr Datenfluss hergestellt worden ist, können Sie Daten, die dadurch aufgenommen werden, überwachen, um Informationen zu Aufnahmegeschwindigkeiten, Erfolg und Fehlern zu erhalten. Weitere Informationen zum Überwachen von Datenflüssen finden Sie im Tutorial Überwachen von Konten und Datenflüssen in der Benutzeroberfläche.
Löschen des Datenflusses
Datenflüsse, die nicht mehr erforderlich sind oder nicht korrekt erstellt wurden, können Sie löschen, indem Sie dazu die Funktion Delete im Arbeitsbereich Dataflows verwenden. Weitere Informationen zum Löschen von Datenflüssen finden Sie im Tutorial Löschen von Datenflüssen in der Benutzeroberfläche.
Nächste Schritte
In diesem Tutorial haben Sie erfolgreich einen Datenfluss erstellt, um Daten aus Ihrer Datenbankquelle in Experience Platform zu übertragen. Eingehende Daten können jetzt von nachgelagerten Experience Platform-Services verwendet werden, wie Real-Time Customer Profile und Data Science Workspace. Weiterführende Informationen finden Sie in folgenden Dokumenten: