Batch-Daten erfassen
- Themen:
- Datenaufnahme
Erstellt für:
- Einsteiger
- Fortgeschrittener
- Entwickler
In dieser Lektion nehmen Sie Batch-Daten mit verschiedenen Methoden in Experience Platform auf.
Die Batch-Datenaufnahme ermöglicht es Ihnen, eine große Datenmenge gleichzeitig in Adobe Experience Platform aufzunehmen. Sie können Batch-Daten in einem einmaligen Upload in die Benutzeroberfläche von Platform aufnehmen oder die API verwenden. Sie können auch regelmäßig geplante Batch-Uploads von Drittanbieterdiensten wie Cloud-Speicher-Services mithilfe von Source-Connectoren konfigurieren.
Dateningenieure müssen Batch-Daten außerhalb dieses Tutorials aufnehmen.
Bevor Sie mit den Übungen beginnen, sehen Sie sich dieses kurze Video an, um mehr über die Datenaufnahme zu erfahren:
Erforderliche Berechtigungen
In der Lektion Berechtigungen konfigurieren richten Sie alle Zugriffssteuerungen ein, die zum Abschließen dieser Lektion erforderlich sind.
Sie benötigen Zugriff auf einen (S)FTP-Server oder eine Cloud-Speicherlösung für die Quellübung. Wenn noch keine Problemumgehung vorhanden ist, gibt es eine Problemumgehung.
Aufnehmen von Daten in Batches mit der Platform-Benutzeroberfläche
Daten können direkt in einen Datensatz auf dem Datensatzbildschirm in den Formaten JSON und Parquet hochgeladen werden. Dies ist eine hervorragende Möglichkeit, die Aufnahme einiger Ihrer Daten zu testen, nachdem Sie ein
Daten herunterladen und vorbereiten
Rufen Sie zunächst die Beispieldaten ab und passen Sie sie für Ihren Mandanten an:
-
Laden Sie luma-data.zip in den Ordner Luma Tutorial Assets herunter.
-
Entpacken Sie die Datei und erstellen Sie einen Ordner namens
luma-data
, der die vier Datendateien enthält, die wir in dieser Lektion verwenden werden -
Öffnen Sie
luma-loyalty.json
in einem Texteditor und ersetzen Sie alle Instanzen von_techmarketingdemos
durch Ihre eigene Unterstrich-Mandanten-ID, wie in Ihren eigenen Schemata dargestellt:
-
Speichern Sie die aktualisierte Datei
Aufnehmen der Daten
-
Wählen Sie in der Platform-Benutzeroberfläche Datensätze im linken Navigationsbereich aus
-
Luma Loyalty Dataset
öffnen -
Scrollen Sie nach unten, bis Sie den Abschnitt Daten hinzufügen in der rechten Spalte sehen
-
Laden Sie die
luma-loyalty.json
Datei hoch. -
Nach dem Hochladen der Datei wird eine Zeile für den Batch angezeigt
-
Wenn Sie die Seite nach einigen Minuten erneut laden, sollten Sie sehen, dass der Batch mit 1.000 Datensätzen und 1.000 Profilfragmenten erfolgreich hochgeladen wurde.
- Durch Aktivierung der Fehlerdiagnose werden Daten über die Aufnahme Ihrer Daten generiert, die Sie dann mithilfe der Datenzugriffs-API überprüfen können. Weitere Informationen hierzu finden Sie in der Dokumentation.
- Die partielle Aufnahme erlaubt Ihnen, fehlerhafte Daten bis zu einem gewissen Schwellenwert, den Sie angeben können, aufzunehmen. Weitere Informationen hierzu finden Sie in Dokumentation
Validieren der Daten
Es gibt einige Möglichkeiten, um zu bestätigen, dass die Daten erfolgreich aufgenommen wurden.
Validieren in der Platform-Benutzeroberfläche
So bestätigen Sie, dass die Daten in den Datensatz aufgenommen wurden:
-
Klicken Sie auf der Seite, auf der Sie die Daten aufgenommen haben oben rechts auf Schaltfläche „Datensatz in Vorschau anzeigen“
-
Klicken Sie auf Vorschau und Sie sollten einige der aufgenommenen Daten sehen können.
So bestätigen Sie, dass die Daten im Profil landen (es kann einige Minuten dauern, bis die Daten landen):
- Navigieren Sie linken Navigationsbereich Profile“.
- Klicken Sie auf das Symbol neben dem Feld Identity-Namespace auswählen, um das Modal zu öffnen
Luma Loyalty Id
Namespace auswählen- Geben Sie dann einen der
loyaltyId
Werte aus Ihrem Datensatz ein,5625458
- Wählen Sie Ansicht
Validieren mit Datenerfassungsereignissen
Wenn Sie in der vorherigen Lektion Datenerfassungsereignisse abonniert haben, überprüfen Sie Ihre eindeutige Webhook.site-URL. Es sollten drei Anfragen in der folgenden Reihenfolge und mit etwas Zeit dazwischen mit den folgenden eventCode
angezeigt werden:
ing_load_success
- Der Batch wird aufgenommenig_load_success
- Der Batch wurde in das Identitätsdiagramm aufgenommenps_load_success
- Der Batch wurde in den Profil-Service aufgenommen
Weitere Informationen zu den findenin der (Dokumentation).
Daten mit der Platform-API in Batches aufnehmen
Laden wir jetzt Daten mit der API hoch.
Daten herunterladen und vorbereiten
- Sie sollten „luma-data.zip bereits heruntergeladen und inOrdner "
Luma Tutorial Assets
" entpackt haben. - Öffnen Sie
luma-crm.json
in einem Texteditor und ersetzen Sie alle Instanzen von_techmarketingdemos
durch Ihre eigene Unterstrich-Mandanten-ID, wie in Ihren Schemata dargestellt - Speichern Sie die aktualisierte Datei
Datensatz-ID abrufen
Als Erstes rufen wir die ID der Datensatz-ID des Datensatzes ab, in den wir Daten aufnehmen möchten:
- Postman öffnen
- Wenn Sie kein Zugriffs-Token haben, öffnen Sie die OAuth: Request Access Token und wählen Sie Senden aus, um ein neues Zugriffs-Token anzufordern, genau wie Sie es in der Postman Lektion getan haben.
- Öffnen Sie die Umgebungsvariablen und stellen Sie sicher, dass der Wert CONTAINER_ID weiterhin
tenant
ist - Öffnen Sie die Catalog Service API > Datasets > Retrieve a list of datasets. und wählen Sie Senden
- Sie sollten eine
200 OK
Antwort erhalten - Kopieren Sie die ID der
Luma CRM Dataset
aus dem Antworttext
Erstellen eines Batches
Jetzt können wir einen Batch im Datensatz erstellen:
-
Laden Sie Datenaufnahme-API.postman_collection.json in Ihren
Luma Tutorial Assets
Ordner herunter -
Importieren der Sammlung in Postman
-
Data Ingestion API > Batch Ingestion > Create a new batch in Catalog Service. auswählen
-
Fügen Sie Folgendes als Hauptteil der Anfrage ein ersetzen Sie den Wert datasetId durch Ihren eigenen:
{ "datasetId":"REPLACE_WITH_YOUR_OWN_DATASETID", "inputFormat": { "format": "json" } }
-
Klicken Sie auf die Senden-Schaltfläche
-
Sie sollten eine 201-Antwort erhalten, die die ID Ihres neuen Batches enthält!
-
id
des neuen Stapels kopieren
Aufnehmen der Daten
Jetzt können wir die Daten in den Batch hochladen:
-
Data Ingestion API > Batch Ingestion > Upload a file to a dataset in a batch. auswählen
-
Geben Sie auf Registerkarte Ihre Datensatz-ID und Batch-ID in die entsprechenden Felder ein
-
Geben auf der „Parameter“
luma-crm.json
als filePath -
Wählen Sie auf Registerkarte die Option binär aus
-
Wählen Sie die heruntergeladene
luma-crm.json
aus Ihrem lokalenLuma Tutorial Assets
aus -
Wählen Sie Senden und Sie sollten eine Antwort von 200 OK mit „1“ im Antworttext erhalten
Wenn Sie sich jetzt den Batch in der Platform-Benutzeroberfläche ansehen, sehen Sie, dass er den Status "" :
Da die Batch-API häufig zum Hochladen mehrerer Dateien verwendet wird, müssen Sie Platform mitteilen, wann ein Batch abgeschlossen ist, was wir im nächsten Schritt tun werden.
Vervollständigen des Batches
Abschließen des Batches:
-
Data Ingestion API > Batch Ingestion > Finish uploading a file to a dataset in a batch. auswählen
-
Geben Sie auf Registerkarte Parameter
COMPLETE
als Aktion -
Geben auf der Registerkarte Parameter“ Ihre Batch-ID ein. Machen Sie sich keine Gedanken über die Datensatz-ID oder den Dateipfad, falls vorhanden.
-
Vergewissern Sie sich, dass die URL des POST
https://platform.adobe.io/data/foundation/import/batches/:batchId?action=COMPLETE
ist und dass es keine unnötigen Verweise auf diedatasetId
oderfilePath
gibt -
Wählen Sie Senden und Sie sollten eine Antwort von 200 OK mit „1“ im Antworttext erhalten
Validieren der Daten
Validieren in der Platform-Benutzeroberfläche
Überprüfen Sie, ob die Daten in der Platform-Benutzeroberfläche gelandet sind, genau wie Sie es für den Treueprogramm-Datensatz getan haben.
Bestätigen Sie zunächst, dass der Batch anzeigt, dass 1000 Datensätze aufgenommen wurden:
Bestätigen Sie als Nächstes den Batch mithilfe des Vorschau-Datensatzes:
Bestätigen Sie abschließend, dass eines Ihrer Profile erstellt wurde, indem Sie eines der Profile anhand des Luma CRM Id
Namespace nachschlagen, z. B. 112ca06ed53d3db37e4cea49cc45b71e
Es gibt eine interessante Sache, die gerade passiert ist, auf die ich hinweisen möchte. Öffnen Sie dieses Danny Wright
. Das Profil hat sowohl eine Lumacrmid
als auch eine Lumaloyaltyid
. Denken Sie daran, dass die Luma Loyalty Schema
zwei Identitätsfelder enthielt, Luma-Treue-ID und CRM-ID. Nachdem wir nun beide Datensätze hochgeladen haben, wurden sie zu einem einzigen Profil zusammengeführt. Die Treuedaten hatten als Vornamen und „New York City“ als Wohnadresse Daniel
, während die CRM-Daten als Vorname und Portland
als Wohnadresse für den Kunden mit derselben Treueprogramm-ID Danny
hatten. Wir werden in der Lektion über Zusammenführungsrichtlinien darauf zurückkommen, warum der Vorname Danny
angezeigt wird.
Herzlichen Glückwunsch, Sie haben soeben Profile zusammengeführt!
Validieren mit Datenerfassungsereignissen
Wenn Sie in der vorherigen Lektion Datenerfassungsereignisse abonniert haben, überprüfen Sie Ihre eindeutige Webhook.site-URL. Es sollten drei Anfragen eingehen, genau wie bei den Treueprogramm-Daten:
Weitere Informationen zu den findenin der (Dokumentation).
Aufnehmen von Daten mit Workflows
Sehen wir uns eine andere Möglichkeit zum Hochladen von Daten an. Mit der Workflow-Funktion können Sie CSV-Daten aufnehmen, die nicht bereits in XDM modelliert sind.
Daten herunterladen und vorbereiten
- Sie sollten „luma-data.zip bereits heruntergeladen und inOrdner "
Luma Tutorial Assets
" entpackt haben. - Vergewissern Sie sich, dass Sie Folgendes haben
luma-products.csv
Erstellen eines Workflows
Richten wir nun einen Workflow ein:
- Navigieren Sie linken Navigationsbereich Workflows“.
- Wählen Sie CSV zu XDM-Schema zuordnen und klicken Sie auf die Schaltfläche Starten.
- Wählen Sie Ihre
Luma Product Catalog Dataset
aus und klicken Sie auf die Schaltfläche Weiter
- Fügen Sie die heruntergeladene
luma-products.csv
hinzu und klicken Sie auf die Schaltfläche Weiter.
- Jetzt befinden Sie sich in der Mapper-Oberfläche, in der Sie ein Feld aus den Quelldaten (einen der Spaltennamen in der
luma-products.csv
-Datei) XDM-Feldern im Zielschema zuordnen können. In unserem Beispiel liegen die Spaltennamen nahe genug an den Schemafeldnamen, dass der Mapper die richtige Zuordnung automatisch erkennen kann! Wenn der Mapper das rechte Feld nicht automatisch erkennen konnte, würden Sie auf das Symbol rechts neben dem Zielfeld klicken, um das richtige XDM-Feld auszuwählen. Wenn Sie keine der Spalten aus der CSV-Datei aufnehmen möchten, können Sie die Zeile aus dem Mapper löschen. Sie können gerne herumspielen und Spaltenüberschriften imluma-products.csv
ändern, um sich mit der Funktionsweise des Mappers vertraut zu machen. - Klicken Sie auf die Beenden.
Validieren der Daten
Wenn der Batch hochgeladen wurde, überprüfen Sie den Upload, indem Sie eine Vorschau des Datensatzes anzeigen.
Da es sich bei dem Luma Product SKU
um einen Namespace handelt, der nicht für Personen bestimmt ist, werden für die Produkt-SKUs keine Profile angezeigt.
Sie sollten die drei Treffer für Ihren Webhook sehen.
Aufnehmen von Daten mit Quellen
Okay, du hast es auf die harte Tour geschafft. Lassen Sie uns nun in das gelobte Land der automatisierten Batch-Aufnahme eintauchen! Wenn ich sage: „SETZ ES!“ Sie sagen: „VERGISS ES!“ „LEGEN SIE ES FEST!“ „VERGISS ES!“ „LEGEN SIE ES FEST!“ „VERGISS ES!“ Nur ein Scherz! So etwas würdest du nie machen! Ok, zurück an die Arbeit. Du bist fast fertig.
Navigieren Sie linken zu „Quellen“, um den Quellkatalog zu öffnen. Hier sehen Sie verschiedene vorkonfigurierte Integrationen mit branchenführenden Daten- und Speicheranbietern.
Okay, nehmen wir Daten über einen Quell-Connector auf.
Diese Übung wird im Stil „Wählen Sie Ihr eigenes Abenteuer“ durchgeführt. Ich werde den Workflow mithilfe des FTP-Quell-Connectors anzeigen. Sie können entweder einen anderen Cloud-Speicher-Quell-Connector verwenden, den Sie in Ihrem Unternehmen verwenden, oder die JSON-Datei mithilfe der Datensatz-Benutzeroberfläche hochladen, wie wir es bei den Treuedaten getan haben.
Viele Quellen verfügen über einen ähnlichen Konfigurations-Workflow, in dem Sie:
- Authentifizierungsdetails eingeben
- Wählen Sie die Daten aus, die Sie aufnehmen möchten
- Wählen Sie den Platform-Datensatz aus, in den Sie ihn aufnehmen möchten
- Zuordnen der Felder zu Ihrem XDM-Schema
- Wählen Sie die Häufigkeit, mit der Sie Daten von diesem Speicherort erneut aufnehmen möchten
Herunterladen, Vorbereiten und Hochladen der Daten an Ihren bevorzugten Cloud-Speicheranbieter
- Sie sollten „luma-data.zip bereits heruntergeladen und inOrdner "
Luma Tutorial Assets
" entpackt haben. - Öffnen Sie
luma-offline-purchases.json
in einem Texteditor und ersetzen Sie alle Instanzen von_techmarketingdemos
durch Ihre eigene Unterstrich-Mandanten-ID, wie in Ihren Schemata dargestellt - Aktualisieren Sie alle Zeitstempel, sodass die Ereignisse im letzten Monat auftreten (suchen Sie beispielsweise nach
"timestamp":"2022-06
und ersetzen Sie Jahr und Monat) - Wählen Sie Ihren bevorzugten Cloud-Speicheranbieter aus und stellen Sie sicher, dass er im Quellen“ ist
- Laden Sie
luma-offline-purchases.json
an einen Speicherort in Ihrem bevorzugten Cloud-Speicheranbieter hoch
Aufnehmen der Daten an Ihrem bevorzugten Cloud-Speicherort
-
Filtern Sie in der Platform-Benutzeroberfläche den Quellen-Katalog nach Cloud-Speicher
-
Beachten Sie, dass unter der
...
praktische Links zur -Dokumentation vorhanden sind -
Klicken Sie im Feld Ihres bevorzugten Cloud-Speicheranbieters auf die Schaltfläche Konfigurieren.
-
Authentifizierung ist der erste Schritt. Geben Sie den Namen für Ihr Konto ein, z. B.
Luma's FTP Account
und Ihre Authentifizierungsdetails. Dieser Schritt sollte für alle Cloud-Speicherquellen ziemlich ähnlich sein, obwohl die Felder leicht variieren können. Nachdem Sie die Authentifizierungsdetails für ein Konto eingegeben haben, können Sie sie für andere Quellverbindungen wiederverwenden, die möglicherweise andere Daten in unterschiedlichen Zeitplänen als andere Dateien im selben Konto senden -
Klicken Sie auf die Mit Quelle verbinden
-
Wenn Platform erfolgreich eine Verbindung zur Source hergestellt hat, klicken Sie auf die Schaltfläche Weiter.
-
Im Schritt Daten auswählen verwendet die Benutzeroberfläche Ihre Anmeldeinformationen, um den Ordner in Ihrer Cloud-Speicherlösung zu öffnen
-
Wählen Sie die Dateien aus, die Sie aufnehmen möchten, z. B.
luma-offline-purchases.json
-
Wählen Sie als Datenformat die Option
XDM JSON
-
Sie können dann eine Vorschau der JSON-Struktur und der Beispieldaten in Ihrer Datei anzeigen
-
Klicken Sie auf Weiter-Schaltfläche
-
Wählen im Schritt Zuordnung“ Ihre
Luma Offline Purchase Events Dataset
aus und klicken Sie auf die Schaltfläche Weiter. Beachten Sie in der Nachricht, dass es keinen Zuordnungsschritt gibt, bei dem wir das Quellfeld einem Zielfeld zuordnen, da die Daten, die wir aufnehmen, eine JSON-Datei sind. JSON-Daten müssen bereits in XDM vorhanden sein. Wenn Sie eine CSV-Datei erfassen, wird in diesem Schritt die vollständige Benutzeroberfläche der Zuordnung angezeigt:
-
Im Schritt Planung wählen Sie die Häufigkeit, mit der Sie Daten aus der Source erneut aufnehmen möchten. Nehmen Sie sich einen Moment Zeit, um sich die Optionen anzusehen. Wir führen nur eine einmalige Aufnahme durch. Lassen Sie also die Häufigkeit auf Einmal und wählen Sie die Schaltfläche Weiter:
-
Im Schritt Datenflussdetails können Sie einen Namen für Ihren Datenfluss auswählen, eine optionale Beschreibung eingeben, die Fehlerdiagnose aktivieren und eine partielle Aufnahme durchführen. Behalten Sie die Einstellungen bei und klicken Sie auf die Schaltfläche Weiter:
-
Im Schritt Überprüfen können Sie alle Ihre Einstellungen zusammen überprüfen und entweder bearbeiten oder auf die Schaltfläche Beenden klicken
-
Nach dem Speichern landen Sie auf einem Bildschirm wie diesem:
Validieren der Daten
Wenn der Batch hochgeladen wurde, überprüfen Sie den Upload, indem Sie eine Vorschau des Datensatzes anzeigen.
Sie sollten die drei Treffer für Ihren Webhook sehen.
Suchen Sie erneut das Profil mit dem Wert 5625458
im loyaltyId
-Namespace, um festzustellen, ob es Kaufereignisse in seinem Profil gibt. Es sollte nur ein Kauf angezeigt werden. Sie können die Details des Kaufs einsehen, indem Sie auf JSON anzeigen klicken:
ETL-Tools
Adobe arbeitet mit mehreren ETL-Anbietern zusammen, um die Datenaufnahme in Experience Platform zu unterstützen. Aufgrund der Vielzahl von Drittanbietern wird ETL in diesem Tutorial nicht behandelt. Sie können jedoch gerne einige dieser Ressourcen lesen:
Weitere Ressourcen
Jetzt lassen Sie uns Daten mit der Web-SDK streamen