Batch-Daten erfassen

In dieser Lektion erfassen Sie Batch-Daten mit verschiedenen Methoden in Experience Platform.

Mit der Batch-Datenerfassung können Sie eine große Datenmenge gleichzeitig in Adobe Experience Platform erfassen. Sie können Batch-Daten in einem einmaligen Upload innerhalb der Benutzeroberfläche von Platform oder mithilfe der API erfassen. Sie können auch regelmäßig geplante Batch-Uploads von Drittanbieterdiensten wie Cloud-Speicher-Services mithilfe von Quell-Connectoren konfigurieren.

Dateningenieure Batch-Daten müssen außerhalb dieses Tutorials erfasst werden.

Bevor Sie mit den Übungen beginnen, sehen Sie sich dieses kurze Video an, um mehr über die Datenerfassung zu erfahren:

Erforderliche Berechtigungen

Im Berechtigungen konfigurieren Lektion erstellen Sie alle Zugriffssteuerungen, die zum Abschluss dieser Lektion erforderlich sind.

Sie benötigen Zugriff auf einen (S)FTP-Server oder eine Cloud-Speicherlösung für die Quellübung. Es gibt eine Problemumgehung, wenn Sie keine haben.

Daten in Batches mit der Platform-Benutzeroberfläche erfassen

Daten können direkt in einen Datensatz auf dem Datensatzbildschirm in den Formaten JSON und Parquet hochgeladen werden. Auf diese Weise können Sie die Erfassung einiger Ihrer Daten testen, nachdem Sie eine

Herunterladen und Vorbereiten der Daten

Rufen Sie zunächst die Beispieldaten ab und passen Sie sie für Ihren Mandanten an:

NOTE
Die in luma-data.zip -Datei ist fiktiv und nur zu Demonstrationszwecken verwendet.
  1. Herunterladen luma-data.zip auf Luma-Tutorial-Assets Ordner.

  2. Dekomprimieren Sie die Datei und erstellen Sie einen Ordner mit dem Namen luma-data enthält die vier Datendateien, die wir in dieser Lektion verwenden werden

  3. Öffnen luma-loyalty.json in einem Texteditor und ersetzen Sie alle Instanzen von _techmarketingdemos mit Ihrer eigenen Unterstrich-Mandanten-ID, wie in Ihren eigenen Schemas dargestellt:
    Unterstrich der Mandanten-ID

  4. Die aktualisierte Datei speichern

Daten erfassen

  1. Wählen Sie in der Benutzeroberfläche von Platform die Option Datensätze in der linken Navigation

  2. Öffnen Sie Ihre Luma Loyalty Dataset

  3. Scrollen Sie nach unten, bis Sie die Daten hinzufügen in der rechten Spalte

  4. Hochladen der luma-loyalty.json -Datei.

  5. Sobald die Datei hochgeladen wurde, wird eine Zeile für den Batch angezeigt

  6. Wenn Sie die Seite nach einigen Minuten neu laden, sollten Sie sehen, dass der Batch mit 1000 Datensätzen und 1000 Profilfragmenten erfolgreich hochgeladen wurde.

    Aufnahme

NOTE
Es gibt einige Optionen, Fehlerdiagnose und Partielle Erfassung, die Sie auf verschiedenen Bildschirmen in dieser Lektion sehen werden. Diese Optionen werden im Tutorial nicht behandelt. Kurzinformationen:
  • Durch die Aktivierung der Fehlerdiagnose werden Daten über die Erfassung Ihrer Daten generiert, die Sie dann mithilfe der Data Access API überprüfen können. Weitere Informationen dazu finden Sie unter die Dokumentation.
  • Partielle Erfassung ermöglicht die Aufnahme von fehlerhaften Daten bis zu einem bestimmten Schwellenwert, den Sie angeben können. Weitere Informationen dazu finden Sie unter die Dokumentation

Daten validieren

Es gibt einige Möglichkeiten, um zu bestätigen, dass die Daten erfolgreich erfasst wurden.

Validieren in der Benutzeroberfläche von Platform

So bestätigen Sie, dass die Daten in den Datensatz aufgenommen wurden:

  1. Wählen Sie auf der Seite, auf der Sie die Daten aufgenommen haben, die Datensatz-Vorschau Schaltfläche oben rechts

  2. Wählen Sie die Vorschau und Sie sollten einige der erfassten Daten sehen können.

    Vorschau des erfolgreichen Datensatzes anzeigen

So bestätigen Sie, dass die in Profil gelandeten Daten (es kann einige Minuten dauern, bis die Daten landen):

  1. Navigieren Sie zu Profile in der linken Navigation
  2. Wählen Sie das Symbol neben dem Identitäts-Namespace auswählen -Feld zum Öffnen des Modals
  3. Wählen Sie Luma Loyalty Id namespace
  4. Geben Sie dann einen der loyaltyId Werte aus Ihrem Datensatz, 5625458
  5. Auswählen Ansicht
    Profil aus Datensatz bestätigen

Validieren mit Datenerfassungsereignissen

Wenn Sie in der vorherigen Lektion Datenerfassungsereignisse abonniert haben, überprüfen Sie Ihre eindeutige webhook.site-URL. Es sollten drei Anfragen in der folgenden Reihenfolge angezeigt werden, wobei einige Zeit dazwischen liegt, mit der folgenden eventCode -Werte:

  1. ing_load_success—der Batch wie erfasst
  2. ig_load_success—Der Batch wurde in das Identitätsdiagramm aufgenommen.
  3. ps_load_success—Der Batch wurde in den Profildienst aufgenommen.

Webhook zur Datenaufnahme

Siehe Dokumentation für weitere Informationen zu den Benachrichtigungen.

Daten in Batches mit der Platform-API erfassen

Laden wir nun Daten mithilfe der API hoch.

NOTE
Datenarchitekten können die CRM-Daten gerne über die Benutzeroberflächenmethode hochladen.

Herunterladen und Vorbereiten der Daten

  1. Sie sollten bereits heruntergeladen und entpackt haben luma-data.zip in Luma Tutorial Assets Ordner.
  2. Öffnen luma-crm.json in einem Texteditor und ersetzen Sie alle Instanzen von _techmarketingdemos mit Ihrer eigenen Unterstrich-Mandanten-ID, wie in Ihren Schemas dargestellt
  3. Die aktualisierte Datei speichern

Abrufen der Datensatz-ID

Zunächst rufen wir die ID der Datensatz-ID des Datensatzes ab, in den wir Daten aufnehmen möchten:

  1. Öffnen Postman
  2. Wenn Sie kein Zugriffstoken haben, öffnen Sie die Anfrage OAuth: Request Access Token und wählen Senden , um ein neues Zugriffstoken anzufordern, genau wie Sie es in der Postman Lektion.
  3. Öffnen Sie Ihre Umgebungsvariablen und stellen Sie sicher, dass der Wert von CONTAINER_ID ist noch tenant
  4. Anfrage öffnen Catalog Service API > Datasets > Retrieve a list of datasets. und wählen Senden
  5. Sie sollten eine 200 OK response
  6. Kopieren Sie die ID der Luma CRM Dataset aus dem Antworttext
    Abrufen der Datensatz-ID

Erstellen des Batches

Jetzt können wir einen Batch im Datensatz erstellen:

  1. Herunterladen Data Ingestion-API.postman_collection.json auf Luma Tutorial Assets Ordner

  2. Importieren Sie die Sammlung in Postman

  3. Anforderung auswählen Data Ingestion API > Batch Ingestion > Create a new batch in Catalog Service.

  4. Fügen Sie Folgendes als body des Antrags, Ersetzen des Datensatzkennung-Werts durch Ihren eigenen:

    code language-json
    {
        "datasetId":"REPLACE_WITH_YOUR_OWN_DATASETID",
        "inputFormat": {
            "format": "json"
        }
    }
    
  5. Wählen Sie die Senden button

  6. Sie sollten eine 201 Erstellte Antwort mit der ID Ihres neuen Batches erhalten!

  7. Kopieren Sie die id des neuen Batches
    Batch erstellt

Daten erfassen

Jetzt können wir die Daten in den Batch hochladen:

  1. Anforderung auswählen Data Ingestion API > Batch Ingestion > Upload a file to a dataset in a batch.

  2. Im Parameter Registerkarte geben Sie Ihre Datensatz-ID und Batch-ID in die entsprechenden Felder ein.

  3. Im Parameter Registerkarte, geben Sie luma-crm.json als filePath

  4. Im body auswählen, wählen Sie die binary option

  5. Wählen Sie die heruntergeladene luma-crm.json von Ihrem lokalen Luma Tutorial Assets Ordner

  6. Auswählen Senden und Sie sollten eine 200 OK-Antwort mit "1"im Antworttext erhalten

    Hochgeladene Daten

Wenn Sie sich Ihren Batch an dieser Stelle in der Benutzeroberfläche von Platform ansehen, sehen Sie, dass er sich in einem "Laden" status:
Batch-Ladevorgänge

Da die Batch-API häufig zum Hochladen mehrerer Dateien verwendet wird, müssen Sie Platform mitteilen, wann ein Batch abgeschlossen ist, was wir im nächsten Schritt tun werden.

Stapelverarbeitung durchführen

So schließen Sie den Batch ab:

  1. Anforderung auswählen Data Ingestion API > Batch Ingestion > Finish uploading a file to a dataset in a batch.

  2. Im Parameter Registerkarte, geben Sie COMPLETE als action

  3. Im Parameter Geben Sie Ihre Batch-Kennung ein. Machen Sie sich keine Gedanken über die Datensatz-ID oder den Dateipfad, sofern diese vorhanden sind.

  4. Stellen Sie sicher, dass die URL der POST https://platform.adobe.io/data/foundation/import/batches/:batchId?action=COMPLETE und dass es keine unnötigen Verweise auf die datasetId oder filePath

  5. Auswählen Senden und Sie sollten eine 200 OK-Antwort mit "1"im Antworttext erhalten

    Batch-Abschluss

Daten validieren

Validieren in der Benutzeroberfläche von Platform

Überprüfen Sie, ob die Daten in der Benutzeroberfläche von Platform gelandet sind, genau wie beim Loyalitätsdatensatz.

Bestätigen Sie zunächst, dass der Batch zeigt, dass 1000 Datensätze erfasst wurden:

Batch-Erfolg

Bestätigen Sie dann den Batch mit Vorschau des Datensatzes:

Stapelvorschau

Bestätigen Sie schließlich, dass eines Ihrer Profile erstellt wurde, indem Sie eines der Profile durch die Luma CRM Id Namespace, beispielsweise 112ca06ed53d3db37e4cea49cc45b71e

Erfasstes Profil

Es gibt eine interessante Sache, die gerade passiert ist, auf die ich hinweisen möchte. Öffnen Sie das Danny Wright Profil. Das Profil verfügt über eine Lumacrmid und Lumaloyaltyid. Speichern Sie die Luma Loyalty Schema enthielt zwei Identitätsfelder: "Luma Loyalty Id"und "CRM ID". Nachdem wir nun beide Datensätze hochgeladen haben, wurden sie zu einem einzigen Profil zusammengeführt. Die Loyalitätsdaten hatten Daniel als Vorname und "New York City"als Privatadresse, während die CRM-Daten Danny als Vornamen und Portland als Hausadresse für den Kunden mit derselben Loyalitäts-ID. Wir kommen zurück, warum der Vorname angezeigt wird Danny in der Lektion zu Zusammenführungsrichtlinien.

Herzlichen Glückwunsch! Sie haben gerade Profile zusammengeführt!

Profil zusammengeführt

Validieren mit Datenerfassungsereignissen

Wenn Sie in der vorherigen Lektion Datenerfassungsereignisse abonniert haben, überprüfen Sie Ihre eindeutige webhook.site-URL. Es sollten drei Anfragen eingehen, genau wie bei den Treuedaten:

Webhook zur Datenaufnahme

Siehe Dokumentation für weitere Informationen zu den Benachrichtigungen.

Daten mit Workflows erfassen

Sehen wir uns eine andere Möglichkeit an, Daten hochzuladen. Mit der Workflow-Funktion können Sie CSV-Daten erfassen, die noch nicht in XDM modelliert wurden.

Herunterladen und Vorbereiten der Daten

  1. Sie sollten bereits heruntergeladen und entpackt haben luma-data.zip in Luma Tutorial Assets Ordner.
  2. Bestätigen Sie, dassluma-products.csv

Workflow erstellen

Richten wir nun den Workflow ein:

  1. Navigieren Sie zu Workflows in der linken Navigation
  2. Auswählen Zuordnen von CSV zu XDM-Schema und wählen Sie die Launch button
    Workflow starten
  3. Wählen Sie Luma Product Catalog Dataset und wählen Sie die Nächste button
    Datensatz auswählen
  4. Fügen Sie die luma-products.csv heruntergeladene Datei und wählen Sie die Nächste button
    Datensatz auswählen
  5. Jetzt befinden Sie sich in der Mapper-Oberfläche, in der Sie ein Feld aus den Quelldaten (einen der Spaltennamen im luma-products.csv -Datei) in XDM-Felder im Zielschema. In unserem Beispiel sind die Spaltennamen so nah wie möglich an den Schemafeldnamen, dass der Mapper die richtige Zuordnung automatisch erkennen kann! Wenn das Mapper das richtige Feld nicht automatisch erkennen konnte, wählen Sie das Symbol rechts neben dem Zielfeld aus, um das richtige XDM-Feld auszuwählen. Wenn Sie eine der Spalten nicht aus der CSV aufnehmen möchten, können Sie die Zeile aus der Zuordnung löschen. Sie können frei spielen und Spaltenüberschriften im luma-products.csv um sich mit der Funktionsweise des Mappers vertraut zu machen.
  6. Wählen Sie die Beenden button
    Datensatz auswählen

Daten validieren

Überprüfen Sie nach dem Hochladen des Batches den Upload durch Vorschau des Datensatzes.

Seit Luma Product SKU ist ein Namespace ohne Personen. Für die Produkt-SKU werden keine Profile angezeigt.

Sie sollten die drei Treffer in Ihrem Webhook sehen.

Daten mit Quellen erfassen

Okay, Sie haben Dinge auf die harte Art gemacht. Gehen wir nun in das versprochene Land von automatisiert Batch-Erfassung! Wenn ich sage: "SETZEN SIE ES!" Sie sagen: "VERGESSEN SIE ES!" "LEGEN SIE ES FEST!" "VERGESSEN SIE ES!" "LEGEN SIE ES FEST!" "VERGESSEN SIE ES!" Nur ein Scherz! So etwas tätest du nie! OK, zurück zur Arbeit. Du bist fast fertig.

Navigieren Sie zu Quellen im linken Navigationsbereich, um den Quellkatalog zu öffnen. Hier finden Sie verschiedene vordefinierte Integrationen mit branchenführenden Daten- und Speicheranbietern.

Quellkatalog

Okay, lassen Sie uns Daten über einen Quell-Connector erfassen.

Diese Übung wird Ihr eigenes Abenteuer-Stil sein. Ich zeige den Workflow über den FTP-Quell-Connector. Sie können entweder einen anderen Quell-Connector für Cloud-Speicher verwenden, den Sie in Ihrem Unternehmen verwenden, oder die JSON-Datei mit der Datensatz-Benutzeroberfläche hochladen, wie wir es mit den Treuedaten getan haben.

Viele der Quellen verfügen über einen ähnlichen Konfigurations-Workflow, in dem Sie:

  1. Authentifizierungsdetails eingeben
  2. Wählen Sie die zu erfassenden Daten aus
  3. Wählen Sie den Platform-Datensatz aus, in den Sie ihn aufnehmen möchten
  4. Ordnen Sie die Felder Ihrem XDM-Schema zu.
  5. Wählen Sie die Häufigkeit aus, mit der Sie Daten von diesem Speicherort abrufen möchten
NOTE
Die Offline-Kaufdaten, die wir in dieser Übung verwenden werden, enthalten Zeitdaten. Die Datums-/Uhrzeitdaten sollten in Formatierte Zeichenfolgen im ISO 8061-Format ("2018-07-10T15:05:59.000-08:00") oder Unix-Zeit formatiert in Millisekunden (1531263959000) und werden bei der Aufnahme in den Ziel-XDM-Typ konvertiert. Weitere Informationen zur Datenkonvertierung und anderen Einschränkungen finden Sie unter die Dokumentation zur Batch Ingestion-API.

Laden Sie die Daten herunter, bereiten Sie sie vor und laden Sie sie in Ihren bevorzugten Cloud-Speicher-Anbieter hoch.

  1. Sie sollten bereits heruntergeladen und entpackt haben luma-data.zip in Luma Tutorial Assets Ordner.
  2. Öffnen luma-offline-purchases.json in einem Texteditor und ersetzen Sie alle Instanzen von _techmarketingdemos mit Ihrer eigenen Unterstrich-Mandanten-ID, wie in Ihren Schemas dargestellt
  3. Aktualisieren Sie alle Zeitstempel so, dass die Ereignisse im letzten Monat auftreten (suchen Sie beispielsweise nach "timestamp":"2022-06 und ersetzen Jahr und Monat)
  4. Wählen Sie Ihren bevorzugten Cloud-Speicher-Provider aus, um sicherzustellen, dass er im Quellen Katalog
  5. Hochladen luma-offline-purchases.json an einen Speicherort in Ihrem bevorzugten Cloud-Speicher-Provider

Daten an den gewünschten Cloud-Speicherort aufnehmen

  1. Filtern Sie in der Benutzeroberfläche von Platform die Quellen Katalog zu Cloud-Speicher

  2. Beachten Sie, dass es praktische Links zur Dokumentation unter der ...

  3. Wählen Sie im Feld Ihres bevorzugten Cloud-Speicher-Anbieters die Konfigurieren button
    Konfigurieren

  4. Authentifizierung ist der erste Schritt. Geben Sie den Namen für Ihr Konto ein, beispielsweise Luma's FTP Account und Ihre Authentifizierungsdetails. Dieser Schritt sollte für alle Cloud-Speicher-Quellen relativ ähnlich sein, auch wenn die Felder geringfügig variieren können. Nachdem Sie die Authentifizierungsdetails für ein Konto eingegeben haben, können Sie sie für andere Quellverbindungen wiederverwenden, die möglicherweise verschiedene Daten für verschiedene Zeitpläne von anderen Dateien im selben Konto senden

  5. Wählen Sie die Schaltfläche "Verbindung mit Quelle herstellen"

  6. Wenn Platform erfolgreich eine Verbindung zur Quelle hergestellt hat, wählen Sie die Nächste button
    Bei der Quelle authentifizieren

  7. Im Daten auswählen Schritt, die Benutzeroberfläche verwendet Ihre Anmeldeinformationen, um den Ordner in Ihrer Cloud-Speicher-Lösung zu öffnen

  8. Wählen Sie die Dateien aus, die Sie aufnehmen möchten, beispielsweise luma-offline-purchases.json

  9. Als Datenformat auswählen XDM JSON

  10. Anschließend können Sie eine Vorschau der JSON-Struktur und der Beispieldaten in Ihrer Datei anzeigen

  11. Wählen Sie die Nächste button
    Datendatei(en) auswählen

  12. Im Zuordnung Schritt auswählen Luma Offline Purchase Events Dataset und wählen Sie die Nächste Schaltfläche. Beachten Sie in der Nachricht, dass es keinen Zuordnungsschritt gibt, durch den das Quellfeld dem Zielfeld zugeordnet wird, da es sich bei den erfassten Daten um eine JSON-Datei handelt. JSON-Daten müssen sich bereits in XDM befinden. Wenn Sie eine CSV-Datei erfassen, sehen Sie in diesem Schritt die vollständige Zuordnungs-Benutzeroberfläche:
    Datensatz auswählen

  13. Im Planung Schritt, wählen Sie die Häufigkeit, mit der Sie Daten aus der Quelle erfassen möchten. Nehmen Sie sich einen Moment Zeit, um sich die Optionen anzusehen. Wir werden nur eine einmalige Aufnahme vornehmen, also lassen Sie die Häufigkeit on Einmal und wählen Sie die Nächste Schaltfläche:
    Datenfluss planen

  14. Im Datenflussdetails Schritt, können Sie einen Namen für Ihren Datenfluss auswählen, eine optionale Beschreibung eingeben, die Fehlerdiagnose aktivieren und die partielle Erfassung aktivieren. Behalten Sie die Einstellungen bei und wählen Sie die Nächste Schaltfläche:
    Details Ihres Datenflusses bearbeiten

  15. Im Überprüfen Schritt, können Sie alle Ihre Einstellungen zusammen überprüfen und sie entweder bearbeiten oder die Beenden button

  16. Nach dem Speichern landen Sie auf einem Bildschirm wie diesem:
    Abgeschlossen

Daten validieren

Überprüfen Sie nach dem Hochladen des Batches den Upload durch Vorschau des Datensatzes.

Sie sollten die drei Treffer in Ihrem Webhook sehen.

Profil mit Wert nachschlagen 5625458 im loyaltyId -Namespace erneut, um zu sehen, ob sich in ihrem Profil Kaufereignisse befinden. Sie sollten einen Kauf sehen. Sie können die Details des Kaufs durch Auswahl von JSON anzeigen:

Kaufereignis im Profil

ETL-Tools

Adobe arbeitet mit mehreren ETL-Anbietern zusammen, um die Datenerfassung in Experience Platform zu unterstützen. Aufgrund der Vielzahl von Drittanbietern wird ETL in diesem Tutorial nicht behandelt. Sie können jedoch einige dieser Ressourcen lesen:

Weitere Ressourcen

Jetzt lass uns Streamen von Daten mit dem Web SDK

recommendation-more-help
513160b6-bf42-4c58-abdd-4f817b1cccad