Batch-Daten erfassen

In dieser Lektion erfassen Sie Stapeldaten mit verschiedenen Methoden in die Experience Platform.

Durch die Stapeldatenerfassung können Sie eine große Datenmenge gleichzeitig in Adobe Experience Platform erfassen. Sie können Stapeldaten in einem einmaligen Upload auf der Oberfläche der Plattform oder mithilfe der API erfassen. Sie können auch regelmäßig geplante Batch-Uploads von Drittanbieterdiensten wie Cloud-Datenspeicherung-Diensten über Source-Connectors konfigurieren.

Dateningenieure müssen Stapeldaten außerhalb dieses Tutorials erfassen.

Bevor Sie mit den Übungen beginnen, sehen Sie sich dieses kurze Video an, um mehr über die Datenaufnahme zu erfahren:

Berechtigungen erforderlich

In Berechtigungen konfigurieren Lektion erstellen Sie alle Zugriffskontrollen, die zum Abschluss dieser Lektion erforderlich sind.

Sie benötigen Zugriff auf einen (S)FTP-Server oder eine Cloud-Datenspeicherung-Lösung für die Sources-Übung. Es gibt eine Problemumgehung, wenn Sie keine haben.

Daten in Stapeln mit Platform-Benutzeroberfläche erfassen

Daten können direkt in ein DataSet auf dem DataSet-Bildschirm in JSON- und Parkettformaten hochgeladen werden. So können Sie die Aufnahme einiger Ihrer Daten nach dem Erstellen einer

Daten herunterladen und vorbereiten

Laden Sie zunächst die Beispieldaten herunter und passen Sie sie Ihrem Mandanten an:

HINWEIS

Daten in luma-data.zip Datei ist fiktiv und nur zu Demonstrationszwecken zu verwenden.

  1. Herunterladen luma-data.zip , um Luma Tutorial Assets Ordner.

  2. Entpacken Sie die Datei und erstellen Sie einen Ordner mit dem Namen luma-data die die vier Datendateien enthält, die wir in dieser Lektion verwenden werden

  3. Öffnen luma-loyalty.json in einem Texteditor und ersetzen alle Instanzen von _techmarketingdemos mit Ihrer eigenen Unterstrich-Mandanten-ID, wie in Ihren eigenen Schemas dargestellt:
    Unterstrich-Mandanten-ID

  4. Aktualisierte Datei speichern

Daten aufnehmen

  1. Wählen Sie in der Platform-Benutzeroberfläche Datenbestände in der linken Navigation

  2. Öffnen Sie Ihre Luma Loyalty Dataset

  3. Bildlauf nach unten, bis Sie die Daten Hinzufügen Abschnitt in der rechten Spalte

  4. Laden Sie die luma-loyalty.json Datei.

  5. Sobald die Datei hochgeladen wurde, wird eine Zeile für den Stapel angezeigt

  6. Wenn Sie die Seite nach einigen Minuten erneut laden, sollten Sie sehen, dass der Stapel erfolgreich mit 1000 Datensätzen und 1000 Profil-Fragmenten hochgeladen wurde.

    Eintritt

HINWEIS

Es gibt einige Optionen, Fehlerdiagnose und Partielle Aufnahme, die Sie auf verschiedenen Bildschirmen in dieser Lektion sehen werden. Diese Optionen werden im Tutorial nicht behandelt. Kurzinformationen:

  • Wenn Sie die Fehlerdiagnose aktivieren, werden Daten über die Erfassung Ihrer Daten generiert, die Sie dann mithilfe der Datenzugriffs-API überprüfen können. Weitere Informationen hierzu finden Sie in die Dokumentation.
  • Teilweise Erfassung ermöglicht das Erfassen von Daten mit Fehlern bis zu einem bestimmten Schwellenwert, den Sie angeben können. Weitere Informationen hierzu finden Sie in die Dokumentation

Daten überprüfen

Es gibt einige Möglichkeiten, um zu bestätigen, dass die Daten erfolgreich erfasst wurden.

Validieren in der Benutzeroberfläche der Plattform

So bestätigen Sie, dass die Daten in den Datensatz aufgenommen wurden:

  1. Wählen Sie auf derselben Seite, auf der Sie die Daten eingegeben haben, die Vorschau-Datensatz Schaltfläche oben rechts

  2. Wählen Sie Vorschau -Taste und Sie sollten einige der erfassten Daten sehen können.

    Erfolgreiches Datenset Vorschau

So bestätigen Sie, dass die in Profil angelandeten Daten (kann einige Minuten dauern, bis die Daten angelandet wurden):

  1. Gehe zu Profile in der linken Navigation

  2. Wählen Sie das Symbol neben dem Identitäts-Namensraum auswählen Feld zum Öffnen des Modals

  3. Wählen Sie Luma Loyalty Id Namensraum

  4. Geben Sie dann einen der folgenden Felder ein: loyaltyId Werte aus Ihrem Datensatz, 5625458

  5. Auswählen Ansicht

    Profil aus Datensatz bestätigen

Mit Ereignissen zur Datenaufnahme validieren

Wenn Sie in der vorherigen Lektion Ereignisse zur Datenaufnahme abonniert haben, überprüfen Sie Ihre eindeutige webaken.site-URL. Es sollten drei Anforderungen in der folgenden Reihenfolge angezeigt werden, wobei einige Zeit dazwischen liegt, mit den folgenden eventCode Werte:

  1. ing_load_success—der Stapel wie angefordert
  2. ig_load_success—der Stapel wurde in das Identitätsdiagramm eingeschlossen
  3. ps_load_success—Der Stapel wurde in den Profil-Dienst integriert

Datenaufnahmen-Webhaken

Siehe Dokumentation für weitere Einzelheiten zu den Mitteilungen.

Daten in Stapeln mit Plattform-API erfassen

Laden wir nun Daten mit der API hoch.

HINWEIS

Datenarchitekten können die CRM-Daten über die User-Interface-Methode hochladen.

Daten herunterladen und vorbereiten

  1. Sie sollten bereits heruntergeladen und die Komprimierung entpackt haben luma-data.zip in Luma Tutorial Assets Ordner.
  2. Öffnen luma-crm.json in einem Texteditor und ersetzen alle Instanzen von _techmarketingdemos mit Ihrer eigenen Unterstrich-Pächter-ID, wie in Ihren Schemas
  3. Aktualisierte Datei speichern

Dataset-ID abrufen

Zuerst erhalten wir die ID der DataSet-ID des DataSets, in das wir Daten aufnehmen möchten:

  1. Öffnen Postman
  2. Wenn Sie in den letzten 24 Stunden keine Anfrage gestellt haben, sind Ihre Autorisierungstoken wahrscheinlich abgelaufen. Anforderung öffnen Adobe I/O Access Token Generation > Local Signing (Non-production use-only) > IMS: JWT Generate + Auth via User Token und wählen Senden , um neue JWT und Zugriffstoken anzufordern, wie Sie es in der Postman Unterricht.
  3. Öffnen Sie Ihre Umgebung-Variablen und stellen Sie sicher, dass der Wert von Container_ID ist noch tenant
  4. Anforderung öffnen Catalog Service API > Datasets > Retrieve a list of datasets. und wählen Senden
  5. Sie sollten 200 OK Antwort
  6. Kopieren Sie die ID der Luma CRM Dataset aus dem Antwortgremium
    Dataset-ID abrufen

Stapel erstellen

Jetzt können wir einen Stapel im Datensatz erstellen:

  1. Herunterladen Data Ingestion API.postman_collection.json , um Luma Tutorial Assets Ordner

  2. Sammlung importieren in Postman

  3. Anforderung auswählen Data Ingestion API > Batch Ingestion > Create a new batch in Catalog Service.

  4. Folgendes einfügen als Hauptteil des Antrags, Ersetzen des Werts "datasetId"durch einen eigenen:

    {
        "datasetId":"REPLACE_WITH_YOUR_OWN_DATASETID",
        "inputFormat": {
            "format": "json"
        }
    }
    
  5. Wählen Sie Senden Schaltfläche

  6. Sie sollten eine 201 Erstellte Antwort mit der ID Ihres neuen Stapels erhalten!

  7. Kopieren Sie die id der neuen Charge
    Stapel erstellt

Daten aufnehmen

Jetzt können wir die Daten in den Stapel hochladen:

  1. Anforderung auswählen Data Ingestion API > Batch Ingestion > Upload a file to a dataset in a batch.

  2. In Parameter auf, geben Sie Ihre Dataset-ID und Stapel-ID in die entsprechenden Felder ein.

  3. In Parameter Tabulator eingeben luma-crm.json als filePath

  4. In Hauptteil wählen Sie die binär Option

  5. Wählen Sie den heruntergeladenen luma-crm.json von Ihrer lokalen Luma Tutorial Assets Ordner

  6. Auswählen Senden und Sie sollten eine 200 OK-Antwort mit '1' im Antworttext erhalten

    Daten hochgeladen

Wenn Sie sich den Stapel in der Platform-Benutzeroberfläche ansehen, sehen Sie, dass er sich in einem "Wird geladen" Status:
Chargenladung

Da die Batch-API häufig zum Hochladen mehrerer Dateien verwendet wird, müssen Sie Platform mitteilen, wann ein Stapel abgeschlossen ist, was wir im nächsten Schritt tun werden.

Stapel fertig stellen

So schließen Sie den Stapel ab:

  1. Anforderung auswählen Data Ingestion API > Batch Ingestion > Finish uploading a file to a dataset in a batch.

  2. In Parameter Tabulator eingeben COMPLETE als Aktion

  3. In Parameter auf, geben Sie Ihre Stapel-ID ein. Machen Sie sich keine Gedanken über die DataSet-ID oder den filePath, falls vorhanden.

  4. Vergewissern Sie sich, dass die URL der POST https://platform.adobe.io/data/foundation/import/batches/:batchId?action=COMPLETE und dass es keine unnötigen Verweise auf die datasetId oder filePath

  5. Auswählen Senden und Sie sollten eine 200 OK-Antwort mit '1' im Antworttext erhalten

    Stapel abgeschlossen

Daten überprüfen

Validieren in der Benutzeroberfläche der Plattform

Validieren Sie die Daten, die in der Benutzeroberfläche der Plattform landen, wie Sie es für das Loyalty-Datenset getan haben.

Bestätigen Sie zunächst, dass 1000 Datensätze erfasst wurden:

Batch-Erfolg

Bestätigen Sie den Stapel als Nächstes mithilfe des Datasets Vorschau:

Batch-Vorschau

Bestätigen Sie schließlich, dass eines Ihrer Profile erstellt wurde, indem Sie eines der Profil nachschlagen von Luma CRM Id Namensraum, z. B. 112ca06ed53d3db37e4cea49cc45b71e

Profil wird erfasst

Es ist gerade eine interessante Sache passiert, auf die ich hinweisen möchte. Öffnen Danny Wright Profil. Das Profil hat beide Lumacrmid und Lumaloyaltyid. Merken Sie sich Luma Loyalty Schema enthielt zwei Identitätsfelder, die Luma Loyalty-ID und die CRM-ID. Nun, da wir beide Datensätze hochgeladen haben, haben sie sich zu einem einzigen Profil zusammengeführt. Die Treuedaten hatten Daniel als Vorname und "New York City" als Heimatadresse, während die CRM-Daten Danny als Vorname und Portland als Home-Adresse des Kunden mit derselben Loyalität-ID. Wir werden darauf zurückkommen, warum der Vorname angezeigt wird Danny in der Lektion zu den Zusammenführungsrichtlinien.

Herzlichen Glückwunsch! Sie haben gerade Profile zusammengeführt!

Profil zusammengeführt

Mit Ereignissen zur Datenaufnahme validieren

Wenn Sie in der vorherigen Lektion Ereignisse zur Datenaufnahme abonniert haben, überprüfen Sie Ihre eindeutige webaken.site-URL. Es sollten drei Anfragen eingehen, genau wie bei den Treuedaten:

Datenaufnahmen-Webhaken

Siehe Dokumentation für weitere Einzelheiten zu den Mitteilungen.

Daten mit Workflows einbeziehen

Schauen wir uns eine andere Möglichkeit an, Daten hochzuladen. Mit der Workflows-Funktion können Sie CSV-Daten erfassen, die noch nicht in XDM modelliert sind.

Daten herunterladen und vorbereiten

  1. Sie sollten bereits heruntergeladen und die Komprimierung entpackt haben luma-data.zip in Luma Tutorial Assets Ordner.
  2. Bestätigen Sie, dass Sieluma-products.csv

Erstellen eines Workflows

Legen Sie nun den Workflow fest:

  1. Gehe zu Workflows in der linken Navigation
  2. Auswählen CSV zu XDM-Schema zuordnen und wählen Sie Launch Schaltfläche
    Workflow starten
  3. Wählen Sie Luma Product Catalog Dataset und wählen Sie Weiter Schaltfläche
    DataSet auswählen
  4. hinzufügen luma-products.csv heruntergeladene Datei und wählen Sie Weiter Schaltfläche
    DataSet auswählen
  5. Jetzt befinden Sie sich in der Zuordnungsoberfläche, in der Sie ein Feld aus den Quelldaten zuordnen können (einen der Spaltennamen im luma-products.csv -Datei) in XDM-Felder im Schema Zielgruppe. In unserem Beispiel sind die Spaltennamen den Feldnamen des Schemas so nahe, dass der Mapper die richtige Zuordnung automatisch erkennen kann! Wenn das richtige Feld nicht automatisch erkannt werden konnte, wählen Sie das Symbol rechts neben der Zielgruppe aus, um das richtige XDM-Feld auszuwählen. Wenn Sie eine der Spalten nicht aus der CSV erfassen möchten, können Sie die Zeile aus der Zuordnung löschen. Sie können sich frei abspielen und die Spaltenüberschriften in der luma-products.csv um sich mit der Funktionsweise des Mappers vertraut zu machen.
  6. Wählen Sie Fertigstellen Schaltfläche
    DataSet auswählen

Daten überprüfen

Wenn der Stapel hochgeladen wurde, überprüfen Sie den Upload, indem Sie eine Vorschau des Datasets anzeigen.

Seit Luma Product SKU ist ein Non-People-Namensraum, wir werden keine Profile für den Produkt-Skus sehen.

Sie sollten die drei Treffer in Ihrem Webhaken sehen.

Daten mit Quellen erfassen

Okay, Sie haben die Dinge auf die harte Tour gemacht. Nun lassen Sie uns in das versprochene Land von automatisiert Stapelverarbeitung! Wenn ich sage: "SET IT!" Sie sagen: "VERGESSEN SIE ES!" "SET IT!" "VERGESSEN SIE ES!" "SET IT!" "VERGESSEN SIE ES!" Nur ein Scherz! Du würdest so etwas nie tun! OK, zurück an die Arbeit. Du bist fast fertig.

Gehe zu Quellen in der linken Navigation, um den Quellkatalog zu öffnen. Hier finden Sie verschiedene Out-of-the-Box-Integrationen mit branchenführenden Daten- und Datenspeicherung-Anbietern.

Quellkatalog

Okay, lassen Sie uns Daten mit einem Quellanschluss erfassen.

Diese Übung wird der eigene Abenteuerstil sein. Ich werde den Workflow über den FTP-Quellanschluss anzeigen. Sie können entweder einen anderen Cloud-Datenspeicherung-Quellanschluss verwenden, den Sie in Ihrer Firma verwenden, oder die JSON-Datei über die DataSet-Benutzeroberfläche hochladen, wie dies bei den Treuedaten der Fall war.

Viele der Quellen verfügen über einen ähnlichen Konfigurations-Workflow, in dem Sie:

  1. Authentifizierungsdetails eingeben
  2. Wählen Sie die Daten aus, die Sie erfassen möchten
  3. Wählen Sie das Plattformdataset aus, in das Sie es erfassen möchten
  4. Felder zu Ihrem XDM-Schema zuordnen
  5. Wählen Sie die Häufigkeit aus, mit der Daten von diesem Speicherort abgerufen werden sollen
HINWEIS

Die Daten zum Offline-Einkauf, die wir in dieser Übung verwenden werden, enthalten Daten zu den Daten. Die Daten zur Datenzeit müssen sich in ISO 8061 formatierte Zeichenfolgen ("2018-07-10T15:05:59.000-08:00") oder Unix-Zeit in Millisekunden formatiert (1531263959000) und bei der Aufnahme in den XDM-Typ der Zielgruppe konvertiert. Weitere Informationen zur Datenkonvertierung und anderen Beschränkungen finden Sie unter die Dokumentation zur Batch Ingestion API.

Daten herunterladen, vorbereiten und auf Ihren bevorzugten Cloud-Datenspeicherung-Anbieter hochladen

  1. Sie sollten bereits heruntergeladen und die Komprimierung entpackt haben luma-data.zip in Luma Tutorial Assets Ordner.
  2. Öffnen luma-offline-purchases.json in einem Texteditor und ersetzen alle Instanzen von _techmarketingdemos mit Ihrer eigenen Unterstrich-Pächter-ID, wie in Ihren Schemas
  3. Wählen Sie Ihren bevorzugten Cloud-Datenspeicherung-Provider aus, und stellen Sie sicher, dass er im Bereich Quellen Katalog
  4. Hochladen luma-offline-purchases.json an einen Speicherort in Ihrem bevorzugten Cloud-Datenspeicherung-Provider

Daten an den bevorzugten Speicherort der Cloud-Datenspeicherung aufnehmen

  1. Filtern Sie die Quellen Katalog in Cloud-Datenspeicherung

  2. Beachten Sie, dass es praktische Links zur Dokumentation unter ...

  3. Wählen Sie im Feld Ihres bevorzugten Cloud-Datenspeicherung-Anbieters die Konfigurieren Schaltfläche
    Konfiguration auswählen

  4. Authentifizierung ist der erste Schritt. Geben Sie den Namen für Ihr Konto ein, z. B. Luma's FTP Account und Ihre Authentifizierungsdetails. Dieser Schritt sollte für alle Cloud-Datenspeicherung-Quellen ziemlich ähnlich sein, auch wenn die Felder leicht abweichen können. Sobald Sie die Authentifizierungsdetails für ein Konto eingegeben haben, können Sie diese für andere Quellverbindungen verwenden, die möglicherweise andere Daten aus verschiedenen Zeitplänen als andere Dateien im gleichen Konto senden.

  5. Wählen Sie Mit Quellschaltfläche verbinden

  6. Wenn die Plattform erfolgreich mit der Quelle verbunden ist, wählen Sie Weiter Schaltfläche
    Mit Quelle authentifizieren

  7. Auf Daten auswählen -Schritt, verwendet die Benutzeroberfläche Ihre Anmeldedaten, um den Ordner in Ihrer Cloud-Datenspeicherung-Lösung zu öffnen.

  8. Wählen Sie beispielsweise die Dateien aus, die Sie aufnehmen möchten luma-offline-purchases.json

  9. As the Datenformat, wählen XDM JSON

  10. Sie können dann die JSON-Struktur und Beispieldaten in der Datei Vorschau haben

  11. Wählen Sie Weiter Schaltfläche
    Datendatei(en) auswählen

  12. Auf Zuordnung wählen Sie Luma Offline Purchase Events Dataset und wählen Sie Weiter Schaltfläche. Beachten Sie in der Meldung, dass es sich bei den eingegebenen Daten um eine JSON-Datei handelt und dass es keinen Zuordnungsschritt gibt, bei dem das Quellfeld dem Feld Zielgruppe zugeordnet wird. JSON-Daten müssen sich bereits in XDM befinden. Wenn Sie eine CSV-Datei verwenden, sehen Sie in diesem Schritt die vollständige Benutzeroberfläche für die Zuordnung:
    DataSet auswählen

  13. Auf Planung wählen Sie die Frequenz aus, mit der Sie Daten aus der Quelle erfassen möchten. Nehmen Sie sich einen Moment Zeit, um sich die Optionen anzusehen. Wir werden nur eine einmalige Aufnahme machen, also lassen Sie die Häufigkeit on Einmal und wählen Sie Weiter Schaltfläche:
    Datenfluss planen

  14. Auf Datenflasche - Detail Schritt, können Sie einen Namen für Ihren Datenaflow auswählen, eine optionale Beschreibung eingeben, die Fehlerdiagnose aktivieren und die teilweise Erfassung aktivieren. Lassen Sie die Einstellungen unverändert und wählen Sie die Weiter Schaltfläche:
    Details Ihres Datenflusses bearbeiten

  15. Auf Überprüfen Schritt, können Sie alle Einstellungen zusammen überprüfen und entweder bearbeiten oder Fertigstellen Schaltfläche

  16. Nach dem Speichern landen Sie auf einem Bildschirm wie diesem:
    Abgeschlossen

Daten überprüfen

Wenn der Stapel hochgeladen wurde, überprüfen Sie den Upload, indem Sie eine Vorschau des Datasets anzeigen.

Sie sollten die drei Treffer in Ihrem Webhaken sehen.

Profil mit Wert nachschlagen 5625458 in loyaltyId Namensraum, um zu sehen, ob sich Ereignis in ihrem Profil befinden. Sie sollten einen Kauf sehen. Sie können die Details des Kaufs einsehen, indem Sie Ansicht JSON:

Ereignis im Profil erwerben

ETL-Tools

Adobe arbeitet mit mehreren ETL-Anbietern zusammen, um die Datenerfassung in die Experience Platform zu unterstützen. Aufgrund der Vielfalt von Drittanbietern wird ETL in diesem Tutorial nicht behandelt, obwohl Sie einige dieser Ressourcen gerne überprüfen können:

Weitere Ressourcen

Jetzt lasst uns Stream-Daten mit dem Web SDK

Auf dieser Seite