Erweitertes Daten-Lifecycle-Management in Adobe Experience Platform

Adobe Experience Platform bietet leistungsstarke Tools zur Verwaltung großer, komplizierter Datenvorgänge, was die Orchestrierung von Customer Experiences ermöglicht. Da im Laufe der Zeit Daten in das System aufgenommen werden, ist es wichtig, Ihre Datenspeicher so zu verwalten, dass Daten wie vorgesehen verwendet werden. So müssen Daten aktualisiert werden, um falsche Einträge zu korrigieren, und Daten gelöscht werden, wenn dies aufgrund von Unternehmensrichtlinien erforderlich ist.

Diese Aktivitäten können mit dem Arbeitsbereich der Data Lifecycle-Benutzeroberfläche ​ der Datenhygiene-API) ​. Wenn ein Datenlebenszyklusauftrag ausgeführt wird, stellt das System bei jedem Prozessschritt Aktualisierungen der Transparenz bereit. Weitere Informationen darüber, wie die einzelnen Auftragstypen im System dargestellt werden, finden Sie im Abschnitt zu Timelines und Transparenz.

NOTE
Advanced Data Lifecycle Management unterstützt das Löschen von Datensätzen über den Datensatzgültigkeits-Endpunkt und ID-Löschungen (Daten auf Zeilenebene) mithilfe primärer Identitäten über den Arbeitsauftrags-Endpunkt. Sie können das Löschen von Datensatzgültigkeiten und Datensätzen auch über die Experience Platform-Benutzeroberfläche verwalten. Weitere Informationen finden Sie in der verknüpften Dokumentation . Beachten Sie, dass der Datenlebenszyklus das Löschen von Batches nicht unterstützt.

Data Lifecycle Arbeitsbereich der Benutzeroberfläche ui

Der Data Lifecycle Arbeitsbereich in der Experience Platform-Benutzeroberfläche ermöglicht die Konfiguration und Planung von Datenlebenszyklusvorgängen, wodurch Sie sicherstellen können, dass Ihre Datensätze wie vorgesehen gepflegt werden.

Ausführliche Anweisungen zum Verwalten von Datenlebenszyklusaufgaben in der Benutzeroberfläche finden Sie im Handbuch zur Datenlebenszyklus-Benutzeroberfläche.

Data Hygiene API api

Die Data Lifecycle Benutzeroberfläche basiert auf der Data Hygiene API, deren Endpunkte Sie direkt zur Automatisierung Ihrer Datenlebenszyklusaktivitäten verwenden können. Weitere Informationen dazu finden Sie im Handbuch zur Data Hygiene API.

Timelines und Transparenz timelines-and-transparency

Anfragen zum Löschen von Datensätzen und zur Datensatzgültigkeit haben jeweils ihre eigenen Verarbeitungszeitpläne und bieten Transparenzaktualisierungen an wichtigen Punkten in ihren jeweiligen Workflows.

TIP
Weitere Referenzinformationen:

Datensatzgültigkeitsanfrage wird erstellt:

Staging
Zeit nach planmäßiger Gültigkeit
Beschreibung
Anfrage wird übermittelt
0 Stunden
Ein Data Steward oder Datenschutzanalyst übermittelt eine Anfrage, dass ein Datensatz zu einem bestimmten Zeitpunkt ablaufen soll. Nachdem sie übermittelt wurde, ist die Anfrage in der Data Lifecycle UI sichtbar und verbleibt bis zum Ablauf der planmäßigen Gültigkeitsdauer im Status „Ausstehend“, wonach die Anfrage ausgeführt wird.
Datensatz wird aus dem Data Lake gelöscht
1 Stunde
Der Datensatz wird aus der Datensatzinventarseite ​ der ​-Benutzeroberfläche gelöscht. Die Daten im Data Lake werden nur vorläufig gelöscht und bleiben so bis zum Ende des Prozesses erhalten, wonach sie dauerhaft gelöscht werden.
Datensatz wird aus dem Profil-Service gelöscht
3 Stunden
Ab diesem Zeitpunkt werden bei Vorgängen wie Batch- und Streaming-Segmentierung, Vorschau oder Schätzung, Export und Entitätszugriff keine Daten mehr aus diesem Datensatz gelesen. Die Daten im Profil-Service werden nur vorläufig gelöscht und bleiben so bis zum Ende des Prozesses erhalten, wonach sie dauerhaft gelöscht werden.
Profilanzahl und Zielgruppen aktualisiert
48 Stunden
Sobald alle betroffenen Profile aktualisiert worden sind, werden alle zugehörigen Zielgruppen aktualisiert, damit ihre neue Größe widergespiegelt wird. Je nach entferntem Datensatz und den Attributen, nach denen Sie segmentieren, kann sich die Größe der einzelnen Zielgruppen aufgrund des Löschens erhöhen oder verringern. An dieser Stelle werden alle resultierenden Änderungen der Gesamtprofilanzahl in Dashboard-Widgets und anderen Berichten widergespiegelt.
Journeys und Ziele werden aktualisiert
50 Stunden
Journeys, Kampagnen und Ziele werden entsprechend den Änderungen in den zugehörigen Segmenten aktualisiert.
Dauerhafte Löschung wird abgeschlossen
15 Tage
Alle mit dem Datensatz verknüpften Daten werden dauerhaft aus dem Data Lake und Profil-Service gelöscht. Der Status des Datenlebenszyklusauftrags der den Datensatz gelöscht hat, wird aktualisiert, um dies widerzuspiegeln.

Zeitleisten für das Löschen von Datensätzen record-delete-transparency

Nachdem ein Antrag auf Löschung eines Datensatzes ​ wurde erfolgt Folgendes.

NOTE
Die Zeiten sind ungefähre Zahlen und variieren je nach Systemlast, Batch-Planung und Berechtigungsstufe. Der End-to-End-SLA (30 Tage Standard, 15 Tage für Privacy and Security Shield oder Healthcare Shield) ist die operative Verpflichtung.
Staging
Ca. Timing
Beschreibung
Anforderung gesendet und in Batches eingesetzt
Tag 1-15
Ein Arbeitsauftrag wird erstellt und in die Warteschlange gestellt. Anfragen können bis zu 14 Tage vor Beginn der Verarbeitung in die Warteschlange gestellt und in Batches aufgenommen werden. Batching ist der Hauptgrund dafür, dass das Löschen nicht sofort erfolgt.
Löschanfrage für nachgelagerte Systeme
Tag 16-25
Nachgelagerte Services empfangen die Löschanfrage für den Datensatz und führen sie aus.
Puffer - Integritätsprüfungen und erneute Übermittlungen
Tag 25-30
Ein Pufferfenster ermöglicht Integritätsprüfungen und die erneute Übermittlung fehlgeschlagener Aufträge, bevor das SLA-Fenster geschlossen wird. Der Arbeitsauftragsstatus wird auf completed aktualisiert, sobald alle Systeme den Löschvorgang bestätigen.

Informationen zu berechtigungsbasierten Warteschlangendauern und maximalen SLA-Werten finden Sie unter Verarbeitungszeitpläne für Kennungsübermittlungen.

Nächste Schritte next-steps

Dieses Dokument bietet einen Überblick über die Datenlebenszyklusfunktionen von Experience Platform. Informationen zu den ersten Schritten bei Datenhygiene-Anfragen in der Benutzeroberfläche finden Sie im Handbuch zur Datenlebenszyklus-Benutzeroberfläche. Informationen zum programmgesteuerten Erstellen von Datenlebenszyklusaufträgen finden Sie im Data Hygiene API Guide.

recommendation-more-help
332f81c1-51e7-4bde-8327-2eb07f09604f