Last update: Tue May 05 2026 00:00:00 GMT+0000 (Coordinated Universal Time)
Erstellt für:
- Benutzende
- Entwickler
- Admin
Adobe Experience Platform bietet leistungsstarke Tools zur Verwaltung großer, komplizierter Datenvorgänge, was die Orchestrierung von Customer Experiences ermöglicht. Da im Laufe der Zeit Daten in das System aufgenommen werden, ist es wichtig, Ihre Datenspeicher so zu verwalten, dass Daten wie vorgesehen verwendet werden. So müssen Daten aktualisiert werden, um falsche Einträge zu korrigieren, und Daten gelöscht werden, wenn dies aufgrund von Unternehmensrichtlinien erforderlich ist.
Diese Aktivitäten können mit dem Arbeitsbereich der Data Lifecycle-Benutzeroberfläche der Datenhygiene-API) . Wenn ein Datenlebenszyklusauftrag ausgeführt wird, stellt das System bei jedem Prozessschritt Aktualisierungen der Transparenz bereit. Weitere Informationen darüber, wie die einzelnen Auftragstypen im System dargestellt werden, finden Sie im Abschnitt zu Timelines und Transparenz.
Advanced Data Lifecycle Management unterstützt das Löschen von Datensätzen über den
Datensatzgültigkeits-Endpunkt und ID-Löschungen (Daten auf Zeilenebene) mithilfe primärer Identitäten über den
Arbeitsauftrags-Endpunkt. Sie können das Löschen von
Datensatzgültigkeiten und
Datensätzen auch über die Experience Platform-Benutzeroberfläche verwalten. Weitere Informationen finden Sie in der verknüpften Dokumentation . Beachten Sie, dass der Datenlebenszyklus das Löschen von Batches nicht unterstützt.
Data Lifecycle Arbeitsbereich der Benutzeroberfläche ui
Der Data Lifecycle Arbeitsbereich in der Experience Platform-Benutzeroberfläche ermöglicht die Konfiguration und Planung von Datenlebenszyklusvorgängen, wodurch Sie sicherstellen können, dass Ihre Datensätze wie vorgesehen gepflegt werden.
Ausführliche Anweisungen zum Verwalten von Datenlebenszyklusaufgaben in der Benutzeroberfläche finden Sie im Handbuch zur Datenlebenszyklus-Benutzeroberfläche.
Data Hygiene API api
Die Data Lifecycle Benutzeroberfläche basiert auf der Data Hygiene API, deren Endpunkte Sie direkt zur Automatisierung Ihrer Datenlebenszyklusaktivitäten verwenden können. Weitere Informationen dazu finden Sie im Handbuch zur Data Hygiene API.
Timelines und Transparenz timelines-and-transparency
Anfragen zum Löschen von Datensätzen und zur Datensatzgültigkeit haben jeweils ihre eigenen Verarbeitungszeitpläne und bieten Transparenzaktualisierungen an wichtigen Punkten in ihren jeweiligen Workflows.
Weitere Referenzinformationen:
Datensatzgültigkeitsanfrage wird erstellt:
Staging
Zeit nach planmäßiger Gültigkeit
Beschreibung
Anfrage wird übermittelt
0 Stunden
Ein Data Steward oder Datenschutzanalyst übermittelt eine Anfrage, dass ein Datensatz zu einem bestimmten Zeitpunkt ablaufen soll. Nachdem sie übermittelt wurde, ist die Anfrage in der Data Lifecycle UI sichtbar und verbleibt bis zum Ablauf der planmäßigen Gültigkeitsdauer im Status „Ausstehend“, wonach die Anfrage ausgeführt wird.
Datensatz wird aus dem Data Lake gelöscht
1 Stunde
Der Datensatz wird aus der Datensatzinventarseite
der -Benutzeroberfläche gelöscht. Die Daten im Data Lake werden nur vorläufig gelöscht und bleiben so bis zum Ende des Prozesses erhalten, wonach sie dauerhaft gelöscht werden.
Datensatz wird aus dem Profil-Service gelöscht
3 Stunden
Ab diesem Zeitpunkt werden bei Vorgängen wie Batch- und Streaming-Segmentierung, Vorschau oder Schätzung, Export und Entitätszugriff keine Daten mehr aus diesem Datensatz gelesen. Die Daten im Profil-Service werden nur vorläufig gelöscht und bleiben so bis zum Ende des Prozesses erhalten, wonach sie dauerhaft gelöscht werden.
Profilanzahl und Zielgruppen aktualisiert
48 Stunden
Sobald alle betroffenen Profile aktualisiert worden sind, werden alle zugehörigen
Zielgruppen aktualisiert, damit ihre neue Größe widergespiegelt wird. Je nach entferntem Datensatz und den Attributen, nach denen Sie segmentieren, kann sich die Größe der einzelnen Zielgruppen aufgrund des Löschens erhöhen oder verringern. An dieser Stelle werden alle resultierenden Änderungen der Gesamtprofilanzahl in
Dashboard-Widgets und anderen Berichten widergespiegelt.
Journeys und Ziele werden aktualisiert
50 Stunden
Dauerhafte Löschung wird abgeschlossen
15 Tage
Alle mit dem Datensatz verknüpften Daten werden dauerhaft aus dem Data Lake und Profil-Service gelöscht. Der
Status des Datenlebenszyklusauftrags der den Datensatz gelöscht hat, wird aktualisiert, um dies widerzuspiegeln.
Zeitleisten für das Löschen von Datensätzen record-delete-transparency
Nachdem ein Antrag auf Löschung eines Datensatzes wurde erfolgt Folgendes.
Die Zeiten sind ungefähre Zahlen und variieren je nach Systemlast, Batch-Planung und Berechtigungsstufe. Der End-to-End-SLA (30 Tage Standard, 15 Tage für Privacy and Security Shield oder Healthcare Shield) ist die operative Verpflichtung.
Staging
Ca. Timing
Beschreibung
Anforderung gesendet und in Batches eingesetzt
Tag 1-15
Ein Arbeitsauftrag wird erstellt und in die Warteschlange gestellt. Anfragen können bis zu 14 Tage vor Beginn der Verarbeitung in die Warteschlange gestellt und in Batches aufgenommen werden. Batching ist der Hauptgrund dafür, dass das Löschen nicht sofort erfolgt.
Löschanfrage für nachgelagerte Systeme
Tag 16-25
Nachgelagerte Services empfangen die Löschanfrage für den Datensatz und führen sie aus.
Puffer - Integritätsprüfungen und erneute Übermittlungen
Tag 25-30
Ein Pufferfenster ermöglicht Integritätsprüfungen und die erneute Übermittlung fehlgeschlagener Aufträge, bevor das SLA-Fenster geschlossen wird. Der Arbeitsauftragsstatus wird auf completed aktualisiert, sobald alle Systeme den Löschvorgang bestätigen.
Informationen zu berechtigungsbasierten Warteschlangendauern und maximalen SLA-Werten finden Sie unter Verarbeitungszeitpläne für Kennungsübermittlungen.
Nächste Schritte next-steps
Dieses Dokument bietet einen Überblick über die Datenlebenszyklusfunktionen von Experience Platform. Informationen zu den ersten Schritten bei Datenhygiene-Anfragen in der Benutzeroberfläche finden Sie im Handbuch zur Datenlebenszyklus-Benutzeroberfläche. Informationen zum programmgesteuerten Erstellen von Datenlebenszyklusaufträgen finden Sie im Data Hygiene API Guide.
332f81c1-51e7-4bde-8327-2eb07f09604f