Data Distiller 101
Erstellt für:
- Fortgeschrittener
- Admin
- Entwickler
- Führungskraft
- Benutzende
In dieser Übersicht über Data Distiller wird gezeigt, wie gängige Herausforderungen bei Data Distiller bewältigt werden können und welche Best Practices für den Erfolg eingesetzt werden.
Wichtige Diskussionspunkte
- Data Distiller - Übersicht
- Häufig gestellte Fragen zu Data Distil und ihre Lösungen
- Häufige Anwendungsfälle
Wichtige Erkenntnisse
Übersicht und Zweck von Data Distiller
Data Distiller bietet einen Überblick über die wichtigsten Anwendungsfälle und Kundenlösungen. Es unterstützt Datenarchitekten, Dateningenieure, Datenwissenschaftler und Marketing-Entitäten, indem es die Datensegmentierung, Kuratierung und das Hinzufügen kontextueller Daten ermöglicht.
Primäre Anwendungsfälle
Im Webinar wurden fünf grundlegende Anwendungsfälle für Data Distiller hervorgehoben:
- Erstellen von markenorientierten Datenmodellen für ein südamerikanisches Einzelhandelsunternehmen.
- E-Mails mit dem besten Angebot mit personalisierten Daten für ein Telekommunikationsunternehmen anreichern.
- Datenoptimierung für Reporting- und Attributionsmodellierung für einen Luxuseinzelhändler.
- Anpassen von Insights für operatives Dashboard.
- Nutzung von KI- und ML-Funktions-Pipelines für Trainings- und Scoring-Modelle.
Wichtigste Funktionen
Data Distiller bietet SQL-basierte Verarbeitung, skalierbares Daten-Management, von Adobe definierte Funktionen, Automatisierung und Planung, Überwachung und Warnhinweise sowie die Integration mit Drittanbieter-Tools für erweiterte Einblicke.
Datenumwandlung und -anreicherung
Data Distiller ermöglicht das Bereinigen, Formen, Bearbeiten und Anreichern von Daten. Dazu gehören die Standardisierung von Daten, die Umgestaltung von Datenformaten, die Erweiterung der Daten auf Granularität und die Ableitung zusätzlicher Attribute für die nachgelagerte Verwendung.
Operative Dashboards und KI-/ML-Integration
Data Distiller ermöglicht die Erstellung betrieblicher Dashboards in Echtzeit und unterstützt KI/ML-Feature-Pipelines. Auf diese Weise können Benutzende Modelle mit Adobe-Daten trainieren, Modelle bewerten und Prognosen wieder in Adobe Experience Platform integrieren, um eine datengestützte Entscheidungsfindung zu ermöglichen.