Modell in der Benutzeroberfläche von Data Science Workspace trainieren und bewerten
In Adobe Experience Platform Data Science Workspace können Sie ein Modell für maschinelles Lernen einrichten, indem Sie ein vorhandenes Rezept einbinden, das für den Zweck des Modells geeignet ist. Anschließend wird das Modell trainiert und bewertet, um seine Effizienz und Wirksamkeit zu erhöhen; dazu werden die entsprechenden Hyperparameter fein abgestimmt. Rezepte sind wiederverwendbar; mit einem Rezept können also verschiedene Modelle erstellt und auf individuelle Zwecke zugeschnitten werden.
Dieses Tutorial leitet Sie durch die Schritte zum Erstellen, Trainieren und Bewerten eines Modells.
Erste Schritte
Um dieses Tutorial abzuschließen, benötigen Sie Zugriff auf Experience Platform. Wenn Sie keinen Zugriff auf eine Organisation in Experience PlatformWenden Sie sich an Ihren Systemadministrator, bevor Sie fortfahren.
Das Tutorial setzt ein vorhandenes Rezept voraus. Wenn Sie kein Rezept haben, befolgen Sie die Anweisungen im Tutorial zum Importieren eines gepackten Rezepts in der UI, bevor Sie fortfahren.
Modell erstellen
Wählen Sie in Experience Platform die Modelle im linken Navigationsbereich auf und wählen Sie dann die Registerkarte Durchsuchen aus, um Ihre vorhandenen Modelle anzuzeigen. Auswählen Modell erstellen oben rechts auf der Seite, um einen Modellerstellungsprozess zu starten.
Durchsuchen Sie die Liste der vorhandenen Rezepte, wählen Sie das Rezept aus, das zum Erstellen des Modells verwendet werden soll, und wählen Sie Nächste.
Wählen Sie einen entsprechenden Eingabedatensatz aus und wählen Sie Nächste. Dadurch wird der standardmäßige Eingabedatensatz zum Trainieren des Modells festgelegt.
Geben Sie einen Namen für das Modell ein und überprüfen Sie die standardmäßigen Modellkonfigurationen. Bei der Rezepterstellung wurden Standardkonfigurationen angewendet; um die Konfigurationswerte zu prüfen und zu ändern, doppelklicken Sie auf die jeweiligen Werte.
Um einen neuen Konfigurationssatz bereitzustellen, wählen Sie Neue Konfiguration hochladen und ziehen Sie eine JSON-Datei mit Modellkonfigurationen in das Browserfenster. Auswählen Beenden , um das Modell zu erstellen.
Trainings-Lauf erstellen
Wählen Sie in Experience Platform die Modelle im linken Navigationsbereich auf und wählen Sie dann die Registerkarte Durchsuchen aus, um Ihre vorhandenen Modelle anzuzeigen. Suchen und wählen Sie den Hyperlink aus, der an den Namen des Modells angehängt ist, das Sie trainieren möchten.
Alle vorhandenen Trainings-Läufe werden mit ihrem aktuellen Trainings-Status aufgeführt. Für Modelle, die mit dem Data Science Workspace -Benutzeroberfläche wird automatisch ein Trainings-Lauf mit den Standardkonfigurationen und dem Eingabedatensatz für das Training generiert und ausgeführt.
Erstellen Sie einen neuen Trainings-Lauf durch Auswahl von Zug oben rechts auf der Modellübersichtsseite.
Wählen Sie den Eingabedatensatz für das Training aus und wählen Sie dann Nächste.
Bei der Modellerstellung angegebene Standardkonfigurationen werden angezeigt; ändern Sie sie nach Bedarf, indem Sie auf die Werte doppelklicken. Auswählen Beenden , um den Trainings-Lauf zu erstellen und auszuführen.
Modell bewerten
Wählen Sie in Experience Platform die Modelle im linken Navigationsbereich auf und wählen Sie dann die Registerkarte Durchsuchen aus, um Ihre vorhandenen Modelle anzuzeigen. Suchen und wählen Sie den Hyperlink aus, der an den Namen des Modells angehängt ist, das Sie auswerten möchten.
Alle vorhandenen Trainings-Läufe werden mit ihrem aktuellen Trainings-Status aufgeführt. Bei mehreren abgeschlossenen Trainings-Läufen können Bewertungsmetriken über verschiedene Trainings-Läufe im Modellbewertungsdiagramm hinweg verglichen werden. Wählen Sie mithilfe der Dropdown-Liste über dem Diagramm eine Auswertungsmetrik aus.
Die Metrik „Mean Absolute Percent Error (MAPE)“ drückt die Genauigkeit als Fehlerprozentwert aus. So lässt sich das am besten geeignete Experiment ermitteln. Dabei gilt: Je niedriger der MAPE-Wert, desto besser.
Die Metrik „Präzision“ beschreibt den Prozentwert relevanter Instanzen im Vergleich zu den insgesamt abgerufenen Instanzen. Präzision kann als Wahrscheinlichkeit verstanden werden, mit der ein zufällig ausgewähltes Ergebnis richtig ist.
Wenn Sie einen bestimmten Trainings-Lauf auswählen, erhalten Sie die Details zu diesem Lauf, indem Sie die Auswertungsseite öffnen. Das können Sie bereits vor Abschluss des Laufs tun. Auf der Auswertungsseite können Sie weitere Auswertungsmetriken, Konfigurationsparameter und Visualisierungen sehen, die spezifisch für den Trainings-Lauf sind.
Außerdem können Sie Aktivitätsprotokolle herunterladen, um die Details zum Lauf anzuzeigen. Protokolle sind besonders bei fehlgeschlagenen Läufen nützlich: Mit ihrer Hilfe können Sie herausfinden, was falsch gelaufen ist.
Hyperparameter können nicht trainiert werden und ein Modell muss durch Testen verschiedener Kombinationen von Hyperparametern optimiert werden. Wiederholen Sie dieses Trainings- und Bewertungsverfahren, bis Sie zu einem optimierten Modell gelangt sind.
Nächste Schritte
Dieses Tutorial hat Sie durch das Erstellen, Trainieren und Bewerten eines Modells in Data Science Workspace. Sobald Sie ein optimiertes Modell erreicht haben, können Sie das trainierte Modell nutzen, um Einblicke zu generieren; folgen Sie dazu dem Tutorial Modell in der UI bewerten.
Referenz reference
Konfigurationen für das Rezept „Einzelhandelsumsätze“
Hyperparameter bestimmen über das Trainings-Verhalten des Modells. Eine Änderung von Hyperparametern wirkt sich auf die Genauigkeit und Präzision des Modells aus:
Zusätzliche Parameter bestimmen die technischen Eigenschaften des Modells:
ACP_DSW_INPUT_FEATURES
ACP_DSW_TARGET_FEATURES
ACP_DSW_FEATURE_UPDATE_SUPPORT
tenantId
ACP_DSW_TRAINING_XDM_SCHEMA
evaluation.labelColumn
evaluation.metrics
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA