Formation et évaluation d’un modèle dans l’interface utilisateur de Data Science Workspace
Dans l’espace de travail de science des données d’Adobe Experience Platform, un modèle de machine learning est créé en incorporant une recette existante adéquate au but du modèle. Le modèle est ensuite formé et évalué afin d’optimiser son efficience et son efficacité opérationnelles en affinant ses hyperparamètres associés. Les recettes sont réutilisables, ce qui signifie que plusieurs modèles peuvent être créés et adaptés à des fins spécifiques à l’aide d’une seule recette.
Ce tutoriel décrit les étapes à suivre pour créer, former et évaluer un modèle.
Prise en main
Pour suivre ce tutoriel, vous devez avoir accès à Experience Platform. Si vous n’avez pas accès à une organisation dans Experience Platform, contactez votre administrateur système avant de poursuivre.
Ce tutoriel nécessite une recette existante. Si vous ne possédez aucune recette, suivez le tutoriel Importation d’une recette empaquetée dans l’interface utilisateur avant de continuer.
Création d’un modèle
Dans Experience Platform, sélectionnez l’onglet Modèles situé dans le volet de navigation de gauche, puis sélectionnez l’onglet Parcourir pour afficher vos modèles existants. Sélectionnez Créer un modèle près du coin supérieur droit de la page pour lancer un processus de création de modèle.
Parcourez la liste des recettes existantes, recherchez et sélectionnez la recette à utiliser pour créer le modèle, puis sélectionnez Suivant.
Sélectionnez un jeu de données d’entrée approprié, puis Suivant. Cela définit le jeu de données de formation d’entrée par défaut pour le modèle.
Attribuez un nom au modèle et passez en revue les configurations de modèle par défaut. Les configurations par défaut ont été appliquées lors de la création de la recette. Vérifiez et modifiez les valeurs de configuration en double-cliquant sur les valeurs.
Pour fournir un nouvel ensemble de configurations, sélectionnez Upload New Config et faites glisser un fichier JSON contenant des configurations de modèle dans la fenêtre du navigateur. Sélectionnez Terminer pour créer le modèle.
Création d’une opération de formation
Dans Experience Platform, sélectionnez l’onglet Modèles situé dans le volet de navigation de gauche, puis sélectionnez l’onglet Parcourir pour afficher vos modèles existants. Recherchez et sélectionnez le lien hypertexte associé au nom du modèle que vous souhaitez entraîner.
Toutes les sessions de formation existantes ainsi que leur état actuel sont répertoriées. Pour les modèles créés à l’aide de l’interface utilisateur Data Science Workspace, une session d’entraînement est automatiquement générée et exécutée à l’aide des configurations par défaut et du jeu de données de formation d’entrée.
Créez une nouvelle opération de formation en sélectionnant Former près du coin supérieur droit de la page d’aperçu du modèle.
Sélectionnez le jeu de données d’entrée de formation pour l’opération de formation, puis sélectionnez Suivant.
Les configurations par défaut fournies lors de la création du modèle s’affichent : modifiez-les en conséquence en double-cliquant sur les valeurs. Sélectionnez Terminer pour créer et exécuter l’opération de formation.
Évaluation du modèle
Dans Experience Platform, sélectionnez l’onglet Modèles situé dans le volet de navigation de gauche, puis sélectionnez l’onglet Parcourir pour afficher vos modèles existants. Recherchez et sélectionnez l’hyperlien associé au nom du modèle que vous souhaitez évaluer.
Toutes les sessions de formation existantes ainsi que leur état actuel sont répertoriées. Avec plusieurs opérations de formation terminées, les mesures d’évaluation peuvent être comparées entre différentes opérations de formation dans le graphique d’évaluation du modèle. Sélectionnez une mesure d’évaluation à l’aide de la liste déroulante au-dessus du graphique.
La mesure Pourcentage d’erreur absolue moyen (MAPE) exprime la précision sous forme de pourcentage d’erreur. Elle permet d’identifier l’expérience la plus performante. Plus la valeur MAPE est faible, meilleures sont les performances de l’expérience.
La mesure « Précision » décrit le pourcentage d’instances pertinentes par rapport au total des instances récupérées. La précision peut être considérée comme la probabilité qu’un résultat sélectionné de manière aléatoire soit correct.
La sélection d’une opération de formation spécifique fournit les détails de cette opération en ouvrant la page d’évaluation. Cette action peut être effectuée avant la fin de l’opération. Sur la page d’évaluation, vous pouvez voir d’autres mesures d’évaluation, paramètres de configuration et visualisations spécifiques à l’opération de formation.
Vous pouvez également télécharger des journaux d’activités pour afficher les détails de l’opération. Les journaux sont particulièrement utiles pour comprendre ce qui s’est mal passé lors des échecs d’opération.
Les hyperparamètres ne peuvent pas être formés, et un modèle doit être optimisé en testant différentes combinaisons d’hyperparamètres. Répétez ce processus de formation et d’évaluation du modèle jusqu’à ce que vous parveniez à obtenir un modèle optimisé.
Étapes suivantes
Ce tutoriel vous a guidé tout au long des étapes de création, de formation et d’évaluation d’un modèle dans Data Science Workspace. Une fois que vous êtes parvenu à obtenir un modèle optimisé, vous pouvez utiliser le modèle formé pour générer des informations en suivant le tutoriel Notation d’un modèle dans l’interface utilisateur.
Référence reference
Configurations de la recette de ventes au détail
Les hyperparamètres déterminent le comportement de formation du modèle : les modifier aura une incidence sur l’exactitude et la précision du modèle.
Des paramètres supplémentaires déterminent les propriétés techniques du modèle :
ACP_DSW_INPUT_FEATURES
ACP_DSW_TARGET_FEATURES
ACP_DSW_FEATURE_UPDATE_SUPPORT
tenantId
ACP_DSW_TRAINING_XDM_SCHEMA
evaluation.labelColumn
evaluation.metrics
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA