Importer une recette empaquetée dans l’interface utilisateur de Workspace de science des données
Ce tutoriel explique comment configurer et importer une recette empaquetée à l’aide de l’exemple de ventes au détail fourni. À la fin de ce tutoriel, vous serez prêt à créer, à entraîner et à évaluer un modèle dans Adobe Experience Platform Data Science Workspace.
Conditions préalables
Ce tutoriel nécessite une recette empaquetée sous la forme d’une URL d’image Docker. Pour plus d’informations, consultez le tutoriel expliquant comment Former une recette empaquetée à partir de fichiers sources.
Workflow de l’interface utilisateur
L’importation d’une recette empaquetée dans Data Science Workspace nécessite des configurations de recette spécifiques, compilées dans un seul fichier JSON (JavaScript Object Notation). Cette compilation de configurations de recette est appelée fichier de configuration. Une recette empaquetée avec un ensemble particulier de configurations est appelée instance de recette. Une recette peut être utilisée pour créer de nombreuses instances de recette dans Data Science Workspace.
Voici les différentes étapes du workflow d’importation d’une recette empaquetée :
Configuration d’une recette configure
Chaque instance de recette dans Data Science Workspace est accompagnée d’un ensemble de configurations qui adaptent l’instance de recette à un cas d’utilisation particulier. Les fichiers de configuration définissent les comportements de formation et de notation par défaut d’un modèle créé à l’aide de cette instance de recette.
Vous trouverez ci-dessous un échantillon de fichier de configuration présentant les comportements de formation et de notation par défaut de la recette Ventes au détail.
[
{
"name": "train",
"parameters": [
{
"key": "learning_rate",
"value": "0.1"
},
{
"key": "n_estimators",
"value": "100"
},
{
"key": "max_depth",
"value": "3"
},
{
"key": "ACP_DSW_INPUT_FEATURES",
"value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
},
{
"key": "ACP_DSW_TARGET_FEATURES",
"value": "weeklySales"
},
{
"key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
"value": false
},
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key": "ACP_DSW_TRAINING_XDM_SCHEMA",
"value": "{SEE BELOW FOR DETAILS}"
},
{
"key": "evaluation.labelColumn",
"value": "weeklySalesAhead"
},
{
"key": "evaluation.metrics",
"value": "MAPE,MAE,RMSE,MASE"
}
]
},
{
"name": "score",
"parameters": [
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
"value":"{SEE BELOW FOR DETAILS}"
}
]
}
]
learning_raten_estimatorsmax_depthACP_DSW_INPUT_FEATURESACP_DSW_TARGET_FEATURESACP_DSW_FEATURE_UPDATE_SUPPORTtenantIdACP_DSW_TRAINING_XDM_SCHEMAevaluation.labelColumnevaluation.metricsACP_DSW_SCORING_RESULTS_XDM_SCHEMAPour les besoins de ce tutoriel, vous pouvez conserver les fichiers de configuration par défaut pour la recette Ventes au détail dans la référence de Data Science Workspace tels qu’ils sont.
Importer la recette basée sur Docker - Python python
Commencez par accéder aux Workflows situées dans le coin supérieur gauche de l’interface utilisateur de Experience Platform et sélectionnez-les. Sélectionnez ensuite Importer la recette et sélectionnez Launch.
La page Configurer du workflow Importer la recette s’affiche. Saisissez un nom et une description pour la recette, puis sélectionnez Next dans le coin supérieur droit.
Une fois que vous êtes sur la page Sélectionner la source, collez l’URL Docker correspondant à la recette empaquetée créée à l’aide de fichiers source Python dans le champ Source URL . Importez ensuite le fichier de configuration fourni en le faisant glisser et en le déposant, ou utilisez le Navigateur du système de fichiers. Le fichier de configuration fourni se trouve ici : experience-platform-dsw-reference/recipes/python/retail/retail.config.json. Sélectionnez Python dans la liste déroulante Runtime et Classification dans la liste déroulante Type. Une fois que tout a été rempli, sélectionnez Next dans le coin supérieur droit pour passer à Gérer les schémas.
Sélectionnez ensuite les schémas d’entrée et de sortie de ventes au détail dans la section Gérer les schémas. Ils ont été créés à l’aide du script de bootstrap fourni dans le tutoriel créer le schéma et le jeu de données de ventes au détail.
Dans la section Gestion des fonctionnalités, sélectionnez sur votre identification de client dans la visionneuse de schémas pour développer le schéma d’entrée Ventes au détail . Sélectionnez les fonctions d’entrée et de sortie en mettant en surbrillance la fonction souhaitée, puis sélectionnez Input Feature ou Target Feature dans la fenêtre de Field Properties de droite. Pour les besoins de ce tutoriel, définissez weeklySales comme Target Feature et tout le reste comme Input Feature. Sélectionnez Next pour passer en revue votre nouvelle recette configurée.
Vérifiez la recette, ajoutez, modifiez ou supprimez des configurations si nécessaire. Sélectionnez Finish pour créer la recette.
Passez aux étapes suivantes pour savoir comment créer un modèle dans Data Science Workspace à l’aide de la recette Ventes au détail qui vient d’être créée.
Importer la recette basée sur Docker - R r
Commencez par accéder aux Workflows situées dans le coin supérieur gauche de l’interface utilisateur de Experience Platform et sélectionnez-les. Sélectionnez ensuite Importer la recette et sélectionnez Launch.
La page Configurer du workflow Importer la recette s’affiche. Saisissez un nom et une description pour la recette, puis sélectionnez Next dans le coin supérieur droit.
Une fois que vous êtes sur la page Sélectionner la source, collez l’URL Docker correspondant à la recette empaquetée créée à l’aide des fichiers source R dans le champ Source URL . Importez ensuite le fichier de configuration fourni en le faisant glisser et en le déposant, ou utilisez le Navigateur du système de fichiers. Le fichier de configuration fourni se trouve ici : experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json. Sélectionnez R dans la liste déroulante Runtime et Classification dans la liste déroulante Type. Une fois que tout a été rempli, sélectionnez Next dans le coin supérieur droit pour passer à Gérer les schémas.
Sélectionnez ensuite les schémas d’entrée et de sortie de ventes au détail dans la section Gérer les schémas. Ils ont été créés à l’aide du script de bootstrap fourni dans le tutoriel créer le schéma et le jeu de données de ventes au détail.
Dans la section Gestion des fonctionnalités, sélectionnez sur votre identification de client dans la visionneuse de schémas pour développer le schéma d’entrée Ventes au détail . Sélectionnez les fonctions d’entrée et de sortie en mettant en surbrillance la fonction souhaitée, puis sélectionnez Input Feature ou Target Feature dans la fenêtre de Field Properties de droite. Pour les besoins de ce tutoriel, définissez weeklySales comme Target Feature et tout le reste comme Input Feature. Sélectionnez Next pour passer en revue votre nouvelle recette configurée.
Vérifiez la recette, ajoutez, modifiez ou supprimez des configurations si nécessaire. Sélectionnez Terminer pour créer la recette.
Passez aux étapes suivantes pour savoir comment créer un modèle dans Data Science Workspace à l’aide de la recette Ventes au détail qui vient d’être créée.
Importer la recette Docker - PySpark pyspark
Commencez par accéder aux Workflows situées dans le coin supérieur gauche de l’interface utilisateur de Experience Platform et sélectionnez-les. Sélectionnez ensuite Importer la recette et sélectionnez Launch.
La page Configurer du workflow Importer la recette s’affiche. Saisissez un nom et une description pour la recette, puis sélectionnez Next dans le coin supérieur droit pour continuer.
Une fois que vous êtes sur la page Sélectionner la source, collez l’URL Docker correspondant à la recette empaquetée créée à l’aide des fichiers source PySpark dans le champ Source URL . Importez ensuite le fichier de configuration fourni en le faisant glisser et en le déposant, ou utilisez le Navigateur du système de fichiers. Le fichier de configuration fourni se trouve ici : experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json. Sélectionnez PySpark dans le menu déroulant Runtime. Une fois que l’exécution PySpark est sélectionnée, l’artefact par défaut est automatiquement renseigné sur Docker. Sélectionnez ensuite Classification dans le menu déroulant Type. Une fois que tout a été rempli, sélectionnez Next dans le coin supérieur droit pour passer à Gérer les schémas.
Sélectionnez ensuite les schémas d’entrée et de sortie des ventes au détail à l’aide du sélecteur Gérer les schémas. Les schémas ont été créés à l’aide du script de bootstrap fourni dans le tutoriel Créer le schéma et le jeu de données des ventes au détail.
Dans la section Gestion des fonctionnalités, sélectionnez sur votre identification de client dans la visionneuse de schémas pour développer le schéma d’entrée Ventes au détail . Sélectionnez les fonctions d’entrée et de sortie en mettant en surbrillance la fonction souhaitée, puis sélectionnez Input Feature ou Target Feature dans la fenêtre de Field Properties de droite. Pour les besoins de ce tutoriel, définissez weeklySales comme Target Feature et tout le reste comme Input Feature. Sélectionnez Next pour passer en revue votre nouvelle recette configurée.
Vérifiez la recette, ajoutez, modifiez ou supprimez des configurations si nécessaire. Sélectionnez Finish pour créer la recette.
Passez aux étapes suivantes pour savoir comment créer un modèle dans Data Science Workspace à l’aide de la recette Ventes au détail qui vient d’être créée.
Importer la recette Docker - Scala scala
Commencez par accéder aux Workflows situées dans le coin supérieur gauche de l’interface utilisateur de Experience Platform et sélectionnez-les. Sélectionnez ensuite Importer la recette et sélectionnez Launch.
La page Configurer du workflow Importer la recette s’affiche. Saisissez un nom et une description pour la recette, puis sélectionnez Next dans le coin supérieur droit pour continuer.
Une fois que vous êtes sur la page Sélectionner la source, collez l’URL Docker correspondant à la recette empaquetée créée à l’aide de fichiers source Scala dans le champ URL Source . Importez ensuite le fichier de configuration fourni en effectuant un glisser-déposer ou utilisez le navigateur du système de fichiers. Le fichier de configuration fourni se trouve ici : experience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json. Sélectionnez Spark dans le menu déroulant Runtime. Une fois l’exécution Spark sélectionnée, l’artefact par défaut est automatiquement renseigné sur Docker. Sélectionnez ensuite Regression dans la liste déroulante Type. Une fois que tout a été rempli, sélectionnez Next dans le coin supérieur droit pour passer à Gérer les schémas.
Sélectionnez ensuite les schémas d’entrée et de sortie des ventes au détail à l’aide du sélecteur Gérer les schémas. Les schémas ont été créés à l’aide du script de bootstrap fourni dans le tutoriel Créer le schéma et le jeu de données des ventes au détail.
Dans la section Gestion des fonctionnalités, sélectionnez sur votre identification de client dans la visionneuse de schémas pour développer le schéma d’entrée Ventes au détail . Sélectionnez les fonctions d’entrée et de sortie en mettant en surbrillance la fonction souhaitée, puis sélectionnez Input Feature ou Target Feature dans la fenêtre de Field Properties de droite. Pour les besoins de ce tutoriel, définissez « weeklySales » comme Target Feature et tout le reste comme Input Feature. Sélectionnez Next pour passer en revue votre nouvelle recette configurée.
Vérifiez la recette, ajoutez, modifiez ou supprimez des configurations si nécessaire. Sélectionnez Finish pour créer la recette.
Passez aux étapes suivantes pour savoir comment créer un modèle dans Data Science Workspace à l’aide de la recette Ventes au détail qui vient d’être créée.
Étapes suivantes next-steps
Ce tutoriel a fourni à insight des informations sur la configuration et l’importation d’une recette dans Data Science Workspace. Vous pouvez désormais créer, former et évaluer un modèle à l’aide de la nouvelle recette créée.