本教程使用提供的零售销售示例提供了有关如何配置和导入打包菜谱的分析。 在本教程结束前,您将准备好在Adobe Experience Platform Data Science Workspace中创建、培训和评估模型。
本教程要求以Docker图像URL形式打包菜谱。 有关详细信息,请参阅有关如何将源文件打包到Recipe的教程。
将打包菜谱导入Data Science Workspace需要特定菜谱配置,并编译为单个JavaScript对象表示法(JSON)文件,此菜谱配置编译称为配置文件。 具有一组特定配置的打包菜谱称为菜谱实例。 一个菜谱可用于在Data Science Workspace中创建多个菜谱实例。
导入包菜谱的工作流包含以下步骤:
Data Science Workspace中的每个菜谱实例都附带一组配置,这些配置根据特定用例定制菜谱实例。 配置文件定义使用此菜谱实例创建的模型的默认培训和评分行为。
配置文件是特定于菜谱和案例的。
以下是显示零售销售菜谱的默认培训和评分行为的示例配置文件。
[
{
"name": "train",
"parameters": [
{
"key": "learning_rate",
"value": "0.1"
},
{
"key": "n_estimators",
"value": "100"
},
{
"key": "max_depth",
"value": "3"
},
{
"key": "ACP_DSW_INPUT_FEATURES",
"value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
},
{
"key": "ACP_DSW_TARGET_FEATURES",
"value": "weeklySales"
},
{
"key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
"value": false
},
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key": "ACP_DSW_TRAINING_XDM_SCHEMA",
"value": "{SEE BELOW FOR DETAILS}"
},
{
"key": "evaluation.labelColumn",
"value": "weeklySalesAhead"
},
{
"key": "evaluation.metrics",
"value": "MAPE,MAE,RMSE,MASE"
}
]
},
{
"name": "score",
"parameters": [
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
"value":"{SEE BELOW FOR DETAILS}"
}
]
}
]
参数键 | 类型 | 描述 |
---|---|---|
learning_rate |
数值 | 渐变乘法的标量。 |
n_estimators |
数值 | 随机森林分类器的林中树数。 |
max_depth |
数值 | 随机森林分类器中树的最大深度。 |
ACP_DSW_INPUT_FEATURES |
字符串 | 列表以逗号分隔的输入模式属性。 |
ACP_DSW_TARGET_FEATURES |
字符串 | 列表以逗号分隔的输出模式属性。 |
ACP_DSW_FEATURE_UPDATE_SUPPORT |
布尔值 | 确定输入和输出特征是否可修改 |
tenantId |
字符串 | 此ID可确保您创建的资源命名正确并包含在您的IMS组织中。 请按照以下 步骤查找您的租户ID。 |
ACP_DSW_TRAINING_XDM_SCHEMA |
字符串 | 用于培训模型的输入模式。 在UI中导入时将此留空,在使用API导入时替换为培训SchemaID。 |
evaluation.labelColumn |
字符串 | 用于评估可视化的列标签。 |
evaluation.metrics |
字符串 | 以逗号分隔的评估量度列表,用于评估模型。 |
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA |
字符串 | 用于对模型进行评分的输出模式。 在UI中导入时将此留空,在使用API导入时替换为评分SchemaID。 |
在本教程中,您可以保留Data Science Workspace参考零售销售菜谱的默认配置文件。
开始,方法是导航并选择位于Platform UI左上角的Workflows。 接下来,选择导入菜谱并选择Launch。
此时将显示导入菜谱工作流的配置页。 输入菜谱的名称和说明,然后选择右上角的Next。
在将源文件打包到Recipe教程中,使用Python源文件构建零售销售菜谱结束时提供了Docker URL。
在选择源页面上后,请在Source URL字段中粘贴与使用Python源文件构建的打包菜谱对应的Docker URL。 然后,通过拖放导入提供的配置文件,或使用文件系统Browser。 可在experience-platform-dsw-reference/recipes/python/retail/retail.config.json
找到提供的配置文件。 在Runtime下拉列表中选择Python,在Type下拉列表中选择Classification。 填写完所有内容后,选择右上角的Next以继续管理模式。
类型支持Classification和Regression。 如果模型不属于这些类型之一,请选择Custom。
接下来,在管理模式部分下选择零售销售输入和输出模式,这些输入和输出是使用中提供的引导脚本创建的,创建零售销售模式和数据集教程。
在功能管理部分下,在模式查看器中选择租户标识以展开零售销售输入模式。 通过突出显示所需的功能,然后选择右侧Field Properties窗口中的Input Feature或Target Feature,选择输入和输出功能。 在本教程中,将weeklySales设置为Target Feature,将其他所有设置设置为Input Feature。 选择Next以查看新配置的菜谱。
根据需要查看菜谱、添加、修改或删除配置。 选择Finish以创建菜谱。
继续执行后续步骤,了解如何使用新创建的零售销售菜谱在Data Science Workspace中创建模型。
开始,方法是导航并选择位于Platform UI左上角的Workflows。 接下来,选择导入菜谱并选择Launch。
此时将显示导入菜谱工作流的配置页。 输入菜谱的名称和说明,然后选择右上角的Next。
在将源文件打包到Recipe教程中,在使用R源文件构建零售销售菜谱结束时提供了Docker URL。
在选择源页面上后,请在Source URL字段中粘贴与使用R源文件构建的打包菜谱对应的Docker URL。 然后,通过拖放导入提供的配置文件,或使用文件系统Browser。 可在experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json
找到提供的配置文件。 在Runtime下拉列表中选择R,在Type下拉列表中选择Classification。 填写完所有内容后,选择右上角的Next以继续管理模式。
打 字支持 Classification 和 Regression。如果模型不属于这些类型之一,请选择Custom。
接下来,在管理模式部分下选择零售销售输入和输出模式,这些输入和输出是使用中提供的引导脚本创建的,创建零售销售模式和数据集教程。
在功能管理部分下,在模式查看器中选择租户标识以展开零售销售输入模式。 通过突出显示所需的功能,然后选择右侧Field Properties窗口中的Input Feature或Target Feature,选择输入和输出功能。 在本教程中,将weeklySales设置为Target Feature,将其他所有设置设置为Input Feature。 选择Next以查看您的新配置菜谱。
根据需要查看菜谱、添加、修改或删除配置。 选择完成以创建菜谱。
继续执行后续步骤,了解如何使用新创建的零售销售菜谱在Data Science Workspace中创建模型。
开始,方法是导航并选择位于Platform UI左上角的Workflows。 接下来,选择导入菜谱并选择Launch。
此时将显示导入菜谱工作流的配置页。 输入处方的名称和说明,然后选择右上角的Next以继续。
在将源文件打包到Recipe教程中,使用PySpark源文件构建零售销售菜谱结束时提供了Docker URL。
在选择源页面上后,请在Source URL字段中粘贴与使用PySpark源文件构建的打包菜谱对应的Docker URL。 然后,通过拖放导入提供的配置文件,或使用文件系统Browser。 可在experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json
找到提供的配置文件。 在运行时下拉列表中选择PySpark。 选择PySpark运行时后,默认伪像会自动填充到Docker。 接下来,在类型下拉列表中选择Classification。 填写完所有内容后,选择右上角的Next以继续管理模式。
打 字支持 Classification 和 Regression。如果模型不属于这些类型之一,请选择Custom。
接下来,使用管理模式选择器选择零售销售输入和输出模式,模式是使用中提供的引导脚本创建零售销售模式和数据集教程中的引导脚本创建的。
在功能管理部分下,在模式查看器中选择租户标识以展开零售销售输入模式。 通过突出显示所需的功能,然后选择右侧Field Properties窗口中的Input Feature或Target Feature,选择输入和输出功能。 在本教程中,将weeklySales设置为Target Feature,将其他所有设置设置为Input Feature。 选择Next以查看新配置的菜谱。
根据需要查看菜谱、添加、修改或删除配置。 选择Finish以创建菜谱。
继续执行后续步骤,了解如何使用新创建的零售销售菜谱在Data Science Workspace中创建模型。
开始,方法是导航并选择位于Platform UI左上角的Workflows。 接下来,选择导入菜谱并选择Launch。
此时将显示导入菜谱工作流的配置页。 输入处方的名称和说明,然后选择右上角的Next以继续。
在将源文件打包到Recipe教程中,在使用Scala(Spark)源文件构建零售销售菜谱结束时提供了Docker URL。
在选择源页面上后,请在“源URL”字段中粘贴与使用Scala源文件构建的打包菜谱对应的Docker URL。 然后,通过拖放导入提供的配置文件,或使用文件系统浏览器。 可在experience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json
找到提供的配置文件。 在运行时下拉列表中选择Spark。 选择Spark运行时后,默认伪像会自动填充到Docker。 接下来,从类型下拉菜单中选择Regression。 填写完所有内容后,选择右上角的Next以继续管理模式。
类型支持Classification和Regression。 如果模型不属于这些类型之一,请选择Custom。
接下来,使用管理模式选择器选择零售销售输入和输出模式,模式是使用中提供的引导脚本创建零售销售模式和数据集教程中的引导脚本创建的。
在功能管理部分下,在模式查看器中选择租户标识以展开零售销售输入模式。 通过突出显示所需的功能,然后选择右侧Field Properties窗口中的Input Feature或Target Feature,选择输入和输出功能。 为本教程的目的,将“weeklySales”设置为Target Feature,将其他所有设置为Input Feature。 选择Next以查看新配置的菜谱。
根据需要查看菜谱、添加、修改或删除配置。 选择Finish以创建菜谱。
继续执行后续步骤,了解如何使用新创建的零售销售菜谱在Data Science Workspace中创建模型。
本教程提供了有关配置菜谱并将其导入Data Science Workspace的分析。 您现在可以使用新创建的菜谱创建、培训和评估模型。