在数据科学Workspace UI中导入打包的方法
本教程向insight介绍了如何使用提供的零售示例配置和导入打包的方法。 在本教程结束时,您将准备好在Adobe Experience Platform Data Science Workspace中创建、训练和评估模型。
先决条件
本教程需要以Docker图像URL形式打包的方法。 有关详细信息,请参阅关于如何将源文件打包到方法中的教程。
UI工作流
将打包的方法导入到Data Science Workspace中需要特定的方法配置,这些配置编译为单个JavaScript对象表示法(JSON)文件,这种方法配置的编译称为配置文件。 具有特定配置集的打包方法称为方法实例。 一个方法可用于在Data Science Workspace中创建多个方法实例。
用于导入程序包方法的工作流包含以下步骤:
配置方法 configure
Data Science Workspace中的每个方法实例都随附了一组配置,这些配置定制方法实例以适应特定用例。 配置文件定义使用此方法实例创建的模型的默认训练和评分行为。
下面是一个示例配置文件,其中显示零售方法的默认培训和评分行为。
[
{
"name": "train",
"parameters": [
{
"key": "learning_rate",
"value": "0.1"
},
{
"key": "n_estimators",
"value": "100"
},
{
"key": "max_depth",
"value": "3"
},
{
"key": "ACP_DSW_INPUT_FEATURES",
"value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
},
{
"key": "ACP_DSW_TARGET_FEATURES",
"value": "weeklySales"
},
{
"key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
"value": false
},
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key": "ACP_DSW_TRAINING_XDM_SCHEMA",
"value": "{SEE BELOW FOR DETAILS}"
},
{
"key": "evaluation.labelColumn",
"value": "weeklySalesAhead"
},
{
"key": "evaluation.metrics",
"value": "MAPE,MAE,RMSE,MASE"
}
]
},
{
"name": "score",
"parameters": [
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
"value":"{SEE BELOW FOR DETAILS}"
}
]
}
]
learning_raten_estimatorsmax_depthACP_DSW_INPUT_FEATURESACP_DSW_TARGET_FEATURESACP_DSW_FEATURE_UPDATE_SUPPORTACP_DSW_TRAINING_XDM_SCHEMAevaluation.labelColumnevaluation.metricsACP_DSW_SCORING_RESULTS_XDM_SCHEMA在本教程中,您可以在Data Science Workspace引用中保留零售方法的默认配置文件,方法如下所示。
导入基于Docker的方法 — Python python
首先导航并选择位于Workflows UI左上角的Experience Platform。 接下来,选择 导入方法 并选择Launch。
此时将显示 导入方法 工作流的 配置 页面。 输入方法的名称和说明,然后选择右上角的Next。
进入 选择源 页面后,将与Python字段中使用 Source URL 源文件构建的打包方法相对应的Docker URL粘贴到页面上。 接下来,通过拖放方式导入提供的配置文件,或者使用文件系统浏览器。 提供的配置文件可在experience-platform-dsw-reference/recipes/python/retail/retail.config.json找到。 在 Python 运行时下拉列表中选择,在 Classification 类型下拉列表中选择。 填写完所有内容后,选择右上角的 Next 以继续执行管理架构。
接下来,在 管理架构 部分下选择零售销售输入和输出架构,这些架构是使用创建零售销售架构和数据集教程中提供的引导脚本创建的。
在 功能管理 部分下,在架构查看器中选择租户标识以展开零售销售输入架构。 通过突出显示所需功能并在右 Input Feature 窗口中选择 Target Feature 或 Field Properties 来选择输入和输出功能。 在本教程中,将 weeklySales 设置为Target Feature,其他所有内容设置为Input Feature。 选择 Next 以查看您新配置的方法。
查看方法,根据需要添加、修改或删除配置。 选择 Finish 以创建方法。
继续执行后续步骤,了解如何使用新创建的零售方法在Data Science Workspace中创建模型。
导入基于Docker的方法 — R r
首先导航并选择位于Workflows UI左上角的Experience Platform。 接下来,选择 导入方法 并选择Launch。
此时将显示 导入方法 工作流的 配置 页面。 输入方法的名称和说明,然后选择右上角的Next。
进入 选择源 页面后,将对应于使用 Source URL 字段中的R源文件构建的打包方法的Docker URL粘贴到页面上。 接下来,通过拖放方式导入提供的配置文件,或者使用文件系统浏览器。 提供的配置文件可在experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json找到。 在 R 运行时下拉列表中选择,在 Classification 类型下拉列表中选择。 填写完所有内容后,选择右上角的 Next 以继续执行管理架构。
接下来,在 管理架构 部分下选择零售销售输入和输出架构,这些架构是使用创建零售销售架构和数据集教程中提供的引导脚本创建的。
在 功能管理 部分下,在架构查看器中选择租户标识以展开零售销售输入架构。 通过突出显示所需功能并在右 Input Feature 窗口中选择 Target Feature 或 Field Properties 来选择输入和输出功能。 在本教程中,将 weeklySales 设置为Target Feature,其他所有内容设置为Input Feature。 选择 Next 以查看您新配置的方法。
查看方法,根据需要添加、修改或删除配置。 选择 完成 以创建方法。
继续执行后续步骤,了解如何使用新创建的零售方法在Data Science Workspace中创建模型。
导入基于Docker的方法 — PySpark pyspark
首先导航并选择位于Workflows UI左上角的Experience Platform。 接下来,选择 导入方法 并选择Launch。
此时将显示 导入方法 工作流的 配置 页面。 输入方法的名称和描述,然后选择右上角的 Next 以继续。
进入 选择源 页面后,将对应于使用PySpark源文件构建的打包方法的Docker URL粘贴到 Source URL 字段中。 接下来,通过拖放方式导入提供的配置文件,或者使用文件系统浏览器。 提供的配置文件可在experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json找到。 在 PySpark 运行时下拉列表中选择。 选择PySpark运行时后,默认工件将自动填充到Docker。 接下来,在 Classification 类型下拉列表中选择。 填写完所有内容后,选择右上角的 Next 以继续执行管理架构。
接下来,使用 管理架构 选择器选择零售销售输入和输出架构,架构是使用创建零售销售架构和数据集教程中提供的引导脚本创建的。
在 功能管理 部分下,在架构查看器中选择租户标识以展开零售销售输入架构。 通过突出显示所需功能并在右 Input Feature 窗口中选择 Target Feature 或 Field Properties 来选择输入和输出功能。 在本教程中,将 weeklySales 设置为Target Feature,其他所有内容设置为Input Feature。 选择 Next 以查看您新配置的方法。
查看方法,根据需要添加、修改或删除配置。 选择 Finish 以创建方法。
继续执行后续步骤,了解如何使用新创建的零售方法在Data Science Workspace中创建模型。
导入基于Docker的方法 — Scala scala
首先导航并选择位于Workflows UI左上角的Experience Platform。 接下来,选择 导入方法 并选择Launch。
此时将显示 导入方法 工作流的 配置 页面。 输入方法的名称和描述,然后选择右上角的 Next 以继续。
进入 选择源 页面后,将对应于使用Scala源文件构建的打包方法的Docker URL粘贴到Source URL字段中。 接下来,通过拖放方式导入提供的配置文件,或者使用文件系统浏览器。 提供的配置文件可在experience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json找到。 在 Spark 运行时下拉列表中选择。 选择Spark运行时后,默认工件将自动填充到Docker。 接下来,从 Regression 类型下拉列表中选择。 填写完所有内容后,选择右上角的 Next 以继续执行管理架构。
接下来,使用 管理架构 选择器选择零售销售输入和输出架构,架构是使用创建零售销售架构和数据集教程中提供的引导脚本创建的。
在 功能管理 部分下,在架构查看器中选择租户标识以展开零售销售输入架构。 通过突出显示所需功能并在右 Input Feature 窗口中选择 Target Feature 或 Field Properties 来选择输入和输出功能。 在本教程中,将“weeklySales”设置为Target Feature,将其他所有内容设置为Input Feature。 选择 Next 以查看您新配置的方法。
查看方法,根据需要添加、修改或删除配置。 选择 Finish 以创建方法。
继续执行后续步骤,了解如何使用新创建的零售方法在Data Science Workspace中创建模型。
后续步骤 next-steps
本教程提供了有关配置方法并将其导入到Data Science Workspace中的insight。 您现在可以使用新创建的方法创建、训练和评估模型。