在数据科学Workspace UI中导入打包的方法
创建对象:
- 用户
- 开发人员
本教程将深入分析如何使用提供的零售示例配置和导入打包的方法。 在本教程结束时,您将准备好在Adobe Experience Platform Data Science Workspace中创建、训练和评估模型。
先决条件
本教程需要以Docker图像URL形式打包的方法。 有关详细信息,请参阅关于如何将源文件打包到方法中的教程。
UI工作流
将打包的方法导入到Data Science Workspace中需要特定的方法配置,这些配置编译为单个JavaScript对象表示法(JSON)文件,这种方法配置的编译称为配置文件。 具有特定配置集的打包方法称为方法实例。 一个方法可用于在Data Science Workspace中创建多个方法实例。
用于导入程序包方法的工作流包含以下步骤:
配置方法
Data Science Workspace中的每个方法实例都随附了一组配置,这些配置定制方法实例以适应特定用例。 配置文件定义使用此方法实例创建的模型的默认训练和评分行为。
下面是一个示例配置文件,其中显示零售方法的默认培训和评分行为。
[
{
"name": "train",
"parameters": [
{
"key": "learning_rate",
"value": "0.1"
},
{
"key": "n_estimators",
"value": "100"
},
{
"key": "max_depth",
"value": "3"
},
{
"key": "ACP_DSW_INPUT_FEATURES",
"value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
},
{
"key": "ACP_DSW_TARGET_FEATURES",
"value": "weeklySales"
},
{
"key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
"value": false
},
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key": "ACP_DSW_TRAINING_XDM_SCHEMA",
"value": "{SEE BELOW FOR DETAILS}"
},
{
"key": "evaluation.labelColumn",
"value": "weeklySalesAhead"
},
{
"key": "evaluation.metrics",
"value": "MAPE,MAE,RMSE,MASE"
}
]
},
{
"name": "score",
"parameters": [
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
"value":"{SEE BELOW FOR DETAILS}"
}
]
}
]
learning_rate
n_estimators
max_depth
ACP_DSW_INPUT_FEATURES
ACP_DSW_TARGET_FEATURES
ACP_DSW_FEATURE_UPDATE_SUPPORT
ACP_DSW_TRAINING_XDM_SCHEMA
evaluation.labelColumn
evaluation.metrics
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA
在本教程中,您可以在Data Science Workspace引用中保留零售方法的默认配置文件,方法如下所示。
导入基于Docker的方法 — Python
首先导航并选择位于Experience Platform UI左上角的 工作流。 接下来,选择 导入方法 并选择 启动。
此时将显示 导入方法 工作流的 配置 页面。 输入方法的名称和说明,然后选择右上角的 下一步。
进入 选择源 页面后,将对应于使用Python源文件构建的打包方法的Docker URL粘贴到 Source URL 字段中。 接下来,通过拖放方式导入提供的配置文件,或者使用文件系统 浏览器。 提供的配置文件可在experience-platform-dsw-reference/recipes/python/retail/retail.config.json
找到。 在 运行时 下拉列表中选择 Python,在 类型 下拉列表中选择 分类。 填写完所有内容后,选择右上角的 下一步 以继续执行 管理架构。
接下来,在 管理架构 部分下选择零售销售输入和输出架构,这些架构是使用创建零售销售架构和数据集教程中提供的引导脚本创建的。
在 功能管理 部分下,在架构查看器中选择租户标识以展开零售销售输入架构。 通过突出显示所需功能并在右侧 字段属性 窗口中选择 输入功能 或 目标功能 来选择输入和输出功能。 在本教程中,请将 weeklySales 设置为 目标功能,其他内容设置为 输入功能。 选择 下一步 以查看您新配置的方法。
查看方法,根据需要添加、修改或删除配置。 选择 完成 以创建方法。
继续执行后续步骤,了解如何使用新创建的零售方法在Data Science Workspace中创建模型。
导入基于Docker的方法 — R
首先导航并选择位于Experience Platform UI左上角的 工作流。 接下来,选择 导入方法 并选择 启动。
此时将显示 导入方法 工作流的 配置 页面。 输入方法的名称和说明,然后选择右上角的 下一步。
进入 选择源 页面后,将对应于使用 Source URL 字段中的R源文件构建的打包方法的Docker URL粘贴到其中。 接下来,通过拖放方式导入提供的配置文件,或者使用文件系统 浏览器。 提供的配置文件可在experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json
找到。 在 运行时 下拉列表中选择 R,在 类型 下拉列表中选择 分类。 填写完所有内容后,选择右上角的 下一步 以继续执行 管理架构。
接下来,在 管理架构 部分下选择零售销售输入和输出架构,这些架构是使用创建零售销售架构和数据集教程中提供的引导脚本创建的。
在 功能管理 部分下,在架构查看器中选择租户标识以展开零售销售输入架构。 通过突出显示所需功能并在右侧 字段属性 窗口中选择 输入功能 或 目标功能 来选择输入和输出功能。 在本教程中,请将 weeklySales 设置为 目标功能,其他内容设置为 输入功能。 选择 下一步 以查看您新配置的方法。
查看方法,根据需要添加、修改或删除配置。 选择 完成 以创建方法。
继续执行后续步骤,了解如何使用新创建的零售方法在Data Science Workspace中创建模型。
导入基于Docker的方法 — PySpark
首先导航并选择位于Experience Platform UI左上角的 工作流。 接下来,选择 导入方法 并选择 启动。
此时将显示 导入方法 工作流的 配置 页面。 输入方法的名称和描述,然后选择右上角的 下一步 以继续。
进入 选择源 页面后,将对应于使用PySpark源文件构建的打包方法的Docker URL粘贴到 Source URL 字段中。 接下来,通过拖放方式导入提供的配置文件,或者使用文件系统 浏览器。 提供的配置文件可在experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json
找到。 在 运行时 下拉列表中选择 PySpark。 选择PySpark运行时后,默认工件会自动填充到 Docker。 接下来,在 类型 下拉列表中选择 分类。 填写完所有内容后,选择右上角的 下一步 以继续执行 管理架构。
接下来,使用 管理架构 选择器选择零售销售输入和输出架构,架构是使用创建零售销售架构和数据集教程中提供的引导脚本创建的。
在 功能管理 部分下,在架构查看器中选择租户标识以展开零售销售输入架构。 通过突出显示所需功能并在右侧 字段属性 窗口中选择 输入功能 或 目标功能 来选择输入和输出功能。 在本教程中,请将 weeklySales 设置为 目标功能,其他内容设置为 输入功能。 选择 下一步 以查看您新配置的方法。
查看方法,根据需要添加、修改或删除配置。 选择 完成 以创建方法。
继续执行后续步骤,了解如何使用新创建的零售方法在Data Science Workspace中创建模型。
导入基于Docker的方法 — Scala
首先导航并选择位于Experience Platform UI左上角的 工作流。 接下来,选择 导入方法 并选择 启动。
此时将显示 导入方法 工作流的 配置 页面。 输入方法的名称和描述,然后选择右上角的 下一步 以继续。
进入 选择源 页面后,将对应于使用Scala源文件构建的打包方法的Docker URL粘贴到Source URL字段中。 接下来,通过拖放方式导入提供的配置文件,或者使用文件系统浏览器。 提供的配置文件可在experience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json
找到。 在 运行时 下拉列表中选择 Spark。 选择Spark运行时后,默认工件会自动填充到 Docker。 接下来,从 类型 下拉列表中选择 回归。 填写完所有内容后,选择右上角的 下一步 以继续执行 管理架构。
接下来,使用 管理架构 选择器选择零售销售输入和输出架构,架构是使用创建零售销售架构和数据集教程中提供的引导脚本创建的。
在 功能管理 部分下,在架构查看器中选择租户标识以展开零售销售输入架构。 通过突出显示所需功能并在右侧 字段属性 窗口中选择 输入功能 或 目标功能 来选择输入和输出功能。 在本教程中,请将“weeklySales”设置为 目标功能,其他内容设置为 输入功能。 选择 下一步 以查看您新配置的方法。
查看方法,根据需要添加、修改或删除配置。 选择 完成 以创建方法。
继续执行后续步骤,了解如何使用新创建的零售方法在Data Science Workspace中创建模型。
后续步骤
本教程提供了有关配置方法并将其导入到Data Science Workspace中的见解。 您现在可以使用新创建的方法创建、训练和评估模型。