本教程说明了如何将提供的零售销售示例源文件打包到存档文件中,该存档文件可用于通过在UI中或使用API遵循菜谱导入工作流在Adobe Experience Platform Data Science Workspace中创建菜谱。
要了解的概念:
菜谱创建开始与打包源文件以构建存档文件。 源文件定义用于解决手头特定问题的机器学习逻辑和算法,并以Python、R、PySpark或Scala编写。 构建的存档文件采用Docker图像的形式。 生成后,打包的归档文件将导入Data Science Workspace中,以使用API🔗在UI🔗或中创建菜谱。
Docker图像允许开发者将应用程序与所需的所有部件(如库和其他依赖项)打包,并将其作为一个包发布。
生成的Docker映像将使用在菜谱创建工作流程期间提供给您的凭据推送到Azure容器注册表。
要获取您的Azure容器注册表凭据,请登录Adobe Experience Platform。 在左侧导航列中,导航到Workflows。 选择Import Recipe,然后选择Launch。 请参阅下面的屏幕截图。
将打开Configure页。 提供相应的Recipe Name(例如“零售销售菜谱”),并(可选)提供说明或文档URL。 完成后,单击Next。
选择适当的Runtime,然后为类型选择Classification。 完成后,将生成您的Azure容器注册表凭据。
Type是 菜谱所针对的机器学习类问题,经过培训后可用于帮助定制评估培训运行。
请注意Docker主机、用户名和密码的值。 这些组件用于在下面概述的工作流中构建和推送您的Docker映像。
完成以下步骤后将提供源URL。 配置文件将在后续步骤中的后续教程中说明。
开始,方法是获取Experience Platform数据科学工作区参考存储库中的示例代码库。
如果尚未这样做,请使用以下命令将GitHub存储库克隆到本地系统上:
git clone https://github.com/adobe/experience-platform-dsw-reference.git
导航到目录experience-platform-dsw-reference/recipes/python/retail
。 在此,您将找到用于登录Docker和构建Python Docker图像的脚本login.sh
和build.sh
。 如果您的Docker凭据已准备就绪,请按顺序输入以下命令:
# for logging in to Docker
./login.sh
# for building Docker image
./build.sh
请注意,在执行登录脚本时,您需要提供Docker主机、用户名和密码。 在构建时,您需要提供Docker主机和用于构建的版本标签。
构建脚本完成后,控制台输出中会为您提供一个Docker源文件URL。 对于此特定示例,它将类似于:
# URL format:
{DOCKER_HOST}/ml-retailsales-python:{VERSION_TAG}
复制此URL并转到后续步骤。
如果尚未这样做,请使用以下命令将GitHub存储库克隆到本地系统上:
git clone https://github.com/adobe/experience-platform-dsw-reference.git
导航到克隆存储库中的目录experience-platform-dsw-reference/recipes/R/Retail - GradientBoosting
。 在此,您将找到用于登录Docker和生成R Docker图像的文件login.sh
和build.sh
。 如果您的Docker凭据已准备就绪,请按顺序输入以下命令:
# for logging in to Docker
./login.sh
# for build Docker image
./build.sh
请注意,在执行登录脚本时,您需要提供Docker主机、用户名和密码。 在构建时,您需要提供Docker主机和用于构建的版本标签。
构建脚本完成后,控制台输出中会为您提供一个Docker源文件URL。 对于此特定示例,它将类似于:
# URL format:
{DOCKER_HOST}/ml-retail-r:{VERSION_TAG}
复制此URL并转到后续步骤。
开始:使用以下命令将GitHub存储库克隆到本地系统上:
git clone https://github.com/adobe/experience-platform-dsw-reference.git
导航到目录experience-platform-dsw-reference/recipes/pyspark/retail
。 脚本login.sh
和build.sh
位于此处,用于登录Docker和生成Docker图像。 如果您的Docker凭据已准备就绪,请按顺序输入以下命令:
# for logging in to Docker
./login.sh
# for building Docker image
./build.sh
请注意,在执行登录脚本时,您需要提供Docker主机、用户名和密码。 在构建时,您需要提供Docker主机和用于构建的版本标签。
构建脚本完成后,控制台输出中会为您提供一个Docker源文件URL。 对于此特定示例,它将类似于:
# URL format:
{DOCKER_HOST}/ml-retailsales-pyspark:{VERSION_TAG}
复制此URL并转到后续步骤。
开始:使用终端中的以下命令将GitHub存储库克隆到本地系统上:
git clone https://github.com/adobe/experience-platform-dsw-reference.git
接下来,导览至目录experience-platform-dsw-reference/recipes/scala
,您可以在其中找到脚本login.sh
和build.sh
。 这些脚本用于登录Docker并构建Docker图像。 如果您的Docker凭据已准备就绪,请按顺序向终端输入以下命令:
# for logging in to Docker
./login.sh
# for building Docker image
./build.sh
如果您在尝试使用login.sh
脚本登录Docker时收到权限错误,请尝试使用命令bash login.sh
。
执行登录脚本时,您需要提供Docker主机、用户名和密码。 在构建时,您需要提供Docker主机和用于构建的版本标签。
构建脚本完成后,控制台输出中会为您提供一个Docker源文件URL。 对于此特定示例,它将类似于:
# URL format:
{DOCKER_HOST}/ml-retailsales-spark:{VERSION_TAG}
复制此URL并转到后续步骤。
本教程重点介绍将源文件打包到菜谱中,这是将菜谱导入Data Science Workspace的先决条件步骤。 您现在应在Azure容器注册表中拥有Docker图像以及相应的图像URL。 现在,您已准备好开始将打包菜谱导入Data Science Workspace的教程。 选择以下教程链接之一以开始使用: