パッケージ化されたレシピのインポート(Data Science Workspace UI 版)
このチュートリアルでは、提供された「小売売上」の例を使用してパッケージ化されたレシピを設定およびインポートする方法に関するインサイトを提供します。このチュートリアルを完了するまでに、Adobe Experience Platformでモデルの作成、トレーニング、評価をおこなう準備が整います Data Science Workspace.
前提条件
このチュートリアルでは、Docker イメージ URL の形式でパッケージ化されたレシピが必要です。 詳しくは、ソースファイルをレシピにパッケージ化する方法に関するチュートリアルを参照してください。
UI ワークフロー
パッケージ化されたレシピのへの読み込み Data Science Workspace には、単一の JSON(JavaScript Object Notation) ファイルにコンパイルされた、特定のレシピ設定が必要です。このレシピ設定のコンパイルは、設定ファイルと呼ばれます。 特定の設定のセットを含むパッケージ化されたレシピは、レシピインスタンスと呼ばれます。1 つのレシピを使用して、 Data Science Workspace.
パッケージレシピをインポートするワークフローは、次の手順で構成されます。
レシピの設定 configure
内のすべてのレシピインスタンス Data Science Workspace には、特定の使用例に合わせてレシピインスタンスをカスタマイズする一連の設定が付属しています。 設定ファイルは、このレシピインスタンスを使用して作成されたモデルのデフォルトのトレーニングおよびスコアリング動作を定義します。
以下に、「小売売上」レシピのデフォルトのトレーニングとスコアリングの動作を示す設定ファイルの例を示します。
[
{
"name": "train",
"parameters": [
{
"key": "learning_rate",
"value": "0.1"
},
{
"key": "n_estimators",
"value": "100"
},
{
"key": "max_depth",
"value": "3"
},
{
"key": "ACP_DSW_INPUT_FEATURES",
"value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
},
{
"key": "ACP_DSW_TARGET_FEATURES",
"value": "weeklySales"
},
{
"key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
"value": false
},
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key": "ACP_DSW_TRAINING_XDM_SCHEMA",
"value": "{SEE BELOW FOR DETAILS}"
},
{
"key": "evaluation.labelColumn",
"value": "weeklySalesAhead"
},
{
"key": "evaluation.metrics",
"value": "MAPE,MAE,RMSE,MASE"
}
]
},
{
"name": "score",
"parameters": [
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
"value":"{SEE BELOW FOR DETAILS}"
}
]
}
]
learning_rate
n_estimators
max_depth
ACP_DSW_INPUT_FEATURES
ACP_DSW_TARGET_FEATURES
ACP_DSW_FEATURE_UPDATE_SUPPORT
ACP_DSW_TRAINING_XDM_SCHEMA
evaluation.labelColumn
evaluation.metrics
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA
このチュートリアルの目的で、「小売販売」レシピのデフォルトの設定ファイルを Data Science Workspace そのままの状態を参照します。
Docker ベースのレシピのインポート — Python python
移動して選択することから開始 ワークフロー ~の左上に位置する Platform UI 次に、 レシピを読み込む を選択し、 起動.
この 設定 ページ レシピを読み込む ワークフローが表示されます。 レシピの名前と説明を入力し、「 」を選択します。 次へ をクリックします。
一度 ソースを選択 」ページで、を使用して作成したパッケージレシピに対応する Docker URL を貼り付けます。 Python 内のソースファイル ソース URL フィールドに入力します。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの ブラウザー を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/python/retail/retail.config.json
にあります。選択 Python 内 ランタイム ドロップダウンして 分類 内 タイプ ドロップダウンします。 すべての情報が入力されたら、「 」を選択します。 次へ 右上隅にある スキーマを管理.
次に、「 」セクションで、「小売売上」の入力および出力スキーマを選択します スキーマを管理 の場合、 小売販売スキーマとデータセットの作成 チュートリアル
以下 機能管理 「 」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の フィールドプロパティ ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を ターゲット機能、その他すべてを 入力機能 として設定します。選択 次へ をクリックして、新しく設定したレシピを確認します。
レシピを確認し、必要に応じて、設定を追加、変更または削除します。選択 完了 レシピを作成します。
次に進みます。 次の手順 でモデルを作成する方法を確認するには、以下を実行します。 Data Science Workspace 新しく作成した「小売売上」レシピを使用して
Docker ベースのレシピのインポート — R r
移動して選択することから開始 ワークフロー ~の左上に位置する Platform UI 次に、 レシピを読み込む を選択し、 起動.
この 設定 ページ レシピを読み込む ワークフローが表示されます。 レシピの名前と説明を入力し、「 」を選択します。 次へ をクリックします。
一度 ソースを選択 」ページで、R ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を ソース URL フィールドに入力します。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの ブラウザー を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json
にあります。選択 R 内 ランタイム ドロップダウンして 分類 内 タイプ ドロップダウンします。 すべての情報が入力されたら、「 」を選択します。 次へ 右上隅にある スキーマを管理.
次に、「 」セクションで、「小売売上」の入力および出力スキーマを選択します スキーマを管理 の場合、 小売販売スキーマとデータセットの作成 チュートリアル
以下 機能管理 「 」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の フィールドプロパティ ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を ターゲット機能、その他すべてを 入力機能 として設定します。選択 次へ をクリックして、新しい設定済みレシピを確認します。
レシピを確認し、必要に応じて、設定を追加、変更または削除します。選択 完了 レシピを作成します。
次に進みます。 次の手順 でモデルを作成する方法を確認するには、以下を実行します。 Data Science Workspace 新しく作成した「小売売上」レシピを使用して
Docker ベースのレシピのインポート — PySpark pyspark
移動して選択することから開始 ワークフロー ~の左上に位置する Platform UI 次に、 レシピを読み込む を選択し、 起動.
この 設定 ページ レシピを読み込む ワークフローが表示されます。 レシピの名前と説明を入力し、「 」を選択します。 次へ をクリックして次に進みます。
一度 ソースを選択 」ページで、PySpark ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を ソース URL フィールドに入力します。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの ブラウザー を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json
にあります。選択 PySpark 内 ランタイム ドロップダウンします。 PySpark ランタイムが選択されると、デフォルトのアーティファクトが自動入力され、 Docker. 次に、 分類 内 タイプ ドロップダウンします。 すべての情報が入力されたら、「 」を選択します。 次へ 右上隅にある スキーマを管理.
次に、 スキーマを管理 セレクター。スキーマは、 小売販売スキーマとデータセットの作成 チュートリアル
以下 機能管理 「 」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の フィールドプロパティ ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を ターゲット機能、その他すべてを 入力機能 として設定します。選択 次へ をクリックして、新しく設定したレシピを確認します。
レシピを確認し、必要に応じて、設定を追加、変更または削除します。選択 完了 レシピを作成します。
次に進みます。 次の手順 でモデルを作成する方法を確認するには、以下を実行します。 Data Science Workspace 新しく作成した「小売売上」レシピを使用して
Docker ベースのレシピのインポート — Scala scala
移動して選択することから開始 ワークフロー ~の左上に位置する Platform UI 次に、 レシピを読み込む を選択し、 起動.
この 設定 ページ レシピを読み込む ワークフローが表示されます。 レシピの名前と説明を入力し、「 」を選択します。 次へ をクリックして次に進みます。
一度 ソースを選択 「ソース URL 」フィールドに、Scala ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムのブラウザーを使用してインポートします。提供された設定ファイルはexperience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json
にあります。選択 Spark 内 ランタイム ドロップダウンします。 一度 Spark 「runtime」が選択されている場合、デフォルトのアーティファクトが自動入力されます。 Docker. 次に、 回帰 から タイプ ドロップダウンします。 すべての情報が入力されたら、「 」を選択します。 次へ 右上隅にある スキーマを管理.
次に、 スキーマを管理 セレクター。スキーマは、 小売販売スキーマとデータセットの作成 チュートリアル
以下 機能管理 「 」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の フィールドプロパティ ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的で、weeklySales" ターゲット機能 その他すべては 入力機能. 選択 次へ をクリックして、新しく設定したレシピを確認します。
レシピを確認し、必要に応じて、設定を追加、変更または削除します。選択 完了 レシピを作成します。
次に進みます。 次の手順 でモデルを作成する方法を確認するには、以下を実行します。 Data Science Workspace 新しく作成した「小売売上」レシピを使用して
次の手順 next-steps
このチュートリアルでは、レシピを設定および読み込む方法に関するインサイトを提供しました Data Science Workspace. 新しく作成したレシピを使用して、モデルの作成、トレーニング、評価をおこなうことができるようになりました。