Data Science Workspace UI へのパッケージ化されたレシピの読み込み
このチュートリアルでは、提供された「小売売上」の例を使用してパッケージ化されたレシピを設定およびインポートする方法に関するインサイトを提供します。このチュートリアルを終了すると、Adobe Experience Platform Data Science Workspace でモデルを作成、トレーニング、評価する準備が整います。
前提条件
このチュートリアルでは、Docker イメージ URL の形式でパッケージ化されたレシピが必要です。 詳しくは、ソースファイルをレシピにパッケージ化する方法に関するチュートリアルを参照してください。
UI ワークフロー
パッケージ化されたレシピを Data Science Workspace に読み込むには、特定のレシピ設定が必要で、そのレシピ設定は単一のJavaScript Object Notation (JSON)ファイルにコンパイルされます。このレシピ設定のコンパイルは、設定ファイルと呼ばれます。 特定の設定セットを使用してパッケージ化されたレシピは、レシピインスタンスと呼ばれます。 1 つのレシピを使用して、Data Science Workspace で多数のレシピインスタンスを作成できます。
パッケージレシピをインポートするワークフローは、次の手順で構成されます。
レシピの設定 configure
Data Science Workspace のすべてのレシピインスタンスには、特定のユースケースに合わせてレシピインスタンスを調整する一連の設定が付属しています。 設定ファイルは、このレシピインスタンスを使用して作成されたモデルのデフォルトのトレーニングおよびスコアリング動作を定義します。
以下に、「小売売上」レシピのデフォルトのトレーニングとスコアリングの動作を示す設定ファイルの例を示します。
[
{
"name": "train",
"parameters": [
{
"key": "learning_rate",
"value": "0.1"
},
{
"key": "n_estimators",
"value": "100"
},
{
"key": "max_depth",
"value": "3"
},
{
"key": "ACP_DSW_INPUT_FEATURES",
"value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
},
{
"key": "ACP_DSW_TARGET_FEATURES",
"value": "weeklySales"
},
{
"key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
"value": false
},
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key": "ACP_DSW_TRAINING_XDM_SCHEMA",
"value": "{SEE BELOW FOR DETAILS}"
},
{
"key": "evaluation.labelColumn",
"value": "weeklySalesAhead"
},
{
"key": "evaluation.metrics",
"value": "MAPE,MAE,RMSE,MASE"
}
]
},
{
"name": "score",
"parameters": [
{
"key": "tenantId",
"value": "_{TENANT_ID}"
},
{
"key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
"value":"{SEE BELOW FOR DETAILS}"
}
]
}
]
learning_rate
n_estimators
max_depth
ACP_DSW_INPUT_FEATURES
ACP_DSW_TARGET_FEATURES
ACP_DSW_FEATURE_UPDATE_SUPPORT
ACP_DSW_TRAINING_XDM_SCHEMA
evaluation.labelColumn
evaluation.metrics
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA
このチュートリアルでは、小売販売レシピのデフォルトの設定ファイルをそのままの状態で Data Science Workspace Reference に残すことができます。
Docker ベースのレシピの読み込み – Python python
まず、Platform UI の左上にある ワークフロー に移動して選択します。 次に、「レシピを読み込み」を選択し、「ローンチ」を選択します。
レシピを読み込み ワークフローの 設定 ページが表示されます。 レシピの名前と説明を入力し、右上隅にある「次へ」を選択します。
ソースを選択 ページが表示されたら、「Source URL」フィールドに、Python ソースファイルを使用して作成されたパッケージ化されたレシピに対応する Docker URL を貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの ブラウザー を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/python/retail/retail.config.json
にあります。「Runtime」ドロップダウンで Python を選択し、「タイプ」ドロップダウンで 分類 を選択します。 すべてが入力されたら、右上隅にある 次へ を選択して、スキーマの管理 に進みます。
次に、「スキーマの管理 のセクションで小売販売の入力および出力スキーマを選択します。これらは、「小売販売のスキーマおよびデータセットの作成 チュートリアルで提供される bootstrap スクリプトを使用して作成されした。
「機能管理」セクションで、スキーマビューアのテナント ID を選択して、小売販売入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の フィールドプロパティ ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を ターゲット機能、その他すべてを 入力機能 として設定します。「次へ」を選択して、新しく設定したレシピを確認します。
レシピを確認し、必要に応じて、設定を追加、変更または削除します。「終了」を選択して、レシピを作成します。
次の手順に進み、新しく作成した小売販売レシピを使用して Data Science Workspace でモデルを作成する方法を確認します。
Docker ベースのレシピを読み込み – R r
まず、Platform UI の左上にある ワークフロー に移動して選択します。 次に、「レシピを読み込み」を選択し、「ローンチ」を選択します。
レシピを読み込み ワークフローの 設定 ページが表示されます。 レシピの名前と説明を入力し、右上隅にある「次へ」を選択します。
ソースを選択 ページが表示されたら、「Source URL」フィールドに、R ソースファイルを使用して作成されたパッケージ化されたレシピに対応する Docker URL を貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの ブラウザー を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json
にあります。「ランタイム」ドロップダウンで「R」を選択し、「タイプ」ドロップダウンで「分類」を選択します。 すべてが入力されたら、右上隅にある 次へ を選択して、スキーマの管理 に進みます。
次に、「スキーマの管理 のセクションで小売販売の入力および出力スキーマを選択します。これらは、「小売販売のスキーマおよびデータセットの作成 チュートリアルで提供される bootstrap スクリプトを使用して作成されした。
「機能管理」セクションで、スキーマビューアのテナント ID を選択して、小売販売入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の フィールドプロパティ ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を ターゲット機能、その他すべてを 入力機能 として設定します。次へ を選択して、新しい設定済みレシピを確認します。
レシピを確認し、必要に応じて、設定を追加、変更または削除します。「終了」を選択して、レシピを作成します。
次の手順に進み、新しく作成した小売販売レシピを使用して Data Science Workspace でモデルを作成する方法を確認します。
Docker ベースのレシピを読み込む – PySpark pyspark
まず、Platform UI の左上にある ワークフロー に移動して選択します。 次に、「レシピを読み込み」を選択し、「ローンチ」を選択します。
レシピを読み込み ワークフローの 設定 ページが表示されます。 レシピの名前と説明を入力し、右上隅にある「次へ」を選択して続行します。
ソースを選択 ページが表示されたら、「Source URL」フィールドに、PySpark ソースファイルを使用して作成されたパッケージ化されたレシピに対応する Docker URL を貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの ブラウザー を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json
にあります。「ランタイム」ドロップダウンで PySpark を選択します。 PySpark ランタイムが選択されると、デフォルトのアーティファクトが Docker に自動入力されます。 次に、「タイプ」ドロップダウンで 分類 を選択します。 すべてが入力されたら、右上隅にある 次へ を選択して、スキーマの管理 に進みます。
次に、スキーマの管理 セレクターを使用して小売販売の入力および出力スキーマを選択します。スキーマは、「小売販売のスキーマおよびデータセットの作成 チュートリアルで提供される bootstrap スクリプトを使用して作成されした。
「機能管理」セクションで、スキーマビューアのテナント ID を選択して、小売販売入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の フィールドプロパティ ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を ターゲット機能、その他すべてを 入力機能 として設定します。「次へ」を選択して、新しく設定したレシピを確認します。
レシピを確認し、必要に応じて、設定を追加、変更または削除します。「終了」を選択して、レシピを作成します。
次の手順に進み、新しく作成した小売販売レシピを使用して Data Science Workspace でモデルを作成する方法を確認します。
Docker ベースのレシピの読み込み – Scala scala
まず、Platform UI の左上にある ワークフロー に移動して選択します。 次に、「レシピを読み込み」を選択し、「ローンチ」を選択します。
レシピを読み込み ワークフローの 設定 ページが表示されます。 レシピの名前と説明を入力し、右上隅にある「次へ」を選択して続行します。
ソースを選択 ページが表示されたら、Scala ソースファイルを使用して作成されたパッケージ化されたレシピに対応する Docker URL を「Source URL」フィールドに貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップで読み込むか、ファイルシステムブラウザーを使用します。 提供された設定ファイルはexperience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json
にあります。Runtime ドロップダウンで Spark を選択します。 Spark ランタイムが選択されると、デフォルトのアーティファクトが Docker に自動入力されます。 次に、「タイプ」ドロップダウンから リグレッション を選択します。 すべてが入力されたら、右上隅にある 次へ を選択して、スキーマの管理 に進みます。
次に、スキーマの管理 セレクターを使用して小売販売の入力および出力スキーマを選択します。スキーマは、「小売販売のスキーマおよびデータセットの作成 チュートリアルで提供される bootstrap スクリプトを使用して作成されした。
「機能管理」セクションで、スキーマビューアのテナント ID を選択して、小売販売入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の フィールドプロパティ ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルでは、「weeklySales」を Target 機能 それ以外を 入力機能 に設定します。 「次へ」を選択して、新しく設定したレシピを確認します。
レシピを確認し、必要に応じて、設定を追加、変更または削除します。「終了」を選択して、レシピを作成します。
次の手順に進み、新しく作成した小売販売レシピを使用して Data Science Workspace でモデルを作成する方法を確認します。
次の手順 next-steps
このチュートリアルでは、レシピの設定と Data Science Workspace への読み込みに関するインサイトを提供しました。 新しく作成したレシピを使用して、モデルの作成、トレーニング、評価をおこなうことができるようになりました。