パッケージ化されたレシピのインポート(Data Science Workspace UI 版)

このチュートリアルでは、提供された「小売売上」の例を使用してパッケージ化されたレシピを設定およびインポートする方法に関するインサイトを提供します。このチュートリアルを完了するまでに、Adobe Experience Platformでモデルの作成、トレーニング、評価をおこなう準備が整います Data Science Workspace.

前提条件

このチュートリアルでは、Docker イメージ URL の形式でパッケージ化されたレシピが必要です。 詳しくは、ソースファイルをレシピにパッケージ化する方法に関するチュートリアルを参照してください。

UI ワークフロー

パッケージ化されたレシピのへの読み込み Data Science Workspace には、単一の JSON(JavaScript Object Notation) ファイルにコンパイルされた、特定のレシピ設定が必要です。このレシピ設定のコンパイルは、設定ファイルと呼ばれます。 特定の設定のセットを含むパッケージ化されたレシピは、レシピインスタンスと呼ばれます。1 つのレシピを使用して、 Data Science Workspace.

パッケージレシピをインポートするワークフローは、次の手順で構成されます。

レシピの設定 configure

内のすべてのレシピインスタンス Data Science Workspace には、特定の使用例に合わせてレシピインスタンスをカスタマイズする一連の設定が付属しています。 設定ファイルは、このレシピインスタンスを使用して作成されたモデルのデフォルトのトレーニングおよびスコアリング動作を定義します。

NOTE
設定ファイルは、レシピとケースに固有です。

以下に、「小売売上」レシピのデフォルトのトレーニングとスコアリングの動作を示す設定ファイルの例を示します。

[
    {
        "name": "train",
        "parameters": [
            {
                "key": "learning_rate",
                "value": "0.1"
            },
            {
                "key": "n_estimators",
                "value": "100"
            },
            {
                "key": "max_depth",
                "value": "3"
            },
            {
                "key": "ACP_DSW_INPUT_FEATURES",
                "value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
            },
            {
                "key": "ACP_DSW_TARGET_FEATURES",
                "value": "weeklySales"
            },
            {
                "key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
                "value": false
            },
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key": "ACP_DSW_TRAINING_XDM_SCHEMA",
                "value": "{SEE BELOW FOR DETAILS}"
            },
            {
                "key": "evaluation.labelColumn",
                "value": "weeklySalesAhead"
            },
            {
                "key": "evaluation.metrics",
                "value": "MAPE,MAE,RMSE,MASE"
            }
        ]
    },
    {
        "name": "score",
        "parameters": [
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
                "value":"{SEE BELOW FOR DETAILS}"
            }
        ]
    }
]
パラメーターキー
タイプ
説明
learning_rate
数値
グラデーション乗算用のスカラー
n_estimators
数値
ランダムフォレスト分類子のフォレスト内のツリーの数
max_depth
数値
ランダムフォレスト分類子のツリーの最大深さ
ACP_DSW_INPUT_FEATURES
文字列
コンマ区切りの入力スキーマ属性のリスト
ACP_DSW_TARGET_FEATURES
文字列
コンマ区切りの出力スキーマ属性のリスト
ACP_DSW_FEATURE_UPDATE_SUPPORT
Boolean
入出力機能が変更可能かどうかを特定します。
tenantId
文字列
この ID を使用すると、作成するリソースの名前空間が適切に付けられ、組織内に含まれるようになります。 テナント ID を検索するには、こちらの手順に従います。
ACP_DSW_TRAINING_XDM_SCHEMA
文字列
モデルのトレーニングに使用する入力スキーマ。UI にインポートする場合は空のままにし、API を使用してインポートする場合はトレーニングスキーマ ID に置き換えます。
evaluation.labelColumn
文字列
評価のビジュアライゼーションの列ラベル
evaluation.metrics
文字列
モデルの評価に使用される評価指標のカンマ区切りのリスト
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA
文字列
モデルのスコアリングに使用される出力スキーマUI にインポートする場合は空のままにし、API を使用してインポートする場合はスコアリングスキーマ ID に置き換えます。

このチュートリアルの目的で、「小売販売」レシピのデフォルトの設定ファイルを Data Science Workspace そのままの状態を参照します。

Docker ベースのレシピのインポート — Python python

移動して選択することから開始 ワークフロー ~の左上に位置する Platform UI 次に、 レシピを読み込む を選択し、 起動.

この 設定 ページ レシピを読み込む ワークフローが表示されます。 レシピの名前と説明を入力し、「 」を選択します。 次へ をクリックします。

ワークフローを設定

NOTE
ソースファイルをレシピにパッケージ化』チュートリアルでは、Python ソースファイルを使用して Retail Sales レシピを作成する最後に Docker URL が提供されていました。

一度 ソースを選択 」ページで、を使用して作成したパッケージレシピに対応する Docker URL を貼り付けます。 Python 内のソースファイル ソース URL フィールドに入力します。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの​ ブラウザー ​を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/python/retail/retail.config.json にあります。選択 Pythonランタイム ドロップダウンして 分類タイプ ドロップダウンします。 すべての情報が入力されたら、「 」を選択します。 次へ 右上隅にある スキーマを管理.

NOTE
タイプのサポート 分類 および 回帰. モデルが次のタイプのいずれかに該当しない場合は、を選択します。 カスタム.

次に、「 」セクションで、「小売売上」の入力および出力スキーマを選択します スキーマを管理 ​の場合、 小売販売スキーマとデータセットの作成 チュートリアル

以下 機能管理 「 」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​ フィールドプロパティ ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を​ ターゲット機能、その他すべてを​ 入力機能 ​として設定します。選択 次へ をクリックして、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。選択 完了 レシピを作成します。

次に進みます。 次の手順 でモデルを作成する方法を確認するには、以下を実行します。 Data Science Workspace 新しく作成した「小売売上」レシピを使用して

Docker ベースのレシピのインポート — R r

移動して選択することから開始 ワークフロー ~の左上に位置する Platform UI 次に、 レシピを読み込む を選択し、 起動.

この 設定 ページ レシピを読み込む ワークフローが表示されます。 レシピの名前と説明を入力し、「 」を選択します。 次へ をクリックします。

ワークフローを設定

NOTE
ソースファイルをレシピにパッケージ化」チュートリアルでは、R ソースファイルを使用して Retail Sales レシピを作成する最後に Docker URL が提供されていました。

一度 ソースを選択 」ページで、R ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を ソース URL フィールドに入力します。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの​ ブラウザー ​を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json にあります。選択 Rランタイム ドロップダウンして 分類タイプ ドロップダウンします。 すべての情報が入力されたら、「 」を選択します。 次へ 右上隅にある スキーマを管理.

NOTE
タイプ サポート 分類 および 回帰. モデルが次のタイプのいずれかに該当しない場合は、を選択します。 カスタム.

次に、「 」セクションで、「小売売上」の入力および出力スキーマを選択します スキーマを管理 ​の場合、 小売販売スキーマとデータセットの作成 チュートリアル

以下 機能管理 「 」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​ フィールドプロパティ ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を​ ターゲット機能、その他すべてを​ 入力機能 ​として設定します。選択 次へ をクリックして、新しい設定済みレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。選択 完了 レシピを作成します。

次に進みます。 次の手順 でモデルを作成する方法を確認するには、以下を実行します。 Data Science Workspace 新しく作成した「小売売上」レシピを使用して

Docker ベースのレシピのインポート — PySpark pyspark

移動して選択することから開始 ワークフロー ~の左上に位置する Platform UI 次に、 レシピを読み込む を選択し、 起動.

この 設定 ページ レシピを読み込む ワークフローが表示されます。 レシピの名前と説明を入力し、「 」を選択します。 次へ をクリックして次に進みます。

ワークフローを設定

NOTE
ソースファイルのレシピへのパッケージ化 チュートリアルでは、PySpark ソースファイルを使用して Retail Sales レシピを作成する最後に Docker URL が提供されていました。

一度 ソースを選択 」ページで、PySpark ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を ソース URL フィールドに入力します。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの​ ブラウザー ​を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json にあります。選択 PySparkランタイム ドロップダウンします。 PySpark ランタイムが選択されると、デフォルトのアーティファクトが自動入力され、 Docker. 次に、 分類タイプ ドロップダウンします。 すべての情報が入力されたら、「 」を選択します。 次へ 右上隅にある スキーマを管理.

NOTE
タイプ サポート 分類 および 回帰. モデルが次のタイプのいずれかに該当しない場合は、を選択します。 カスタム.

次に、 スキーマを管理 セレクター。スキーマは、 小売販売スキーマとデータセットの作成 チュートリアル

スキーマを管理

以下 機能管理 「 」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​ フィールドプロパティ ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を​ ターゲット機能、その他すべてを​ 入力機能 ​として設定します。選択 次へ をクリックして、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。選択 完了 レシピを作成します。

次に進みます。 次の手順 でモデルを作成する方法を確認するには、以下を実行します。 Data Science Workspace 新しく作成した「小売売上」レシピを使用して

Docker ベースのレシピのインポート — Scala scala

移動して選択することから開始 ワークフロー ~の左上に位置する Platform UI 次に、 レシピを読み込む を選択し、 起動.

この 設定 ページ レシピを読み込む ワークフローが表示されます。 レシピの名前と説明を入力し、「 」を選択します。 次へ をクリックして次に進みます。

ワークフローを設定

NOTE
ソースファイルのレシピへのパッケージ化 チュートリアルでは、Scala (Spark) ソースファイル。

一度 ソースを選択 「ソース URL 」フィールドに、Scala ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムのブラウザーを使用してインポートします。提供された設定ファイルはexperience-platform-dsw-reference/recipes/scala/retail/pipelineservice.jsonにあります。選択 Sparkランタイム ドロップダウンします。 一度 Spark 「runtime」が選択されている場合、デフォルトのアーティファクトが自動入力されます。 Docker. 次に、 回帰 から タイプ ドロップダウンします。 すべての情報が入力されたら、「 」を選択します。 次へ 右上隅にある スキーマを管理.

NOTE
タイプのサポート 分類 および 回帰. モデルが次のタイプのいずれかに該当しない場合は、を選択します。 カスタム.

次に、 スキーマを管理 セレクター。スキーマは、 小売販売スキーマとデータセットの作成 チュートリアル

スキーマを管理

以下 機能管理 「 」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​ フィールドプロパティ ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的で、weeklySales" ターゲット機能 その他すべては 入力機能. 選択 次へ をクリックして、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。選択 完了 レシピを作成します。

次に進みます。 次の手順 でモデルを作成する方法を確認するには、以下を実行します。 Data Science Workspace 新しく作成した「小売売上」レシピを使用して

次の手順 next-steps

このチュートリアルでは、レシピを設定および読み込む方法に関するインサイトを提供しました Data Science Workspace. 新しく作成したレシピを使用して、モデルの作成、トレーニング、評価をおこなうことができるようになりました。

recommendation-more-help
cc79fe26-64da-411e-a6b9-5b650f53e4e9