パッケージ化されたレシピのインポート(Data Science Workspace UI 版)

このチュートリアルでは、提供された「小売売上」の例を使用してパッケージ化されたレシピを設定およびインポートする方法に関するインサイトを提供します。このチュートリアルの最後までに、Adobe Experience Platform Data Science Workspace でモデルの作成、トレーニング、評価をおこなう準備が整います。

前提条件

このチュートリアルでは、Docker イメージ URL の形式でパッケージ化されたレシピが必要です。 詳しくは、ソースファイルをレシピにパッケージ化する方法に関するチュートリアルを参照してください。

UI ワークフロー

パッケージ化されたレシピを Data Science Workspace に読み込むには、特定のレシピ設定が必要で、単一の JSON(JavaScript Object Notation) ファイルにコンパイルされます。このレシピ設定のコンパイルは、設定ファイルと呼ばれます。 特定の設定のセットを含むパッケージ化されたレシピは、レシピインスタンスと呼ばれます。1 つのレシピを使用して、Data Science Workspace 内に多数のレシピインスタンスを作成できます。

パッケージレシピをインポートするワークフローは、次の手順で構成されます。

レシピの設定

Data Science Workspace の各レシピインスタンスには、特定の使用例に合わせてレシピインスタンスをカスタマイズする一連の設定が付属しています。 設定ファイルは、このレシピインスタンスを使用して作成されたモデルのデフォルトのトレーニングおよびスコアリング動作を定義します。

メモ

設定ファイルは、レシピとケースに固有です。

以下に、「小売売上」レシピのデフォルトのトレーニングとスコアリングの動作を示す設定ファイルの例を示します。

[
    {
        "name": "train",
        "parameters": [
            {
                "key": "learning_rate",
                "value": "0.1"  
            },
            {
                "key": "n_estimators",
                "value": "100"
            },
            {
                "key": "max_depth",
                "value": "3"
            },
            {
                "key": "ACP_DSW_INPUT_FEATURES",
                "value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
            },
            {
                "key": "ACP_DSW_TARGET_FEATURES",
                "value": "weeklySales"
            },
            {
                "key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
                "value": false
            },
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key": "ACP_DSW_TRAINING_XDM_SCHEMA",
                "value": "{SEE BELOW FOR DETAILS}"
            },
            {
                "key": "evaluation.labelColumn",
                "value": "weeklySalesAhead"
            },
            {
                "key": "evaluation.metrics",
                "value": "MAPE,MAE,RMSE,MASE"
            }
        ]
    },
    {
        "name": "score",
        "parameters": [
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
                "value":"{SEE BELOW FOR DETAILS}"
            }
        ]
    }
]
パラメーターキー タイプ 説明
learning_rate 数値 グラデーション乗算用のスカラー
n_estimators 数値 ランダムフォレスト分類子のフォレスト内のツリーの数
max_depth 数値 ランダムフォレスト分類子のツリーの最大深さ
ACP_DSW_INPUT_FEATURES 文字列 コンマ区切りの入力スキーマ属性のリスト
ACP_DSW_TARGET_FEATURES 文字列 コンマ区切りの出力スキーマ属性のリスト
ACP_DSW_FEATURE_UPDATE_SUPPORT Boolean 入出力機能が変更可能かどうかを特定します。
tenantId 文字列 この ID は、作成するリソースの名前空間が適切に設定され、IMS 組織内に含まれるようにします。テナント ID を検索するには、こちらの手順に従います。
ACP_DSW_TRAINING_XDM_SCHEMA 文字列 モデルのトレーニングに使用する入力スキーマ。UI にインポートする場合は空のままにし、API を使用してインポートする場合はトレーニングスキーマ ID に置き換えます。
evaluation.labelColumn 文字列 評価のビジュアライゼーションの列ラベル
evaluation.metrics 文字列 モデルの評価に使用される評価指標のカンマ区切りのリスト
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA 文字列 モデルのスコアリングに使用される出力スキーマUI にインポートする場合は空のままにし、API を使用してインポートする場合はスコアリングスキーマ ID に置き換えます。

このチュートリアルの目的では、 Data Science Workspace 「リテール販売」レシピのデフォルトの設定ファイルをそのまま使用できます。

Docker ベースのレシピのインポート — Python

まず、Platform UI の左上にある「ワークフロー」を選択します。 次に、「レシピをインポート」を選択し、「Launch」を選択します。

レシピのインポート ワークフローの ​設定ページが表示されます。 レシピの名前と説明を入力し、右上隅の「次へ」を選択します。

ワークフローの設定

メモ

ソースファイルをレシピにパッケージ化』チュートリアルでは、Python ソースファイルを使用して Retail Sales レシピを作成する最後に Docker URL が提供されていました。

ソース を選択ページで、Python ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を「ソース URL」フィールドに貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの​ブラウザー​を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/python/retail/retail.config.json にあります。「Runtime」ドロップダウンで「Python」を選択し、「Type」ドロップダウンで「Classification」を選択します。 すべてを入力したら、右上隅の「次へ」を選択して、「スキーマの管理」に進みます。

メモ

型は 分類回帰 をサポートします。 モデルがこれらのタイプのいずれにも該当しない場合は、カスタム を選択します。

次に、「スキーマの管理」セクションで「小売販売」の入出力スキーマを選択します。これらは、『 小売販売スキーマとデータセットの作成 』チュートリアルで提供されたブートストラップスクリプトを使用して作成します。

機能の管理」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​フィールドプロパティ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を​ターゲット機能、その他すべてを​入力機能​として設定します。「次へ」を選択して、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。「完了」を選択して、レシピを作成します。

次の手順 に進み、新しく作成した「小売売上」レシピを使用して Data Science Workspace でモデルを作成する方法を確認します。

Docker ベースのレシピのインポート — R

まず、Platform UI の左上にある「ワークフロー」を選択します。 次に、「レシピをインポート」を選択し、「Launch」を選択します。

レシピのインポート ワークフローの ​設定ページが表示されます。 レシピの名前と説明を入力し、右上隅の「次へ」を選択します。

ワークフローの設定

メモ

ソースファイルをレシピにパッケージ化」チュートリアルでは、R ソースファイルを使用して Retail Sales レシピを作成する最後に Docker URL が提供されていました。

ソースを選択」ページで、R ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を「ソース URL」フィールドに貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの​ブラウザー​を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json にあります。「Runtime」ドロップダウンで「R」を選択し、「Type」ドロップダウンで「Classification」を選択します。 すべてを入力したら、右上隅の「次へ」を選択して、「スキーマの管理」に進みます。

メモ

型は分類と回帰をサ​ポートします**。モデルがこれらのタイプのいずれにも該当しない場合は、カスタム を選択します。

次に、「スキーマの管理」セクションで「小売販売」の入出力スキーマを選択します。これらは、『 小売販売スキーマとデータセットの作成 』チュートリアルで提供されたブートストラップスクリプトを使用して作成します。

機能の管理」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​フィールドプロパティ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を​ターゲット機能、その他すべてを​入力機能​として設定します。「次へ」を選択して、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。「完了」を選択して、レシピを作成します。

次の手順 に進み、新しく作成した「小売売上」レシピを使用して Data Science Workspace でモデルを作成する方法を確認します。

Docker ベースのレシピのインポート — PySpark

まず、Platform UI の左上にある「ワークフロー」を選択します。 次に、「レシピをインポート」を選択し、「Launch」を選択します。

レシピのインポート ワークフローの ​設定ページが表示されます。 レシピの名前と説明を入力し、右上隅の「次へ」を選択して次に進みます。

ワークフローの設定

メモ

ソースファイルをレシピにパッケージ化 』チュートリアルでは、PySpark ソースファイルを使用して Retail Sales レシピを作成する最後に Docker URL が提供されていました。

ソースを選択 ページで、PySpark ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を「ソース URL」フィールドに貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの​ブラウザー​を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json にあります。Runtime ドロップダウンで PySpark を選択します。 PySpark ランタイムを選択すると、デフォルトのアーティファクトが Docker に自動入力されます。 次に、「タイプ」ドロップダウンで「分類」を選択します。 すべてを入力したら、右上隅の「次へ」を選択して、「スキーマの管理」に進みます。

メモ

型は分類と回帰をサ​ポートします**。モデルがこれらのタイプのいずれにも該当しない場合は、カスタム を選択します。

次に、スキーマの管理 セレクターを使用して小売販売の入出力スキーマを選択します。スキーマは、『 小売販売スキーマとデータセットの作成 』チュートリアルで提供されたブートストラップスクリプトを使用して作成しました。

スキーマの管理

機能の管理」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​フィールドプロパティ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を​ターゲット機能、その他すべてを​入力機能​として設定します。「次へ」を選択して、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。「完了」を選択して、レシピを作成します。

次の手順 に進み、新しく作成した「小売売上」レシピを使用して Data Science Workspace でモデルを作成する方法を確認します。

Docker ベースのレシピのインポート — Scala

まず、Platform UI の左上にある「ワークフロー」を選択します。 次に、「レシピをインポート」を選択し、「Launch」を選択します。

レシピのインポート ワークフローの ​設定ページが表示されます。 レシピの名前と説明を入力し、右上隅の「次へ」を選択して次に進みます。

ワークフローの設定

メモ

ソースファイルをレシピにパッケージ化 』チュートリアルでは、Scala(Spark) ソースファイルを使用して Retail Sales レシピを作成する最後に Docker URL が提供されていました。

ソースを選択」ページで、Scala ソースファイルを使用して作成したパッケージレシピに対応する Docker URL を「ソース URL」フィールドに貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムのブラウザーを使用してインポートします。提供された設定ファイルはexperience-platform-dsw-reference/recipes/scala/retail/pipelineservice.jsonにあります。Runtime ドロップダウンで Spark を選択します。 Spark ランタイムを選択すると、デフォルトのアーティファクトが Docker に自動入力されます。 次に、「」ドロップダウンから「回帰」を選択します。 すべてを入力したら、右上隅の「次へ」を選択して、「スキーマの管理」に進みます。

メモ

型は 分類回帰 をサポートします。 モデルがこれらのタイプのいずれにも該当しない場合は、カスタム を選択します。

次に、スキーマの管理 セレクターを使用して小売販売の入出力スキーマを選択します。スキーマは、『 小売販売スキーマとデータセットの作成 』チュートリアルで提供されたブートストラップスクリプトを使用して作成しました。

スキーマの管理

機能の管理」セクションで、スキーマビューアのテナント ID を選択して、「小売売上」入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​フィールドプロパティ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、「weeklySales」を ターゲット機能、その他すべてを 入力機能 に設定します。 「次へ」を選択して、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。「完了」を選択して、レシピを作成します。

次の手順 に進み、新しく作成した「小売売上」レシピを使用して Data Science Workspace でモデルを作成する方法を確認します。

次の手順

このチュートリアルでは、Data Science Workspace へのレシピの設定とインポートに関するインサイトを提供しました。 新しく作成したレシピを使用して、モデルの作成、トレーニング、評価をおこなうことができるようになりました。

このページ