Data Science Workspace UIでパッケージ化されたレシピを読み込む

このチュートリアルでは、提供された「小売売上」の例を使用してパッケージ化されたレシピを設定およびインポートする方法に関するインサイトを提供します。このチュートリアルを終えるまでに、Adobe Experience PlatformData Science Workspaceでモデルを作成、トレーニング、評価する準備が整います。

前提条件

このチュートリアルでは、DockerイメージURLの形式でパッケージ化されたレシピが必要です。 詳しくは、ソースファイルをレシピにパッケージ化する方法に関するチュートリアルを参照してください。

UI ワークフロー

パッケージ化されたレシピをData Science Workspaceに読み込むには、特定のレシピ設定が必要で、1つのJavaScript Object Notation(JSON)ファイルにコンパイルされている必要があります。このレシピ設定のコンパイルを設定ファイルと呼びます。 特定の設定のセットを含むパッケージ化されたレシピは、レシピインスタンスと呼ばれます。1つのレシピを使用して、多くのレシピインスタンスをData Science Workspaceに作成できます。

パッケージレシピをインポートするワークフローは、次の手順で構成されます。

レシピの設定

Data Science Workspace内の各レシピインスタンスには一連の設定が付属し、特定の使用事例に合わせてレシピインスタンスを調整します。 設定ファイルは、このレシピインスタンスを使用して作成されたモデルのデフォルトのトレーニングおよびスコアリング動作を定義します。

メモ

設定ファイルは、レシピとケースに固有です。

以下に、「小売売上」レシピのデフォルトのトレーニングとスコアリングの動作を示す設定ファイルの例を示します。

[
    {
        "name": "train",
        "parameters": [
            {
                "key": "learning_rate",
                "value": "0.1"  
            },
            {
                "key": "n_estimators",
                "value": "100"
            },
            {
                "key": "max_depth",
                "value": "3"
            },
            {
                "key": "ACP_DSW_INPUT_FEATURES",
                "value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
            },
            {
                "key": "ACP_DSW_TARGET_FEATURES",
                "value": "weeklySales"
            },
            {
                "key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
                "value": false
            },
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key": "ACP_DSW_TRAINING_XDM_SCHEMA",
                "value": "{SEE BELOW FOR DETAILS}"
            },
            {
                "key": "evaluation.labelColumn",
                "value": "weeklySalesAhead"
            },
            {
                "key": "evaluation.metrics",
                "value": "MAPE,MAE,RMSE,MASE"
            }
        ]
    },
    {
        "name": "score",
        "parameters": [
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
                "value":"{SEE BELOW FOR DETAILS}"
            }
        ]
    }
]
パラメーターキー タイプ 説明
learning_rate 数値 グラデーション乗算用のスカラー
n_estimators 数値 ランダムフォレスト分類子のフォレスト内のツリーの数
max_depth 数値 ランダムフォレスト分類子のツリーの最大深さ
ACP_DSW_INPUT_FEATURES 文字列 コンマ区切りの入力スキーマ属性のリスト
ACP_DSW_TARGET_FEATURES 文字列 コンマ区切りの出力スキーマ属性のリスト
ACP_DSW_FEATURE_UPDATE_SUPPORT Boolean 入出力機能が変更可能かどうかを特定します。
tenantId 文字列 この ID は、作成するリソースの名前空間が適切に設定され、IMS 組織内に含まれるようにします。テナント ID を検索するには、こちらの手順に従います。
ACP_DSW_TRAINING_XDM_SCHEMA 文字列 モデルのトレーニングに使用する入力スキーマ。UI にインポートする場合は空のままにし、API を使用してインポートする場合はトレーニングスキーマ ID に置き換えます。
evaluation.labelColumn 文字列 評価のビジュアライゼーションの列ラベル
evaluation.metrics 文字列 モデルの評価に使用される評価指標のカンマ区切りのリスト
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA 文字列 モデルのスコアリングに使用される出力スキーマUI にインポートする場合は空のままにし、API を使用してインポートする場合はスコアリングスキーマ ID に置き換えます。

このチュートリアルでは、小売販売のレシピのデフォルトの設定ファイルをそのまま使用する方法について、Data Science Workspace参照ページに記載されています。

Dockerベースのレシピのインポート — Python

Platform UIの左上にある​ワークフロー​を移動して選択すると開始します。 次に、「レシピを読み込み」を選択し、「​を起動」を選択します。

​読み込みレシピ​ワークフローの設定​ページが表示されます。 レシピの名前と説明を入力し、右上隅の「次へ」を選択します。

ワークフローの設定

メモ

ソースファイルをレシピにパッケージ化』チュートリアルでは、Python ソースファイルを使用して Retail Sales レシピを作成する最後に Docker URL が提供されていました。

ソース​を選択ページに移動したら、Pythonソースファイルを使用して作成したパッケージ化されたレシピに対応するDocker URLを​ソースURL​フィールドに貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの​ブラウザー​を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/python/retail/retail.config.json にあります。ランタイム​ドロップダウンで​Python​を選択し、タイプ​ドロップダウンで​分類​を選択します。 すべての情報が入力されたら、右上隅の「次へ」を選択して、「スキーマの管理」に進みます。

メモ

型は、分類​と​回帰​をサポートします。 モデルがこれらのタイプのいずれにも該当しない場合は、カスタム​を選択します。

次に、スキーマの管理​セクションの「小売売上高の入出力スキーマー」を選択します。これらのパラメーターは、小売売上スキーマーとデータセットの作成チュートリアルの提供されたブートストラップスクリプトを使用して作成されます。

機能の管理」セクションで、スキーマビューアのテナントIDを選択し、小売売上高の入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​フィールドプロパティ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を​ターゲット機能、その他すべてを​入力機能​として設定します。「次へ」を選択して、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。「完了」を選択して、レシピを作成します。

次の手順に進み、新しく作成した小売売上高のレシピを使用してData Science Workspace内にモデルを作成する方法を調べます。

Docker ベースのレシピのインポート — R

Platform UIの左上にある​ワークフロー​を移動して選択すると開始します。 次に、「レシピを読み込み」を選択し、「​を起動」を選択します。

​読み込みレシピ​ワークフローの設定​ページが表示されます。 レシピの名前と説明を入力し、右上隅の「次へ」を選択します。

ワークフローの設定

メモ

ソースファイルをレシピにパッケージ化」チュートリアルでは、R ソースファイルを使用して Retail Sales レシピを作成する最後に Docker URL が提供されていました。

ソース​を選択ページに移動したら、Rソースファイルを使用して作成したパッケージ化レシピに対応するDocker URLを​ソースURL​フィールドに貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの​ブラウザー​を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json にあります。ランタイム​ドロップダウンで​R​を選択し、タイプ​ドロップダウンで​分類​を選択します。 すべての情報が入力されたら、右上隅の「次へ」を選択して、「スキーマの管理」に進みます。

メモ

型は、分類と​回帰をサポートします**。モデルがこれらのタイプのいずれにも該当しない場合は、カスタム​を選択します。

次に、スキーマの管理​セクションの「小売売上高の入出力スキーマー」を選択します。これらのパラメーターは、小売売上スキーマーとデータセットの作成チュートリアルの提供されたブートストラップスクリプトを使用して作成されます。

機能の管理」セクションで、スキーマビューアのテナントIDを選択し、小売売上高の入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​フィールドプロパティ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を​ターゲット機能、その他すべてを​入力機能​として設定します。「次へ」を選択して、新しい設定済みレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。「完了」を選択して、レシピを作成します。

次の手順に進み、新しく作成した小売売上高のレシピを使用してData Science Workspace内にモデルを作成する方法を調べます。

Dockerベースのレシピのインポート — PySpark

Platform UIの左上にある​ワークフロー​を移動して選択すると開始します。 次に、「レシピを読み込み」を選択し、「​を起動」を選択します。

​読み込みレシピ​ワークフローの設定​ページが表示されます。 レシピの名前と説明を入力し、右上隅の「次へ」を選択して次に進みます。

ワークフローの設定

メモ

ソースファイルをRecipeチュートリアルにパッケージ化すると、PySparkソースファイルを使用して小売売上のレシピを作成する際に、最後にDocker URLが提供されます。

ソース​を選択ページに移動したら、PySparkソースファイルを使って作成したパッケージレシピに対応するDocker URLを​Source URL​フィールドに貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムの​ブラウザー​を使用してインポートします。提供された設定ファイルは experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json にあります。Runtime​ドロップダウンで​PySpark​を選択します。 PySparkランタイムが選択されると、デフォルトのアーティファクトは​Docker​に自動入力されます。 次に、タイプ​ドロップダウンで​分類​を選択します。 すべての情報が入力されたら、右上隅の「次へ」を選択して、「スキーマの管理」に進みます。

メモ

型は、分類と​回帰をサポートします**。モデルがこれらのタイプのいずれにも該当しない場合は、カスタム​を選択します。

次に、スキーマの管理​セレクターを使用して小売売上の入出力スキーマーを選択し、小売売上スキーマとデータセットの作成チュートリアルで提供されたブートストラップスクリプトを使用してスキーマーを作成します。

スキーマの管理

機能の管理」セクションで、スキーマビューアのテナントIDを選択し、小売売上高の入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​フィールドプロパティ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルの目的では、weeklySales を​ターゲット機能、その他すべてを​入力機能​として設定します。「次へ」を選択して、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。「完了」を選択して、レシピを作成します。

次の手順に進み、新しく作成した小売売上高のレシピを使用してData Science Workspace内にモデルを作成する方法を調べます。

Dockerベースのレシピのインポート — Scala

Platform UIの左上にある​ワークフロー​を移動して選択すると開始します。 次に、「レシピを読み込み」を選択し、「​を起動」を選択します。

​読み込みレシピ​ワークフローの設定​ページが表示されます。 レシピの名前と説明を入力し、右上隅の「次へ」を選択して次に進みます。

ワークフローの設定

メモ

ソースファイルをレシピにパッケージ化するチュートリアルでは、Scala (Spark)ソースファイルを使用して小売売上のレシピを作成する最後にDocker URLが提供されています。

ソース​を選択」ページに移動したら、「ソースURL」フィールドに、Scalaソースファイルを使用して作成したパッケージレシピに対応するDocker URLを貼り付けます。 次に、指定した設定ファイルをドラッグ&ドロップするか、ファイルシステムのブラウザーを使用してインポートします。提供された設定ファイルはexperience-platform-dsw-reference/recipes/scala/retail/pipelineservice.jsonにあります。ランタイム​ドロップダウンで、Spark​を選択します。 Sparkランタイムが選択されると、デフォルトのアーチファクトが​Docker​に自動入力されます。 次に、タイプ​ドロップダウンから​回帰​を選択します。 すべての情報が入力されたら、右上隅の「次へ」を選択して、「スキーマの管理」に進みます。

メモ

型は、分類​と​回帰​をサポートします。 モデルがこれらのタイプのいずれにも該当しない場合は、カスタム​を選択します。

次に、スキーマの管理​セレクターを使用して小売売上の入出力スキーマーを選択し、小売売上スキーマとデータセットの作成チュートリアルで提供されたブートストラップスクリプトを使用してスキーマーを作成します。

スキーマの管理

機能の管理」セクションで、スキーマビューアのテナントIDを選択し、小売売上高の入力スキーマを展開します。 目的の入出力機能をハイライト表示し、右側の​フィールドプロパティ​ウィンドウで「入力機能」または「ターゲット機能」を選択して、入力機能と出力機能を選択します。このチュートリアルでは、"weeklySales"を​ターゲット機能​に、その他すべてを​入力機能​に設定します。 「次へ」を選択して、新しく設定したレシピを確認します。

レシピを確認し、必要に応じて、設定を追加、変更または削除します。「完了」を選択して、レシピを作成します。

次の手順に進み、新しく作成した小売売上高のレシピを使用してData Science Workspace内にモデルを作成する方法を調べます。

次の手順

このチュートリアルでは、Data Science Workspaceにレシピを設定して読み込む方法について説明しました。 新しく作成したレシピを使用して、モデルの作成、トレーニング、評価をおこなうことができるようになりました。

このページ