このチュートリアルでは、JupyterLab ノートブックレシピビルダーテンプレートを使用してモデルを作成するために必要な手順について説明します。
このチュートリアルを進める前に、必要なスキーマとデータセットを作成する必要があります。 のチュートリアルを参照してください。 Luma 傾向モデルのスキーマとデータセットの作成 必要なアセットをダウンロードし、前提条件を設定する。
内で最初からレシピを作成することもできます Data Science Workspace. 開始するには、に移動します。 Adobe Experience Platform をクリックし、 ノートブック 」タブをクリックします。 新しいノートブックを作成するには、 JupyterLab Launcher.
この レシピビルダー ノートブックを使用すると、ノートブック内でトレーニングとスコアリングの実行を実行できます。 これにより、トレーニングデータとスコアリングデータで実験を実行する間に、train()
メソッドと score()
メソッドを柔軟に変更できます。トレーニングとスコアリングの出力に満足したら、レシピを作成し、さらにレシピを使用してモデルとしてモデルとして公開して機能をモデル化できます。
この レシピビルダー ノートブックは、すべてのファイル形式の操作をサポートしていますが、現在、レシピの作成機能は、のみをサポートしています Python.
を選択し、 レシピビルダー ランチャーからノートブックが開き、新しいタブに表示されます。
上部の新しい「ノートブック」タブに、3 つの追加のアクションを含むツールバーが読み込まれます。 トレーニング, スコア、および レシピを作成. これらのアイコンは、 レシピビルダー ノートブック。 これらのアクションに関する詳細情報が提供されています トレーニングとスコアリングのセクション ノートブックでレシピを作成した後。
提供されたアセットフォルダーには、Luma の傾向モデルが含まれます propensity_model.ipynb
. JupyterLab の「ノートブックをアップロード」オプションを使用して、提供されたモデルをアップロードし、ノートブックを開きます。
このチュートリアルの残りの部分では、傾向モデルノートブックで事前に定義された次のファイルについて説明します。
次のビデオチュートリアルでは、Luma 傾向モデルのノートブックを説明します。
要件ファイルは、モデルで使用する追加のライブラリを宣言するために使用されます。 依存関係がある場合は、バージョン番号を指定できます。追加のライブラリを探すには、 anaconda.org. 要件ファイルの形式を設定する方法については、 コンダ. 既に使用されている主なライブラリのリストは次のとおりです。
python=3.6.7
scikit-learn
pandas
numpy
data_access_sdk_python
追加したライブラリまたは特定のバージョンは、上記のライブラリと互換性がない場合があります。また、環境ファイルを手動で作成する場合は、 name
フィールドを上書きすることはできません。
Luma 傾向モデルノートブックの場合、要件を更新する必要はありません。
設定ファイル(training.conf
および scoring.conf
)は、トレーニングとスコアリングに使用するデータセットを指定し、ハイパーパラメーターを追加するために使用されます。トレーニングとスコアリングには別々の設定があります。
モデルがトレーニングを実行するには、 trainingDataSetId
, ACP_DSW_TRAINING_XDM_SCHEMA
、および tenantId
. また、スコアリングの場合、 scoringDataSetId
, tenantId
、および scoringResultsDataSetId
.
データセットとスキーマ ID を確認するには、「データ」タブに移動します (フォルダーアイコンの下)をクリックします。 3 つの異なるデータセット ID を指定する必要があります。 この
scoringResultsDataSetId
は、モデルスコアリング結果の保存に使用され、空のデータセットである必要があります。 これらのデータセットは、以前に 必要なアセット 手順
同じ情報は、「Adobe Experience Platform」の「スキーマ」タブと「データセット」タブにあります。
競い合うと、トレーニングとスコアリングの設定は次のスクリーンショットのようになります。
デフォルトでは、データのトレーニングとスコアリングをおこなう際に、次の設定パラメーターが設定されます。
ML_FRAMEWORK_IMS_USER_CLIENT_ID
ML_FRAMEWORK_IMS_TOKEN
ML_FRAMEWORK_IMS_ML_TOKEN
ML_FRAMEWORK_IMS_TENANT_ID
トレーニングデータローダーの目的は、機械学習モデルの作成に使用するデータをインスタンス化することです。通常、トレーニングデータローダーが実行するタスクは 2 つあります。
以下の 2 つの節で、データの読み込みとデータの準備について説明します。
この手順では、pandas データフレームを使用します。データは、 Adobe Experience Platform 次のいずれかを使用: Platform SDK (platform_sdk
) または pandasを使用する外部ソースから
read_csv()または
read_json()` 関数
Recipe Builder ノートブックでは、データは platform_sdk
データローダーを介して読み込まれます。
platform_sdk
データローダーの使用に関する詳細なチュートリアルについては、『Platform SDK ガイド』を参照してください。このチュートリアルでは、認証の構築、データの基本読み取り、およびデータの基本的な書き込みに関する情報を提供します。
この節では、JSON または CSV ファイルを pandas オブジェクトにインポートする方法を示します。Pandas ライブラリの公式ドキュメントについては、次の URL を参照してください。
まず、CSV ファイルのインポート例を示します。data
引数は CSV ファイルへのパスです。この変数は、前の節の configProperties
からインポートされました。
df = pd.read_csv(data)
また、JSON ファイルからインポートすることもできます。data
引数は CSV ファイルへのパスです。この変数は、前の節の configProperties
からインポートされました。
df = pd.read_json(data)
これで、データはデータフレームオブジェクトに含まれ、次の節で分析および操作できます。
この例では、データは Platform SDK を使用して読み込まれます。 ライブラリは、次の行を含めることで、ページの上部にインポートできます。
from platform_sdk.dataset_reader import DatasetReader
その後、 load()
メソッドを使用して、 trainingDataSetId
設定 (recipe.conf
) ファイルです。
def load(config_properties):
print("Training Data Load Start")
#########################################
# Load Data
#########################################
client_context = get_client_context(config_properties)
dataset_reader = DatasetReader(client_context, dataset_id=config_properties['trainingDataSetId'])
詳しくは、 設定ファイルセクションを使用する場合、次の設定パラメーターが、 client_context = get_client_context(config_properties)
:
ML_FRAMEWORK_IMS_USER_CLIENT_ID
ML_FRAMEWORK_IMS_TOKEN
ML_FRAMEWORK_IMS_ML_TOKEN
ML_FRAMEWORK_IMS_TENANT_ID
データが揃ったら、データの準備と特徴のエンジニアリングから始めます。
データを読み込んだ後、データをクリーンアップしてデータの準備を行う必要があります。 この例では、モデルの目標は、顧客が製品を注文するかどうかを予測することです。 モデルが特定の製品を参照していないので、必要ありません productListItems
したがって、列は削除されます。 次に、1 つの列に 1 つまたは 2 つの値のみを含む追加の列が削除されます。 モデルのトレーニングでは、目標の予測に役立つ有用なデータのみを保持することが重要です。
不要なデータを削除したら、特徴エンジニアリングを開始できます。 この例で使用されるデモデータには、セッション情報が含まれていません。 通常、特定の顧客の現在および過去のセッションに関するデータを取得します。 この例では、セッション情報が不足しているので、ジャーニー区切りによる現在および過去のセッションを模倣します。
区切りが完了すると、データにラベルが付けられ、ジャーニーが作成されます。
次に、機能を作成し、過去と現在に分割します。 次に、不要な列が削除され、Luma のお客様向けの過去と現在のジャーニーの両方が表示されます。 これらのジャーニーには、顧客が品目を購入したかどうかや、購入に至るまでにたどったジャーニーなどの情報が含まれます。
スコアリングのデータを読み込む手順は、トレーニングデータの読み込みと似ています。 コードを詳しく見ると、 scoringDataSetId
内 dataset_reader
. これは、トレーニングとスコアの両方で同じ Luma データソースが使用されるからです。
トレーニングとスコアリングに異なるデータファイルを使用する場合、トレーニングとスコアリングのデータローダーは別々になります。 これにより、必要に応じて、トレーニングデータをスコアリングデータにマッピングするなど、追加の前処理を実行できます。
pipeline.py
ファイルには、トレーニングとスコアリングのロジックが含まれます。
トレーニングの目的は、トレーニングデータセットの特徴とラベルを使用してモデルを作成することです。トレーニングモデルを選択したら、x および y トレーニングデータセットをモデルに適合させ、トレーニング済みモデルを返す必要があります。
特徴とは、機械学習モデルがラベルを予測するために使用する入力変数を指します。
score()
関数には、スコアリングアルゴリズムを含め、モデルの成功度を示す測定値を返す必要があります。score()
関数は、スコアリングデータセットラベルとトレーニング済みモデルを使用して、予測された特徴のセットを生成します。次に、これらの予測値が、スコアリングデータセットの実際の特徴と比較されます。この例では、score()
関数は、トレーニング済みモデルを使用して、スコアリングデータセットのラベルを使用して特徴を予測します。予測された特徴が返されます。
evaluator.py
ファイルには、トレーニングレシピの評価方法とトレーニングデータの分割方法に関するロジックが含まれています。
トレーニングのデータ準備段階では、トレーニングとテストに使用するデータセットを分割する必要があります。この val
データは、トレーニング後にモデルを評価するために暗黙的に使用されます。 このプロセスはスコアリングとは別のものです。
この節では、 split()
関数を使用してデータをノートブックに読み込み、データセット内の関連のない列を削除してデータをクリーンアップします。 ここから、データ内の既存の生の特徴から関連する特徴を追加で作成するプロセスである特徴エンジニアリングを実行できます。
この evaluate()
関数は、モデルのトレーニングが終わると実行され、モデルの成功度を示す指標を返します。 この evaluate()
関数は、テストデータセットラベルとトレーニング済みモデルを使用して、一連の特徴を予測します。 これらの予測値は、テストデータセットの実際の特徴と比較されます。この例では、次の指標が使用されます。 precision
, recall
, f1
、および accuracy
. この関数は、評価指標の配列を含む metric
オブジェクトを返します。これらの指標は、トレーニング済みモデルのパフォーマンスを評価するために使用されます。
追加中 print(metric)
指標の結果を表示できます。
この datasaver.py
ファイルに save()
関数とは、スコアリングのテスト中に予測を保存するために使用します。 この save()
関数は、予測と Experience Platform Catalog API はデータをに書き込みます。 scoringResultsDataSetId
が scoring.conf
ファイル。 次のことが可能です。
ノートブックの変更が完了し、レシピのトレーニングをおこなう場合は、バーの上部にある関連ボタンを選択して、セル内にトレーニングランを作成できます。 ボタンを選択すると、トレーニングスクリプトのコマンドと出力のログがノートブック ( evaluator.py
セル ) を参照してください。 Conda は、最初にすべての依存関係をインストールし、その後トレーニングを開始します。
スコアリングを実行する前に、少なくとも 1 回はトレーニングを実行する必要があります。の選択 スコアリングを実行 ボタンは、トレーニング中に生成されたトレーニング済みモデルに対してスコアを付けます。 スコアリングスクリプトは、 datasaver.py
.
デバッグの目的で、非表示の出力を表示する場合は、出力セルの末尾に debug
を追加し、再実行します。
レシピの編集が完了し、トレーニング/スコアリングの出力に満足したら、「 」を選択してノートブックからレシピを作成できます。 レシピを作成 をクリックします。
選択後 レシピを作成」と入力すると、レシピ名の入力を求めるプロンプトが表示されます。 この名前は、 Platform.
次を選択したら、 Ok、レシピの作成プロセスが開始されます。 これには時間がかかる場合があり、「レシピを作成」ボタンの代わりに進行状況バーが表示されます。 完了したら、 レシピを表示 ボタンをクリックして レシピ 下のタブ ML モデル
%%writefile
行を編集しないでくださいこのチュートリアルでは、 レシピビルダー ノートブック。 また、ノートブックをレシピワークフローに導く方法も学びました。
内でリソースを使用する方法を学び続けるには Data Science Workspace、次を参照してください: Data Science Workspace 「レシピとモデル」ドロップダウン。