ソースファイルのレシピへのパッケージ化

このチュートリアルでは、提供されたRetail Salesサンプルソースファイルをアーカイブファイルにパッケージ化する方法について説明します。アーカイブファイルは、UIまたはAPIのレシピインポートワークフローに従って、Adobe Experience PlatformData Science Workspaceでレシピを作成するのに使用できます。

理解しておくべき概念:

  • レシピ:レシピはアドビのモデル仕様の用語です。トレーニングされたモデルを作成および実行してビジネス上の特定の問題を解決するために必要な特定の機械学習アルゴリズム、人工知能アルゴリズムまたはアルゴリズムのアンサンブル、処理ロジック、設定を表すトップレベルのコンテナです。
  • ソースファイル:レシピのロジックを格納した、プロジェクト内の個々のファイルです。

前提条件

レシピの作成

レシピを作成するには、まず、ソースファイルをパッケージ化してアーカイブファイルを作成します。ソースファイルは、機械学習のロジックとアルゴリズムを定義し、実際に問題を解決するために使用され、Python、R、PySpark、Scalaのいずれかに書き込まれます。 構築されたアーカイブファイルは、Dockerイメージの形式をとります。 構築が完了すると、パッケージ化されたアーカイブファイルがData Science Workspaceに読み込まれ、API🔗を使用してUI](/docs/experience-platform/data-science-workspace/models-recipes/import-packaged-recipe-ui.html?lang=ja)またはにレシピ[が作成されます。

Docker ベースのモデルオーサリング

Docker イメージを使用すると、開発者は、ライブラリや他の依存コンポーネントなど、必要なすべての構成要素を含めてアプリケーションをパッケージ化し、1 つのパッケージとして提供できます。

作成されたDockerイメージは、レシピ作成ワークフローで指定された資格情報を使用してAzureコンテナレジストリにプッシュされます。

Azure Container Registry の資格情報を取得するには、Adobe Experience Platform にログインします。左側のナビゲーション列で、「Workflows」に移動します。「レシピを読み込み」を選択し、「​を起動」を選択します。 以下のスクリーンショットを参照してください。

設定​ページが開きます。 適切なレシピ名(「Retail Sales recipe」など)を「Recipe name」に入力し、オプションで説明やドキュメント URL を入力します。完了したら、「Next」をクリックします。

適切な​ランタイム​を選択し、タイプ​に対して​分類​を選択します。 Azureコンテナレジストリ資格情報は、完了すると生成されます。

メモ

** Typeは、レシピが設計された機械学習の問題のクラスで、トレーニングの実施状況をカスタマイズするのに役立つように、トレーニングの後に使用されます。

ヒント
  • Pythonレシピの場合は、Python​ランタイムを選択します。
  • Rレシピの場合は、R​ランタイムを選択します。
  • PySparkレシピの場合は、PySpark​ランタイムを選択します。 アーティファクトタイプが自動入力されます。
  • Scalaレシピの場合は、Spark​ランタイムを選択します。 アーティファクトタイプが自動入力されます。

Dockerホスト、ユーザー名、パスワードの値をメモしておきます。 これらは、以下に説明するワークフローでDockerイメージを作成し、プッシュするために使用されます。

メモ

ソースURLは、次の手順を完了した後に提供されます。 設定ファイルについては、次の手順🔗にある以降のチュートリアルで説明します。

ソースファイルのパッケージ化

まず、Experience Platform Data Science Workspace Reference リポジトリーにあるサンプルコードベースを取得します。

Python Dockerイメージの構築

まだ作成していない場合は、次のコマンドを使用してGitHubリポジトリをローカルシステムにコピーします。

git clone https://github.com/adobe/experience-platform-dsw-reference.git

experience-platform-dsw-reference/recipes/python/retail ディレクトリに移動します。ここでは、Dockerにログインし、[!DNL Python Docker]イメージを構築するために使用するスクリプトlogin.shbuild.shが見つかります。 Docker の資格情報が既にある場合は、次のコマンドを順に入力します。

# for logging in to Docker
./login.sh
 
# for building Docker image
./build.sh

ログインスクリプトを実行する場合は、Dockerホスト、ユーザー名、パスワードを指定する必要があります。 イメージの作成時には、Docker ホストとビルドのバージョンタグを入力する必要があります。

ビルドスクリプトが完了したら、Docker ソースファイルの URL がコンソール出力に表示されます。この例では、次のようになります。

# URL format: 
{DOCKER_HOST}/ml-retailsales-python:{VERSION_TAG}

この URL をコピーして、次の手順に進みます。

ビルドR Dockerイメージ

まだ作成していない場合は、次のコマンドを使用してGitHubリポジトリをローカルシステムにコピーします。

git clone https://github.com/adobe/experience-platform-dsw-reference.git

クローンリポジトリー内の experience-platform-dsw-reference/recipes/R/Retail - GradientBoosting ディレクトリに移動します。ここでは、Dockerにログインし、R Dockerイメージを作成する際に使用するファイルlogin.shbuild.shが見つかります。 Docker の資格情報が既にある場合は、次のコマンドを順に入力します。

# for logging in to Docker
./login.sh
 
# for build Docker image
./build.sh

ログインスクリプトを実行する場合は、Dockerホスト、ユーザー名、パスワードを指定する必要があります。 イメージの作成時には、Docker ホストとビルドのバージョンタグを入力する必要があります。

ビルドスクリプトが完了したら、Docker ソースファイルの URL がコンソール出力に表示されます。この例では、次のようになります。

# URL format: 
{DOCKER_HOST}/ml-retail-r:{VERSION_TAG}

この URL をコピーして、次の手順に進みます。

PySpark Dockerイメージを構築

次のコマンドを使用して、GitHubリポジトリをローカルシステムにクローン化し、開始します。

git clone https://github.com/adobe/experience-platform-dsw-reference.git

experience-platform-dsw-reference/recipes/pyspark/retail ディレクトリに移動します。スクリプトlogin.shbuild.shはここにあり、DockerにログインしてDockerイメージを作成するために使用します。 Docker の資格情報が既にある場合は、次のコマンドを順に入力します。

# for logging in to Docker
./login.sh
 
# for building Docker image
./build.sh

ログインスクリプトを実行する場合は、Dockerホスト、ユーザー名、パスワードを指定する必要があります。 イメージの作成時には、Docker ホストとビルドのバージョンタグを入力する必要があります。

ビルドスクリプトが完了したら、Docker ソースファイルの URL がコンソール出力に表示されます。この例では、次のようになります。

# URL format: 
{DOCKER_HOST}/ml-retailsales-pyspark:{VERSION_TAG}

この URL をコピーして、次の手順に進みます。

Scala Dockerイメージの構築

ターミナルで次のコマンドを使用して、GitHubリポジトリをローカルシステムにクローンし、開始します。

git clone https://github.com/adobe/experience-platform-dsw-reference.git

次に、experience-platform-dsw-reference/recipes/scalaディレクトリに移動し、login.shbuild.shのスクリプトを探します。 これらのスクリプトは、DockerにログインしてDockerイメージを作成するために使用されます。 Dockerの資格情報の準備ができている場合は、次のコマンドを端末に順番に入力します。

# for logging in to Docker
./login.sh
 
# for building Docker image
./build.sh
ヒント

login.shスクリプトを使用してDockerにログインしようとすると、権限エラーが発生する場合は、bash login.shコマンドを使用してみてください。

ログインスクリプトを実行する場合、Dockerホスト、ユーザー名、パスワードを指定する必要があります。 イメージの作成時には、Docker ホストとビルドのバージョンタグを入力する必要があります。

ビルドスクリプトが完了したら、Docker ソースファイルの URL がコンソール出力に表示されます。この例では、次のようになります。

# URL format: 
{DOCKER_HOST}/ml-retailsales-spark:{VERSION_TAG}

この URL をコピーして、次の手順に進みます。

次の手順

このチュートリアルでは、ソースファイルのパッケージ化をレシピに進めました。レシピは、レシピをData Science Workspaceにインポートするための前提条件です。 これで、Azureコンテナレジストリに、対応するイメージURLと共にDockerイメージが存在するはずです。 これで、パッケージ化されたレシピをData Science Workspaceに読み込む方法のチュートリアルを開始する準備が整いました。 開始するには、次のチュートリアルリンクの1つを選択してください。

このページ