ソースファイルのレシピへのパッケージ化
このチュートリアルでは、提供された Retail Sales サンプルソースファイルをアーカイブファイルにパッケージ化する方法について説明します。このファイルを使用して、UI または API でレシピの読み込みワークフローに従って、Adobe Experience Platform Data Science Workspace でレシピを作成できます。
理解しておくべき概念:
- レシピ:レシピはアドビのモデル仕様の用語です。トレーニングされたモデルを作成および実行してビジネス上の特定の問題を解決するために必要な特定の機械学習アルゴリズム、人工知能アルゴリズムまたはアルゴリズムのアンサンブル、処理ロジック、設定を表すトップレベルのコンテナです。
- ソースファイル:レシピのロジックを格納した、プロジェクト内の個々のファイルです。
前提条件
レシピの作成
レシピを作成するには、まず、ソースファイルをパッケージ化してアーカイブファイルを作成します。Source ファイルは、特定の問題を目の前で解決するために使用される機械学習ロジックとアルゴリズムを定義し、Python、R、PySpark、Scala のいずれかで記述されます。 構築されたアーカイブファイルは、Docker イメージの形式を取ります。 ビルドが完了すると、パッケージ化されたアーカイブファイルが Data Science Workspace に読み込まれ、UI でまたは API を使用してレシピが作成されます。
Docker ベースのモデルオーサリング docker-based-model-authoring
Docker イメージを使用すると、開発者は、ライブラリや他の依存コンポーネントなど、必要なすべての構成要素を含めてアプリケーションをパッケージ化し、1 つのパッケージとして提供できます。
ビルドされた Docker イメージは、レシピ作成ワークフロー中に提供された資格情報を使用して、Azure コンテナレジストリにプッシュされます。
Azure Container Registry の資格情報を取得するには、Adobe Experience Platform にログインします。左側のナビゲーション列で、「Workflows」に移動します。レシピを読み込み を選択してから、「起動 を選択します。 以下のスクリーンショットを参照してください。
設定 ページが開きます。 適切なレシピ名(「Retail Sales recipe」など)を「Recipe name」に入力し、オプションで説明やドキュメント URL を入力します。完了したら、「Next」をクリックします。
適切な Runtime を選択してから、「タイプ に 分類 を選択し す。 Azure コンテナレジストリ資格情報は、完了すると生成されます。
- Python のレシピには、Python ランタイムを選択します。
- R レシピの場合は、R ランタイムを選択します。
- PySpark レシピの場合は、PySpark ランタイムを選択します。 アーティファクトタイプが自動入力されます。
- Scala レシピの場合は、Spark ランタイムを選択します。 アーティファクトタイプが自動入力されます。
Docker ホスト、ユーザー名、パスワードの値を書き留めます。 これらは、以下に概要を示すワークフローで、Docker イメージを作成およびプッシュするために使用されます。
ソースファイルのパッケージ化
まず、Experience PlatformデータサイエンスWorkspace リファレンスリポジトリにあるサンプルコードベースを取得します。
Docker イメージ Python ビルド python-docker
まだ行っていない場合は、次のコマンドを使用して、GitHub リポジトリをローカルシステムにクローンします。
git clone https://github.com/adobe/experience-platform-dsw-reference.git
experience-platform-dsw-reference/recipes/python/retail
ディレクトリに移動します。ここには、Docker へのログインと Python Docker イメージの構築に使用されるスクリプト login.sh
と build.sh
があります。 Docker の資格情報が既にある場合は、次のコマンドを順に入力します。
# for logging in to Docker
./login.sh
# for building Docker image
./build.sh
ログインスクリプトを実行する際は、Docker のホスト、ユーザー名およびパスワードを指定する必要があります。 イメージの作成時には、Docker ホストとビルドのバージョンタグを入力する必要があります。
ビルドスクリプトが完了したら、Docker ソースファイルの URL がコンソール出力に表示されます。この例では、次のようになります。
# URL format:
{DOCKER_HOST}/ml-retailsales-python:{VERSION_TAG}
この URL をコピーして、次の手順に進みます。
ビルド R Docker イメージ r-docker
まだ行っていない場合は、次のコマンドを使用して、GitHub リポジトリをローカルシステムにクローンします。
git clone https://github.com/adobe/experience-platform-dsw-reference.git
クローンリポジトリー内の experience-platform-dsw-reference/recipes/R/Retail - GradientBoosting
ディレクトリに移動します。ここでは、Docker へのログインと R Docker イメージの構築に使用するファイル login.sh
と build.sh
を見つけます。 Docker の資格情報が既にある場合は、次のコマンドを順に入力します。
# for logging in to Docker
./login.sh
# for build Docker image
./build.sh
ログインスクリプトを実行する際は、Docker のホスト、ユーザー名およびパスワードを指定する必要があります。 イメージの作成時には、Docker ホストとビルドのバージョンタグを入力する必要があります。
ビルドスクリプトが完了したら、Docker ソースファイルの URL がコンソール出力に表示されます。この例では、次のようになります。
# URL format:
{DOCKER_HOST}/ml-retail-r:{VERSION_TAG}
この URL をコピーして、次の手順に進みます。
PySpark Docker イメージのビルド pyspark-docker
まず、次のコマンドを使用して、GitHub リポジトリをローカルシステムにクローンします。
git clone https://github.com/adobe/experience-platform-dsw-reference.git
experience-platform-dsw-reference/recipes/pyspark/retail
ディレクトリに移動します。スクリプト login.sh
と build.sh
は、Docker へのログインと Docker イメージの構築に使用されます。 Docker の資格情報が既にある場合は、次のコマンドを順に入力します。
# for logging in to Docker
./login.sh
# for building Docker image
./build.sh
ログインスクリプトを実行する際は、Docker のホスト、ユーザー名およびパスワードを指定する必要があります。 イメージの作成時には、Docker ホストとビルドのバージョンタグを入力する必要があります。
ビルドスクリプトが完了したら、Docker ソースファイルの URL がコンソール出力に表示されます。この例では、次のようになります。
# URL format:
{DOCKER_HOST}/ml-retailsales-pyspark:{VERSION_TAG}
この URL をコピーして、次の手順に進みます。
Scala Docker イメージのビルド scala-docker
ターミナルで次のコマンドを使用して、GitHub リポジトリをローカルシステムにクローンして開始します。
git clone https://github.com/adobe/experience-platform-dsw-reference.git
次に、ディレクトリ experience-platform-dsw-reference/recipes/scala
に移動すると、スクリプト login.sh
および build.sh
が見つかります。 これらのスクリプトは、Docker へのログインと Docker イメージのビルドに使用されます。 Docker 資格情報の準備ができている場合は、次のコマンドをターミナルに順に入力します。
# for logging in to Docker
./login.sh
# for building Docker image
./build.sh
login.sh
スクリプトを使用して Docker にログインしようとすると権限エラーが発生した場合は、コマンド bash login.sh
を使用してみてください。ログインスクリプトを実行する際は、Docker のホスト、ユーザー名、パスワードを指定する必要があります。 イメージの作成時には、Docker ホストとビルドのバージョンタグを入力する必要があります。
ビルドスクリプトが完了したら、Docker ソースファイルの URL がコンソール出力に表示されます。この例では、次のようになります。
# URL format:
{DOCKER_HOST}/ml-retailsales-spark:{VERSION_TAG}
この URL をコピーして、次の手順に進みます。
次の手順 next-steps
このチュートリアルでは、ソースファイルのレシピへのパッケージ化を確認しました。これは、レシピを Data Science Workspace に読み込むための前提条件です。 これで、Azure コンテナレジストリに、対応する画像 URL と共に Docker イメージが作成されました。 これで、パッケージ化されたレシピの Data Science Workspace への読み込みに関するチュートリアルを開始する準備が整いました。 開始するには、以下のいずれかのチュートリアルリンクを選択します。