クラウドの書き出し場所の設定 configure-cloud-export-locations

Analysis Workspace または Report Builder から)Customer Journey Analytics レポートをクラウドの宛先に書き出す前に、データの送信先を追加して設定する必要があります。 このプロセスの構成要素は次のとおりです。

  1. ​ クラウド書き出しアカウントの設定 ​ の説明に従って、アカウント(Amazon S3、Google Cloud Platform など)を追加し設定します。

  2. この記事で説明しているように、そのアカウント内の場所(アカウント内のフォルダーなど)を追加して設定する。

場所の表示、編集、削除など、既存の場所を管理する方法について詳しくは、​ クラウドの書き出し場所とアカウントの管理 ​ を参照してください。

クラウドの書き出し場所の作成を開始

  1. 場所を追加するには、アカウントを追加する必要があります。 アカウントをまだ追加していない場合は、​ クラウド書き出しアカウントの設定 ​ の説明に従ってアカウントを追加します。

  2. Customer Journey Analyticsで、コンポーネント/書き出し を選択します。

  3. 場所」タブを選択し、「場所を追加」を選択します。

    「場所を追加」ボタンがハイライト表示された「場所」タブが選択されたエクスポートウィンドウ

    または

    場所アカウント」タブを選択し、場所を追加する既存のアカウント上にある 3 ドットアイコンを選択して、「場所を追加」を選択します。

    GCP アカウントと省略記号ドロップダウンメニュー(「場所を追加」が選択されていることを示す)

    場所ダイアログが表示されます。

  4. 次の情報を指定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2
    フィールド 関数
    名前 場所の名前。
    説明 アカウントの他の場所との区別に役立つ、場所の短い説明を入力します。
    組織内のすべてのユーザーが場所を利用できるようにする

    組織内の他のユーザーが場所を使用できるようにするには、このオプションを有効にします。

    場所を共有する際は、次の点に注意してください。

    • 共有する場所の共有を解除することはできません。
    • 共有場所は、その場所の所有者のみが編集できます。
    • 場所を共有できるのは、その場所が関連付けられているアカウントも共有されている場合のみです。
    場所アカウント 場所を作成するアカウントを選択します。 アカウントの作成方法について詳しくは、​ クラウド書き出しアカウントの設定 ​ を参照してください。
  5. Adobe Analytics の「場所のプロパティ」セクションで、場所アカウントのアカウントタイプに固有の情報を指定します。

    場所アカウント」フィールドで選択したアカウントタイプに対応する、以下の節を続行します。

AEP データランディングゾーン

IMPORTANT
Customer Journey Analytics レポートをAdobe Experience Platform データランディングゾーンに書き出す場合は、7 日以内にデータをダウンロードし、AEP データランディングゾーンから削除してください。 7 日後、データはAEP データランディングゾーンから自動的に削除されます。
  1. 次のいずれかの方法で、クラウドの書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの 場所のプロパティ セクションで、次の情報を指定してAdobe Experience Platform Data Landing Zone の場所を設定します。

    table 0-row-2 1-row-2 2-row-2 layout-auto
    フィールド 関数
    接頭辞 データを配置するコンテナ内のフォルダー。静的フォルダー名を指定し、名前の後にスラッシュを追加してフォルダーを作成します。 例:folder_name/
    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的カスタムファイル名を指定します。 ファイル名の前に動的なカスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるので、ファイル名は予測可能で、論理的にフォルダーに整理されます。 例えば、ファイル名は配信日に従って名前を付け、その後、各月に対応するフォルダーに配置できます。

    動的にするには、ファイル名とパスに次の変数のいずれかを使用します。

    • {yyyy}: 4 桁のカレンダ年(大文字と小文字を区別)
    • {yy}: 2 桁の暦年(大文字と小文字を区別)
    • {MM}: 2 桁の月(大文字と小文字を区別)
    • {dd}:2 桁の日(大文字と小文字を区別)
    • {HH}: 2 桁の時間(大文字と小文字を区別)
    • {mm}: 2 桁の分(大文字と小文字を区別)
    • {ss}:2 桁の秒(大文字と小文字を区別)
    • {fff}: 3 桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト(インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}:インデックスは 0 から開始します(ファイルごとに増分されます)
    • {total}:転送ジョブ全体の合計ファイル数
    • {completion_millis}:転送時間(ミリ秒)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx} を指定した場合、2026 年 1 月 15 日に自動的にこの宛先に送信される書き出しには、[prefix_folder_name]/2026/01/15/my-report-[UUID]-1.csv というファイルパスと名前が付けられます

  3. 保存」を選択します。

  4. Analysis Workspaceから設定したアカウントと場所にデータを書き出せるようになりました。 クラウドにデータを書き出す方法については、​ クラウドへのプロジェクトデータの書き出し ​ を参照してください。

  5. AEP データランディングゾーンのデータにアクセスする最も簡単な方法は、Microsoft Azure ストレージエクスプローラーを使用することです。 ストレージエクスプローラーは、AEP Data Landing Zone アカウント ​ の設定手順で使用するツールと同じです。

    1. Microsoft Azure ストレージエクスプローラー ​ を開きます。

    2. ストレージアカウント/(添付コンテナ)/BLOB コンテナ/cjaexport-number/*** your_container_name ​***に移動します。

      note note
      NOTE
      フォルダー名 cjaexport-number​は、Azure ストレージエクスプローラーから提供されるデフォルトの名前です。 SAS URI に関連付けられている接続が 1 つのみ(通常)の場合、このフォルダーの名前は​ cjaexport-1 ​になります。

      Azure ストレージエクスプローラー内のファイルへのアクセス

    3. ダウンロードするエクスポートを選択してから、「ダウンロード」を選択してダウンロードします。

Amazon S3 Role ARN

  1. 次のいずれかの方法で、クラウドの書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの 場所のプロパティ セクションで、次の情報を指定してAmazon S3 Role ARN の場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 layout-auto
    フィールド 関数
    バケット

    Customer Journey Analytics データの送信先となるAmazon S3 アカウント内のバケット。

    Adobeから提供されたユーザー ARN に、このバケットにファイルをアップロードするための S3:PutObject 権限があることを確認します。

    バケット名は、特定の命名規則を満たす必要があります。例えば、3〜63 文字までの長さで、小文字、数字、ドット(.)、ハイフン(-)のみで構成でき、先頭と末尾は文字または数字にする必要があります。​ 命名規則の完全なリストについては、AWS ドキュメントを参照してください ​

    接頭辞 データを配置するバケット内のフォルダー。静的フォルダー名を指定し、名前の後にスラッシュを追加してフォルダーを作成します。 例:folder_name/
    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的カスタムファイル名を指定します。 ファイル名の前に動的なカスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるので、ファイル名は予測可能で、論理的にフォルダーに整理されます。 例えば、ファイル名は配信日に従って名前を付け、その後、各月に対応するフォルダーに配置できます。

    動的にするには、ファイル名とパスに次の変数のいずれかを使用します。

    • {yyyy}: 4 桁のカレンダ年(大文字と小文字を区別)
    • {yy}: 2 桁の暦年(大文字と小文字を区別)
    • {MM}: 2 桁の月(大文字と小文字を区別)
    • {dd}:2 桁の日(大文字と小文字を区別)
    • {HH}: 2 桁の時間(大文字と小文字を区別)
    • {mm}: 2 桁の分(大文字と小文字を区別)
    • {ss}:2 桁の秒(大文字と小文字を区別)
    • {fff}: 3 桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト(インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}:インデックスは 0 から開始します(ファイルごとに増分されます)
    • {total}:転送ジョブ全体の合計ファイル数
    • {completion_millis}:転送時間(ミリ秒)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx} を指定した場合、2026 年 1 月 15 日に自動的にこの宛先に送信される書き出しには、[prefix_folder_name]/2026/01/15/my-report-[UUID]-1.csv というファイルパスと名前が付けられます

  3. 保存」を選択します。

  4. Analysis Workspaceから設定したアカウントと場所にデータを書き出せるようになりました。 クラウドにデータを書き出す方法については、​ クラウドへのプロジェクトデータの書き出し ​ を参照してください。

Google Cloud Platform

  1. 次のいずれかの方法で、クラウドの書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの 場所のプロパティ セクションで、次の情報を指定してGoogle Cloud Platform の場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 layout-auto
    フィールド 関数
    バケット

    Customer Journey Analytics データを送信する GCP アカウント内のバケット。

    Adobeから提供されたプリンシパルに roles/storage.objectCreator 権限を付与していることを確認します。 (プリンシパルは、Google Cloud Platform アカウントの設定 ​ 時に提供されます。

    権限の付与について詳しくは、Google Cloud ドキュメントのバケットレベルのポリシーにプリンシパルを追加するを参照してください。

    組織が組織ポリシーの制約を使用して許可リスト内の Google Cloud Platform アカウントのみを許可している場合は、次のアドビ所有の Google Cloud Platform 組織 ID が必要です。

    • DISPLAY_NAMEadobe.com
    • ID178012854243
    • DIRECTORY_CUSTOMER_IDC02jo8puj
    接頭辞 データを配置するバケット内のフォルダー。静的フォルダー名を指定し、名前の後にスラッシュを追加してフォルダーを作成します。 例:folder_name/
    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的カスタムファイル名を指定します。 ファイル名の前に動的なカスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるので、ファイル名は予測可能で、論理的にフォルダーに整理されます。 例えば、ファイル名は配信日に従って名前を付け、その後、各月に対応するフォルダーに配置できます。

    動的にするには、ファイル名とパスに次の変数のいずれかを使用します。

    • {yyyy}: 4 桁のカレンダ年(大文字と小文字を区別)
    • {yy}: 2 桁の暦年(大文字と小文字を区別)
    • {MM}: 2 桁の月(大文字と小文字を区別)
    • {dd}:2 桁の日(大文字と小文字を区別)
    • {HH}: 2 桁の時間(大文字と小文字を区別)
    • {mm}: 2 桁の分(大文字と小文字を区別)
    • {ss}:2 桁の秒(大文字と小文字を区別)
    • {fff}: 3 桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト(インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}:インデックスは 0 から開始します(ファイルごとに増分されます)
    • {total}:転送ジョブ全体の合計ファイル数
    • {completion_millis}:転送時間(ミリ秒)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx} を指定した場合、2026 年 1 月 15 日に自動的にこの宛先に送信される書き出しには、[prefix_folder_name]/2026/01/15/my-report-[UUID]-1.csv というファイルパスと名前が付けられます

  3. 保存」を選択します。

  4. Analysis Workspaceから設定したアカウントと場所にデータを書き出せるようになりました。 クラウドにデータを書き出す方法については、​ クラウドへのプロジェクトデータの書き出し ​ を参照してください。

Azure SAS

  1. 次のいずれかの方法で、クラウドの書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの 場所のプロパティ セクションで、次の情報を指定してAzure SAS の場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 layout-auto
    フィールド 関数
    コンテナ名 Customer Journey Analytics データの送信先として指定したアカウント内のコンテナ。
    接頭辞

    データを配置するコンテナ内のフォルダー。静的フォルダー名を指定し、名前の後にスラッシュを追加してフォルダーを作成します。 例:folder_name/

    Azure SAS アカウントを設定する際に、Key Vault 秘密鍵名フィールドに指定した SAS トークンストアに Write 権限があることを確認します。これにより、SAS トークンで Azure コンテナにファイルを作成できます。

    SAS トークンでファイルも上書きする場合は、SAS トークンストアに Delete 権限があることを確認します。

    詳しくは、Azure Blob Storage ドキュメントの Blob Storage のリソースを参照してください。

    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的カスタムファイル名を指定します。 ファイル名の前に動的なカスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるので、ファイル名は予測可能で、論理的にフォルダーに整理されます。 例えば、ファイル名は配信日に従って名前を付け、その後、各月に対応するフォルダーに配置できます。

    動的にするには、ファイル名とパスに次の変数のいずれかを使用します。

    • {yyyy}: 4 桁のカレンダ年(大文字と小文字を区別)
    • {yy}: 2 桁の暦年(大文字と小文字を区別)
    • {MM}: 2 桁の月(大文字と小文字を区別)
    • {dd}:2 桁の日(大文字と小文字を区別)
    • {HH}: 2 桁の時間(大文字と小文字を区別)
    • {mm}: 2 桁の分(大文字と小文字を区別)
    • {ss}:2 桁の秒(大文字と小文字を区別)
    • {fff}: 3 桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト(インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}:インデックスは 0 から開始します(ファイルごとに増分されます)
    • {total}:転送ジョブ全体の合計ファイル数
    • {completion_millis}:転送時間(ミリ秒)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx} を指定した場合、2026 年 1 月 15 日に自動的にこの宛先に送信される書き出しには、[prefix_folder_name]/2026/01/15/my-report-[UUID]-1.csv というファイルパスと名前が付けられます

  3. 保存」を選択します。

  4. Analysis Workspaceから設定したアカウントと場所にデータを書き出せるようになりました。 クラウドにデータを書き出す方法については、​ クラウドへのプロジェクトデータの書き出し ​ を参照してください。

Azure RBAC

  1. 次のいずれかの方法で、クラウドの書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの 場所のプロパティ セクションで、次の情報を指定してAzure RBAC の場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto
    フィールド 関数
    コンテナ Customer Journey Analytics データの送信先として指定したアカウント内のコンテナ。 以前に作成した Azure アプリケーションにファイルをアップロードする権限を付与します。
    接頭辞

    データを配置するコンテナ内のフォルダー。静的フォルダー名を指定し、名前の後にスラッシュを追加してフォルダーを作成します。 例:folder_name/

    Azure RBAC アカウントの設定時に指定したアプリケーション ID に、コンテナ(フォルダー)にアクセスするための Storage Blob Data Contributor の役割が付与されていることを確認します。

    詳しくは、Azure のビルトインの役割を参照してください。

    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的カスタムファイル名を指定します。 ファイル名の前に動的なカスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるので、ファイル名は予測可能で、論理的にフォルダーに整理されます。 例えば、ファイル名は配信日に従って名前を付け、その後、各月に対応するフォルダーに配置できます。

    動的にするには、ファイル名とパスに次の変数のいずれかを使用します。

    • {yyyy}: 4 桁のカレンダ年(大文字と小文字を区別)
    • {yy}: 2 桁の暦年(大文字と小文字を区別)
    • {MM}: 2 桁の月(大文字と小文字を区別)
    • {dd}:2 桁の日(大文字と小文字を区別)
    • {HH}: 2 桁の時間(大文字と小文字を区別)
    • {mm}: 2 桁の分(大文字と小文字を区別)
    • {ss}:2 桁の秒(大文字と小文字を区別)
    • {fff}: 3 桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト(インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}:インデックスは 0 から開始します(ファイルごとに増分されます)
    • {total}:転送ジョブ全体の合計ファイル数
    • {completion_millis}:転送時間(ミリ秒)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx} を指定した場合、2026 年 1 月 15 日に自動的にこの宛先に送信される書き出しには、[prefix_folder_name]/2026/01/15/my-report-[UUID]-1.csv というファイルパスと名前が付けられます

    アカウント Azure ストレージアカウント。
  3. 保存」を選択します。

  4. Analysis Workspaceから設定したアカウントと場所にデータを書き出せるようになりました。 クラウドにデータを書き出す方法については、​ クラウドへのプロジェクトデータの書き出し ​ を参照してください。

Snowflake

  1. 次のいずれかの方法で、クラウドの書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの 場所のプロパティ セクションで、次の情報を指定してSnowflakeの場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto
    フィールド 関数
    DB

    既存のデータベースを指定してください。 作成した役割には、このデータベースにアクセスするための権限が必要です。

    これは、ステージ名に関連付けられたデータベースです。

    このロール権限をSnowflakeのデータベースに付与するには、次のコマンドを使用します。GRANT USAGE ON DATABASE <your_database> TO ROLE <your_role>;

    詳しくは、Snowflake ドキュメントのデータベース、スキーマ、共有コマンドのページ ​ を参照してください。

    スキーマ

    既存のスキーマを指定する必要があります。 作成した役割には、このスキーマにアクセスするための権限が必要です。

    これは、ステージ名に関連付けられたスキーマです。

    作成したロールに、次のコマンドを使用してSnowflakeのスキーマに権限を付与できます。GRANT USAGE ON SCHEMA <your_database>.<your_schema> TO ROLE <your_role>;

    詳しくは、Snowflake ドキュメントのデータベース、スキーマ、共有コマンドのページ ​ を参照してください。

    ステージ名

    データファイルがSnowflakeに保存される内部ステージの名前。

    アカウントで指定した役割に、このステージ名への読み取りおよび書き込みアクセス権があることを確認してください。 (読み取りおよび書き込みアクセス権を付与するので、Adobeでのみ使用するステージを使用することをお勧めします。)

    次のコマンドを使用して、Snowflakeのステージ名に読み取りおよび書き込みアクセス権を付与できます。GRANT READ, WRITE ON STAGE <your_database>.<your_schema>.<your_stage_name> TO ROLE <your_role>;

    ロールへの権限の付与について詳しくは、Snowflake ドキュメントの権限の付与 ​ を参照してください。

    ステージ名について詳しくは、Snowflake ドキュメントのローカルファイルの内部ステージの選択 ​ を参照してください。

    ステージパス

    データファイルがSnowflakeに保存される場所のパス。

    詳しくは、Snowflake ドキュメントのローカルファイルの内部ステージの選択 ​ を参照してください。

  3. 保存」を選択します。

  4. Analysis Workspaceから設定したアカウントと場所にデータを書き出せるようになりました。 クラウドにデータを書き出す方法については、​ クラウドへのプロジェクトデータの書き出し ​ を参照してください。

recommendation-more-help
080e5213-7aa2-40d6-9dba-18945e892f79