クラウドの書き出し場所の設定 configure-cloud-export-locations

Customer Journey Analytics レポートをクラウドの宛先(Analysis WorkspaceまたはReport Builderから)に書き出す前に、データを送信する場所を追加して設定する必要があります。 このプロセスは次の要素で構成されます。

  1. ​ クラウドエクスポートアカウントの設定の説明に従って、アカウント(Amazon S3、Google Cloud Platformなど)を追加および設定する

  2. この記事で説明されているように、そのアカウント内の場所(アカウント内のフォルダーなど)を追加および設定します。

場所の表示、編集、削除など、既存の場所を管理する方法について詳しくは、​ クラウド書き出し場所とアカウントの管理を参照してください。

クラウド書き出し場所の作成を開始

  1. 場所を追加する前に、アカウントを追加する必要があります。 まだアカウントを追加していない場合は、​ クラウド書き出しアカウントの設定の説明に従ってアカウントを追加します。

  2. Customer Journey Analyticsで、コンポーネント/書き出し​を選択します。

  3. 場所」タブを選択し、「場所を追加」を選択します。

    場所を追加ボタンを強調表示する「場所」タブが選択された状態でウィンドウを書き出す

    または

    場所アカウント」タブを選択し、場所を追加する既存のアカウントの3点アイコンを選択してから、場所を追加​を選択します。

    GCP アカウントと省略記号ドロップダウンメニューに「場所を追加」が選択されている

    場所ダイアログが表示されます。

  4. 次の情報を指定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2
    フィールド 関数
    名前 場所の名前。
    説明 アカウント上の他の場所と区別するために、場所の簡単な説明を提供します。
    組織内のすべてのユーザーが場所を利用できるようにします

    このオプションを有効にすると、組織内の他のユーザーがこの場所を使用できるようになります。

    場所を共有する場合は、次の点を考慮してください。

    • 共有している場所は共有を解除できません。
    • 共有場所は、場所の所有者のみが編集できます。
    • 場所を共有できるのは、場所が関連付けられているアカウントも共有されている場合のみです。
    場所アカウント 場所を作成するアカウントを選択します。 アカウントの作成方法について詳しくは、​ クラウド書き出しアカウントの設定を参照してください。
  5. Adobe Analytics の「場所のプロパティ」セクションで、場所アカウントのアカウントタイプに固有の情報を指定します。

    場所アカウント フィールドで選択したアカウントタイプに対応する以下のセクションに進みます。

AEP データランディングゾーン

IMPORTANT
Customer Journey Analytics レポートをAdobe Experience Platform Data Landing Zoneに書き出す場合は、7日以内にデータをダウンロードしてから、AEP Data Landing Zoneから削除してください。 7日後、データはAEP Data Landing Zoneから自動的に削除されます。
  1. 次のいずれかの方法で、クラウド書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの​場所プロパティ セクションで、次の情報を指定してAdobe Experience Platform データランディングゾーンの場所を設定します。

    table 0-row-2 1-row-2 2-row-2 layout-auto
    フィールド 関数
    接頭辞 データを配置するコンテナ内のフォルダー。静的なフォルダー名を指定してから、名前の後にスラッシュを追加してフォルダーを作成します。例:folder_name/
    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的なカスタムファイル名を指定します。 ファイル名の前に動的カスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるため、ファイル名は予測可能であり、フォルダーに論理的に整理されます。 例えば、ファイル名は配達日に応じて名前を付け、各月に対応するフォルダーに配置することができます。

    ファイル名とパスで次のいずれかの変数を使用して、動的にします。

    • {yyyy}: 4桁の暦年(大文字と小文字を区別)
    • {yy}: 2桁の暦年(大文字と小文字を区別)
    • {MM}: 2桁の月(大文字と小文字を区別)
    • {dd}: 2桁の日(大文字と小文字を区別)
    • {HH}: 2桁の時間(大文字と小文字を区別)
    • {mm}: 2桁の分(大文字と小文字を区別)
    • {ss}: 2桁の秒(大文字と小文字を区別)
    • {fff}: 3桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト (インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}: インデックスは0から始まります(各ファイルごとに増分)
    • {total}:転送ジョブ全体の合計ファイル番号
    • {completion_millis}:転送時間(ミリ秒単位)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx}を指定した場合、2026年1月15日にこの宛先に自動的に送信される書き出しには、次のファイルパスと名前が含まれます。[prefix_folder_name]/2026/01/15/my-report-[UID]-1.csv

  3. 保存」を選択します。

  4. Analysis Workspaceから、設定したアカウントと場所にデータを書き出せるようになりました。 データをクラウドにエクスポートする方法について詳しくは、​ プロジェクトデータをクラウドにエクスポート ​を参照してください。

  5. AEP Data Landing Zoneのデータにアクセスする最も簡単な方法は、Microsoft Azure Storage Explorerを使用することです。 Storage Explorerは、AEP Data Landing Zone アカウント ​の設定手順で使用されるものと同じツールです。

    1. Microsoft Azure Storage Explorerを開きます。

    2. ストレージアカウント > (添付コンテナ) > Blob Containers > cjaexport-number>*** your_container_name ​***に移動します。

      note note
      NOTE
      フォルダー名​ cjaexport-number ​は、Azure Storage Explorerが提供するデフォルトの名前です。 SAS URIに関連付けられた接続が1つしかない場合(通常の場合)、このフォルダーの名前は​ cjaexport-1 ​になります。

      Azure ストレージエクスプローラーのファイルにアクセス

    3. ダウンロードする書き出しを選択し、ダウンロード​を選択してダウンロードします。

Amazon S3 Role ARN

  1. 次のいずれかの方法で、クラウド書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの​場所プロパティ セクションで、次の情報を指定してAmazon S3 ロール ARNの場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 layout-auto
    フィールド 関数
    バケット

    Customer Journey Analytics データを送信するAmazon S3 アカウント内のバケット。

    このバケットにファイルをアップロードするには、Adobeから提供されたユーザーARNにS3:PutObject権限があることを確認してください。

    バケット名は、特定の命名規則を満たす必要があります。例えば、3〜63 文字までの長さで、小文字、数字、ドット(.)、ハイフン(-)のみで構成でき、先頭と末尾は文字または数字にする必要があります。命名規則の完全なリストについては、AWSのドキュメント ​を参照してください。

    接頭辞 データを配置するバケット内のフォルダー。静的なフォルダー名を指定してから、名前の後にスラッシュを追加してフォルダーを作成します。例:folder_name/
    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的なカスタムファイル名を指定します。 ファイル名の前に動的カスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるため、ファイル名は予測可能であり、フォルダーに論理的に整理されます。 例えば、ファイル名は配達日に応じて名前を付け、各月に対応するフォルダーに配置することができます。

    ファイル名とパスで次のいずれかの変数を使用して、動的にします。

    • {yyyy}: 4桁の暦年(大文字と小文字を区別)
    • {yy}: 2桁の暦年(大文字と小文字を区別)
    • {MM}: 2桁の月(大文字と小文字を区別)
    • {dd}: 2桁の日(大文字と小文字を区別)
    • {HH}: 2桁の時間(大文字と小文字を区別)
    • {mm}: 2桁の分(大文字と小文字を区別)
    • {ss}: 2桁の秒(大文字と小文字を区別)
    • {fff}: 3桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト (インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}: インデックスは0から始まります(各ファイルごとに増分)
    • {total}:転送ジョブ全体の合計ファイル番号
    • {completion_millis}:転送時間(ミリ秒単位)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx}を指定した場合、2026年1月15日にこの宛先に自動的に送信される書き出しには、次のファイルパスと名前が含まれます。[prefix_folder_name]/2026/01/15/my-report-[UID]-1.csv

  3. 保存」を選択します。

  4. Analysis Workspaceから、設定したアカウントと場所にデータを書き出せるようになりました。 データをクラウドにエクスポートする方法について詳しくは、​ プロジェクトデータをクラウドにエクスポート ​を参照してください。

Google Cloud Platform

  1. 次のいずれかの方法で、クラウド書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの​場所プロパティ セクションで、次の情報を指定してGoogle Cloud Platformの場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 layout-auto
    フィールド 関数
    バケット

    Customer Journey Analytics データを送信するGCP アカウント内のバケット。

    Adobeが提供するプリンシパルにroles/storage.objectCreator権限を付与していることを確認してください。 (プリンシパルは、Google Cloud Platform アカウントの設定時に提供されます)。

    権限の付与について詳しくは、Google Cloud ドキュメントのバケットレベルのポリシーにプリンシパルを追加するを参照してください。

    組織が組織ポリシーの制約を使用して許可リスト内の Google Cloud Platform アカウントのみを許可している場合は、次のアドビ所有の Google Cloud Platform 組織 ID が必要です。

    • DISPLAY_NAMEadobe.com
    • ID178012854243
    • DIRECTORY_CUSTOMER_IDC02jo8puj
    接頭辞 データを配置するバケット内のフォルダー。静的なフォルダー名を指定してから、名前の後にスラッシュを追加してフォルダーを作成します。例:folder_name/
    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的なカスタムファイル名を指定します。 ファイル名の前に動的カスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるため、ファイル名は予測可能であり、フォルダーに論理的に整理されます。 例えば、ファイル名は配達日に応じて名前を付け、各月に対応するフォルダーに配置することができます。

    ファイル名とパスで次のいずれかの変数を使用して、動的にします。

    • {yyyy}: 4桁の暦年(大文字と小文字を区別)
    • {yy}: 2桁の暦年(大文字と小文字を区別)
    • {MM}: 2桁の月(大文字と小文字を区別)
    • {dd}: 2桁の日(大文字と小文字を区別)
    • {HH}: 2桁の時間(大文字と小文字を区別)
    • {mm}: 2桁の分(大文字と小文字を区別)
    • {ss}: 2桁の秒(大文字と小文字を区別)
    • {fff}: 3桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト (インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}: インデックスは0から始まります(各ファイルごとに増分)
    • {total}:転送ジョブ全体の合計ファイル番号
    • {completion_millis}:転送時間(ミリ秒単位)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx}を指定した場合、2026年1月15日にこの宛先に自動的に送信される書き出しには、次のファイルパスと名前が含まれます。[prefix_folder_name]/2026/01/15/my-report-[UID]-1.csv

  3. 保存」を選択します。

  4. Analysis Workspaceから、設定したアカウントと場所にデータを書き出せるようになりました。 データをクラウドにエクスポートする方法について詳しくは、​ プロジェクトデータをクラウドにエクスポート ​を参照してください。

Azure SAS

  1. 次のいずれかの方法で、クラウド書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの​場所プロパティ セクションで、次の情報を指定してAzure SASの場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 layout-auto
    フィールド 関数
    コンテナ名 Customer Journey Analytics データを送信する場所を指定したアカウント内のコンテナ。
    接頭辞

    データを配置するコンテナ内のフォルダー。静的なフォルダー名を指定してから、名前の後にスラッシュを追加してフォルダーを作成します。例:folder_name/

    Azure SAS アカウントを設定する際に、Key Vault 秘密鍵名フィールドに指定した SAS トークンストアに Write 権限があることを確認します。これにより、SAS トークンで Azure コンテナにファイルを作成できます。

    SAS トークンでファイルも上書きする場合は、SAS トークンストアに Delete 権限があることを確認します。

    詳しくは、Azure Blob Storage ドキュメントの Blob Storage のリソースを参照してください。

    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的なカスタムファイル名を指定します。 ファイル名の前に動的カスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるため、ファイル名は予測可能であり、フォルダーに論理的に整理されます。 例えば、ファイル名は配達日に応じて名前を付け、各月に対応するフォルダーに配置することができます。

    ファイル名とパスで次のいずれかの変数を使用して、動的にします。

    • {yyyy}: 4桁の暦年(大文字と小文字を区別)
    • {yy}: 2桁の暦年(大文字と小文字を区別)
    • {MM}: 2桁の月(大文字と小文字を区別)
    • {dd}: 2桁の日(大文字と小文字を区別)
    • {HH}: 2桁の時間(大文字と小文字を区別)
    • {mm}: 2桁の分(大文字と小文字を区別)
    • {ss}: 2桁の秒(大文字と小文字を区別)
    • {fff}: 3桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト (インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}: インデックスは0から始まります(各ファイルごとに増分)
    • {total}:転送ジョブ全体の合計ファイル番号
    • {completion_millis}:転送時間(ミリ秒単位)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx}を指定した場合、2026年1月15日にこの宛先に自動的に送信される書き出しには、次のファイルパスと名前が含まれます。[prefix_folder_name]/2026/01/15/my-report-[UID]-1.csv

  3. 保存」を選択します。

  4. Analysis Workspaceから、設定したアカウントと場所にデータを書き出せるようになりました。 データをクラウドにエクスポートする方法について詳しくは、​ プロジェクトデータをクラウドにエクスポート ​を参照してください。

Azure RBAC

  1. 次のいずれかの方法で、クラウド書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの​場所プロパティ セクションで、次の情報を指定してAzure RBACの場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto
    フィールド 関数
    コンテナ Customer Journey Analytics データを送信する場所を指定したアカウント内のコンテナ。 以前に作成した Azure アプリケーションにファイルをアップロードする権限を付与します。
    接頭辞

    データを配置するコンテナ内のフォルダー。静的なフォルダー名を指定してから、名前の後にスラッシュを追加してフォルダーを作成します。例:folder_name/

    Azure RBAC アカウントの設定時に指定したアプリケーション ID に、コンテナ(フォルダー)にアクセスするための Storage Blob Data Contributor の役割が付与されていることを確認します。

    詳しくは、Azure のビルトインの役割を参照してください。

    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的なカスタムファイル名を指定します。 ファイル名の前に動的カスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるため、ファイル名は予測可能であり、フォルダーに論理的に整理されます。 例えば、ファイル名は配達日に応じて名前を付け、各月に対応するフォルダーに配置することができます。

    ファイル名とパスで次のいずれかの変数を使用して、動的にします。

    • {yyyy}: 4桁の暦年(大文字と小文字を区別)
    • {yy}: 2桁の暦年(大文字と小文字を区別)
    • {MM}: 2桁の月(大文字と小文字を区別)
    • {dd}: 2桁の日(大文字と小文字を区別)
    • {HH}: 2桁の時間(大文字と小文字を区別)
    • {mm}: 2桁の分(大文字と小文字を区別)
    • {ss}: 2桁の秒(大文字と小文字を区別)
    • {fff}: 3桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト (インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}: インデックスは0から始まります(各ファイルごとに増分)
    • {total}:転送ジョブ全体の合計ファイル番号
    • {completion_millis}:転送時間(ミリ秒単位)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx}を指定した場合、2026年1月15日にこの宛先に自動的に送信される書き出しには、次のファイルパスと名前が含まれます。[prefix_folder_name]/2026/01/15/my-report-[UID]-1.csv

    アカウント Azure ストレージアカウント。
  3. 保存」を選択します。

  4. Analysis Workspaceから、設定したアカウントと場所にデータを書き出せるようになりました。 データをクラウドにエクスポートする方法について詳しくは、​ プロジェクトデータをクラウドにエクスポート ​を参照してください。

Snowflake

  1. 次のいずれかの方法で、クラウド書き出し場所の作成を開始します。

  2. 場所を追加 ダイアログボックスの​場所プロパティ セクションで、次の情報を指定してSnowflakeの場所を設定します。

    table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 layout-auto
    フィールド 関数
    DB

    指定されたデータベースは、既存のデータベースである必要があります。 作成した役割には、このデータベースにアクセスするための権限が必要です。

    これは、ステージ名に関連付けられたデータベースです。

    次のコマンドを使用して、Snowflakeのデータベースにこのロール権限を付与できます:GRANT USAGE ON DATABASE <your_database> TO ROLE <your_role>;

    詳しくは、Snowflake ドキュメント の「Database, Schema, and Share Commands」ページを参照してください。

    スキーマ

    指定されたスキーマは既存のスキーマである必要があります。 作成した役割には、このスキーマにアクセスするための権限が必要です。

    これは、ステージ名に関連付けられたスキーマです。

    次のコマンドを使用して、Snowflakeのスキーマに権限を作成したロールを付与できます:GRANT USAGE ON SCHEMA <your_database>.<your_schema> TO ROLE <your_role>;

    詳しくは、Snowflake ドキュメント の「Database, Schema, and Share Commands」ページを参照してください。

    ステージ名

    データファイルがSnowflakeに保存される内部ステージの名前。

    アカウントで指定した役割に、このステージ名への読み取りおよび書き込みアクセス権があることを確認します。 (読み取りと書き込みのアクセス権を付与しているので、Adobeでのみ使用されるステージを使用することをお勧めします)。

    次のコマンドを使用して、Snowflakeのステージ名に読み取りアクセス権と書き込みアクセス権を付与できます:GRANT READ, WRITE ON STAGE <your_database>.<your_schema>.<your_stage_name> TO ROLE <your_role>;

    ロールに権限を付与する方法について詳しくは、Snowflake ドキュメントの権限の付与を参照してください。

    ステージ名について詳しくは、Snowflake ドキュメント の「 ローカルファイルの内部ステージの選択」ページを参照してください。

    ステージパス

    Snowflakeに保存されているデータファイルの場所へのパス。

    詳しくは、Snowflake ドキュメント の「 ローカルファイルの内部ステージの選択」ページを参照してください。

    ファイル名とパス

    この場所に送信される自動書き出しに使用する動的なカスタムファイル名を指定します。 ファイル名の前に動的カスタムファイルパスを付けることもできます。

    このオプションを使用すると、ファイル名の作成とフォルダーの配置を自動化できるため、ファイル名は予測可能であり、フォルダーに論理的に整理されます。 例えば、ファイル名は配達日に応じて名前を付け、各月に対応するフォルダーに配置することができます。

    ファイル名とパスで次のいずれかの変数を使用して、動的にします。

    • {yyyy}: 4桁の暦年(大文字と小文字を区別)
    • {yy}: 2桁の暦年(大文字と小文字を区別)
    • {MM}: 2桁の月(大文字と小文字を区別)
    • {dd}: 2桁の日(大文字と小文字を区別)
    • {HH}: 2桁の時間(大文字と小文字を区別)
    • {mm}: 2桁の分(大文字と小文字を区別)
    • {ss}: 2桁の秒(大文字と小文字を区別)
    • {fff}: 3桁のナノ秒(大文字と小文字を区別)
    • {instance_id}: リクエスト (インスタンス) UUID
    • {export_id}:書き出し(スケジュール) UUID
    • {idx}: インデックスは0から始まります(各ファイルごとに増分)
    • {total}:転送ジョブ全体の合計ファイル番号
    • {completion_millis}:転送時間(ミリ秒単位)

    例えば、${yyyy}/${MM}/${dd}/my-report-${instance_id} -${idx}を指定した場合、2026年1月15日にこの宛先に自動的に送信される書き出しには、次のファイルパスと名前が含まれます。[prefix_folder_name]/2026/01/15/my-report-[UID]-1.csv

  3. 保存」を選択します。

  4. Analysis Workspaceから、設定したアカウントと場所にデータを書き出せるようになりました。 データをクラウドにエクスポートする方法について詳しくは、​ プロジェクトデータをクラウドにエクスポート ​を参照してください。

recommendation-more-help
080e5213-7aa2-40d6-9dba-18945e892f79