データを取得 ingest-data
Adobe Experience Platform を使用すると、データを外部ソースから取得しながら、Experience Platform サービスを使用して、受信データの構造化、ラベル付け、拡張を行うことができます。アドビのアプリケーション、クラウドベースのストレージ、データベースなど、様々なソースからデータを取り込むことができます。
データセットは、スキーマ(列)とフィールド(行)で構成されるデータコレクション(通常はテーブル)を格納し管理するための構造です。Experience Platform に正常に取り込まれたデータは、データレイク内にデータセットとして保存されます。
調整されたキャンペーンでサポートされるソース supported
調整されたキャンペーンでは、次のソースの使用がサポートされています。
リレーショナルスキーマデータハイジーンのガイドライン cdc
データキャプチャを変更 が有効になっているデータセットの場合、削除を含むすべてのデータ変更がソースシステムから Adobe Experience Platform に自動的にミラーリングされます。
Adobe Journey Optimizer キャンペーンでは、すべてのオンボードデータセットで データキャプチャを変更 を有効にする必要があるので、ソースでの削除の管理はお客様の責任となります。ソースシステムから削除したレコードは、Adobe Experience Platform の対応するデータセットから自動的に削除されます。
ファイルベースの取り込みを使用してレコードを削除するには、お客様のデータファイルで、「Change Request Type
」フィールドの D
値を使用してレコードをマークする必要があります。これは、ソースシステムをミラーリングして、Adobe Experience Platform でレコードを削除する必要があることを示します。
元のソースデータに影響を与えずに Adobe Experience Platform からのみレコードを削除する場合は、次のオプションを使用できます。
-
データキャプチャを変更レプリケーション用のプロキシまたはサニタイズされたテーブル
お客様は、プロキシまたはサニタイズされたソーステーブルを作成して、Adobe Experience Platform にレプリケートされるレコードを制御できます。その後、この中間テーブルから削除を選択的に管理できます。
-
Data Distiller 経由での削除
ライセンスが付与されている場合、Data Distiller を使用して、ソースシステムに依存せずに、Adobe Experience Platform 内で直接削除操作をサポートできます。
データフローの設定
この例では、構造化データを Adobe Experience Platform に取り込むデータフローの設定方法を示します。設定したデータフローは、自動化されたスケジュール済みの取り込みをサポートし、リアルタイムの更新ができるようになります。
-
接続 メニューから、ソース メニューにアクセスします。
-
調整されたキャンペーンでサポートされているソースに応じてソースを選択します。
-
クラウドベースのソースを選択した場合は、クラウドストレージまたは Google Cloud Storage アカウントを接続します。
-
Adobe Experience Platform に取り込むデータを選択します。
-
データセットの詳細 ページで、「変更データキャプチャを有効にする」をオンにすると、リレーショナルスキーマにマッピングされ、プライマリキーとバージョン記述子の両方が含まれるデータセットのみが表示されます。
リレーショナルスキーマのデータハイジーンに関するガイドラインの詳細情報
U
(アップサート)または D
(削除)の _change_request_type
列を含める必要があります。この列がないと、システムはデータが変更トラッキングをサポートしていると認識せず、調整されたキャンペーンの切替スイッチが表示されず、データセットがターゲティング用に選択されなくなります。
-
以前に作成したデータセットを選択し、「次へ」をクリックします。
-
ファイルベースのソースのみを使用している場合は、データを選択 ウィンドウからローカルファイルをアップロードし、その構造とコンテンツをプレビューします。
サポートされる最大サイズは 100 MB です。
-
マッピング ウィンドウで、各ソースファイル属性がターゲットスキーマの対応するフィールドに正しくマッピングされていることを確認します。ターゲティングディメンションの詳細情報を参照してください。
完了したら、「次へ」をクリックします。
-
目的の頻度に基づいてデータフローの スケジュール を設定します。
-
「終了」をクリックしてデータフローを作成します。定義したスケジュールに従って自動的に実行されます。
-
接続 メニューから「ソース」を選択し、「データフロー」タブにアクセスして、フローの実行を追跡し、取得されたレコードを確認し、エラーをトラブルシューティングします。