データを取得 ingest-data
Adobe Experience Platform を使用すると、データを外部ソースから取得しながら、Experience Platform サービスを使用して、受信データの構造化、ラベル付け、拡張を行うことができます。アドビのアプリケーション、クラウドベースのストレージ、データベースなど、様々なソースからデータを取り込むことができます。
データセットは、スキーマ(列)とフィールド(行)で構成されるデータコレクション(通常はテーブル)を格納し管理するための構造です。Experience Platform に正常に取り込まれたデータは、データレイク内にデータセットとして保存されます。
調整されたキャンペーンでサポートされるソース supported
調整されたキャンペーンでは、次のソースの使用がサポートされています。
モデルベースのスキーマデータハイジーンのガイドライン cdc
データキャプチャを変更が有効になっているデータセットの場合、削除を含むすべてのデータ変更がソースシステムから Adobe Experience Platform に自動的にミラーリングされます。
Adobe Journey Optimizer キャンペーンでは、すべてのオンボードデータセットで データキャプチャを変更 を有効にする必要があるので、ソースでの削除の管理はお客様の責任となります。ソースシステムから削除したレコードは、Adobe Experience Platform の対応するデータセットから自動的に削除されます。
ファイルベースの取り込みを使用してレコードを削除するには、お客様のデータファイルで、「Change Request Type」フィールドの D 値を使用してレコードをマークする必要があります。これは、ソースシステムをミラーリングして、Adobe Experience Platform でレコードを削除する必要があることを示します。
元のソースデータに影響を与えずに Adobe Experience Platform からのみレコードを削除する場合は、次のオプションを使用できます。
- 
                  
データキャプチャを変更レプリケーション用のプロキシまたはサニタイズされたテーブル
お客様は、プロキシまたはサニタイズされたソーステーブルを作成して、Adobe Experience Platform にレプリケートされるレコードを制御できます。その後、この中間テーブルから削除を選択的に管理できます。
 - 
                  
Data Distiller 経由での削除
ライセンスが付与されている場合、Data Distiller を使用して、ソースシステムに依存せずに、Adobe Experience Platform 内で直接削除操作をサポートできます。
 
データフローの設定
この例では、構造化データを Adobe Experience Platform に取り込むデータフローの設定方法を示します。設定したデータフローは、自動化されたスケジュール済みの取り込みをサポートし、リアルタイムの更新ができるようになります。
- 
                  
接続メニューから、ソースメニューにアクセスします。
 - 
                  
調整されたキャンペーンでサポートされているソースに応じてソースを選択します。
                     - 
                  
クラウドベースのソースを選択した場合は、クラウドストレージまたは Google Cloud Storage アカウントを接続します。
                     - 
                  
Adobe Experience Platform に取り込むデータを選択します。
                     - 
                  
データセットの詳細ページで、「変更データキャプチャを有効にする」をオンにすると、モデルベースのスキーマにマッピングされ、プライマリキーとバージョン記述子の両方が含まれるデータセットのみが表示されます。
 
モデルベースのスキーマのデータハイジーンに関するガイドラインの詳細情報
U(アップサート)または D(削除)の _change_request_type 列を含める必要があります。この列がないと、システムはデータが変更トラッキングをサポートしていると認識せず、調整されたキャンペーンの切替スイッチが表示されず、データセットがターゲティング用に選択されなくなります。
          
          
- 
                  
以前に作成したデータセットを選択し、「次へ」をクリックします。
                     - 
                  
ファイルベースのソースのみを使用している場合は、データを選択ウィンドウからローカルファイルをアップロードし、その構造とコンテンツをプレビューします。
サポートされる最大サイズは 100 MB です。
 - 
                  
マッピングウィンドウで、各ソースファイル属性がターゲットスキーマの対応するフィールドに正しくマッピングされていることを確認します。ターゲティングディメンションの詳細情報を参照してください。
完了したら、「次へ」をクリックします。
                     - 
                  
目的の頻度に基づいてデータフローの スケジュール を設定します。
 - 
                  
「終了」をクリックしてデータフローを作成します。定義したスケジュールに従って自動的に実行されます。
 - 
                  
接続メニューから「ソース」を選択し、「データフロー」タブにアクセスして、フローの実行を追跡し、取得されたレコードを確認し、エラーをトラブルシューティングします。