[ベータ版]{class="badge informative"}
UI での Acxiom Data Ingestion ソース接続とデータフローの作成
Acxiom Data Ingestion ソースを使用すると、Acxiom データをReal-time Customer Data Platformに取り込み、ファーストパーティプロファイルを強化できます。 その後、エンリッチメントされ Acxiom ファーストパーティプロファイルを使用して、オーディエンスを向上させ、すべてのマーケティングチャネルをアクティブ化できます。
Adobe Experience Platform ユーザーインターフェイスを使用して Acxiom Data Ingestion ソース接続とデータフローを作成する方法については、このチュートリアルをお読みください。 Acxiom Data Ingestion ソースは、Amazon S3 をドロップポイントとして使用 Acxiom て、機能強化サービスから応答を取得してマッピングするために使用されます。
前提条件 prerequisites
このチュートリアルは、 Experience Platform の次のコンポーネントを実際に利用および理解しているユーザーを対象としています。
-
Experience Data Model (XDM) システム:Experience Platform が顧客体験データの整理に使用する標準化されたフレームワーク。
- スキーマ構成の基本:スキーマ構成の主要な原則やベストプラクティスなど、XDM スキーマの基本的な構成要素について学びます。
- スキーマエディターのチュートリアル:スキーマエディター UI を使用してカスタムスキーマを作成する方法を説明します。
-
Real-Time Customer Profile:複数のソースからの集計データに基づいて、統合されたリアルタイムの顧客プロファイルを提供します。
必要な資格情報の収集
Experience Platformのバケットにアクセスするには、次の資格情報に対して有効な値を指定する必要があります。
Acxiom アカウントの接続
Platform の UI で、左側のナビゲーションバーで「Sources」を選択し、Sources のワークスペースにアクセスします。カタログ画面には、アカウントを作成できる様々なソースが表示されます。
画面の左側にあるカタログから適切なカテゴリを選択することができます。または、使用する特定のソースを検索オプションを使用して探すこともできます。
Data & Identity Partners カテゴリで、「Acxiom データ取り込み」、「設定」の順に選択します。
新しいアカウントを作成
新しい資格情報を使用している場合は、「新しいアカウント」を選択します。表示される入力フォームで、名前、説明(オプション)、Acxiom 資格情報を入力します。 終了したら「ソースに接続」を選択し、新しい接続が確立されるまでしばらく待ちます。
既存のアカウントを使用
既存のアカウントを使用するには、「既存のアカウント」を選択します。
リストからアカウントを選択して、そのアカウントの詳細を表示します。 アカウントを選択したら、「次へ」を選択して続行します。
データを選択
取り込むファイルを目的のバケットおよびサブディレクトリから選択します。 区切り文字と圧縮タイプを定義したら、データのプレビューを指定できます。 ファイルを選択したら、「次へ」を選択して続行します。
。
データセットとデータフローの詳細の指定
次に、データセットとデータフローに関する情報を指定する必要があります。
データセットの詳細
データセットは、スキーマ(列)とフィールド(行)で構成されるデータコレクション(通常はテーブル)を格納し管理するための構造です。Experience Platformに正常に取り込まれたデータは、データレイク内にデータセットとして保持されます。 新しいデータセットを使用するには、「新しいデータセット」を選択します。
table 0-row-2 1-row-2 2-row-2 3-row-2 | |
---|---|
新しいデータセットの詳細 | 説明 |
出力データセット名 | 新しいデータセットの名前。 |
説明 | (任意)データセットの目的の簡単な説明。 |
スキーマ | 組織に存在するスキーマのドロップダウンリスト。 ソース設定プロセスの前に、独自のスキーマを作成することもできます。 詳しくは、UI でのスキーマの作成に関するガイドを参照してください。 |
既存のデータセットを使用するには、「既存のデータセット」を選択します。
詳細検索 を選択すると、組織のすべてのデータセットを示すウィンドウが表示されます。これには、リアルタイム顧客プロファイルに取り込むことができるかどうかなど、それぞれの詳細が含まれます。
データセットがリアルタイム顧客プロファイルに対して有効になっている場合、この手順の間に プロファイルデータセット を切り替えて、プロファイル取り込み用のデータを有効にすることができます。 また、この手順を使用して、エラー診断 および 部分取り込み を有効にすることもできます。
- エラー診断: エラー診断 を選択して、データセットアクティビティとデータフローステータスを監視する際に後で参照できるエラー診断を生成するようにソースに指示します。
- 部分取り込み:部分バッチ取り込みは、設定可能な特定のしきい値まで、エラーを含んだデータを取り込む機能です。 この機能を使用すると、正確なデータをすべてExperience Platformに正常に取り込みながら、不正なデータがすべて無効な理由に関する情報と共に個別にバッチ処理されます。
データフローの詳細
データセットを設定したら、名前、説明(オプション)、アラート設定など、データフローの詳細を指定する必要があります。
Experience Platformは、ユーザーが購読できるイベントベースのアラートを作成でき、これらのオプションは、これらをトリガーにする実行中のデータフローです。 詳しくは、 アラートの概要を参照してください
- ソースデータフロー実行開始:データフロー実行が開始したときに通知を受け取るには、このアラートを選択します。
- ソースデータフロー実行成功:データフローがエラーなく終了した場合に通知を受け取るには、このアラートを選択します。
- ソースデータフロー実行の失敗:データフローの実行がエラーで終了した場合に通知を受け取るには、このアラートを選択します。
マッピング
マッピングインターフェイスを使用して、データをExperience Platformに取り込む前に、ソースデータを適切なスキーマフィールドにマッピングします。 詳しくは、UI の マッピングガイドを参照してください。
データフロー取り込みのスケジュール
次に、スケジュールインターフェイスを使用して、データフローの取り込みスケジュールを定義します。
頻度を設定して、データフローの実行頻度を示します。 頻度は次のように設定できます。
- 1 回:頻度を
once
に設定して、1 回限りの取り込みを作成します。 1 回限りの取り込みデータフローを作成する場合、間隔とバックフィルの設定は使用できません。 デフォルトでは、スケジュールの頻度は 1 回に設定されています。 - 分:頻度を
minute
に設定して、1 分ごとにデータを取り込むようにデータフローをスケジュールします。 - 時間:頻度を
hour
に設定して、1 時間ごとにデータを取り込むようにデータフローをスケジュールします。 - 日:頻度を
day
に設定して、1 日にデータを取り込むようにデータフローをスケジュールします。 - 週:頻度を
week
に設定して、データフローが週ごとにデータを取り込むようにスケジュールします。
頻度を選択したら、間隔設定を指定して、各取り込み間の時間枠を確立できます。 例えば、頻度を日に設定し、間隔を 15 に設定すると、データフローは 15 日ごとに実行されます。 間隔をゼロに設定することはできません。 各頻度で許容される最小のインターバル値は次のとおりです。
- 1 回:なし
- 分: 15
- 時間: 1
- 日: 1
- 週: 1
データフローのレビュー
取り込み前のデータフローの概要を確認するページを使用します。 詳細は、次のカテゴリにグループ化されます。
- 接続 - ソースのタイプ、選択したソースファイルの関連パスおよびそのソースファイル内の列数を表示します。
- データセットの割り当てとフィールドのマッピング - ソースデータがどのデータセットに取り込まれるかを、そのデータセットが準拠するスキーマを含めて表示します。
- スケジュール – 取り込みスケジュールのアクティブな期間、頻度、間隔を表示します。
データフローをレビューしたら、「終了」をクリックし、データフローが作成されるまでしばらく待ちます。
次の手順
このチュートリアルでは、Acxiom ソースからExperience Platformにバッチデータを取り込むデータフローを正常に作成しました。 その他のリソースについては、以下に概要を説明するドキュメントを参照してください。
データフローの監視
データフローを作成したら、そのデータフローを通じて取り込まれるデータを監視し、取り込み率、成功、エラーに関する情報を表示できます。 データフローのモニタリング方法について詳しくは、UI でのアカウントとデータフローのモニタリングのチュートリアルを参照してください。
データフローの更新
データフローのスケジュール、マッピング、一般情報の設定を更新するには、UI でのソースデータフローの更新に関するチュートリアルを参照してください。
データフローの削除
不要になったデータフローや誤って作成されたデータフローは、データフロー ワークスペース内にある 削除 機能で削除できます。データフローの削除方法について詳しくは、UI でのデータフローの削除のチュートリアルを参照してください。
その他のリソース additional-resources
詳しくは、Acxiom InfoBase を参照してください。