データフローは、ソースからAdobe Experience Platformのデータセットにデータを取得して取り込むスケジュール済みタスクです。 このチュートリアルでは、Platform UI を使用してプロトコルソースのデータフローを作成する手順を説明します。
データフローを作成するには、プロトコルソースを持つ認証済みアカウントが既に存在する必要があります。 UI で様々なプロトコルのソースアカウントを作成するためのチュートリアルのリストは、 ソースの概要.
このチュートリアルは、 Platform の次のコンポーネントを実際に利用および理解しているユーザーを対象としています。
プロトコルソースアカウントを作成した後、 データを追加 手順が表示され、プロトコルソースアカウントのテーブル階層を調べるためのインターフェイスが提供されます。
「ソースデータを検索」オプションは、Adobe Analytics、 Amazon Kinesis、および Azure Event Hubs.
ソースデータを見つけたら、テーブルを選択し、「 」を選択します。 次へ.
データフロー詳細ページでは、既存のデータセットと新しいデータセットのどちらを使用するかを選択できます。このプロセスでは、プロファイルデータセット、エラー診断、部分取り込み、およびアラートの設定も指定できます。
データを既存のデータセットに取り込むには、既存のデータセットを選択します。「詳細検索」オプションを使用するか、ドロップダウンメニューで既存のデータセットのリストをスクロールすると、既存のデータセットを取得できます。データセットを選択したら、データフローの名前と説明を入力します。
データを新しいデータセットに取り込むには、「新しいデータセット」を選択して、出力データセット名とオプションの説明を入力します。次に、「詳細検索」オプションを使用するか、ドロップダウンメニューで既存のスキーマのリストをスクロールして、マッピングするスキーマを選択します。スキーマを選択したら、データフローの名前と説明を指定します。
次に、 プロファイルデータセット切り替えスイッチを選択して、Profile のデータセットを有効にします。これにより、エンティティの属性と動作の全体像を把握できます。Profile が有効化されたすべてのデータセットのデータは Profile に含まれ、変更はデータフローを保存するときに適用されます。
エラー診断は、データフローで発生するエラーレコードに対して、詳細なエラーメッセージ生成を有効にします。部分取り込みでは、手動で定義した特定のしきい値に到達するまで、エラーを含むデータを取り込むことができます。詳しくは、バッチ取り込みの概要を参照してください。
アラートを有効にすると、データフローのステータスに関する通知を受け取ることができます。リストからアラートを選択して、データフローのステータスに関する通知を受け取るよう登録します。アラートについて詳しくは、UI を使用したソースアラートの購読についてのガイドを参照してください。
データフローへの詳細の入力を終えたら「次へ 」を選択します。
マッピング手順が表示され、ソーススキーマのソースフィールドを、ターゲットスキーマの適切なターゲット XDM フィールドにマッピングするためのインターフェイスが提供されます。
Platform は、選択したターゲットスキーマまたはデータセットに基づいて、自動マッピングされたフィールドに対するインテリジェントなレコメンデーションを提供します。 マッピングルールは、ユースケースに合わせて手動で調整できます。必要に応じて、フィールドを直接マッピングするか、データ準備機能を使用してソースデータを変換して計算値を導き出すかを選択できます。マッパーインターフェイスと計算フィールドを使用した包括的な手順については、 データ準備 UI ガイド.
ソースデータが正常にマッピングされたら、「 」を選択します。 次へ.
この スケジュール 手順が表示され、設定済みのマッピングを使用して選択したソースデータを自動的に取り込むように取り込むように、取り込みスケジュールを設定できます。 デフォルトでは、スケジュールはに設定されています。 Once
. 取り込み頻度を調整するには、「 」を選択します 頻度 次に、ドロップダウンメニューからオプションを選択します。
1 回限りの取り込みでは、間隔とバックフィルは表示されません。
取り込み頻度を Minute
, Hour
, Day
または Week
を設定した場合は、取り込みのたびに設定時間枠を設定する間隔を設定する必要があります。 例えば、取り込み頻度を Day
間隔は 15
は、データフローが 15 日ごとにデータを取り込むようにスケジュールされていることを意味します。
この手順の間に、 バックフィル およびは、データの増分取り込みの列を定義します。 バックフィルは、履歴データを取り込むために使用されます。一方、増分取り込み用に定義する列では、新しいデータを既存のデータと区別することができます。
スケジュール設定について詳しくは、次の表を参照してください。
フィールド | 説明 |
---|---|
頻度 | 取り込みが発生する頻度。 選択可能な頻度には次のものが含まれます Once , Minute , Hour , Day 、および Week . |
間隔 | 選択した頻度の間隔を設定する整数。 間隔の値は、ゼロ以外の整数で、15 以上に設定する必要があります。 |
開始時間 | 最初の取り込みがいつ行われるかを示す UTC タイムスタンプ。 開始時間は、現在の UTC 時間以上である必要があります。 |
バックフィル | 最初に取り込まれるデータを決定する boolean 値です。 バックフィルが有効な場合、指定されたパス内の現在のファイルは、最初にスケジュールされた取り込み中にすべて取り込まれます。 バックフィルが無効になっている場合、取り込みの最初の実行から開始時刻までの間に読み込まれたファイルのみが取り込まれます。 開始時より前に読み込まれたファイルは取り込まれません。 |
増分データの読み込み基準 | フィルターされた一連のソーススキーマフィールド(タイプ、日付、時間)を含むオプション。 選択するフィールド 増分データの読み込み基準 増分データを正しく読み込むには、の日時値が UTC タイムゾーンで設定されている必要があります。 すべてのテーブルベースのバッチソースは、差分列のタイムスタンプ値を対応するフロー実行ウィンドウの UTC 時間と比較し、UTC 時間枠内に新しいデータが見つかった場合はソースからデータをコピーして増分データを選択します。 |
レビュー手順が表示され、新しいデータフローを作成する前に確認できます。詳細は、次のカテゴリに分類されます。
データフローをレビューしたら、「終了」を選択し、データフローが作成されるまでしばらく待ちます。
データフローを作成したら、そのデータフローを通じて取り込まれるデータをモニターすると、取り込み速度、成功、エラーに関する情報を確認できます。データフローの監視方法の詳細については、 UI でのアカウントとデータフローの監視.
不要になったデータフローや誤って作成されたデータフローは、データフローワークスペース内にある削除機能で削除できます。データフローの削除方法について詳しくは、UI でのデータフローの削除のチュートリアルを参照してください。
このチュートリアルに従うことで、データフローを作成し、プロトコルソースから Platform にデータを取り込むことができました。 Real-Time Customer Profile や Data Science Workspace など、ダウンストリームの Platform サービスで受信データを使用できるようになりました。詳しくは、次のドキュメントを参照してください。
次のビデオに示す Platform UI は最新ではありません。 最新の UI のスクリーンショットと機能については、上記のドキュメントを参照してください。