UI を使用して、Snowflake データベースからExperience Platformにデータをストリーミングする
ユーザーインターフェイスを使用して Snowflake データベースからAdobe Experience Platformにデータをストリーミングする方法については、このガイドに従ってください。
基本を学ぶ
このチュートリアルは、 Experience Platform の次のコンポーネントを実際に利用および理解しているユーザーを対象としています。
-
Experience Data Model (XDM) システム:Experience Platform が顧客体験データの整理に使用する標準化されたフレームワーク。
- スキーマ構成の基本:スキーマ構成の主要な原則やベストプラクティスなど、XDM スキーマの基本的な構成要素について学びます。
- スキーマエディターのチュートリアル:スキーマエディター UI を使用してカスタムスキーマを作成する方法を説明します。
-
Real-Time Customer Profile:複数のソースからの集計データに基づいて、統合されたリアルタイムの顧客プロファイルを提供します。
認証
Snowflake からExperience Platformにストリーミングデータを取り込む前に実行する必要がある手順については、 ストリーミングデータの前提条件の設定に関するガイドを参照してく Snowflake さい。
Snowflake Streaming ソースを使用したExperience Platformへのデータストリ Snowflake ミング
Platform UI の左側のナビゲーションバーで「ソース」を選択して、ソースワークスペースにアクセスします。画面の左側にあるカタログから適切なカテゴリを選択することができます。または、使用する特定のソースを検索オプションを使用して探すこともできます。
Databases カテゴリの下の [Snowflake Streaming] を選択し、[Add data] を選択します。
Snowflakeストリーミングアカウントを接続 ページが表示されます。 このページでは、新しい資格情報または既存の資格情報を使用できます。
新しいアカウントを作成するには、「新しいアカウント」を選択し、名前、説明(オプション)、の資格情報を入力します。
終了したら「ソースに接続」を選択し、新しい接続が確立されるまでしばらく待ちます。
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 7-row-2 | |
---|---|
資格情報 | 説明 |
アカウント | Snowflake アカウントの名前。 アカウント名の規則については、Snowflake Streaming 認証ガイドを参照してください。 |
ウェアハウス | Snowflake ウェアハウスの名前。 ウェアハウスは、Snowflake でのクエリの実行を管理します。 各 Snowflake ウェアハウスは互いに独立しており、データをExperience Platformに取り込むには、個別にアクセスする必要があります。 |
データベース | Snowflake データベースの名前。 データベースには、Experience Platformに取り込むデータが含まれています。 |
スキーマ | (オプション) Snowflake アカウントに関連付けられたデータベーススキーマ。 |
ユーザー名 | Snowflake アカウントのユーザー名。 |
パスワード | Snowflake アカウントのパスワード。 |
役割 | (オプション)特定の接続についてユーザーに提供できる、カスタムで定義された役割。 指定しない場合、この値はデフォルトで public になります。 |
アカウントの作成について詳しくは、Snowflake Streaming の概要の 役割の設定の節を参照してください。
既存のアカウントを使用するには、「既存のアカウント」を選択し、既存のアカウントカタログから目的のアカウントを選択します。
「次へ」を選択して次に進みます。
データの選択 select-data
-
ストリーミングデータフローを作成するには、ソーステーブルにタイムスタンプ列が存在する必要があります。 タイムスタンプは、データが取り込まれるタイミングと増分データがストリーミングされるタイミングをExperience Platformが把握するために必要です。 既存の接続のタイムスタンプ列を遡及的に追加し、新しいデータフローを作成できます。
-
サンプルソースデータファイルのデータフィールドの大文字と小文字が、識別子の場合の解決に関する Snowflake のガイダンスに従っていることを確認してください。 詳しくは、Snowflake 識別子の大文字/小文字の区別に関するドキュメントを参照してください。
データを選択ステップが表示されます。この手順では、Experience Platformに読み込むデータを選択し、タイムスタンプとタイムゾーンを設定し、生データを取り込むためのサンプルソースデータファイルを指定する必要があります。
画面左側のデータベースディレクトリを使用して、Experience Platformに読み込むテーブルを選択します。
次に、テーブルのタイムスタンプ列タイプを選択します。 TIMESTAMP_NTZ
または TIMESTAMP_LTZ
の 2 種類のタイムスタンプ列を選択できます。 列タイプ TIMESTAMP_NTZ
を選択する場合は、タイムゾーンも指定する必要があります。 列には null 以外の制約を指定する必要があります。 詳しくは、[ 制限事項とよくある質問 ] の節を参照してください。
この手順でバックフィル設定を指定することもできます。 バックフィルは、最初に取り込むデータを決定します。 バックフィルが有効になっている場合、指定されたパス内の現在のすべてのファイルが、最初にスケジュールされた取り込み時に取り込まれます。 そうでない場合は、最初の取り込みの実行から開始時刻の間に読み込まれたファイルのみが取り込まれます。 開始時間より前に読み込まれたファイルは取り込まれません。
バックフィル 切替スイッチを選択して、バックフィルを有効にします。
最後に、「ファイルを選択 を選択して、サンプルソースデータをアップロードし、後の手順で元のデータをエクスペリエンスデータモデル(XDM)にマッピングするために使用するマッピングセットを作成するのに役立ちます。
終了したら、「次へ を選択して続行します。
データセットとデータフローの詳細の指定 provide-dataset-and-dataflow-details
次に、データセットとデータフローに関する情報を指定する必要があります。
データセットの詳細 dataset-details
データセットは、スキーマ(列)とフィールド(行)で構成されるデータコレクション(通常はテーブル)を格納し管理するための構造です。Experience Platformに正常に取り込まれたデータは、データレイク内にデータセットとして保持されます。 この手順では、新しいデータセットを作成するか、既存のデータセットを使用します。
新しいデータセットを使用するには、「新しいデータセット」を選択し、データセットの名前とオプションの説明を入力します。 また、データセットが準拠するエクスペリエンスデータモデル(XDM)スキーマを選択する必要があります。
table 0-row-2 1-row-2 2-row-2 3-row-2 | |
---|---|
新しいデータセットの詳細 | 説明 |
出力データセット名 | 新規データセットの名前。 |
説明 | (任意)新しいデータセットの簡単な概要です。 |
スキーマ | 組織に存在するスキーマのドロップダウンリスト。 ソース設定プロセスの前に、独自のスキーマを作成することもできます。 詳しくは、UI での XDM スキーマの作成に関するガイドを参照してください。 |
既存のデータセットがある場合は、「既存のデータセット」を選択し、「詳細検索」オプションを使用すると、組織内のすべてのデータセットのウィンドウが表示されます。これには、リアルタイム顧客プロファイルへの取り込みが有効になっているかどうかなど、それぞれの詳細が含まれます。
データセットがリアルタイム顧客プロファイルに対して有効になっている場合、この手順の間に プロファイルデータセット を切り替えて、プロファイル取り込み用のデータを有効にすることができます。 また、この手順を使用して、エラー診断 および 部分取り込み を有効にすることもできます。
- エラー診断: エラー診断 を選択して、データセットアクティビティとデータフローステータスを監視する際に後で参照できるエラー診断を生成するようにソースに指示します。
- 部分取り込み:部分バッチ取り込みは、設定可能な特定のしきい値まで、エラーを含んだデータを取り込む機能です。 この機能を使用すると、正確なデータをすべてExperience Platformに正常に取り込みながら、不正なデータがすべて無効な理由に関する情報と共に個別にバッチ処理されます。
データフローの詳細 dataflow-details
データセットを設定したら、名前、説明(オプション)、アラート設定など、データフローの詳細を指定する必要があります。
Experience Platformは、ユーザーが購読できるイベントベースのアラートを作成できます。 これらのオプションをトリガーするには、実行中のデータフローが必要です。 詳しくは、 アラートの概要を参照してください
- ソースデータフロー実行開始:データフロー実行が開始したときに通知を受け取るには、このアラートを選択します。
- ソースデータフロー実行成功:データフローがエラーなく終了した場合に通知を受け取るには、このアラートを選択します。
- ソースデータフロー実行の失敗:データフローの実行がエラーで終了した場合に通知を受け取るには、このアラートを選択します。
終了したら、「次へ を選択して続行します。
XDM スキーマへのフィールドのマッピング mapping
「マッピング」手順が表示されます。マッピングインターフェイスを使用して、ソースデータをExperience Platformに取り込む前に、そのデータを適切なスキーマフィールドにマッピングし、「次へ」を選択します。 マッピングインターフェイスの使用方法に関するガイドについては、 データ準備 UI ガイドを参照してください。
データフローのレビュー review
データフロー作成プロセスの最後の手順は、データフローを実行する前に確認することです。 レビュー ステップを使用すると、新しいデータフローを実行する前に詳細をレビューできます。 詳細は、次のカテゴリにグループ化されます。
- 接続:ソースのタイプ、選択したソースファイルの関連パスおよびそのソースファイル内の列の数を表示します。
- データセットの割り当てとフィールドのマッピング:ソースデータがどのデータセットに取り込まれるかを、そのデータセットが準拠するスキーマを含めて表示します。
データフローをレビューしたら、「終了」を選択し、データフローが作成されるまでしばらく待ちます。
次の手順
このチュートリアルでは、Snowflake データのストリーミングデータフローを正常に作成しました。 その他のリソースについては、以下のドキュメントを参照してください。
データフローの監視
データフローを作成したら、そのデータフローを通じて取り込まれるデータを監視し、取り込み率、成功、エラーに関する情報を表示できます。 ストリーミングデータフローの監視方法について詳しくは、UI でのストリーミングデータフローの監視に関するチュートリアルを参照してください。
データフローの更新
データフローのスケジュール、マッピング、一般情報の設定を更新するには、UI でのソースデータフローの更新に関するチュートリアルを参照してください。
データフローの削除
不要になったデータフローや誤って作成されたデータフローは、データフロー ワークスペース内にある 削除 機能で削除できます。データフローの削除方法について詳しくは、UI でのデータフローの削除のチュートリアルを参照してください。