UI を使用した、Snowflake データベースからExperience Platformへのデータのストリーミング

UI のソースワークスペースを使用して Snowflake データベースからExperience Platformにデータをストリーミングする方法については、このガイドを参照してください。

基本を学ぶ

このチュートリアルは、 Experience Platform の次のコンポーネントを実際に利用および理解しているユーザーを対象としています。

認証

​ からExperience Platformにストリーミングデータを取り込む前に実行する必要がある手順については、 Snowflake ストリーミングデータの前提条件の設定 ​ に関するガイドを参照して Snowflake ださい。

Snowflake Streaming ソースを使用したExperience Platformへ Snowflake データのストリーミング

Experience Platformの UI で、左側のナビゲーションから Sources を選択し、Sources ワークスペースにアクセスします。 画面の左側にあるカタログから適切なカテゴリを選択することができます。または、使用する特定のソースを検索オプションを使用して探すこともできます。

Databases カテゴリの下の [Snowflake Streaming] を選択し、[設定] を選択します。

TIP
ソースカタログ内に認証済みアカウントを持たないソースには、「設定」オプションが表示されます。 認証済みアカウントが存在すると、このオプションは データを追加 に変わります。

Experience Platform UI のソースカタログで、Snowflake ストリーミングソースカードが選択されています。

Snowflake ストリーミングアカウントを接続 ページが表示されます。 このページでは、新しい資格情報または既存の資格情報を使用できます。

新しいアカウントを作成

新しいアカウントを作成するには、「新しいアカウント」を選択し、アカウントの名前と説明(オプション)を入力します。

ソースワークフローの新しいアカウント作成インターフェイス

基本認証

​ 基本認証 ​ を使用するには、「Snowflakeの基本認証」を選択し、Snowflake アカウントの資格情報を入力します。 終了したら「ソースに接続」を選択し、接続が確立されるまでしばらく待ちます。

詳しくは、Snowflake Streaming の概要を参照してください ​ 必要な資格情報の収集 ​

ソースワークフローで、基本認証が選択された新しいアカウントインターフェイス

キーペア認証

​ キーペア認証 ​ を使用するには、「Snowflakeのキーペア認証」を選択し、Snowflake アカウントの資格情報を入力します。 終了したら「ソースに接続」を選択し、接続が確立されるまでしばらく待ちます。

詳しくは、Snowflake Streaming の概要を参照してください ​ 必要な資格情報の収集 ​

ソースワークフローの新しいアカウントインターフェイス、選択されたキーペア認証

既存のアカウントを使用するには、「既存のアカウント」を選択し、リストからアカウントを選択して、「次へ」を選択します。

データの選択 select-data

IMPORTANT
  • ストリーミングデータフローを作成するには、ソーステーブルにタイムスタンプ列が存在する必要があります。 タイムスタンプは、Experience Platformがデータを取り込むタイミングと増分データをストリーミングするタイミングを把握するために必要です。 既存の接続のタイムスタンプ列を遡及的に追加し、新しいデータフローを作成できます。

  • サンプルソースデータファイルのデータフィールドの大文字と小文字が、識別子の場合の解決に関する Snowflake のガイダンスに従っていることを確認してください。 詳しくは、Snowflake 識別子の大文字/小文字の区別に関するドキュメント ​ を参照してください。

データを選択ステップが表示されます。この手順では、Experience Platformに読み込むデータを選択し、タイムスタンプとタイムゾーンを設定し、生データを取り込むためのサンプルソースデータファイルを指定する必要があります。

画面左側のデータベースディレクトリを使用して、Experience Platformに読み込むテーブルを選択します。

次に、テーブルのタイムスタンプ列タイプを選択します。 TIMESTAMP_NTZ または TIMESTAMP_LTZ の 2 種類のタイムスタンプ列を選択できます。 列タイプ TIMESTAMP_NTZ を選択する場合は、タイムゾーンも指定する必要があります。 列には null 以外の制約を指定する必要があります。 詳しくは、​ 制限事項とよくある質問 ​ の節を参照してください。

この手順でバックフィル設定を指定することもできます。 バックフィルは、最初に取り込むデータを決定します。 バックフィルが有効になっている場合、指定されたパス内の現在のすべてのファイルが、最初にスケジュールされた取り込み時に取り込まれます。 そうでない場合は、最初の取り込みの実行から開始時刻の間に読み込まれたファイルのみが取り込まれます。 開始時間より前に読み込まれたファイルは取り込まれません。

バックフィル 切替スイッチを選択して、バックフィルを有効にします。

タイムスタンプ、タイムゾーン、バックフィルの設定手順

最後に、「ファイルを選択 を選択して、サンプルソースデータをアップロードし、後の手順で元のデータをエクスペリエンスデータモデル(XDM)にマッピングするために使用するマッピングセットを作成するのに役立ちます。

終了したら、「次へ を選択して続行します。

ソースサンプルデータのプレビュー。

データセットとデータフローの詳細の指定 provide-dataset-and-dataflow-details

次に、データセットとデータフローに関する情報を指定する必要があります。

データセットの詳細 dataset-details

データセットは、スキーマ(列)とフィールド(行)で構成されるデータコレクション(通常はテーブル)を格納し管理するための構造です。Experience Platformに正常に取り込まれたデータは、データレイク内にデータセットとして保持されます。 この手順では、新しいデータセットを作成するか、既存のデータセットを使用します。

既存のデータセットがある場合は、「既存のデータセット」を選択し、「詳細検索」オプションを使用して、組織内のすべてのデータセットのウィンドウを表示します。これには、リアルタイム顧客プロファイルへの取り込みが有効になっているかどうかなど、それぞれの詳細が含まれます。

既存のデータセット選択インターフェイス

新しいデータセットを使用するには、「新しいデータセット」を選択し、データセットの名前とオプションの説明を入力します。 また、データセットが準拠するエクスペリエンスデータモデル(XDM)スキーマを選択する必要があります。

新しいデータセットの詳細
説明
出力データセット名
新規データセットの名前。
説明
(任意)新しいデータセットの簡単な概要です。
スキーマ
組織に存在するスキーマのドロップダウンリスト。 ソース設定プロセスの前に、独自のスキーマを作成することもできます。 詳しくは、UI での XDM スキーマの作成 ​ に関するガイドを参照してください。

データフローの詳細 dataflow-details

データセットを設定したら、名前、説明(オプション)、アラート設定など、データフローの詳細を指定する必要があります。

データフローの詳細設定手順。

データフロー設定
説明
データフロー名
データフローの名前。 デフォルトでは、読み込まれるファイルの名前が使用されます。
説明
(任意)データフローの簡単な説明です。
アラート

Experience Platformでは、ユーザーが登録できるイベントベースのアラートを作成できます。 これらのオプションをトリガーするには、実行中のデータフローが必要です。 詳しくは、​ アラートの概要 ​ を参照してください

  • ソースデータフロー実行開始:データフロー実行が開始したときに通知を受け取るには、このアラートを選択します。
  • ソースデータフロー実行成功:データフローがエラーなく終了した場合に通知を受け取るには、このアラートを選択します。
  • ソースデータフロー実行の失敗:データフローの実行がエラーで終了した場合に通知を受け取るには、このアラートを選択します。

終了したら、「次へ を選択して続行します。

XDM スキーマへのフィールドのマッピング mapping

「マッピング」手順が表示されます。マッピングインターフェイスを使用して、ソースデータをExperience Platformに取り込む前に、そのデータを適切なスキーマフィールドにマッピングし、「次へ」を選択します。 マッピングインターフェイスの使用方法に関するガイドについては、​ データ準備 UI ガイド ​ を参照してください。

ソースワークフローのマッピングインターフェイス

データフローのレビュー review

データフロー作成プロセスの最後の手順は、データフローを実行する前に確認することです。 レビュー ステップを使用すると、新しいデータフローを実行する前に詳細をレビューできます。 詳細は、次のカテゴリにグループ化されます。

  • 接続:ソースのタイプ、選択したソースファイルの関連パスおよびそのソースファイル内の列の数を表示します。
  • データセットの割り当てとフィールドのマッピング:ソースデータがどのデータセットに取り込まれるかを、そのデータセットが準拠するスキーマを含めて表示します。

データフローをレビューしたら、「終了」を選択し、データフローが作成されるまでしばらく待ちます。

ソースワークフローのレビュー手順

次の手順

このチュートリアルでは、Snowflake データのストリーミングデータフローを正常に作成しました。 その他のリソースについては、以下のドキュメントを参照してください。

データフローの監視

データフローを作成したら、そのデータフローを通じて取り込まれるデータを監視し、取り込み率、成功、エラーに関する情報を表示できます。 ストリーミングデータフローの監視方法について詳しくは、UI でのストリーミングデータフローの監視 ​ に関するチュートリアルを参照してください。

データフローの更新

データフローのスケジュール、マッピング、一般情報の設定を更新するには、UI でのソースデータフローの更新 ​ に関するチュートリアルを参照してください。

データフローの削除

不要になったデータフローや誤って作成されたデータフローは、データフロー ​ワークスペース内にある​ 削除 ​機能で削除できます。データフローの削除方法について詳しくは、UI でのデータフローの削除 ​ のチュートリアルを参照してください。

recommendation-more-help
337b99bb-92fb-42ae-b6b7-c7042161d089