UI でのソース接続 Azure HDInsights の Apache Spark の作成
作成対象:
- 開発者
Adobe Experience PlatformのSource コネクタには、外部ソースのデータをスケジュールに従って取り込む機能が用意されています。 このチュートリアルでは、Experience Platform ユーザーインターフェイス Azure HDInsights 使用してソースコネクタ上に Apache Spark を作成する手順を説明します。
はじめに
このチュートリアルは、Adobe Experience Platform の次のコンポーネントを実際に利用および理解しているユーザーを対象としています。
-
エクスペリエンスデータモデルl(XDM)システム:Experience Platform が顧客体験データを整理するための標準化されたフレームワークです。
- スキーマ構成の基本:スキーマ構成の主要な原則やベストプラクティスなど、XDM スキーマの基本的な構成要素について学びます。
- スキーマエディターのチュートリアル:スキーマエディター UI を使用してカスタムスキーマを作成する方法を説明します。
-
リアルタイム顧客プロファイル:複数のソースから集計したデータに基づいて、統合されたリアルタイムの顧客プロファイルを提供します。
既に有効な Spark 接続がある場合は、このドキュメントの残りの部分をスキップして、 データフローの設定に関するチュートリアルに進むことができます。
必要な資格情報の収集
Experience Platform で Spark アカウントにアクセスするには、次の値を指定する必要があります。
資格情報 | 説明 |
---|---|
host | Spark サーバーの IP アドレスまたはホスト名。 |
username | Spark サーバーへのアクセスに使用するユーザー名。 |
password | ユーザーに対応するパスワード。 |
基本について詳しくは、 この Spark ドキュメントを参照してください。
Spark アカウントを接続
必要な資格情報を収集したら、次の手順に従って Spark アカウントを Experience Platform に接続するようにリンクできます。
Adobe Experience Platform にログインし、左側のナビゲーションバーから ソース を選択して ソース ワークスペースにアクセスします。 カタログ 画面には、アカウントを作成できる様々なソースが表示されます。
画面の左側にあるカタログから適切なカテゴリを選択することができます。または、使用する特定のソースを検索オプションを使用して探すこともできます。
「データベース」カテゴリで、「Spark」を選択します。 このコネクタを初めて使用する場合は、「設定」を選択します。 それ以外の場合は、「データを追加」を選択して、新しい Spark コネクタを作成します。
Spark に接続 ページが表示されます。 このページでは、新しい資格情報または既存の資格情報を使用できます。
新しいアカウント
新しい資格情報を使用している場合は、「新しいアカウント」を選択します。表示される入力フォームで、名前、説明(オプション)、Spark 資格情報を入力します。 終了したら「接続」を選択し、新しい接続が確立されるまでしばらく待ちます。
既存のアカウント
既存のアカウントに接続するには、接続する Spark アカウントを選択し、「次へ」を選択して続行します。
次の手順
このチュートリアルでは、Spark アカウントとの接続を確立しました。次のチュートリアルに進み、 データをに取り込むためのデータフローの設定 Experience Platform を行いましょう。
Experience Platform
- ソースの概要
- 使用可能なソースコネクタ
- アドビアプリケーション
- 広告
- Analytics
- クラウドストレージ
- 同意および環境設定
- CRM
- カスタマーサクセス
- データベース
- Amazon Redshift コネクタ
- Azure HDInsights 上の Apache Hive コネクタ
- Azure HDInsights 上の Apache Spark コネクタ
- Azure Databricks コネクタ
- Azure Data Explorer コネクタ
- Azure Synapse Analytics コネクタ
- Azure Table Storage コネクタ
- Couchbase コネクタ
- Google BigQuery コネクタ
- GreenPlum コネクタ
- HP Vertica コネクタ
- IBM DB2 コネクタ
- MariaDB コネクタ
- Microsoft SQL Server コネクタ
- MySQL コネクタ
- Oracle コネクタ
- Phoenix コネクタ
- PostgreSQL コネクタ
- Snowflake ストリーミングコネクタ
- Snowflake コネクタ
- Teradata Vantage コネクタ
- データおよび ID パートナー
- e コマース
- ローカルシステム
- マーケティングオートメーション
- 支払い
- プロトコル
- ストリーミング
- API チュートリアル
- ベース接続の作成
- 広告
- Analytics
- クラウドストレージ
- 同意および環境設定
- CRM
- カスタマーサクセス
- データベース
- Amazon Redshift
- Azure HDInsights 上の Apache Hive
- Azure HDInsights 上の Apache Spark
- Azure Databricks
- Azure Data Explorer
- Azure Synapse Analytics
- Azure Table Storage
- Couchbase
- Google BigQuery
- GreenPlum
- HP Vertica
- IBM DB2
- MariaDB
- MySQL
- Oracle
- Phoenix
- PostgreSQL
- Snowflake ストリーミング
- Snowflake
- Teradata Vantage
- SQL Server
- e コマース
- マーケティングオートメーション
- 支払い
- プロトコル
- ストリーミング
- データの調査
- データを収集
- オンデマンド取り込み
- ソースレベルでのデータのフィルタリング
- データフローのモニタリング
- アカウントの更新
- データフローの更新
- 失敗したデータフロー実行の再試行
- アカウントの削除
- データフローの削除
- 暗号化されたデータの取り込み
- データフローをドラフトとして保存
- データフローへのアクセスラベルの適用
- ベース接続の作成
- UI チュートリアル
- ソース接続の作成
- アドビアプリケーション
- 広告
- Analytics
- クラウドストレージ
- 同意および環境設定
- CRM
- カスタマーサクセス
- データベース
- Amazon Redshift
- Azure HDInsights 上の Apache Hive
- Azure HDInsights 上の Apache Spark
- Azure Databricks
- Azure Data Explorer
- Azure Synapse Analytics
- Azure Table Storage
- Couchbase
- Google BigQuery
- GreenPlum
- HP Vertica
- IBM DB2
- MariaDB
- Microsoft SQL Server
- MySQL
- Oracle
- Phoenix
- PostgreSQL
- Snowflake
- Snowflake ストリーミング
- Teradata Vantage
- データおよび ID パートナー
- e コマース
- ローカルシステム
- マーケティングオートメーション
- 支払い
- プロトコル
- ストリーミング
- データフローの設定
- UI のテンプレートを使用してソースのデータフローを作成する
- 暗号化されたデータの取り込み
- オンデマンド取り込み
- バッチデータフローのモニタリング
- ストリーミングデータフローのモニタリング
- アカウントの更新
- データフローの更新
- アカウントの削除
- データフローの削除
- ソースアラートの購読
- データフローをドラフトとして保存
- データフローへのアクセスラベルの適用
- ソース接続の作成
- セルフサービスソース(バッチ SDK)
- エラーメッセージ
- フロー実行通知
- IP アドレス許可リスト
- よくある質問
- API リファレンス
- Experience Platform リリースノート