の作成 Apache UI での HDFS ソース接続
のソースコネクタ Adobe Experience Platform は、外部ソースのデータをスケジュールに従って取り込む機能を提供します。 このチュートリアルでは、 Apache Hadoop Distributed File System (以下「HDFS」といいます) Platform ユーザーインターフェイス。
はじめに
このチュートリアルでは、Platform の次のコンポーネントに関する十分な知識が必要です。
-
Experience Data Model (XDM) システム:Experience Platform が顧客体験データの整理に使用する標準化されたフレームワーク。
- スキーマ構成の基本:スキーマ構成の主要な原則やベストプラクティスなど、XDM スキーマの基本的な構成要素について学びます。
- スキーマエディターのチュートリアル:スキーマエディター UI を使用してカスタムスキーマを作成する方法を説明します。
-
Real-Time Customer Profile:複数のソースからの集計データに基づいて、統合されたリアルタイムの顧客プロファイルを提供します。
既に有効な HDFS 接続がある場合は、このドキュメントの残りの部分をスキップして、次のチュートリアルに進んでください。 データフローの設定.
必要な資格情報の収集
HDFS ソースコネクタを認証するには、次の接続プロパティの値を指定する必要があります。
url
HDFS アカウントを接続する
必要な資格情報を収集したら、以下の手順に従って、HDFS アカウントをにリンクできます。 Platform.
にログインします。 Adobe Experience Platform 次に、「 ソース 左側のナビゲーションバーから、 ソース ワークスペース。 カタログ 画面には、アカウントを作成できる様々なソースが表示されます。
画面の左側にあるカタログから適切なカテゴリを選択することができます。または、使用する特定のソースを検索オプションを使用して探すこともできます。
の下 クラウドストレージ カテゴリ、選択 Apache HDFS. このコネクタを初めて使用する場合は、「 設定. それ以外の場合は、「 データを追加 新しい HDFS コネクタを作成します。
The HDFS に接続 ページが表示されます。 このページでは、新しい資格情報または既存の資格情報を使用できます。
新しいアカウント
新しい資格情報を使用している場合は、「新しいアカウント」を選択します。表示される入力フォームで、名前、オプションの説明、HDFS 資格情報を入力します。 終了したら「ソースに接続」を選択し、新しい接続が確立されるまでしばらく待ちます。
既存のアカウント
既存のアカウントに接続するには、接続する HDFS アカウントを選択し、「 」を選択します。 次へ をクリックして続行します。
次の手順
このチュートリアルに従って、HDFS アカウントへの接続を確立しました。 次のチュートリアルに進み、 データフローを設定して、クラウドストレージからにデータを取り込みます。 Platform.