Apache HDFSコネクタはベータ版です。 ベータラベル付きコネクタの使用方法の詳細については、ソースの概要を参照してください。
Adobe Experience Platformのソースコネクタは、外部ソースのデータをスケジュールに基づいて取り込む機能を提供します。 このチュートリアルでは、Apache Hadoop Distributed File System (以下「HDFS」と呼びます)ソースコネクタをPlatformユーザーインターフェイスを使用して認証する手順を説明します。
このチュートリアルでは、Platformの次のコンポーネントについて十分に理解している必要があります。
既に有効なHDFS接続を持っている場合は、このドキュメントの残りの部分をスキップして、データフローの設定に関するチュートリアルに進むことができます。
HDFSソースコネクタを認証するには、次の接続プロパティの値を指定する必要があります。
Credential | 説明 |
---|---|
url |
URLは、HDFSへの接続に必要な認証パラメーターを匿名で定義します。 この値の取得方法について詳しくは、HDFSのHTTPS認証に関する次のドキュメントを参照してください。 |
必要な資格情報を収集したら、次の手順に従ってHDFSアカウントをPlatformにリンクします。
Adobe Experience Platformにログインし、左のナビゲーションバーで「ソース」を選択してソースワークスペースにアクセスします。 カタログ画面には様々なソースが表示され、このソースを使用してアカウントを作成できます。
画面の左側にあるカタログから適切なカテゴリを選択できます。 または、検索オプションを使用して、使用する特定のソースを見つけることもできます。
クラウドストレージカテゴリの下で、Apache HDFSを選択します。 このコネクタを初めて使用する場合は、設定を選択します。 それ以外の場合は、追加dataを選択して新しいHDFSコネクタを作成します。
HDFSに接続ページが表示されます。 このページでは、新しい秘密鍵証明書または既存の秘密鍵証明書を使用できます。
新しい資格情報を使用する場合は、「新しいアカウント」を選択します。 表示される入力フォームで、名前、オプションの説明、およびHDFS証明書を入力します。 終了したら、[ソースに接続]を選択し、新しい接続が確立されるまでの時間を許可します。
既存のアカウントに接続するには、接続するHDFSアカウントを選択し、次へを選択して次に進みます。
このチュートリアルに従って、HDFSアカウントへの接続を確立しました。 次のチュートリアルに進み、データフローを設定して、クラウドストレージのデータを Platformに取り込むことができます。