接続の作成 connections-fdb
Experience Platform 連合オーディエンス構成を使用すると、ユーザーはサードパーティのデータウェアハウスからオーディエンスを作成して強化し、このオーディエンスを Adobe Experience Platform に読み込むことができます。
サポートされているデータベース supported-databases
連合データベースと Adobe Experience Platform を連携させるには、まず 2 つのソース間の接続を確立する必要があります。 連合オーディエンス構成を使用すると、次のデータベースに接続できます。
- Amazon Redshift
- Azure Synapse Analytics
- Databricks
- Google BigQuery
- Microsoft Fabric
- Oracle
- Snowflake
- Teradata
- Vertica Analytics
接続を作成 create
接続を作成するには、「連合データ」セクション内で「連合データベース」を選択します。
「連合データベース」セクションが表示されます。 「連合データベースを追加」を選択して、接続を作成します。
接続のプロパティのポップオーバーが表示されます。 接続に名前を付けたり、作成するデータベースのタイプを選択したりできます。
タイプを選択すると、「詳細」セクションが表示されます。 このセクションは、以前に選択したデータベースのタイプによって異なります。
| note availability |
|---|
| AVAILABILITY |
| Amazon Redshift AWS、Amazon Redshift Spectrum および Amazon Redshift Serverless のみがサポートされています。 |
| また、プライベートリンクを介した外部 Amazon Redshift データウェアハウスへの安全なアクセスもサポートされています。 |
Amazon Redshift を選択した後に、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | データソースの名前 |
| アカウント | アカウントのユーザー名。 |
| パスワード | アカウントのパスワード。 |
| データベース | データベースの名前。 サーバー名でこの名前が指定されている場合は、このフィールドを空白のままにすることができます。 |
| 作業スキーマ | ワークテーブルに使用するデータベーススキーマの名前。 この機能について詳しくは、Amazon スキーマドキュメントを参照してください。 メモ:このスキーマへの接続に必要な権限がある限り、一時的なデータ処理に使用するスキーマを含め、データベースから任意のスキーマを使用できます。 ただし、複数のサンドボックスを同じデータベースに接続する場合は、異なる作業スキーマを使用する 必要 があります。 |
| note |
|---|
| NOTE |
| Azure Synapse Analytics を使用して安全な接続を作成する場合は、アドビカスタマーケア担当者にお問い合わせください。 |
Azure Synapse Analytics を選択した後に、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | Azure Synapse サーバーの URL。 |
| アカウント | Azure アプリ登録のアプリケーション ID(クライアント ID)。 |
| パスワード | Azure アプリケーションの クライアント秘密鍵 の値。 |
| データベース | データベースの名前。 サーバー名でこの名前が指定されている場合は、このフィールドを空白のままにすることができます。 |
| オプション | その他の接続オプション。 Azure Synapse Analytics では、コネクタでサポートされている認証タイプを指定できます。 現在、連合オーディエンス構成は ActiveDirectoryMSI をサポートしています。 接続文字列について詳しくは、Microsoft のドキュメントの接続文字列の例を参照してください。 |
または、サービスプリンシパル認証を使用して、Azure Synapse Analytics への接続を安全に設定することもできます。 本番環境レベルの統合と自動化シナリオには、サービスプリンシパル認証を使用する必要があります。
| accordion |
|---|
| 前提条件 |
|
サービスプリンシパル認証を設定する前に、次の前提条件に注意してください。
|
Azure Portal 内で、最初に新しいアプリ登録を作成する必要があります。 アプリケーションに一意の名前を付けた後、「登録」を選択します。 概要ページが表示されます。 アプリケーション(クライアント) ID とディレクトリ(テナント) ID の値に注意してください。
新しく登録されたアプリケーション内で、「証明書とシークレット」を選択します。 ここから、「クライアントシークレット」セクション内の「新しいクライアントシークレット」を選択して、新しいクライアント秘密鍵を作成します。 説明と有効期限を指定した後、「追加」を選択してクライアント秘密鍵を生成します。
| note important |
|---|
| IMPORTANT |
| クライアント秘密鍵を生成したら、クライアント秘密鍵の値をコピーして安全に保存します。 この値は再度表示されません。 |
クライアント秘密鍵を生成したら、サービスプリンシパル ID をリソースに付与したことを確認する必要があります。
リソースへの ID の割り当てについて詳しくは、Azure Synapse Analytics のマネージド ID ガイドを参照してください。
Azure 側の設定がすべて完了したので、連合オーディエンス構成側の設定を行うことができるようになりました。
Azure Synapse 接続内で、次の設定の詳細を指定します。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | Azure Synapse サーバーの URL。 |
| アカウント | Azure アプリ登録のアプリケーション ID(クライアント ID)。 |
| パスワード | Azure アプリケーションの クライアント秘密鍵 の値。 |
| データベース | データベースの名前。 サーバー名でこの名前が指定されている場合は、このフィールドを空白のままにすることができます。 |
| オプション | その他の接続オプション。 サービスプリンシパル認証を使用するには、Authentication="ActiveDirectoryServicePrincipal" を設定する必要があります。 |
| note |
|---|
| NOTE |
| プライベートリンクを介した外部 Databricks データウェアハウスへの安全なアクセスがサポートされています。 これには、プライベートリンク経由で Amazon Web Services(AWS)でホストされている Databricks データベースへの安全な接続と、VPN 経由で Microsoft Azure でホストされている Databricks データベースへの安全な接続が含まれます。 安全なアクセスの設定について詳しくは、アドビ担当者にお問い合わせください。 |
Databricks を選択した後、連合オーディエンス構成に接続する際に使用する認証方法を選択できます。
「アカウント/パスワード認証」を選択した場合は、次のログイン詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | Databricks サーバーの名前。 |
| パスワード | Databricks サーバーのアクセストークン。 この値について詳しくは、個人用アクセストークンに関する Databricks ドキュメントを参照してください。 |
「サービスプリンシパル認証」を選択した場合は、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | Databricks サーバーの名前。 |
| クライアント ID | Databricks サーバーのクライアント ID。 このフィールドは、プロジェクトのユーザー名のように機能します。 |
| クライアント秘密鍵 | Databricks サーバーのクライアント秘密鍵。 このフィールドは、プロジェクトのパスワードのように機能します。 |
「OAuth 2.0」を選択した場合は、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | Databricks サーバーの名前。 |
| クライアント ID | Databricks サーバーのクライアント ID。 このフィールドは、OAuth 2.0 認証中にアプリケーションを特定するために使用され、プロジェクトのユーザー名のように機能します。 |
| クライアント秘密鍵 | Databricks サーバーのクライアント秘密鍵。 この機密資格情報はクライアント ID と共に発行され、プロジェクトのパスワードのように機能します。 |
| アクセス範囲 | Databricks サーバー内で OAuth トークンが認証されている範囲を示す事前入力済みの情報。 |
ログイン詳細を入力した後に、次の情報を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 | |
|---|---|
| フィールド | 説明 |
| HTTP パス | クラスターまたはウェアハウスへのパス。 パスについて詳しくは、接続の詳細に関する Databricks ドキュメントを参照してください。 |
| カタログ | Databricks のカタログの名前。 Databricks のカタログについて詳しくは、カタログに関する Databricks ドキュメントを参照してください |
| 作業スキーマ | ワークテーブルに使用するデータベーススキーマの名前。 メモ:このスキーマへの接続に必要な権限がある限り、一時的なデータ処理に使用するスキーマを含め、データベースから 任意の スキーマを使用できます。 ただし、複数のサンドボックスを同じデータベースに接続する場合は、異なる作業スキーマを使用する 必要 があります。 |
| オプション | その他の接続オプション。 使用可能なオプションを次の表に示します。 |
Databricks では、以下の追加オプションを設定できます。
| table 0-row-2 1-row-2 | |
|---|---|
| オプション | 説明 |
| TimeZoneName | 使用するタイムゾーンの名前。 この値は、TIMEZONE セッションパラメーターを表します。 タイムゾーンについて詳しくは、タイムゾーンに関する Databricks ドキュメントを参照してください。 |
| note |
|---|
| NOTE |
| VPN を介した外部 Google BigQuery データウェアハウスへの安全なアクセスがサポートされています。 |
Google BigQuery を選択した後、連合オーディエンス構成に接続する際に使用する認証方法を選択できます。
「アカウント/パスワード認証」を選択した場合は、次のログイン情報を追加できます。
| table 0-row-2 1-row-2 | |
|---|---|
| フィールド | 説明 |
| サービスアカウント | サービスアカウントのメールアドレス。 詳しくは、Google Cloud サービスアカウント関するドキュメントを参照してください。 |
「OAuth 2.0」を選択した場合は、次のログイン情報を追加できます。
| note |
|---|
| NOTE |
OAuth 2.0 を使用して Google BigQuery に接続する前に、Google Cloud プロジェクトでリダイレクト URL を設定する必要があります。 OAuth 2.0 クライアント ID 設定の下にある Google Cloud プロジェクトにリダイレクト URL https://fac-oauth.adobe.io/oauth を追加します。 |
| table 0-row-2 1-row-2 2-row-2 3-row-2 | |
|---|---|
| フィールド | 説明 |
| クライアント ID | Google BigQuery プロジェクトのクライアント ID。 このフィールドは、プロジェクトのユーザー名のように機能します。 |
| クライアント秘密鍵 | Google BigQuery プロジェクトのクライアント秘密鍵。 このフィールドは、プロジェクトのパスワードのように機能します。 |
| アクセス範囲 | Google Cloud リソース内で OAuth トークンが認証されている範囲を示す事前入力済みの情報。 |
認証を終了するには、「ログイン」を選択します。
ログイン詳細を入力した後に、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 | |
|---|---|
| フィールド | 説明 |
| プロジェクト | プロジェクトの ID。 詳しくは、Google Cloud プロジェクトに関するドキュメントを参照してください。 |
| データセット | データセットの名前。 詳しくは、Google Cloud データセットに関するドキュメントを参照してください。 |
| キーファイルのパス | サーバーに対するキーファイル。 json ファイルのみがサポートされています。 |
| オプション | その他の接続オプション。 使用可能なオプションを次の表に示します。 |
Google BigQuery では、以下の追加オプションを設定できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 7-row-2 8-row-2 | |
|---|---|
| オプション | 説明 |
| ProxyType | BigQuery への接続に使用するプロキシのタイプ。 サポートされる値には、HTTP、http_no_tunnel、socks4およびsocks5 などがあります。 |
| ProxyHost | プロキシにアクセスできるホスト名または IP アドレス。 |
| ProxyUid | プロキシが実行されているポート番号。 |
| ProxyPwd | プロキシのパスワード。 |
| bgpath | メモ:これは、一括読み込みツール(Cloud SDK)にのみ適用されます。 サーバー上の Cloud SDK bin ディレクトリへのパス。 google-cloud-sdk ディレクトリを別の場所に移動した場合や、PATH 変数の使用を回避する場合にのみ、これを設定する必要があります。 |
| GCloudConfigName | メモ:これは、バージョン 7.3.4 以降の一括読み込みツール(Cloud SDK)にのみ適用されます。 データを読み込むためのパラメーターを保存する設定の名前です。 デフォルトでは、この値は accfda です。 |
| GCloudDefaultConfigName | メモ:これは、バージョン 7.3.4 以降の一括読み込みツール(Cloud SDK)にのみ適用されます。 データを読み込むためのメイン設定を再作成する一時設定の名前です。 デフォルトでは、この値は default です。 |
| GCloudRecreateConfig | メモ:これは、バージョン 7.3.4 以降の一括読み込みツール(Cloud SDK)にのみ適用されます。 一括読み込みメカニズムが Google Cloud SDK 設定を自動的に再作成、削除、変更するかどうかを決定できるブール値です。 この値を false に設定した場合、一括読み込みメカニズムはマシン上の既存の設定を使用してデータを読み込みます。 この値を true に設定した場合、設定が適切に設定されていることを確認します。適切に設定されていない場合、No active configuration found. Please either create it manually or remove the GCloudRecreateConfig option エラーが表示され、読み込みメカニズムがデフォルトの読み込みメカニズムに戻ります。 |
Microsoft Fabric を選択した後に、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | Microsoft Fabric サーバーの URL。 |
| アプリケーション ID | Microsoft Fabric のアプリケーション ID。 アプリケーション ID について詳しくは、アプリケーション設定に関する Microsoft Fabric ドキュメントを参照してください。 |
| クライアントシークレット | アプリケーションのクライアント秘密鍵。 クライアント秘密鍵について詳しくは、アプリケーション設定に関するMicrosoft Fabric ドキュメントを参照してください。 |
| オプション | その他の接続オプション。 使用可能なオプションを次の表に示します。 |
Microsoft Fabric では、以下の追加オプションを設定できます。
| table 0-row-2 1-row-2 | |
|---|---|
| オプション | 説明 |
| 認証 | コネクタで使用されている認証のタイプ。 サポートされている値には、ActiveDirectoryMSI が含まれます。 詳しくは、ウェアハウス接続に関する Microsoft ドキュメントを参照してください。 |
| note |
|---|
| NOTE |
| 連合オーディエンス構成では、AWS、Azure、Exadata、プライベートクラウド(外部ネットワークからアクセス可能であること)でホストされているバージョン 11g 以降の Oracle データベースとの連合接続の設定をサポートしています。 Oracle データベースの設定に関してさらに質問がある場合や、Oracle への安全な接続を作成する必要がある場合は、アドビカスタマーケア担当者にお問い合わせください。 |
Oracle を選択した後に、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | Oracle サーバーの URL。 |
| アカウント | アカウントのユーザー名。 |
| パスワード | アカウントのパスワード。 |
| note |
|---|
| NOTE |
| プライベートリンクを介した外部 Snowflake データウェアハウスへの安全なアクセスがサポートされています。 Snowflake アカウントは、Amazon Web Services(AWS)または Azure でホストされ、連合オーディエンス構成環境と同じ地域に配置されている必要があります。 Snowflake アカウントへの安全なアクセスの設定について詳しくは、アドビ担当者にお問い合わせください。 |
Snowflake を選択した後、連合オーディエンス構成に接続する際に使用する認証方法を選択できます。
「アカウント/パスワード認証」を選択した場合は、次のログイン情報を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | サーバーの名前。 |
| ユーザー | アカウントのユーザー名。 |
| パスワード | アカウントのパスワード。 |
または、パスワードを指定する代わりに秘密鍵を指定することもできます。 秘密鍵を追加する場合は、次の情報を提供する必要があります。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | サーバーの名前。 |
| ユーザー | アカウントのユーザー名。 |
| 秘密鍵 | アカウントの秘密鍵。 .pem ファイルのみがサポートされています。 |
| パスワード | (オプション)アカウントのパスワード。 |
「OAuth 2.0」を選択した場合は、次のログイン情報を追加できます。
| note |
|---|
| NOTE |
OAuth 2.0 を使用して Snowflake に接続する前に、Snowflake OAuth 統合オブジェクトでリダイレクト URL を設定する必要があります。 Snowflake OAuth 統合設定にリダイレクト URL https://fac-oauth.adobe.io/oauth を追加します。 |
| table 0-row-2 1-row-2 2-row-2 3-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | サーバーの名前。 |
| クライアント ID | Snowflake プロジェクトのクライアント ID。 このフィールドは、プロジェクトのユーザー名のように機能します。 |
| クライアント秘密鍵 | Snowflake プロジェクトのクライアント秘密鍵。 このフィールドは、プロジェクトのパスワードのように機能します。 |
認証を終了するには、「ログイン」を選択します。
ログイン詳細を入力した後に、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 | |
|---|---|
| フィールド | 説明 |
| データベース | データベースの名前。 サーバー名でこの名前が指定されている場合は、このフィールドを空白のままにすることができます。 |
| 作業スキーマ | ワークテーブルに使用するデータベーススキーマの名前。 メモ:このスキーマへの接続に必要な権限がある限り、一時的なデータ処理に使用するスキーマを含め、データベースから 任意の スキーマを使用できます。 ただし、複数のサンドボックスを同じデータベースに接続する場合は、異なる作業スキーマを使用する 必要 があります。 |
| 秘密鍵 | データベース接続の秘密鍵。 ローカルシステムから .pem ファイルをアップロードできます。 |
| オプション | その他の接続オプション。 使用可能なオプションを次の表に示します。 |
Snowflake では、以下の追加オプションを設定できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 7-row-2 | |
|---|---|
| オプション | 説明 |
| workschema | ワークテーブルに使用するデータベーススキーマの名前。 |
| TimeZoneName | 使用するタイムゾーンの名前。 この値は、TIMEZONE セッションパラメーターを表します。 デフォルトでは、システムのタイムゾーンが使用されます。 タイムゾーンについて詳しくは、タイムゾーンに関する Snowflake ドキュメントを参照してください。 |
| WeekStart | 週を開始する曜日。 この値は、WEEK_START セッションパラメーターを表します。 週の開始について詳しくは、週の開始パラメーターに関する Snowflake ドキュメントを参照してください。 |
| UseCachedResult | Snowflake のキャッシュされた結果を使用するかどうかを決定するブール値。 この値は、USE_CACHED_RESULTS セッションパラメーターを表します。 デフォルトでは、この値は true に設定されています。 このパラメーターについて詳しくは、結果の保持に関する Snowflake ドキュメントを参照してください。 |
| bulkThreads | Snowflake のバルクローダーに使用するスレッドの数。 追加するスレッドの数が多いほど、大規模な一括読み込みのパフォーマンスが向上します。 デフォルトでは、この値は 1 に設定されています。 |
| chunkSize | 各バルクローダーのチャンクのファイルサイズ。 より多くのスレッドと同時に使用すると、一括読み込みのパフォーマンスを向上させることができます。 デフォルトでは、この値は 128 MB に設定されています。 チャンクサイズについて詳しくは、データファイルの準備に関する Snowflake ドキュメントを参照してください。 |
| StageName | 事前にプロビジョニングされた内部ステージング環境の名前。 新しい一時ステージを作成する代わりに、この名前を一括読み込みで使用できます。 |
| note |
|---|
| NOTE |
| Teradataに接続するには、データベース ドライバのインストールなど、さまざまな前提条件を満たす必要があります。 詳しくは、Adobe カスタマーケア担当者にお問い合わせください。 |
Teradataを選択した後、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | Teradata サーバーのURL。 |
| アカウント | データベースがOpen Database Connectivity (ODBC)セッションに使用するユーザー名。 |
| パスワード | ODBC セッションへの接続に使用するパスワード。 |
| データベース | データベースの名前。 |
| オプション | その他の接続オプション。 Teradataの場合、リストに表示されているオプションは両方とも 必須 です。 使用可能なオプションを次の表に示します。 |
Teradataの場合は、次のオプションを追加できます。
| table 0-row-2 1-row-2 2-row-2 | |
|---|---|
| オプション | 説明 |
workTableSchema |
作業テーブルのスキーマの名前。 |
ODBCLib |
Teradataと他のODBCを混在させる場合に使用できる、システムのODBC ライブラリの場所。 |
Vertica Analytics を選択した後に、次の詳細を追加できます。
| table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 | |
|---|---|
| フィールド | 説明 |
| サーバー | Vertica Analytics サーバーの URL。 |
| アカウント | アカウントのユーザー名。 |
| パスワード | アカウントのパスワード。 |
| データベース | データベースの名前。 サーバー名でこの名前が指定されている場合は、このフィールドを空白のままにすることができます。 |
| 作業スキーマ | ワークテーブルに使用するデータベーススキーマの名前。 メモ:このスキーマへの接続に必要な権限がある限り、一時的なデータ処理に使用するスキーマを含め、データベースから 任意の スキーマを使用できます。 ただし、複数のサンドボックスを同じデータベースに接続する場合は、異なる作業スキーマを使用する 必要 があります。 |
| オプション | その他の接続オプション。 使用可能なオプションを次の表に示します。 |
Vertica Analytics では、次の追加オプションを設定できます。
| table 0-row-2 1-row-2 | |
|---|---|
| オプション | 説明 |
| TimeZoneName | 使用するタイムゾーンの名前。 この値は、TIMEZONE セッションパラメーターを表します。 タイムゾーンについて詳しくは、タイムゾーンに関する Vertica Analytics ドキュメントを参照してください。 |
接続の詳細を追加したら、次の追加設定に注意してください。
「関数をデプロイ」を選択し「追加」をクリックすると、連合データベースと Experience Platform 間の接続を確定できます。