Configurer l’accès à Hadoop  configure-access-to-hadoop

Utilisez l’option Campaign Federated Data Access (FDA) pour traiter les informations stockées dans des bases de données externes. Suivez les étapes ci-dessous pour configurer l’accès à Hadoop.

  1. Configuration de la base de données Hadoop
  2. Configuration du compte externe Hadoop dans Campaign

Configuration de Hadoop 3.0 configuring-hadoop

La connexion à une base de données externe Hadoop dans FDA requiert les paramétrages suivants sur le serveur Adobe Campaign. Notez que cette configuration est possible pour Windows et Linux.

  1. Téléchargez les pilotes ODBC pour Hadoop en fonction de votre version de système d’exploitation. Les pilotes se trouvent dans cette page.

  2. Vous devez ensuite installer les pilotes ODBC et créer un DSN pour votre connexion Hive. Les instructions se trouvent dans cette page

  3. Après avoir téléchargé et installé les pilotes ODBC, vous devez redémarrer Campaign Classic. Pour cela, exécutez la commande suivante :

    code language-none
    systemctl stop nlserver.service
    systemctl start nlserver.service
    
  4. Dans Campaign Classic, vous pouvez ensuite configurer votre compte externe Hadoop. Pour plus d’informations sur la configuration de votre compte externe, voir cette section.

Compte externe Hadoop hadoop-external

Le compte externe Hadoop vous permet de connecter votre instance Campaign à votre base de données externe Hadoop.

  1. Dans Campaign Classic, configurez votre compte externe Hadoop. Dans l’Explorateur, cliquez sur Administration / Plateforme / Comptes externes.

  2. Cliquez sur Nouveau.

  3. Sélectionnez Base de données externe en tant que Type de compte externe.

  4. Pour configuer le compte externe Hadoop, vous devez indiquer les informations suivantes :

    • Type  : ODBC (Sybase ASE, Sybase IQ)

    • Serveur  : nom du DNS

    • Compte  : nom de l’utilisateur

    • Mot de passe  : mot de passe du compte d’utilisateur

    • Base de données  : nom de la base de données s’il n’est pas spécifié dans le DSN. Il peut rester vide s’il est spécifié dans le DSN

    • Fuseau horaire  : fuseau horaire du serveur

Le connecteur prend en charge les options ODBC suivantes :

Nom
Valeur
ODBCMgr
iODBC
warehouse
1/2/4

Le connecteur prend également en charge les options Hive suivantes :

Nom
Valeur
Description
bulkKey
Clé d’accès Azure Blob ou DataLake.
Pour les chargeurs en masse wasb:// ou wasbs:// (c.-à-d. si l’outil de chargement en masse a pour préfixe wasb:// ou wasbs://).
Il s’agit de la clé d’accès pour le compartiment de blob ou de DataLake servant au chargement en masse.
hdfsPort
Numéro de port
défini par défaut sur 8020
Pour le chargement HDFS en masse (c.-à-d. si l’outil de chargement en masse a pour préfixe webhdfs:// ou webhdfss://).
bucketsNumber
20
Nombre de compartiments lors de la création d’une table regroupée.
fileFormat
PARQUET
Format de fichier par défaut pour les tables de travail.

Configuration de Hadoop 2.1 configure-access-hadoop-2

Si vous devez vous connecter à Hadoop 2.1, suivez les étapes décrites ci-dessous pour Windows ou Linux.

Hadoop 2.1 pour Windows for-windows

  1. Installez les pilotes ODBC et Azure HD Insight pour Windows.

  2. Créez le nom de la source de données (DSN) en exécutant l’outil d’administrateur de la source de données ODBC. Un exemple de DSN système pour Hive vous est fourni. Vous pouvez le modifier.

    code language-none
    Description: vorac (or any name you like)
    Host: vorac.azurehdinsight.net
    Port: 443
    Database: sm_tst611 (or your database name)
    Mechanism: Azure HDInsight Service
    User/Password: admin/<your password here>
    
  3. Créez le compte externe Hadoop, comme décrit dans cette section.

Hadoop 2.1 pour Linux for-linux

  1. Installez unixodbc pour Linux.

    code language-none
    apt-get install unixodbc
    
  2. Téléchargez et installez les pilotes ODBC pour Apache Hive depuis HortonWorks : https://www.cloudera.com/downloads.html.

    code language-none
    dpkg -i hive-odbc-native_2.1.10.1014-2_amd64.deb
    
  3. Vérifiez l’emplacement des fichiers ODBC.

    code language-none
    root@campadpac71:/tmp# odbcinst -j
    unixODBC 2.3.1
    DRIVERS............: /etc/odbcinst.ini
    SYSTEM DATA SOURCES: /etc/odbc.ini
    FILE DATA SOURCES..: /etc/ODBCDataSources
    USER DATA SOURCES..: /root/.odbc.ini
    SQLULEN Size.......: 8
    SQLLEN Size........: 8
    SQLSETPOSIROW Size.: 8
    
  4. Créez le nom de la source de données et éditez le fichier odbc.ini. Puis, créez un nom de source de données pour votre connexion Hive.

    Voici un exemple pour HDInsight destiné à configurer une connexion appelée "viral" :

    code language-none
    [ODBC Data Sources]
    vorac
    
    [vorac]
    Driver=/usr/lib/hive/lib/native/Linux-amd64-64/libhortonworkshiveodbc64.so
    HOST=vorac.azurehdinsight.net
    PORT=443
    Schema=sm_tst611
    HiveServerType=2
    AuthMech=6
    UID=admin
    PWD=<your password here>
    HTTPPath=
    UseNativeQuery=1
    
    note note
    NOTE
    Le paramètre UseNativeQuery est ici très important. Campaign est basé sur Hive et ne fonctionnera pas correctement si le paramètre UseNativeQuery n’est pas défini. En règle générale, le pilote ou Hive SQL Connector réécrit les requêtes et modifie l’ordre des colonnes.

    La configuration de l’authentification dépend de la configuration Hive/Hadoop. Par exemple, pour HD Insight, utilisez AuthMech=6 pour l’authentification par utilisateur/mot de passe, comme décrit here.

  5. Exportez les variables.

    code language-none
    export ODBCINI=/etc/myodbc.ini
    export ODBCSYSINI=/etc/myodbcinst.ini
    
  6. Configurez les pilotes Hortonworks via /usr/lib/hive/lib/native/Linux-amd64-64/hortonworks.hiveodbc.ini.

    Vous devez utiliser UTF-16 pour vous connecter à Campaign et unix-odbc (libodbcinst).

    code language-none
    [Driver]
    
    DriverManagerEncoding=UTF-16
    ErrorMessagesPath=/usr/lib/hive/lib/native/hiveodbc/ErrorMessages/
    LogLevel=0
    LogPath=/tmp/hive
    SwapFilePath=/tmp
    
    ODBCInstLib=libodbcinst.so
    
  7. Vous pouvez maintenant tester votre connexion en utilisant isql.

    code language-none
    isql vorac
    isql vorac -v
    
  8. Créez le compte externe Hadoop, comme décrit dans cette section.

recommendation-more-help
601d79c3-e613-4db3-889a-ae959cd9e3e1