v7

hadoop 액세스 구성

Campaign 사용 페더레이션 데이터 액세스 (FDA) 외부 데이터베이스에 저장된 정보를 처리하는 옵션. hadoop 액세스를 구성하려면 아래 단계를 따르십시오.

  1. 구성 Hadoop 데이터베이스
  2. hadoop 구성 외부 계정 캠페인에서

hadoop 3.0 구성

FDA에서 Hadoop 외부 데이터베이스에 연결하려면 Adobe Campaign 서버에서 다음 구성이 필요합니다. 이 구성은 Windows와 Linux 모두에서 사용할 수 있습니다.

  1. OS 버전에 따라 Hadoop을 위한 ODBC 드라이버를 다운로드합니다. 드라이버는에서 찾을 수 있습니다. 이 페이지.

  2. 그런 다음 ODBC 드라이버를 설치하고 Hive 연결에 대한 DSN을 만들어야 합니다. 지침은 다음에서 찾을 수 있습니다. 이 페이지

  3. ODBC 드라이버를 다운로드하고 설치한 후 Campaign Classic을 다시 시작해야 합니다. 이렇게 하려면 다음 명령을 실행합니다.

    systemctl stop nlserver.service
    systemctl start nlserver.service
    
  4. 그런 다음 Campaign Classic에서 다음을 구성할 수 있습니다. Hadoop 외부 계정입니다. 외부 계정을 구성하는 방법에 대한 자세한 내용은 이 섹션.

외부 계정 hadoop

다음 Hadoop 외부 계정을 사용하면 Campaign 인스턴스를 Hadoop 외부 데이터베이스에 연결할 수 있습니다.

  1. Campaign Classic에서 Hadoop 외부 계정입니다. 다음에서 Explorer, 클릭 Administration / Platform / External accounts.

  2. New​를 클릭합니다.

  3. 선택 External database 외부 계정으로 Type.

  4. 구성 Hadoop 외부 계정에서 다음을 지정해야 합니다.

    • Type: ODBC (Sybase ASE, Sybase IQ)

    • Server: DNS 이름

    • Account: 사용자 이름

    • Password: 사용자 계정 암호

    • Database: DSN에 지정되지 않은 경우 데이터베이스의 이름입니다. DSN에 지정된 경우 비워 둘 수 있습니다.

    • Time zone: 서버 시간대

커넥터가 지원하는 ODBC 옵션은 다음과 같습니다.

이름
ODBCMgr iODBC
warehouse 1/2/4

커넥터는 다음 하이브 옵션도 지원합니다.

이름 설명
bulkKey Azure blob 또는 DataLake 액세스 키 wasb:// 또는 wasbs:// 벌크 로더의 경우(즉, 벌크 로드 도구가 wasb:// 또는 wasbs://으로 시작하는 경우).
대량 로드를 위한 Blob 또는 DataLake 버킷의 액세스 키입니다.
hdfsPort 포트 번호
기본적으로 8020으로 설정
HDFS 벌크 로드의 경우(즉, 벌크 로드 도구가 webhdfs:// 또는 webhdfss://으로 시작하는 경우).
bucketsNumber 20 클러스터형 테이블을 생성할 때 버킷 수입니다.
파일 형식 쪽모이 작업 테이블의 기본 파일 형식입니다.

hadoop 2.1 구성

hadoop 2.1에 연결해야 하는 경우 아래에 설명된 단계를 따르십시오. Windows 또는 리눅스.

Windows용 hadoop 2.1

  1. ODBC 및 설치 Azure HD Insight Windows용 드라이버.

  2. ODBC DataSource Administrator 도구를 실행하여 DSN(데이터 원본 이름)을 만듭니다. 수정할 수 있도록 Hive용 시스템 DSN 샘플이 제공됩니다.

    Description: vorac (or any name you like)
    Host: vorac.azurehdinsight.net
    Port: 443
    Database: sm_tst611 (or your database name)
    Mechanism: Azure HDInsight Service
    User/Password: admin/<your password here>
    
  3. 에 자세히 설명된 대로 Hadoop 외부 계정을 만듭니다. 이 섹션.

Linux용 hadoop 2.1

  1. Linux용 unixodbc를 설치합니다.

    apt-get install unixodbc
    
  2. HortonWorks에서 Apache Hive용 ODBC 드라이버를 다운로드해서 설치합니다. https://www.cloudera.com/downloads.html.

    dpkg -i hive-odbc-native_2.1.10.1014-2_amd64.deb
    
  3. ODBC 파일 위치를 확인하십시오.

    root@campadpac71:/tmp# odbcinst -j
    unixODBC 2.3.1
    DRIVERS............: /etc/odbcinst.ini
    SYSTEM DATA SOURCES: /etc/odbc.ini
    FILE DATA SOURCES..: /etc/ODBCDataSources
    USER DATA SOURCES..: /root/.odbc.ini
    SQLULEN Size.......: 8
    SQLLEN Size........: 8
    SQLSETPOSIROW Size.: 8
    
  4. DSN(데이터 원본 이름)을 만들고 odbc.ini 파일을 편집합니다. 그런 다음 Hive 연결에 대한 DSN을 만듭니다.

    다음은 HDInsight에서 "viral"이라는 연결을 설정하는 예입니다.

    [ODBC Data Sources]
    vorac
    
    [vorac]
    Driver=/usr/lib/hive/lib/native/Linux-amd64-64/libhortonworkshiveodbc64.so
    HOST=vorac.azurehdinsight.net
    PORT=443
    Schema=sm_tst611
    HiveServerType=2
    AuthMech=6
    UID=admin
    PWD=<your password here>
    HTTPPath=
    UseNativeQuery=1
    
    노트

    다음 UseNativeQuery 여기의 매개 변수는 매우 중요합니다. Campaign은 하이브를 인식하며 UseNativeQuery를 설정하지 않으면 제대로 작동하지 않습니다. 일반적으로 드라이버 또는 Hive SQL 커넥터는 쿼리를 다시 작성하고 열 순서를 변경합니다.

    인증 설정은 하이브/Hadoop 구성에 따라 다릅니다. 예를 들어, HD Insight의 경우, 설명된 대로 사용자/암호 인증에 AuthMech=6을 사용합니다 여기.

  5. 변수를 내보냅니다.

    export ODBCINI=/etc/myodbc.ini
    export ODBCSYSINI=/etc/myodbcinst.ini
    
  6. /usr/lib/hive/lib/native/Linux-amd64-64/hortonworks.hiveodbc.ini를 통해 Hortonworks 드라이버를 설정합니다.

    Campaign 및 unix-odbc(libodbcinst)와 연결하려면 UTF-16을 사용해야 합니다.

    [Driver]
    
    DriverManagerEncoding=UTF-16
    ErrorMessagesPath=/usr/lib/hive/lib/native/hiveodbc/ErrorMessages/
    LogLevel=0
    LogPath=/tmp/hive
    SwapFilePath=/tmp
    
    ODBCInstLib=libodbcinst.so
    
  7. 이제 isql을 사용하여 연결을 테스트할 수 있습니다.

    isql vorac
    isql vorac -v
    
  8. 에 자세히 설명된 대로 Hadoop 외부 계정을 만듭니다. 이 섹션.

이 페이지에서는