24.4 Kafka Connect 및 Adobe Experience Platform Sink Connector 설치 및 구성

24.4.1 Adobe Experience Platform 싱크 커넥터 다운로드

https://github.com/adobe/experience-platform-streaming-connect/releases로 이동하여 Adobe Experience Platform 싱크 커넥터의 최신 공식 릴리스를 다운로드하십시오.

Kafka

다운로드 파일 streaming-connect-sink-0.0.6-java-11.jar​을 데스크탑에 배치합니다.

Kafka

24.4.2 Kafka Connect 구성

바탕 화면의 Kafka_AEP 폴더로 이동하여 kafka_2.13-2.8.0/config 폴더로 이동합니다.
해당 폴더에서 텍스트 편집기를 사용하여 connect-distributed.properties 파일을 엽니다.

Kafka

텍스트 편집기에서 34줄과 35줄로 이동하고 key.converter.schemas.enablevalue.converter.schemas.enable 필드를 false (으)로 설정해야 합니다.

``json
key.converter.schemas.enable=false
value.converter.schemas.enable=false
``

Kafka

그런 다음 폴더 kafka_2.13-2.8.0로 돌아가서 새 폴더를 수동으로 만들고 이름을 connectors로 지정합니다.

Kafka

폴더를 마우스 오른쪽 단추로 클릭하고 Folder​에서 새 터미널을 클릭합니다.

Kafka

그러면 이게 보입니다. 해당 폴더의 전체 경로를 검색하려면 pwd 명령을 입력합니다. 전체 경로를 선택하고 클립보드에 복사합니다.

Kafka

텍스트 편집기로 돌아가서 connect-distributed.properties 파일로 이동한 다음 마지막 줄(스크린샷의 86행)로 스크롤합니다. # plugin.path=으로 시작하는 행의 주석을 해제하고 connectors 폴더에 전체 경로를 붙여 넣어야 합니다. 결과는 다음과 유사해야 합니다.

plugin.path=/Users/woutervangeluwe/Desktop/Kafka_AEP/kafka_2.13-2.8.0/connectors

connect-distributed.properties 파일에 변경 내용을 저장하고 텍스트 편집기를 닫습니다.

Kafka

그런 다음 다운로드한 Adobe Experience Platform 싱크 커넥터의 최신 공식 릴리스를 connectors 폴더에 복사합니다. 이전에 다운로드한 파일의 이름은 streaming-connect-sink-0.0.6-java-11.jar​입니다. connectors 폴더로 이동하면 됩니다.

Kafka

그런 다음 kafka_2.13-2.8.0 폴더 수준에서 새 터미널 창을 엽니다. 해당 폴더를 마우스 오른쪽 단추로 클릭하고 Folder​에서 새 터미널을 클릭합니다.

터미널 창에서 다음 명령을 붙여 넣습니다. bin/connect-distributed.sh config/connect-distributed.properties을 클릭하고 Enter​를 클릭하십시오. 이 명령은 Kafka 연결을 시작하고 Adobe Experience Platform 싱크 커넥터의 라이브러리를 로드합니다.

Kafka

몇 초 후에, 다음과 같은 것을 볼 수 있습니다.

Kafka

24.4.3 Postman을 사용하여 Adobe Experience Platform 싱크 커넥터 만들기

이제 Postman을 사용하여 Kafka Connect와 상호 작용할 수 있습니다. 이렇게 하려면 이 Postman Collection을 다운로드하여 바탕 화면의 로컬 컴퓨터에 압축을 해제합니다. 그러면 Kafka_AEP.postman_collection.json 이라는 파일이 생깁니다.

Kafka

이 파일을 Postman으로 가져와야 합니다. 이렇게 하려면 Postman을 열고 가져오기​를 클릭하고 Kafka_AEP.postman_collection.json 파일을 팝업으로 끌어다 놓고 가져오기​를 클릭합니다.

Kafka

그러면 이 컬렉션은 Postman의 왼쪽 메뉴에서 찾을 수 있습니다. 첫 번째 요청, 사용 가능한 Kafka Connect 커넥터​를 클릭하여 엽니다.

Kafka

그러면 이게 보입니다. 파란색 보내기 단추를 클릭하십시오. 그러면 빈 응답 []이 표시됩니다. 빈 응답은 Kafka Connect 커넥터가 현재 정의되어 있지 않기 때문입니다.

Kafka

커넥터를 만들려면 Kafka 컬렉션인 POST AEP 싱크 커넥터 만들기​에서 두 번째 요청을 클릭하여 엽니다. 그러면 이게 보입니다. 11행에서 "aep.endpoint"가 표시됩니다. "" 연습이 끝날 때 받은 HTTP API 스트리밍 끝점 URL에 붙여넣어야 합니다 24.3. HTTP API 스트리밍 끝점 URL은 다음과 같습니다. https://dcs.adobedc.net/collection/94981e0634e0d37c3559ce7ece05a35eae35c52cc5962d2d4a44e488400f2338

Kafka

붙여넣은 후 요청 본문은 다음과 같아야 합니다. 파란색 보내기 단추를 클릭하여 커넥터를 만듭니다. 커넥터를 만들 때 즉시 응답할 수 있습니다.

Kafka

첫 번째 요청인 Available Kafka Connect 커넥터​를 클릭하여 다시 열고 파란색 Send 단추를 다시 클릭합니다. 이제 Kafka Connect 커넥터가 생성되었습니다.

Kafka

그런 다음 Kafka 컬렉션인 GET Check Kafka Connect 커넥터 상태​에서 세 번째 요청을 엽니다. 파란색 보내기 단추를 클릭하면 커넥터가 실행 중임을 나타내는 아래 응답과 같은 응답이 나타납니다.

Kafka

24.4.4 경험 이벤트 생성

폴더 kafka_2.13-2.8.0​을 마우스 오른쪽 단추로 클릭하고 폴더​새 터미널 을 클릭하여 새​터미널​창을 엽니다.

Kafka

다음 명령을 입력합니다.

bin/kafka-console-producer.sh --broker-list 127.0.0.1:9092 --topic aep

Kafka

그러면 이게 보입니다. Enter 단추를 누른 후 새 줄이 있으면 aep 주제에 새 메시지가 전송됩니다.

Kafka

이제 메시지를 보낼 수 있으며, 이로 인해 Adobe Experience Platform 싱크 커넥터에 의해 소비되며 실시간으로 Adobe Experience Platform에 수집됩니다.

이것을 테스트하기 위해 간단한 데모를 해보겠습니다.

새로운 시크릿 브라우저 창을 열고 https://public.aepdemo.net로 이동합니다.

그러면 이게 보입니다.

Launch 설정

구성 ID를 입력하고 구성 로드​를 클릭합니다. 그런 다음 구성이 로드됩니다.

Launch 설정

아래로 스크롤하여 구성 저장​을 클릭합니다.

Launch 설정

그러면 Admin Homepage 로 리디렉션됩니다. LDAP​로 이동합니다. LDAP를 선택하고 저장​을 클릭합니다.

Launch 설정

그러면 Admin Homepage 로 리디렉션됩니다. Brand​로 이동하여 Luma 브랜드를 선택하고 Save​를 클릭합니다.

Launch 설정

그러면 Admin Homepage 로 리디렉션됩니다. Luma 로고를 클릭합니다.

Launch 설정

그러면 Luma 홈 페이지가 표시됩니다.

Launch 설정

로그인/등록​으로 이동합니다. 양식을 작성하고 계정 만들기​를 클릭합니다. 테스트 프로필​에 대한 확인란을 선택하는 것을 잊지 마십시오.

Kafka

그러면 X-ray 패널에 프로필 데이터가 표시됩니다.

Kafka

또한 경험 이벤트가 아직 기록되지 않았음을 알 수 있습니다.

Kafka

이를 변경하고 Kafka에서 Adobe Experience Platform으로 콜센터 경험 이벤트를 전송하겠습니다.

아래 샘플 경험 이벤트 페이로드를 가져와 텍스트 편집기에 복사합니다.

{
  "header": {
    "datasetId": "5fd1a9dea30603194baeea43",
    "imsOrgId": "907075E95BF479EC0A495C73@AdobeOrg",
    "source": {
      "name": "Launch"
    },
    "schemaRef": {
      "id": "https://ns.adobe.com/experienceplatform/schemas/b0190276c6e1e1e99cf56c99f4c07a6e517bf02091dcec90",
      "contentType": "application/vnd.adobe.xed-full+json;version=1"
    }
  },
  "body": {
    "xdmMeta": {
      "schemaRef": {
        "id": "https://ns.adobe.com/experienceplatform/schemas/b0190276c6e1e1e99cf56c99f4c07a6e517bf02091dcec90",
        "contentType": "application/vnd.adobe.xed-full+json;version=1"
      }
    },
    "xdmEntity": {
      "eventType": "callCenterInteractionKafka",
      "_id": "",
      "timestamp": "2021-08-12T15:04:03.630Z",
      "_experienceplatform": {
        "identification": {
          "core": {
            "phoneNumber": ""
          }
        },
        "interactionDetails": {
          "core": {
            "callCenterAgent": {
              "callID": "Support Contact - 3767767",
              "callTopic": "contract",
              "callFeeling": "negative"
            }
          }
        }
      }
    }
  }
}

그러면 이게 보입니다. 다음 2개의 필드를 수동으로 업데이트해야 합니다.

  • _id: ldap에 설정한 다음 임의의 자릿수를 입력합니다(예: ). vangeluw1234
  • phoneNumber: 데모 웹 사이트에서 방금 만든 계정의 phoneNumber를 입력합니다. ID 아래의 X-ray 패널에서 찾을 수 있습니다.
노트

필드 _id​는 모든 데이터 처리에 대해 고유해야 합니다. 여러 이벤트를 생성하는 경우 매번 필드 _id​를 새로운 고유한 값으로 업데이트해야 합니다.

Kafka

그러면 다음과 같은 항목이 있어야 합니다.

Kafka

그런 다음 전체 경험 이벤트를 클립보드에 복사합니다. JSON 페이로드의 공백을 제거해야 하며 이를 위해 온라인 도구를 사용합니다. http://jsonviewer.stack.hu/로 이동하여 이 작업을 수행합니다.

Kafka

경험 이벤트를 편집기에 붙여 넣고 공백 제거​를 클릭합니다.

Kafka

그런 다음 출력 텍스트를 모두 선택하고 클립보드에 복사합니다.

Kafka

터미널 창으로 돌아갑니다.

Kafka

공백 없이 새 페이로드를 터미널 창에 붙여 넣고 Enter​를 클릭합니다.

Kafka

그런 다음 데모 웹 사이트로 돌아가서 페이지를 새로 고칩니다. 이제 프로필에서 아래와 같이 기타 이벤트 아래에 경험 이벤트가 표시됩니다.

Kafka

너는 이 운동을 끝마쳤다.

다음 단계: 요약 및 이점

모듈 24로 돌아가기

모든 모듈로 돌아가기

이 페이지에서는