로그 소스

로그 소스는 데이터 집합을 만드는 데 사용할 데이터가 포함된 파일입니다.

각 데이터 레코드는 트랜잭션 레코드 또는 이벤트의 단일 인스턴스를 나타내므로 로그 소스에서 사용할 수 있는 데이터를 이벤트 데이터라고 합니다. Data Workbench 서버는 Sensors에 의해 수집되거나 다른 데이터 소스에서 추출된 데이터에서 파생된 로그 소스를 처리할 수 있습니다.

  • Sensors에 의해 수집된 데이터: HTTP 및 애플리케이션 서버에서 Sensors에 의해 수집된 데이터는 Data Workbench 서버로 전송되며, 이 데이터는 고도로 압축된 로그( .vsl) 파일로 변환됩니다. 센서 파일을 참조하십시오.

  • Insight Server에서 추출된 데이터: Data Workbench 서버는 플랫 파일, XML 파일 또는 ODBC 호환 데이터베이스에 포함된 이벤트 데이터를 읽고 해당 디코더를 사용하여 데이터의 원하는 요소를 추출합니다. 이러한 이벤트 데이터는 메모리에 상주할 필요는 없지만 데이터가 포함된 레코드에는 추적 ID가 포함되어야 합니다. 로그 파일, XML 로그 소스ODBC 데이터 소스를 참조하십시오.

로그 소스를 추가하려면

  1. Data Workbench에서 Log Processing.cfg 을 엽니다.

  2. Log Sources 을 마우스 오른쪽 단추로 클릭한 다음 Add New 를 클릭합니다.

  3. 다음 중 하나를 선택합니다.

    • Sensor
    • Log File
    • XML Log Source
    • ODBC Data Source
  4. 데이터 집합을 정의하는 데 사용되는 특정 매개 변수는 데이터 집합의 구성 프로세스에서 사용할 로그 소스의 유형에 따라 다릅니다. 해당 로그 소스에 해당하는 섹션에 표시된 대로 매개 변수를 지정합니다.

  5. 로그 소스를 정의하고 다른 매개 변수를 변경한 후 Log Processing.cfg 파일에서 로컬에 파일을 저장하고 Data Workbench 서버의 데이터 세트 프로필에 저장합니다.

    노트

    Data Workbench 서버 File Server Unit는 Sensor 파일, 로그 파일 및 XML 파일을 수신 및 저장하고 데이터 집합을 구성하는 Data Workbench 서버의 Data Processing Units에 제공할 수 있습니다. Insight Server 파일 서버 유닛 구성을 참조하십시오.

    Transformation Dependency Map에서 로그 소스의 구성을 열 수 있습니다. Transformation Dependency Map에 대한 자세한 내용은 데이터 집합 구성 도구를 참조하십시오.

요구 사항

HTTP 및 애플리케이션 서버에서 Sensors에 의해 수집된 이벤트 데이터는 Data Workbench 서버로 전송되며, 이 데이터는 고도로 압축된 로그( .vsl) 파일로 변환됩니다. .vsl 파일 형식은 Data Workbench 서버에서 관리되며 각 파일의 이름은 다음과 같습니다.

YYYMMDD-SENDSORID.VSL

여기서 YYYYMMDD는 파일의 날짜이고 SENDSORID​는 데이터를 수집하여 Data Workbench 서버로 전송하는 Sensor를 나타내는 이름(조직에서 할당함)입니다.

매개 변수

Sensor 파일의 경우 다음 매개 변수를 사용할 수 있습니다.

매개 변수 설명
로그 경로

.vsl 파일이 저장되는 디렉토리입니다. 기본 위치는 Logs 디렉토리입니다. 상대 경로는 Data Workbench 서버의 설치 디렉토리를 나타냅니다.

와일드카드 문자를 사용하여 처리할 .vsl 파일을 지정할 수 있습니다.

  • * 임의의 문자와 일치
  • ? 단일 문자와 일치

예를 들어, 로그 경로 Logs\*.vsl .vsl로 끝나는 Logs 디렉토리의 모든 파일과 일치합니다. 로그 경로 Logs\*-SENSOR?.vsl은 SENSOR1에서와 같이, 임의의 날짜(YYYYYYMDD)와 SENSOR 다음에 나오는 단일 문자로 Logs 디렉토리에 있는 파일을 일치시킵니다.

지정된 경로의 모든 하위 디렉토리를 검색하려면 Recursive 매개 변수를 true로 설정해야 합니다.

참고:Data Workbench 서버의 파일 서버 유닛에서 파일을 읽으려면 로그 경로 매개 변수에 적절한 URI를 입력해야 합니다. 예를 들어 URI /Logs/*-*.vsl은 Logs 디렉토리의 .vsl 파일과 일치합니다. Insight Server 파일 서버 유닛 구성을 참조하십시오.

로그 서버 파일 서버에 연결하는 데 필요한 정보(주소, 이름, 포트 등)입니다. 로그 서버 매개 변수에 항목이 있으면 로그 경로는 URI로 해석됩니다. 그렇지 않으면 로컬 경로로 해석됩니다. Insight Server 파일 서버 유닛 구성을 참조하십시오.
로그 소스 ID

이 매개 변수의 값은 임의의 문자열일 수 있습니다. 값이 지정된 경우 이 매개 변수를 사용하여 로그 항목을 소스 식별 또는 대상 처리를 위해 다른 로그 소스와 구분할 수 있습니다. x-log-source-id 필드는 각 로그 항목에 대한 로그 소스를 식별하는 값으로 채워집니다. 예를 들어, VSensor01이라는 Sensor에서 로그 항목을 식별하려면 VSensor01에서 를 입력할 수 있으며, 해당 문자열은 해당 소스의 모든 로그 항목에 대해 x-log-source-id 필드에 전달됩니다.

x-log-source-id 필드에 대한 자세한 내용은 이벤트 데이터 레코드 필드를 참조하십시오.

재귀 True 또는 False. true로 설정하면 로그 경로에 지정된 각 경로의 모든 하위 디렉토리가 지정된 파일 이름 또는 와일드카드 패턴과 일치하는 파일을 검색합니다. 기본값은 false입니다.
시작/종료 시간 사용

True 또는 False. true로 설정하고 시작 시간 또는 종료 시간을 지정하는 경우 이 로그 소스의 모든 파일에는 YYYYYMMDD(ISO 형식)의 날짜로 시작하는 파일 이름이 있어야 합니다. 각 파일에는 GMT일(예: 한 날 000 GMT부터 시작하여 다음 날 000 GMT까지)에 대한 데이터가 포함되어 있다고 가정합니다. 로그 소스 파일에 GMT일에 해당하지 않는 데이터가 있는 경우 이 매개 변수를 false로 설정하여 잘못된 결과를 방지해야 합니다.

참고:기본적으로 .vsl 에 의해 수집된 데이터가 포함된 파일은 위에 설명된 이름 지정 및 시간 범위 요구 사항을 자동으로 충족합니다. 이 매개 변수를 true로 설정하면 Data Workbench 서버는 항상 이름이 지정된 시작 시간과 종료 시간 사이에 있는 ISO 날짜를 포함하는 파일의 데이터를 처리합니다. 이 매개 변수를 false로 설정하면 Data Workbench 서버가 로그 처리 중에 모든 .vsl 파일을 읽어서 시작 시간 및 종료 시간 범위 내에 데이터가 포함된 파일을 결정합니다.

시작 시간 및 종료 시간 매개 변수에 대한 자세한 내용은 데이터 필터를 참조하십시오.

노트

Sensor 데이터 소스에 대한 구성 매개 변수를 사용하여 로그 파일 내에 데이터 집합에 포함해야 하는 로그 항목을 확인하지 마십시오. 대신 디렉토리 내의 모든 로그 파일을 가리키도록 데이터 소스를 설정합니다. 그런 다음 Log Processing.cfg의 시작 시간 및 종료 시간 매개 변수를 사용하여 데이터 집합을 구성하는 데 사용해야 하는 로그 항목을 결정합니다. 데이터 필터를 참조하십시오.

이벤트 데이터가 포함된 파일은 다음 요구 사항을 충족해야 합니다.

  • 파일의 각 이벤트 데이터 레코드는 한 줄로 표시되어야 합니다.

  • 레코드 내의 필드는 비어 있는지 여부에 관계없이 ASCII 구분 기호로 구분해야 합니다. Data Workbench 서버에서는 특정 구분 기호를 사용할 필요가 없습니다. 행 끝 문자가 아니며 이벤트 데이터 자체 내의 어디에나 표시되지 않는 문자를 사용할 수 있습니다.

  • 파일의 각 레코드에는 다음을 포함해야 합니다.

    • 추적 ID
    • 타임스탬프
  • 데이터 처리에 대한 시작 및 종료 시간을 지정하려면 각 파일 이름은 형식이어야 합니다.

    • YYYYMMDD-SOURCE.log

    여기서 YYYYMMDD​은 파일에 있는 모든 데이터의 그리니치 표준시(GMT)이고 소스​는 파일에 포함된 데이터의 소스를 식별하는 변수입니다.

    노트

    데이터 집합에 통합하려는 로그 파일을 검토하려면 Adobe 컨설팅 서비스에 문의하십시오.

매개 변수

로그 파일 로그 소스의 경우 다음 표의 매개 변수를 사용할 수 있습니다.

노트

로그 파일 로그 소스를 처리하려면 Log Processing Dataset Include 파일에 정의된 추가 매개 변수가 필요합니다. 이 파일에는 Log Processing.cfg 파일에 포함된 매개 변수의 하위 집합과 로그 파일에서 데이터를 추출하기 위한 디코더를 정의하는 특수 매개 변수가 포함되어 있습니다. 로그 파일 로그 소스에 대한 디코더 정의에 대한 내용은 텍스트 파일 디코더 그룹을 참조하십시오.

매개 변수 설명
이름 로그 파일 소스의 식별자입니다.
로그 경로

로그 파일이 저장되는 디렉토리입니다. 기본 위치는 Logs 디렉토리입니다. 상대 경로는 Data Workbench 서버의 설치 디렉토리를 나타냅니다.

와일드카드 문자를 사용하여 처리할 로그 파일을 지정할 수 있습니다.

  • * 임의의 문자와 일치하는 항목을 찾습니다.
  • ? 단일 문자와 일치하는 항목을 찾습니다.

예를 들어, 로그 경로 Logs\*.log .log로 끝나는 Logs 디렉토리의 모든 파일과 일치합니다.

지정된 경로의 모든 하위 디렉토리를 검색하려면 Recursive 매개 변수를 true로 설정해야 합니다.

Data Workbench 서버의 파일 서버 유닛에서 파일을 읽으려면 로그 경로 매개 변수에 적절한 URI를 입력해야 합니다. 예를 들어 URI/Logs/*.log는 Logs 디렉토리의 .log 파일과 일치합니다. Insight Server 파일 서버 유닛 구성을 참조하십시오.

로그 서버 파일 서버에 연결하는 데 필요한 정보(주소, 이름, 포트 등)입니다. 로그 서버 매개 변수에 항목이 있으면 로그 경로는 URI로 해석됩니다. 그렇지 않으면 로컬 경로로 해석됩니다. Insight Server 파일 서버 유닛 구성을 참조하십시오.
압축 True 또는 False. Data Workbench 서버에서 읽을 로그 파일이 압축 gzip 파일인 경우 이 값을 true로 설정해야 합니다.
디코더 그룹 로그 파일 로그 소스에 적용할 텍스트 파일 디코더 그룹의 이름입니다. 이 이름은 로그 처리 데이터 집합 포함 파일에 지정된 해당 텍스트 파일 디코더 그룹의 이름과 정확히 일치해야 합니다. 텍스트 파일 디코더 그룹을 참조하십시오.
로그 소스 ID

이 매개 변수의 값은 임의의 문자열일 수 있습니다. 값이 지정된 경우 이 매개 변수를 사용하여 로그 항목을 소스 식별 또는 대상 처리를 위해 다른 로그 소스와 구분할 수 있습니다. x-log-source-id 필드는 각 로그 항목에 대한 로그 소스를 식별하는 값으로 채워집니다. 예를 들어, LogFile01이라는 로그 파일 소스에서 로그 항목을 식별하려면 LogFile01에서 을 입력할 수 있으며, 해당 문자열은 해당 소스의 모든 로그 항목에 대해 x-log-source-id 필드로 전달됩니다.

x-log-source-id 필드에 대한 자세한 내용은 이벤트 데이터 레코드 필드를 참조하십시오.

마스크 패턴

일련의 로그 파일의 소스를 식별하는 데 사용되는 일관된 이름을 추출하는 단일 캡처 하위 패턴이 있는 정규 표현식입니다. 파일 이름만 고려됩니다. 경로 및 확장은 정규 표현식 일치에 대해 고려되지 않습니다. 마스크 패턴을 지정하지 않으면 마스크가 자동으로 생성됩니다.

Logs\010105server1.log Logs\010105server2.log 파일의 경우 마스크 패턴[0-9]{6}(.*)입니다. 이 패턴은 위의 파일 이름에서 문자열 "server1" 또는 "server2"를 추출합니다.

정규 표현식을 참조하십시오.

재귀 True 또는 False. 이 매개 변수가 true로 설정되면 로그 경로에 지정된 각 경로의 모든 하위 디렉토리가 지정된 파일 이름 또는 와일드카드 패턴과 일치하는 파일을 검색합니다. 기본값은 false입니다.
파일 거부 디코더의 조건을 충족하지 않는 로그 항목이 들어 있는 파일의 경로 및 파일 이름입니다.
시작/종료 시간 사용

True 또는 False. 이 매개 변수가 true로 설정되어 있고 시작 시간 또는 종료 시간이 지정된 경우 이 로그 소스의 모든 파일에는 YYYYMMDD(ISO 형식)의 날짜로 시작하는 파일 이름이 있어야 합니다. 각 파일에는 GMT일(예: 한 날 000 GMT부터 시작하여 다음 날 000 GMT까지)에 대한 데이터가 포함되어 있다고 가정합니다. 로그 소스 파일 이름이 ISO 날짜로 시작되지 않거나 파일에 GMT일에 해당하지 않는 데이터가 포함된 경우 이 매개 변수를 false로 설정하여 잘못된 결과를 방지해야 합니다.

참고: 위에서 설명한 이름 지정 및 시간 범위 요구 사항이 로그 파일에 대해 충족되고 이 매개 변수를 true로 설정하면 지정된 텍스트 파일 디코더 그룹은 지정된 시작 시간과 종료 시간 사이에 ISO 날짜가 있는 파일로 읽히는 파일을 제한합니다. 이 매개 변수를 false로 설정하면 Data Workbench 서버가 로그 처리 중에 모든 로그 파일을 읽고 시작 시간 및 종료 시간 범위 내에 데이터가 포함된 파일을 확인합니다.

시작 시간 및 종료 시간 매개 변수에 대한 자세한 내용은 데이터 필터를 참조하십시오.

이 예에서 데이터 세트는 두 가지 유형의 로그 소스에서 구성됩니다.

로그 소스 0은 Sensor에 의해 캡처된 이벤트 데이터에서 생성된 로그 파일을 지정합니다. 이 데이터 소스는 Logs라는 디렉터리와 .vsl 파일 이름 확장명을 가진 해당 디렉토리의 모든 파일을 가리킵니다.

로그 소스 1은 .txt 파일 이름 확장명을 사용하여 Logs 디렉토리의 모든 파일을 가리킵니다. 이 로그 소스의 디코더 그룹을 "텍스트 로그"라고 합니다.

데이터 세트에 대한 데이터 소스가 정의된 후에는 로그 파일을 삭제하거나 이동해서는 안 됩니다. 새로 만든 로그 파일만 데이터 소스의 디렉토리에 추가해야 합니다.

이벤트 데이터가 포함된 파일은 다음 요구 사항을 충족해야 합니다.

  • 이벤트 데이터는 적절한 부모-자식 관계가 있는 올바른 형식의 XML 파일에 포함해야 합니다.

  • 각 XML 파일 형식에 고유한 디코더 그룹이 있어야 합니다. 디코더 그룹 구성에 대한 내용은 XML 디코더 그룹을 참조하십시오.

  • 파일의 각 방문자 레코드에는 다음이 포함되어야 합니다.

    • 추적 ID
    • 타임스탬프
  • 데이터 처리에 대한 시작 및 종료 시간을 지정하려면 각 파일 이름이 형식이어야 합니다

YYYYMMDD-SOURCE.log

여기서 YYYYMMDD​은 파일에 있는 모든 데이터의 그리니치 표준시(GMT)이고 소스​는 파일에 포함된 데이터의 소스를 식별하는 변수입니다.

이러한 요구 사항을 충족하는 XML 파일의 예는 XML 디코더 그룹을 참조하십시오.

노트

데이터 집합에 통합할 XML 로그 파일을 검토하려면 Adobe 컨설팅 서비스에 문의하십시오.

매개 변수

XML 로그 소스의 경우 다음 표의 매개 변수를 사용할 수 있습니다.

노트

XML 로그 소스를 처리하려면 Log Processing Dataset Include 파일에 정의된 추가 매개 변수가 필요합니다. 이 파일에는 Log Processing.cfg 파일에 포함된 매개 변수의 하위 집합과 XML 파일에서 데이터를 추출하기 위한 디코더를 정의하는 특수 매개 변수가 포함되어 있습니다. XML 로그 소스의 디코더 정의에 대한 내용은 XML 디코더 그룹을 참조하십시오.

필드 설명
이름 XML 로그 소스의 식별자입니다.
로그 경로

XML 로그 소스가 저장되는 디렉토리입니다. 기본 위치는 Logs 디렉토리입니다. 상대 경로는 Data Workbench 서버의 설치 디렉토리를 나타냅니다.

와일드카드 문자를 사용하여 처리할 XML 로그 소스를 지정할 수 있습니다.

  • * 임의의 문자와 일치
  • ? 단일 문자와 일치

예를 들어, 로그 경로 Logs\*.xml .xml로 끝나는 Logs 디렉토리의 모든 파일과 일치합니다.

지정된 경로의 모든 하위 디렉토리를 검색하려면 Recursive 필드를 true로 설정해야 합니다.

참고:Data Workbench 서버의 파일 서버 유닛에서 파일을 읽으려면 로그 경로 필드에 적절한 URI를 입력해야 합니다. 예를 들어 URI/Logs/*.xml은 Logs 디렉토리의 .xml 파일과 일치합니다. Insight Server 파일 서버 유닛 구성을 참조하십시오.

로그 서버 파일 서버에 연결하는 데 필요한 정보(주소, 이름, 포트 등)입니다. 로그 서버 필드에 항목이 있으면 로그 경로가 URI로 해석됩니다. 그렇지 않으면 로컬 경로로 해석됩니다. Insight Server 파일 서버 유닛 구성을 참조하십시오.
압축 True 또는 False. Data Workbench 서버에서 읽을 XML 로그 소스가 압축 gzip 파일인 경우 이 값을 true로 설정해야 합니다.
디코더 그룹 XML 로그 소스에 적용할 XML 디코더 그룹의 이름입니다. 이 이름은 로그 처리 데이터 집합 Include 파일에 지정된 해당 XML 디코더 그룹의 이름과 정확히 일치해야 합니다. XML 디코더 그룹을 참조하십시오.
로그 소스 ID

이 필드의 값은 임의의 문자열일 수 있습니다. 값을 지정한 경우 이 필드를 사용하면 로그 항목을 소스 식별 또는 대상 처리를 위해 다른 로그 소스와 구분할 수 있습니다. x-log-source-id 필드는 각 로그 항목에 대한 로그 소스를 식별하는 값으로 채워집니다. 예를 들어, XMLFile01이라는 로그 파일 소스에서 로그 항목을 식별하려면 XMLFile01에서 을 입력할 수 있으며 해당 문자열은 해당 소스의 모든 로그 항목에 대해 x-log-source-id 필드에 전달됩니다.

x-log-source-id 필드에 대한 자세한 내용은 이벤트 데이터 레코드 필드를 참조하십시오.

마스크 패턴

일련의 로그 파일의 소스를 식별하는 데 사용되는 일관된 이름을 추출하는 단일 캡처 하위 패턴이 있는 정규 표현식입니다. 파일 이름만 고려됩니다. 경로 및 확장은 정규 표현식 일치에 대해 고려되지 않습니다. 마스크 패턴을 지정하지 않으면 마스크가 자동으로 생성됩니다.

Logs\010105server1.xml Logs\010105server2.xml 파일의 경우 마스크 패턴은 [0-9]{6}(.*)입니다. 이 패턴은 위의 파일 이름에서 문자열 "server1" 또는 "server2"를 추출합니다.

정규 표현식을 참조하십시오.

재귀 True 또는 False. 이 매개 변수가 true로 설정되면 로그 경로에 지정된 각 경로의 모든 하위 디렉토리가 지정된 파일 이름 또는 와일드카드 패턴과 일치하는 파일을 검색합니다. 기본값은 false입니다.
파일 거부 디코더의 조건을 충족하지 않는 로그 항목이 들어 있는 파일의 경로 및 파일 이름입니다.
시작/종료 시간 사용

True 또는 False. 이 매개 변수가 true로 설정되어 있고 시작 시간 또는 종료 시간이 지정된 경우 이 로그 소스의 모든 파일에는 YYYYMMDD(ISO 형식)의 날짜로 시작하는 파일 이름이 있어야 합니다. 각 파일에는 GMT일(예: 한 날 000 GMT부터 시작하여 다음 날 000 GMT까지)에 대한 데이터가 포함되어 있다고 가정합니다. 로그 소스 파일 이름이 ISO 날짜로 시작되지 않거나 파일에 GMT일에 해당하지 않는 데이터가 포함된 경우 이 매개 변수를 false로 설정하여 잘못된 결과를 방지해야 합니다.

참고: 위에서 설명한 이름 지정 및 시간 범위 요구 사항이 XML 파일에 대해 충족되고 이 매개 변수를 true로 설정하면 지정된 XML 디코더 그룹은 지정된 시작 시간과 종료 시간 사이에 ISO 날짜가 있는 파일로 읽히는 파일을 제한합니다. 이 매개 변수를 false로 설정하면 Data Workbench 서버는 로그 처리 중에 모든 XML 파일을 읽고 시작 시간 및 종료 시간 범위 내에 데이터가 포함된 파일을 확인합니다.

시작 시간 및 종료 시간 매개 변수에 대한 자세한 내용은 데이터 필터를 참조하십시오.

노트

데이터 집합에 대한 데이터 소스가 정의된 후에는 XML 로그 소스를 삭제하거나 이동해서는 안 됩니다. 새로 만든 XML 파일만 데이터 소스의 디렉터리에 추가해야 합니다.

Avro 데이터 피드는 데이터를 Data Workbench에 통합하는 더 효율적인 방법을 제공합니다.

  • Avro는 트래픽 및 상거래 데이터에 대한 단일 소스 형식을 제공합니다.

  • Avro 피드는 하루에 제공되는 여러 소스 청크의 압축 데이터입니다. 채워진 필드만 제공하고 모니터링 및 알림 기능, 기록 데이터에 대한 액세스 및 자동 복구를 제공합니다.

  • Avro 로그 파일의 자체 정의 레이아웃인 스키마가 각 파일의 시작 부분에 포함됩니다.

  • 디코더에 필요한 변경 사항 없이 Data Workbench 데이터를 수집하기 위해 지원 정보와 함께 새 필드가 추가됩니다. 다음과 같은 보고서가 포함됩니다.

    • Evar:1-250(이전 1-75)
    • 사용자 지정 이벤트:1-1000(1-100)
    • 모바일, 소셜 및 비디오 데이터에 대한 솔루션 변수에 액세스
노트

또한 Avro 피드를 사용하면 종료 없이 피드의 모든 새 필드에 즉시 액세스할 수 있으므로, 서비스 시간 요구 사항 없이 필드를 업데이트할 수 있습니다.

Avro 데이터 피드는 별도의 파일로 설정됩니다.

  • Avro 로그 파일:트래픽 및 상거래 데이터의 형식을 지정하기 위해 디코더에서 생성된 Avro 로그 형식입니다.
  • Avro 디코더 파일:이 파일을 사용하면 값을 새로운 Avro 형식에 매핑할 수 있습니다. Avro 디코더 마법사를 사용하여 디코더를 설정할 수 있습니다.

Avro 디코더 마법사

이 마법사는 Avro 디코더 로그 파일을 설정합니다.

열려면 작업 영역에서 마우스 오른쪽 단추를 클릭하고 관리 > 마법사 > Avro 디코더 마법사​를 선택합니다.

1단계: Avro 로그 파일을 선택합니다.

이 단계에서 Avro 스키마에 대한 소스 파일을 선택할 수 있습니다. 스키마는 로그 파일(.log) 또는 기존 디코더 파일(.avro)에서 액세스할 수 있습니다. 스키마는 두 파일 중 하나에서 가져올 수 있습니다.

Avro 로그 파일 로그 파일(.log) 파일을 열어 로그 파일의 맨 위에 있는 스키마를 보고 디코더 파일을 생성하려면 클릭합니다.
Avro 디코더 파일 기존 디코더(.avro) 파일의 스키마를 열고 편집하려면 클릭하십시오.

2단계:입력 필드를 선택합니다.

로그 처리를 전달할 데이터 세트에서 사용할 입력 필드를 선택합니다. 피드에 대한 필드를 선택할 수 있도록 파일의 모든 필드가 표시됩니다.

노트

데이터에서 배열이 발견되면 x-product(Generates row) 필드가 제공됩니다. 이 필드는 배열의 중첩 데이터에 대한 새 행을 입력 필드로 생성합니다. 예를 들어 배열에 많은 제품 값이 있는 히트 행이 있는 경우 각 제품의 입력 파일에 행이 생성됩니다.

기본값 선택 표준 기본 필드 세트로 식별할 필드를 선택합니다.
모두 선택 파일의 모든 필드를 선택합니다.
전체 선택 취소 파일의 모든 필드를 지웁니다.

3단계:행을 생성하기 위해 복사할 필드를 선택합니다.

배열의 중첩 값에서 새 행을 만들 수 있으므로, 새로 만든 모든 행에는 추적 ID와 타임스탬프가 있어야 합니다. 이 단계에서는 추적 ID 및 타임스탬프와 같은 상위 레코드의 행에 복사할 필드를 선택할 수 있습니다. 각 행에 추가할 다른 값을 선택할 수도 있습니다.

기본값 선택 추적 ID 및 타임스탬프와 같이 각 행에 새 열 값을 추가해야 하는 표준 기본 필드 세트를 선택합니다. 예를 들어 hit_source 필드는 각 새 행에 추가해야 하는 기본값입니다(목록에 기본값으로 정의됨). 필요에 따라 각 행에 다른 열 값을 추가할 수 있습니다.
모두 선택 파일의 모든 필드를 선택합니다.
전체 선택 취소 파일의 모든 필드를 지웁니다.

목록에서 값을 찾으려면 검색 상자를 사용합니다.

4단계: 디코더 이름을 지정합니다

필드 그룹의 이름을 지정하고 디코더 파일로 저장합니다. 이름은 로그 소스에 지정된 디코더 그룹 이름과 일치해야 합니다.

5단계:디코더 파일을 저장합니다.

파일 메뉴가 열리고 디코더 파일의 이름이 지정되고 Logs 폴더에 .cfg 파일로 저장됩니다.

이 페이지에서는