로그 소스

마지막 업데이트: 2022-10-05
  • 작성 대상:
  • User
    Admin
중요

Data Workbench에 대해 자세히 보기 사용 종료 공지.

로그 소스는 데이터 집합을 만드는 데 사용할 데이터가 포함된 파일입니다.

각 데이터 레코드는 트랜잭션 레코드 또는 이벤트의 단일 인스턴스를 나타내므로 로그 소스에서 사용할 수 있는 데이터를 이벤트 데이터라고 합니다. Data Workbench 서버는 Sensors 또는 다른 데이터 소스에서 추출됩니다.

  • 데이터 수집 Sensors: ​ 데이터 수집 Sensors HTTP 및 애플리케이션 서버에서 Data Workbench 서버로 전송되어 데이터가 압축된 로그( .vsl) 파일로 내보낼 때 시간별 세부기간이 작동하지 않는 문제를 해결했습니다. 자세한 내용은 센서 파일.

  • Insight Server에서 추출한 데이터: Data Workbench 서버는 플랫 파일, XML 파일 또는 ODBC 호환 데이터베이스에 포함된 이벤트 데이터를 읽고 해당 디코더를 사용하여 데이터의 원하는 요소를 추출합니다. 이러한 이벤트 데이터는 메모리에 상주할 필요는 없지만 데이터가 포함된 레코드에는 추적 ID가 포함되어야 합니다. 자세한 내용은 로그 파일, XML 로그 소스, 및 ODBC 데이터 소스.

로그 소스를 추가하려면

  1. 열기 Log Processing.cfg data workbench에서 확인하십시오.

  2. 마우스 오른쪽 단추 클릭 Log Sources​를 클릭한 다음 Add New.

  3. 다음 중 하나를 선택합니다.

    • Sensor
    • Log File
    • XML Log Source
    • ODBC Data Source
  4. 데이터 집합을 정의하는 데 사용되는 특정 매개 변수는 데이터 집합의 구성 프로세스에서 사용할 로그 소스의 유형에 따라 다릅니다. 해당 로그 소스에 해당하는 섹션에 표시된 대로 매개 변수를 지정합니다.

  5. 로그 소스를 정의하고 다른 매개 변수를 변경한 후 Log Processing.cfg 파일에서 로컬로 파일을 저장하고 data workbench 서버의 데이터 세트 프로필에 저장합니다.

    노트

    Data Workbench 서버 File Server Unit 수신 및 저장 가능 Sensor 파일, 로그 파일 및 XML 파일을 Data Workbench 서버의 Data Processing Units 데이터 세트를 구성합니다. 자세한 내용은 Insight Server 파일 서버 유닛 구성.

    로그 소스의 구성을 Transformation Dependency Map. 에 대한 자세한 정보 Transformation Dependency Map를 참조하십시오. 데이터 집합 구성 도구.

요구 사항

에 의해 수집된 이벤트 데이터 Sensors HTTP 및 애플리케이션 서버에서 Data Workbench 서버로 전송되어 데이터가 압축된 로그( .vsl) 파일로 내보낼 때 시간별 세부기간이 작동하지 않는 문제를 해결했습니다. 다음 .vsl 파일 형식은 data workbench 서버에서 관리되며 각 파일의 이름은 다음과 같습니다.

YYYMMDD-SENSORID.VSL

여기서 YYYMMDD는 파일의 날짜이고 SENSORID 은(조직에서 지정) 이름을 나타내는 이름입니다 Sensor 데이터를 수집하여 data workbench 서버에 전송합니다.

매개 변수

대상 Sensor 파일에서는 다음 매개 변수를 사용할 수 있습니다.

매개 변수 설명
로그 경로

디렉토리 .vsl 파일이 저장됩니다. 기본 위치는 Logs 디렉토리입니다. 상대 경로는 Data Workbench 서버의 설치 디렉토리를 나타냅니다.

와일드카드 문자를 사용하여 지정할 수 있습니다 .vsl 처리할 파일:

  • * 임의의 문자와 일치
  • ? 단일 문자와 일치

예를 들어 로그 경로가 Logs\*.vsl 으로 끝나는 Logs 디렉토리의 모든 파일과 일치 .vsl. 로그 경로 로그\*-SENSOR?.vsl 은 SENSOR1에서와 같이 임의의 날짜(YYYYMMDD)와 SENSOR 뒤에 있는 단일 문자를 사용하여 Logs 디렉토리에 있는 파일과 일치합니다.

지정된 경로의 모든 하위 디렉토리를 검색하려면 Recursive 매개 변수를 true로 설정해야 합니다.

참고: Data Workbench 서버의 파일 서버 유닛를 입력하면 로그 경로 매개 변수에 적절한 URI를 입력해야 합니다. 예: URI /Logs/*-*.vsl 일치 .vsl Logs 디렉토리에 있는 파일입니다. 자세한 내용은 Insight Server 파일 서버 유닛 구성.

로그 서버 파일 서버에 연결하는 데 필요한 정보(주소, 이름, 포트 등)입니다. 로그 서버 매개 변수에 항목이 있으면 로그 경로 는 URI로 해석됩니다. 그렇지 않으면 로컬 경로로 해석됩니다. 자세한 내용은 Insight Server 파일 서버 유닛 구성.
로그 소스 ID

이 매개 변수의 값은 임의의 문자열일 수 있습니다. 값이 지정된 경우 이 매개 변수를 사용하여 로그 항목을 소스 식별 또는 대상 처리를 위해 다른 로그 소스와 구분할 수 있습니다. x-log-source-id 필드는 각 로그 항목에 대한 로그 소스를 식별하는 값으로 채워집니다. 예를 들어, Sensor 이름이 VSensor01인 경우 VSensor01에서및 이 문자열은 해당 소스의 모든 로그 항목에 대해 x-log-source-id 필드에 전달됩니다.

x-log-source-id 필드에 대한 자세한 내용은 이벤트 데이터 레코드 필드.

재귀 True 또는 False입니다. true로 설정하면 각 경로의 모든 하위 디렉토리가 로그 경로 지정한 파일 이름 또는 와일드카드 패턴과 일치하는 파일을 검색합니다. 기본값은 false입니다.
시작/종료 시간 사용

True 또는 False입니다. true로 설정하고 시작 시간 또는 종료 시간을 지정하는 경우 이 로그 소스의 모든 파일에는 YYYYYMMDD(ISO 형식)의 날짜로 시작하는 파일 이름이 있어야 합니다. 각 파일에는 GMT일(예: 한 날 000 GMT부터 시작하여 다음 날 000 GMT까지)에 대한 데이터가 포함되어 있다고 가정합니다. 로그 소스 파일에 GMT일에 해당하지 않는 데이터가 있는 경우 이 매개 변수를 false로 설정하여 잘못된 결과를 방지해야 합니다.

참고: 기본적으로 .vsl 에서 수집한 데이터가 들어 있는 파일 Sensor 위에서 설명한 이름 지정 및 시간 범위 요구 사항을 자동으로 충족합니다. 이 매개 변수를 true로 설정하면 Data Workbench 서버는 항상 이름이 지정된 시작 시간과 종료 시간 사이에 있는 ISO 날짜를 포함하는 파일의 데이터를 처리합니다. 이 매개 변수를 false로 설정하면 Data Workbench 서버가 모든 .vsl 파일을 처리하여 시작 시간 및 종료 시간 범위 내에 데이터가 포함된 파일을 확인합니다.

시작 시간 및 종료 시간 매개 변수에 대한 자세한 내용은 데이터 필터.

노트

에 구성 매개 변수를 사용하지 마십시오 Sensor 데이터 소스 : 로그 파일 내에 데이터 집합에 포함해야 하는 로그 항목을 결정합니다. 대신 디렉토리 내의 모든 로그 파일을 가리키도록 데이터 소스를 설정합니다. 그런 다음 의 시작 시간 및 종료 시간 매개 변수를 사용합니다 Log Processing.cfg 데이터 집합을 구성하는 데 사용해야 하는 로그 항목을 확인하려면 다음을 수행하십시오. 자세한 내용은 데이터 필터.

이벤트 데이터가 포함된 파일은 다음 요구 사항을 충족해야 합니다.

  • 파일의 각 이벤트 데이터 레코드는 한 줄로 표시되어야 합니다.

  • 레코드 내의 필드는 비어 있는지 여부에 관계없이 ASCII 구분 기호로 구분해야 합니다. Data Workbench 서버에서는 특정 구분 기호를 사용할 필요가 없습니다. 행 끝 문자가 아니며 이벤트 데이터 자체 내의 어디에나 표시되지 않는 문자를 사용할 수 있습니다.

  • 파일의 각 레코드에는 다음을 포함해야 합니다.

    • 추적 ID
    • 타임스탬프
  • 데이터 처리에 대한 시작 및 종료 시간을 지정하려면 각 파일 이름은 형식이어야 합니다.

    • YYYYMMDD-SOURCE.log

    여기서 YYYMMDD 은 파일에 있는 모든 데이터의 그리니치 표준시(GMT)일 및 소스 는 파일에 포함된 데이터의 소스를 식별하는 변수입니다.

    노트

    데이터 집합에 통합하려는 로그 파일을 검토하려면 Adobe 컨설팅 서비스에 문의하십시오.

매개 변수

로그 파일 로그 소스의 경우 다음 표의 매개 변수를 사용할 수 있습니다.

노트

로그 파일 로그 소스를 처리하려면 Log Processing Dataset Include 파일에 포함된 매개 변수의 하위 집합을 포함하는 파일 Log Processing.cfg 파일 및 로그 파일에서 데이터를 추출하기 위한 디코더를 정의하기 위한 특수 매개 변수입니다. 로그 파일 로그 소스에 대한 디코더 정의에 대한 내용은 텍스트 파일 디코더 그룹.

매개 변수 설명
이름 로그 파일 소스의 식별자입니다.
로그 경로

로그 파일이 저장되는 디렉토리입니다. 기본 위치는 Logs 디렉토리입니다. 상대 경로는 Data Workbench 서버의 설치 디렉토리를 나타냅니다.

와일드카드 문자를 사용하여 처리할 로그 파일을 지정할 수 있습니다.

  • * 임의의 문자와 일치하는 항목을 찾습니다.
  • ? 단일 문자와 일치하는 항목을 찾습니다.

예를 들어 로그 경로가 Logs\*.log 으로 끝나는 Logs 디렉토리의 모든 파일과 일치 .log.

지정된 경로의 모든 하위 디렉토리를 검색하려면 Recursive 매개 변수를 true로 설정해야 합니다.

Data Workbench 서버의 파일 서버 유닛를 입력하면 로그 경로 매개 변수에 적절한 URI를 입력해야 합니다. 예: URI/Logs/*.log 일치 .log Logs 디렉토리에 있는 파일입니다. 자세한 내용은 Insight Server 파일 서버 유닛 구성.

로그 서버 파일 서버에 연결하는 데 필요한 정보(주소, 이름, 포트 등)입니다. 로그 서버 매개 변수에 항목이 있으면 로그 경로 는 URI로 해석됩니다. 그렇지 않으면 로컬 경로로 해석됩니다. 자세한 내용은 Insight Server 파일 서버 유닛 구성.
압축 True 또는 False입니다. Data Workbench 서버에서 읽을 로그 파일이 압축 gzip 파일인 경우 이 값을 true로 설정해야 합니다.
디코더 그룹 로그 파일 로그 소스에 적용할 텍스트 파일 디코더 그룹의 이름입니다. 이 이름은 로그 처리 데이터 집합에 포함 파일. 자세한 내용은 텍스트 파일 디코더 그룹.
로그 소스 ID

이 매개 변수의 값은 임의의 문자열일 수 있습니다. 값이 지정된 경우 이 매개 변수를 사용하여 로그 항목을 소스 식별 또는 대상 처리를 위해 다른 로그 소스와 구분할 수 있습니다. x-log-source-id 필드는 각 로그 항목에 대한 로그 소스를 식별하는 값으로 채워집니다. 예를 들어 LogFile01이라는 로그 파일 소스에서 로그 항목을 식별하려면 다음을 입력할 수 있습니다 LogFile01에서및 이 문자열은 해당 소스의 모든 로그 항목에 대해 x-log-source-id 필드에 전달됩니다.

x-log-source-id 필드에 대한 자세한 내용은 이벤트 데이터 레코드 필드.

마스크 패턴

일련의 로그 파일의 소스를 식별하는 데 사용되는 일관된 이름을 추출하는 단일 캡처 하위 패턴이 있는 정규 표현식입니다. 파일 이름만 고려됩니다. 경로 및 확장은 정규 표현식 일치에 대해 고려되지 않습니다. 를 지정하지 않으면 마스크 패턴을 지정하면 마스크가 자동으로 생성됩니다.

파일 Logs\010105server1.log Logs\010105server2.log, 마스크 패턴 그러면 [0-9]{6}(.*). 이 패턴은 위의 파일 이름에서 문자열 "server1" 또는 "server2"를 추출합니다.

자세한 내용은 정규 표현식.

재귀 True 또는 False입니다. 이 매개 변수가 true로 설정되면 각 경로의 모든 하위 디렉토리가 로그 경로 지정한 파일 이름 또는 와일드카드 패턴과 일치하는 파일을 검색합니다. 기본값은 false입니다.
파일 거부 디코더의 조건을 충족하지 않는 로그 항목이 들어 있는 파일의 경로 및 파일 이름입니다.
시작/종료 시간 사용

True 또는 False입니다. 이 매개 변수가 true로 설정되어 있고 시작 시간 또는 종료 시간이 지정된 경우 이 로그 소스의 모든 파일에는 YYYYMMDD(ISO 형식)의 날짜로 시작하는 파일 이름이 있어야 합니다. 각 파일에는 GMT일(예: 한 날 000 GMT부터 시작하여 다음 날 000 GMT까지)에 대한 데이터가 포함되어 있다고 가정합니다. 로그 소스 파일 이름이 ISO 날짜로 시작되지 않거나 파일에 GMT일에 해당하지 않는 데이터가 포함된 경우 이 매개 변수를 false로 설정하여 잘못된 결과를 방지해야 합니다.

참고: 위에서 설명한 이름 지정 및 시간 범위 요구 사항이 로그 파일에 대해 충족되고 이 매개 변수를 true로 설정하면 지정된 텍스트 파일 디코더 그룹은 지정된 시작 시간과 종료 시간 사이에 ISO 날짜가 있는 파일로 읽히는 파일을 제한합니다. 이 매개 변수를 false로 설정하면 Data Workbench 서버가 로그 처리 중에 모든 로그 파일을 읽고 시작 시간 및 종료 시간 범위 내에 데이터가 포함된 파일을 확인합니다.

시작 시간 및 종료 시간 매개 변수에 대한 자세한 내용은 데이터 필터.

이 예에서 데이터 세트는 두 가지 유형의 로그 소스에서 구성됩니다.

로그 소스 0은 Sensor. 이 데이터 소스는 Logs라는 디렉토리와 .vsl 파일 이름 확장명을 사용합니다.

로그 소스 1은 .txt 파일 이름 확장명을 사용합니다. 이 로그 소스의 디코더 그룹을 "텍스트 로그"라고 합니다.

데이터 세트에 대한 데이터 소스가 정의된 후에는 로그 파일을 삭제하거나 이동해서는 안 됩니다. 새로 만든 로그 파일만 데이터 소스의 디렉토리에 추가해야 합니다.

이벤트 데이터가 포함된 파일은 다음 요구 사항을 충족해야 합니다.

  • 이벤트 데이터는 적절한 부모-자식 관계가 있는 올바른 형식의 XML 파일에 포함해야 합니다.

  • 각 XML 파일 형식에 고유한 디코더 그룹이 있어야 합니다. 디코더 그룹 구성에 대한 내용은 XML 디코더 그룹.

  • 파일의 각 방문자 레코드에는 다음이 포함되어야 합니다.

    • 추적 ID
    • 타임스탬프
  • 데이터 처리에 대한 시작 및 종료 시간을 지정하려면 각 파일 이름이 형식이어야 합니다

YYYYMMDD-SOURCE.log

여기서 YYYMMDD 은 파일에 있는 모든 데이터의 그리니치 표준시(GMT)일 및 소스 는 파일에 포함된 데이터의 소스를 식별하는 변수입니다.

이러한 요구 사항을 충족하는 XML 파일의 예는 XML 디코더 그룹.

노트

데이터 집합에 통합할 XML 로그 파일을 검토하려면 Adobe 컨설팅 서비스에 문의하십시오.

매개 변수

XML 로그 소스의 경우 다음 표의 매개 변수를 사용할 수 있습니다.

노트

XML 로그 소스를 처리하려면 Log Processing Dataset Include 파일에 포함된 매개 변수의 하위 집합을 포함하는 파일 Log Processing.cfg 파일 및 XML 파일에서 데이터를 추출하기 위한 디코더를 정의하기 위한 특수 매개 변수를 제공합니다. XML 로그 소스에 대한 디코더 정의에 대한 내용은 XML 디코더 그룹.

필드 설명
이름 XML 로그 소스의 식별자입니다.
로그 경로

XML 로그 소스가 저장되는 디렉토리입니다. 기본 위치는 Logs 디렉토리입니다. 상대 경로는 Data Workbench 서버의 설치 디렉토리를 나타냅니다.

와일드카드 문자를 사용하여 처리할 XML 로그 소스를 지정할 수 있습니다.

  • * 임의의 문자와 일치
  • ? 단일 문자와 일치

예를 들어 로그 경로가 Logs\*.xml 으로 끝나는 Logs 디렉토리의 모든 파일과 일치 .xml.

지정된 경로의 모든 하위 디렉토리를 검색하려면 재귀 필드를 true로 설정합니다.

참고: Data Workbench 서버의 파일 서버 유닛를 채울 때는 로그 경로 필드. 예: URI/Logs/*.xml 일치 .xml Logs 디렉토리에 있는 파일입니다. 자세한 내용은 Insight Server 파일 서버 유닛 구성.

로그 서버 파일 서버에 연결하는 데 필요한 정보(주소, 이름, 포트 등)입니다. 에 항목이 있을 경우 로그 서버 필드, 로그 경로 는 URI로 해석됩니다. 그렇지 않으면 로컬 경로로 해석됩니다. 자세한 내용은 Insight Server 파일 서버 유닛 구성.
압축 True 또는 False입니다. Data Workbench 서버에서 읽을 XML 로그 소스가 압축 gzip 파일인 경우 이 값을 true로 설정해야 합니다.
디코더 그룹 XML 로그 소스에 적용할 XML 디코더 그룹의 이름입니다. 이 이름은 로그 처리 데이터 집합에 포함 파일. 자세한 내용은 XML 디코더 그룹.
로그 소스 ID

이 필드의 값은 임의의 문자열일 수 있습니다. 값을 지정한 경우 이 필드를 사용하면 로그 항목을 소스 식별 또는 대상 처리를 위해 다른 로그 소스와 구분할 수 있습니다. x-log-source-id 필드는 각 로그 항목에 대한 로그 소스를 식별하는 값으로 채워집니다. 예를 들어, XMLFile01이라는 로그 파일 소스에서 로그 항목을 식별하려면 다음을 입력할 수 있습니다 XMLFile01에서및 이 문자열은 해당 소스의 모든 로그 항목에 대해 x-log-source-id 필드에 전달됩니다.

x-log-source-id 필드에 대한 자세한 내용은 이벤트 데이터 레코드 필드.

마스크 패턴

일련의 로그 파일의 소스를 식별하는 데 사용되는 일관된 이름을 추출하는 단일 캡처 하위 패턴이 있는 정규 표현식입니다. 파일 이름만 고려됩니다. 경로 및 확장은 정규 표현식 일치에 대해 고려되지 않습니다. 를 지정하지 않으면 마스크 패턴을 지정하면 마스크가 자동으로 생성됩니다.

파일 Logs\010105server1.xml Logs\010105server2.xml로 지정하는 경우, 마스크 패턴은 [0-9]{6}(.*). 이 패턴은 위의 파일 이름에서 문자열 "server1" 또는 "server2"를 추출합니다.

자세한 내용은 정규 표현식.

재귀 True 또는 False입니다. 이 매개 변수가 true로 설정되면 각 경로의 모든 하위 디렉토리가 로그 경로 지정한 파일 이름 또는 와일드카드 패턴과 일치하는 파일을 검색합니다. 기본값은 false입니다.
파일 거부 디코더의 조건을 충족하지 않는 로그 항목이 들어 있는 파일의 경로 및 파일 이름입니다.
시작/종료 시간 사용

True 또는 False입니다. 이 매개 변수가 true로 설정되어 있고 시작 시간 또는 종료 시간이 지정된 경우 이 로그 소스의 모든 파일에는 YYYYMMDD(ISO 형식)의 날짜로 시작하는 파일 이름이 있어야 합니다. 각 파일에는 GMT일(예: 한 날 000 GMT부터 시작하여 다음 날 000 GMT까지)에 대한 데이터가 포함되어 있다고 가정합니다. 로그 소스 파일 이름이 ISO 날짜로 시작되지 않거나 파일에 GMT일에 해당하지 않는 데이터가 포함된 경우 이 매개 변수를 false로 설정하여 잘못된 결과를 방지해야 합니다.

참고: 위에서 설명한 이름 지정 및 시간 범위 요구 사항이 XML 파일에 대해 충족되고 이 매개 변수를 true로 설정하면 지정된 XML 디코더 그룹은 지정된 시작 시간과 종료 시간 사이에 ISO 날짜가 있는 파일로 읽히는 파일을 제한합니다. 이 매개 변수를 false로 설정하면 Data Workbench 서버는 로그 처리 중에 모든 XML 파일을 읽고 시작 시간 및 종료 시간 범위 내에 데이터가 포함된 파일을 확인합니다.

시작 시간 및 종료 시간 매개 변수에 대한 자세한 내용은 데이터 필터.

노트

데이터 집합에 대한 데이터 소스가 정의된 후에는 XML 로그 소스를 삭제하거나 이동해서는 안 됩니다. 새로 만든 XML 파일만 데이터 소스의 디렉터리에 추가해야 합니다.

Avro 데이터 피드는 데이터를 Data Workbench에 통합하는 더 효율적인 방법을 제공합니다.

  • Avro는 트래픽 및 상거래 데이터에 대한 단일 소스 형식을 제공합니다.

  • Avro 피드는 하루에 제공되는 여러 소스 청크의 압축 데이터입니다. 채워진 필드만 제공하고 모니터링 및 알림 기능, 기록 데이터에 대한 액세스 및 자동 복구를 제공합니다.

  • Avro 로그 파일의 자체 정의 레이아웃인 스키마가 각 파일의 시작 부분에 포함됩니다.

  • 디코더에 필요한 변경 사항 없이 Data Workbench 데이터를 수집하기 위해 지원 정보와 함께 새 필드가 추가됩니다. 다음과 같은 보고서가 포함됩니다.

    • Evar: 1-250(이전 1-75)
    • 사용자 지정 이벤트: 1-1000(1-100)
    • 모바일, 소셜 및 비디오 데이터에 대한 솔루션 변수에 액세스
노트

또한 Avro 피드를 사용하면 종료 없이 피드의 모든 새 필드에 즉시 액세스할 수 있으므로, 서비스 시간 요구 사항 없이 필드를 업데이트할 수 있습니다.

Avro 데이터 피드는 별도의 파일로 설정됩니다.

  • An Avro 로그 파일: 트래픽 및 상거래 데이터의 형식을 지정하기 위해 디코더에서 생성된 Avro 로그 형식입니다.
  • An Avro 디코더 파일: 이 파일을 사용하면 값을 새로운 Avro 형식에 매핑할 수 있습니다. Avro 디코더 마법사를 사용하여 디코더를 설정할 수 있습니다.

Avro 디코더 마법사

이 마법사는 Avro 디코더 로그 파일을 설정합니다.

열려면 작업 공간에서 마우스 오른쪽 단추를 클릭하고 을 선택합니다 관리 > 마법사 > Avro 디코더 마법사.

1단계: Avro 로그 파일 선택.

이 단계에서 Avro 스키마에 대한 소스 파일을 선택할 수 있습니다. 스키마는 로그 파일(.log) 또는 기존 디코더 파일(.avro)에서 액세스할 수 있습니다. 스키마는 두 파일 중 하나에서 가져올 수 있습니다.

Avro 로그 파일 ​ 로그 파일(.log) 파일을 열어 로그 파일의 맨 위에 있는 스키마를 보고 디코더 파일을 생성하려면 클릭합니다.
Avro 디코더 파일 기존 디코더(.avro) 파일의 스키마를 열고 편집하려면 클릭하십시오.

2단계: 입력 필드 선택.

로그 처리를 전달할 데이터 세트에서 사용할 입력 필드를 선택합니다. 피드에 대한 필드를 선택할 수 있도록 파일의 모든 필드가 표시됩니다.

노트

A x-product(Generates row) 데이터에서 배열이 발견되면 필드가 제공됩니다. 이 필드는 배열의 중첩 데이터에 대한 새 행을 입력 필드로 생성합니다. 예를 들어 배열에 많은 제품 값이 있는 히트 행이 있는 경우 각 제품의 입력 파일에 행이 생성됩니다.

기본값 선택 표준 기본 필드 세트로 식별할 필드를 선택합니다.
모두 선택 파일의 모든 필드를 선택합니다.
전체 선택 취소 파일의 모든 필드를 지웁니다.

3단계: 행을 생성하기 위해 복사할 필드를 선택합니다.

배열의 중첩 값에서 새 행을 만들 수 있으므로, 새로 만든 모든 행에는 추적 ID와 타임스탬프가 있어야 합니다. 이 단계에서는 추적 ID 및 타임스탬프와 같은 상위 레코드의 행에 복사할 필드를 선택할 수 있습니다. 각 행에 추가할 다른 값을 선택할 수도 있습니다.

기본값 선택 추적 ID 및 타임스탬프와 같이 각 행에 새 열 값을 추가해야 하는 표준 기본 필드 세트를 선택합니다. 예: hit_source 필드는 각 새 행에 추가해야 하는 기본 값입니다(목록에 기본값으로 정의됨). 필요에 따라 각 행에 다른 열 값을 추가할 수 있습니다.
모두 선택 파일의 모든 필드를 선택합니다.
전체 선택 취소 파일의 모든 필드를 지웁니다.

를 사용하십시오 검색 상자에서 값을 찾습니다.

4단계: 디코더 이름을 지정합니다

필드 그룹의 이름을 지정하고 디코더 파일로 저장합니다. 이름은 로그 소스에 지정된 디코더 그룹 이름과 일치해야 합니다.

5단계: 디코더 파일을 저장합니다.

파일 메뉴가 열려 디코더 파일의 이름을 지정하고 .cfg 파일의 로그 폴더를 입력합니다.

이 페이지의