의 데이터 액세스 Jupyterlab 노트북

지원되는 각 커널에서는 노트북 내의 데이터 세트에서 플랫폼 데이터를 읽을 수 있는 내장 기능을 제공합니다. 현재 Adobe Experience Platform 데이터 과학 작업 공간의 JupiterLab은 용 전자 필기장을 지원합니다 Python, R, PySpark 및 Scala. 그러나 데이터 페이지 매기기를 지원하는 것은 다음으로 제한됩니다 Python 그리고 R 노트북 이 안내서에서는 JupiterLab 노트북을 사용하여 데이터에 액세스하는 방법에 중점을 둡니다.

시작하기

이 안내서를 읽기 전에 JupyterLab 사용 안내서 을 통해 JupyterLab 및 Data Science Workspace에서 해당 역할.

전자 필기장 데이터 제한

중요

PySpark 및 Scala 노트북의 경우 "Remote RPC 클라이언트가 연결되지 않음"이라는 이유로 오류가 표시됩니다. 일반적으로 드라이버나 실행자의 메모리가 부족함을 의미합니다. 로 전환해 보십시오. "batch" 모드 이 오류를 해결하려면

다음 정보는 읽을 수 있는 최대 데이터 양, 사용된 데이터 유형 및 데이터를 읽는 예상 기간을 정의합니다.

대상 Python 40GB RAM으로 구성된 노트북 서버가 벤치마크에 사용되었습니다. PySpark와 Scala의 경우, 64GB RAM으로 구성된 데이터베이스 클러스터, 8코어, 2DBU가 사용되었으며, 이 벤치마크에는 최대 4명의 직원이 사용되었습니다.

사용되는 ExperienceEvent 스키마 데이터는 최대 10억(1B) 행 1천 개부터 크기가 변경되었습니다. PySpark 및 Spark 지표, XDM 데이터에 10일의 날짜 범위가 사용되었습니다.

임시 스키마 데이터는 Query Service 테이블을 선택하여 만들기(CTAS) 또한 이 데이터는 최대 10억(1B) 행에 이르는 1,000개(1K) 행부터 크기가 변경되었습니다.

일괄 처리 모드와 대화형 모드를 사용해야 하는 경우

PySpark 및 Scala 노트북으로 데이터 세트를 읽을 때 대화형 모드나 일괄 처리 모드를 사용하여 데이터 집합을 읽을 수 있습니다. 일괄 처리 모드는 큰 데이터 세트에 사용되지만 빠른 결과를 위해 인터랙티브하게 수행됩니다.

  • PySpark 및 Scala 노트북의 경우 500만 개 이상의 데이터 행을 읽고 있는 경우 일괄 처리 모드를 사용해야 합니다. 각 모드의 효율성에 대한 자세한 내용은 PySpark 또는 스칼라 아래의 데이터 제한 테이블.

Python 전자 필기장 데이터 제한

XDM ExperienceEvent 스키마: 22분 이내에 XDM 데이터의 최대 200만 행(~6.1GB 데이터의 디스크 데이터)을 읽을 수 있어야 합니다. 행을 더 추가하면 오류가 발생할 수 있습니다.

행 수 1K 10K 100K 1M 2M
디스크 크기(MB) 18.73 187.5 308 3000 6050
SDK (초) 20.3 86.8 63 659 1315

애드혹 스키마: 14분 이내에 비XDM(ad-hoc) 데이터의 최대 500만 행(~5.6GB 데이터의 디스크 데이터)을 읽을 수 있어야 합니다. 행을 더 추가하면 오류가 발생할 수 있습니다.

행 수 1K 10K 100K 1M 2M 3M 5M
디스크 크기(MB) 1.21 11.72 115 1120 2250 3380 5630
SDK (초) 7.27 9.04 27.3 180 346 487 819

전자 필기장 데이터 제한

XDM ExperienceEvent 스키마: 13분 이내에 최대 100만 개의 XDM 데이터 행(디스크의 3GB 데이터)을 읽을 수 있어야 합니다.

행 수 1K 10K 100K 1M
디스크 크기(MB) 18.73 187.5 308 3000
R 커널(초) 14.03 69.6 86.8 775

애드혹 스키마: 최대 300만 개의 애드혹 데이터 행(293MB 데이터의 디스크)을 약 10분 안에 읽을 수 있어야 합니다.

행 수 1K 10K 100K 1M 2M 3M
디스크 크기(MB) 0.082 0.612 9.0 91 188 293
R SDK(초) 7.7 4.58 35.9 233 470.5 603

PySpark(Python 커널) 노트북 데이터 제한:

XDM ExperienceEvent 스키마: 대화형 모드에서 약 20분 내에 XDM 데이터의 최대 500만 개의 행(~13.42GB 데이터의 디스크)을 읽을 수 있습니다. 대화형 모드는 최대 5백만 개의 행만 지원합니다. 더 큰 데이터 세트를 읽으려면 일괄 처리 모드로 전환하는 것이 좋습니다. 일괄 처리 모드에서는 약 14시간 내에 XDM 데이터의 최대 5억 행(~1.31TB 데이터의 디스크)을 읽을 수 있습니다.

행 수 1K 10K 100K 1M 2M 3M 5M 10M 50M 100M 500M
디스크의 크기 2.93MB 4.38MB 29.02 2.69GB 5.39GB 8.09GB 13.42GB 26.82GB 134.24GB 268.39GB 1.31TB
SDK(대화형 모드) 33s 32.4s 55.1s 253.5s 489.2s 729.6s 1206.8s - - - -
SDK(배치 모드) 815.8s 492.8s 379.1s 637.4s 624.5s 869.2s 1104.1s 1786s 5387.2s 10624.6s 50547s

애드혹 스키마: 대화형 모드에서 XDM 이외의 데이터의 최대 500만 행(~5.36GB 데이터의 디스크)을 3분 이내에 읽을 수 있어야 합니다. 일괄 처리 모드에서는 약 18분 내에 XDM 이외의 데이터의 최대 10억 행(~1.05TB 데이터) 을 읽을 수 있습니다.

행 수 1K 10K 100K 1M 2M 3M 5M 10M 50M 100M 500M 1B
디스크의 크기 1.12MB 11.24MB 109.48MB 2.69GB 2.14GB 3.21GB 5.36GB 10.71GB 53.58GB 107.52GB 535.88GB 1.05TB
SDK 대화형 모드(초) 28.2s 18.6s 20.8s 20.9s 23.8s 21.7s 24.7s - - - - -
SDK 일괄 처리 모드(초) 428.8s 578.8s 641.4s 538.5s 630.9s 467.3s 411s 675s 702s 719.2s 1022.1s 1122.3s

Spark (스칼라 커널) 노트북 데이터 제한:

XDM ExperienceEvent 스키마: 대화형 모드에서 약 18분 내에 XDM 데이터의 최대 500만 개 행(~13.42GB 데이터의 디스크)을 읽을 수 있습니다. 대화형 모드는 최대 5백만 개의 행만 지원합니다. 더 큰 데이터 세트를 읽으려면 일괄 처리 모드로 전환하는 것이 좋습니다. 일괄 처리 모드에서는 약 14시간 내에 XDM 데이터의 최대 5억 행(~1.31TB 데이터의 디스크)을 읽을 수 있습니다.

행 수 1K 10K 100K 1M 2M 3M 5M 10M 50M 100M 500M
디스크의 크기 2.93MB 4.38MB 29.02 2.69GB 5.39GB 8.09GB 13.42GB 26.82GB 134.24GB 268.39GB 1.31TB
SDK 대화형 모드(초) 37.9s 22.7s 45.6s 231.7s 444.7s 660.6s 1100s - - - -
SDK 일괄 처리 모드(초) 374.4s 398.5s 527s 487.9s 588.9s 829s 939.1s 1441s 5473.2s 10118.8 49207.6

애드혹 스키마: 대화형 모드에서 XDM 이외의 데이터의 최대 500만 행(~5.36GB 데이터의 디스크)을 3분 이내에 읽을 수 있어야 합니다. 일괄 처리 모드에서는 약 16분 내에 XDM 이외의 데이터의 최대 10억 행(~1.05TB 데이터) 을 읽을 수 있습니다.

행 수 1K 10K 100K 1M 2M 3M 5M 10M 50M 100M 500M 1B
디스크의 크기 1.12MB 11.24MB 109.48MB 2.69GB 2.14GB 3.21GB 5.36GB 10.71GB 53.58GB 107.52GB 535.88GB 1.05TB
SDK 대화형 모드(초) 35.7s 31s 19.5s 25.3s 23s 33.2s 25.5s - - - - -
SDK 일괄 처리 모드(초) 448.8s 459.7s 519s 475.8s 599.9s 347.6s 407.8s 397s 518.8s 487.9s 760.2s 975.4s

파이톤 노트북

Python 전자 필기장을 사용하면 데이터 세트에 액세스할 때 데이터를 페이지 매기기를 사용할 수 있습니다. 페이지 매김이 있는 데이터와 페이지 매김이 없는 데이터를 읽는 샘플 코드는 아래에 나와 있습니다. 사용 가능한 스타터 Python 노트북에 대한 자세한 내용은 JupyterLab 시작 관리자 섹션을 참조하십시오.

아래 Python 설명서에서는 다음 개념을 간략하게 설명합니다.

Python의 데이터 세트에서 읽기

페이지 매김 없이:

다음 코드를 실행하면 전체 데이터 세트가 읽습니다. 실행이 성공적으로 수행되면 데이터는 변수가 참조하는 Pendder 데이터 프레임으로 저장됩니다 df.

# Python

from platform_sdk.dataset_reader import DatasetReader
dataset_reader = DatasetReader(get_platform_sdk_client_context(), dataset_id="{DATASET_ID}")
df = dataset_reader.read()
df.head()

페이지 매김 사용:

다음 코드를 실행하면 지정된 데이터 세트에서 데이터가 읽습니다. 페이지 매김이 함수를 통해 데이터를 제한 및 오프셋하여 달성됩니다 limit()offset() 각각 사용할 수 있습니다. 데이터 제한은 읽을 최대 데이터 포인트 수를 나타내지만, 오프셋은 데이터를 읽기 전에 건너뛸 데이터 포인트 수를 나타냅니다. 읽기 작업이 성공적으로 실행되면 데이터가 변수에 의해 참조되는 Pendder 데이터 프레임으로 저장됩니다 df.

# Python

from platform_sdk.dataset_reader import DatasetReader

dataset_reader = DatasetReader(get_platform_sdk_client_context(), dataset_id="{DATASET_ID}")
df = dataset_reader.limit(100).offset(10).read()

Python로 데이터 집합에 쓰기

JupiterLab 전자 필기장의 데이터 집합에 쓰려면 JupiterLab의 왼쪽 탐색에서 데이터 아이콘 탭(아래 강조 표시)을 선택합니다. 다음 데이터 세트스키마 디렉터리가 나타납니다. 선택 데이터 세트 마우스 오른쪽 단추를 클릭한 다음 전자 필기장에 데이터 쓰기 사용할 데이터 세트의 드롭다운 메뉴에서 옵션을 선택합니다. 전자 필기장의 아래쪽에 실행 가능한 코드 항목이 나타납니다.

  • 사용 전자 필기장에 데이터 쓰기 을 입력하여 선택한 데이터 세트로 쓰기 셀을 생성합니다.
  • 사용 전자 필기장에서 데이터 탐색 선택한 데이터 세트로 읽기 셀을 생성합니다.
  • 사용 전자 필기장의 쿼리 데이터 선택한 데이터 세트로 기본 쿼리 셀을 생성합니다.

또는 다음 코드 셀을 복사하여 붙여넣을 수 있습니다. 둘 다 바꾸기 {DATASET_ID}{PANDA_DATAFRAME}.

from platform_sdk.models import Dataset
from platform_sdk.dataset_writer import DatasetWriter

dataset = Dataset(get_platform_sdk_client_context()).get_by_id(dataset_id="{DATASET_ID}")
dataset_writer = DatasetWriter(get_platform_sdk_client_context(), dataset)
write_tracker = dataset_writer.write({PANDA_DATAFRAME}, file_format='json')

을 사용하여 데이터 쿼리 Query Service in Python

JupyterLab on Platform 에서는 Python 전자 필기장을 통해 데이터 액세스 Adobe Experience Platform 쿼리 서비스. 를 통해 데이터 액세스 Query Service 은 실행 시간이 뛰어나기 때문에 큰 데이터 세트를 처리하는 데 유용할 수 있습니다. 을 사용하여 데이터를 쿼리하는 것이 좋습니다 Query Service 에는 처리 시간 제한 10분이 있습니다.

사용하기 전에 Query Service in JupyterLab를 설정하는 것이 좋습니다 Query Service SQL 구문.

을 사용하여 데이터 쿼리 Query Service 를 사용하려면 target 데이터 세트의 이름을 제공해야 합니다. 필요한 코드 셀을 생성하려면 데이터 탐색기. 데이터 세트 목록을 마우스 오른쪽 단추로 클릭하고 를 클릭합니다. 전자 필기장의 쿼리 데이터 노트에 두 개의 코드 셀을 생성합니다. 이 두 셀은 아래에 더 자세히 설명되어 있습니다.

를 사용하려면 Query Service in JupyterLab, 먼저 작업 간에 연결을 만들어야 합니다 Python 노트북 및 Query Service. 이 작업은 첫 번째 생성된 셀을 실행하여 수행할 수 있습니다.

qs_connect()

두 번째 생성된 셀에서 첫 번째 줄을 SQL 쿼리 앞에 정의해야 합니다. 기본적으로 생성된 셀은 선택적 변수(df0)을 사용하여 쿼리 결과를 Pend컨텐츠 데이터 프레임으로 저장합니다.
다음 -c QS_CONNECTION 인수는 필수 항목이며 커널에 SQL 쿼리를 실행하라고 지시합니다 Query Service. 자세한 내용은 부록 추가 인수 목록

%%read_sql df0 -c QS_CONNECTION
SELECT *
FROM name_of_the_dataset
LIMIT 10
/* Querying table "name_of_the_dataset" (datasetId: {DATASET_ID})*/

문자열 형식의 구문을 사용하고 변수를 중괄호로 묶어서 SQL 쿼리 내에서 직접 Python 변수를 참조할 수 있습니다({}) 내의 아무 곳에나 삽입할 수 있습니다.

table_name = 'name_of_the_dataset'
table_columns = ','.join(['col_1','col_2','col_3'])
%%read_sql demo -c QS_CONNECTION
SELECT {table_columns}
FROM {table_name}

필터 ExperienceEvent 데이터

에 액세스하여 필터링하려면 ExperienceEvent 의 데이터 세트 Python 노트북에서는 데이터 세트 ID를 제공해야 합니다({DATASET_ID})을(를) 논리 연산자를 사용하여 특정 시간 범위를 정의하는 필터 규칙과 함께 사용할 수 있습니다. 시간 범위가 정의되면 지정된 모든 페이지 매김이 무시되고 전체 데이터 세트가 고려됩니다.

필터링 연산자 목록은 아래에 설명되어 있습니다.

  • eq(): 같음
  • gt(): 보다 큼
  • ge(): 크거나 같음
  • lt(): 미만
  • le(): 작거나 같음
  • And(): 논리 AND 연산자
  • Or(): 논리 OR 연산자

다음 셀은 ExperienceEvent 데이터 집합은 2019년 1월 1일부터 2019년 12월 31일 말까지 독점적으로 존재하는 데이터 집합입니다.

# Python

from platform_sdk.dataset_reader import DatasetReader

dataset_reader = DatasetReader(get_platform_sdk_client_context(), dataset_id="{DATASET_ID}")
df = dataset_reader.\
    where(dataset_reader["timestamp"].gt("2019-01-01 00:00:00").\
    And(dataset_reader["timestamp"].lt("2019-12-31 23:59:59"))\
).read()

R 노트북

R 전자 필기장을 사용하면 데이터 세트에 액세스할 때 데이터를 페이지 매기기를 사용할 수 있습니다. 페이지 매김이 있는 데이터와 페이지 매김이 없는 데이터를 읽는 샘플 코드는 아래에 나와 있습니다. 사용 가능한 스타터 R 노트북에 대한 자세한 내용은 JupyterLab 시작 관리자 섹션을 참조하십시오.

아래 R 설명서에서는 다음 개념을 간략하게 설명합니다.

R의 데이터 세트에서 읽기

페이지 매김 없이:

다음 코드를 실행하면 전체 데이터 세트가 읽습니다. 실행이 성공적으로 수행되면 데이터는 변수가 참조하는 Pendder 데이터 프레임으로 저장됩니다 df0.

# R

library(reticulate)
use_python("/usr/local/bin/ipython")
psdk <- import("platform_sdk")
datetime <- import("datetime", convert = FALSE)
py_run_file("~/.ipython/profile_default/startup/platform_sdk_context.py")
DatasetReader <- psdk$dataset_reader$DatasetReader
dataset_reader <- DatasetReader(py$get_platform_sdk_client_context(), dataset_id="{DATASET_ID}")
df0 <- dataset_reader$read()
head(df0)

페이지 매김 사용:

다음 코드를 실행하면 지정된 데이터 세트에서 데이터가 읽습니다. 페이지 매김이 함수를 통해 데이터를 제한 및 오프셋하여 달성됩니다 limit()offset() 각각 사용할 수 있습니다. 데이터 제한은 읽을 최대 데이터 포인트 수를 나타내지만, 오프셋은 데이터를 읽기 전에 건너뛸 데이터 포인트 수를 나타냅니다. 읽기 작업이 성공적으로 실행되면 데이터가 변수에 의해 참조되는 Pendder 데이터 프레임으로 저장됩니다 df0.

# R

library(reticulate)
use_python("/usr/local/bin/ipython")
psdk <- import("platform_sdk")
datetime <- import("datetime", convert = FALSE)
py_run_file("~/.ipython/profile_default/startup/platform_sdk_context.py")

DatasetReader <- psdk$dataset_reader$DatasetReader
dataset_reader <- DatasetReader(py$get_platform_sdk_client_context(), dataset_id="{DATASET_ID}")
df0 <- dataset_reader$limit(100L)$offset(10L)$read()

R의 데이터 세트에 쓰기

JupiterLab 전자 필기장의 데이터 집합에 쓰려면 JupiterLab의 왼쪽 탐색에서 데이터 아이콘 탭(아래 강조 표시)을 선택합니다. 다음 데이터 세트스키마 디렉터리가 나타납니다. 선택 데이터 세트 마우스 오른쪽 단추를 클릭한 다음 전자 필기장에 데이터 쓰기 사용할 데이터 세트의 드롭다운 메뉴에서 옵션을 선택합니다. 전자 필기장의 아래쪽에 실행 가능한 코드 항목이 나타납니다.

  • 사용 전자 필기장에 데이터 쓰기 을 입력하여 선택한 데이터 세트로 쓰기 셀을 생성합니다.
  • 사용 전자 필기장에서 데이터 탐색 선택한 데이터 세트로 읽기 셀을 생성합니다.

또는 다음 코드 셀을 복사하여 붙여넣을 수 있습니다.

psdk <- import("platform_sdk")
dataset <- psdk$models$Dataset(py$get_platform_sdk_client_context())$get_by_id(dataset_id="{DATASET_ID}")
dataset_writer <- psdk$dataset_writer$DatasetWriter(py$get_platform_sdk_client_context(), dataset)
write_tracker <- dataset_writer$write(df, file_format='json')

필터 ExperienceEvent 데이터

에 액세스하여 필터링하려면 ExperienceEvent 데이터 집합은 R 전자 필기장의 데이터 집합이며 데이터 집합 ID를 제공해야 합니다{DATASET_ID})을(를) 논리 연산자를 사용하여 특정 시간 범위를 정의하는 필터 규칙과 함께 사용할 수 있습니다. 시간 범위가 정의되면 지정된 모든 페이지 매김이 무시되고 전체 데이터 세트가 고려됩니다.

필터링 연산자 목록은 아래에 설명되어 있습니다.

  • eq(): 같음
  • gt(): 보다 큼
  • ge(): 크거나 같음
  • lt(): 미만
  • le(): 작거나 같음
  • And(): 논리 AND 연산자
  • Or(): 논리 OR 연산자

다음 셀은 ExperienceEvent 데이터 집합은 2019년 1월 1일부터 2019년 12월 31일 말까지 독점적으로 존재하는 데이터 집합입니다.

# R

library(reticulate)
use_python("/usr/local/bin/ipython")
psdk <- import("platform_sdk")
datetime <- import("datetime", convert = FALSE)
py_run_file("~/.ipython/profile_default/startup/platform_sdk_context.py")

client_context <- py$PLATFORM_SDK_CLIENT_CONTEXT
DatasetReader <- psdk$dataset_reader$DatasetReader
dataset_reader <- DatasetReader(py$get_platform_sdk_client_context(), dataset_id="{DATASET_ID}")

df0 <- dataset_reader$
    where(dataset_reader["timestamp"]$gt("2019-01-01 00:00:00")$
    And(dataset_reader["timestamp"]$lt("2019-12-31 23:59:59"))
)$read()

PySpark 3 노트북

아래 PySpark 설명서에서는 다음 개념을 간략하게 설명합니다.

sparkSession 초기화

모두 Spark 2.4 노트북에서는 다음 표준 코드로 세션을 초기화해야 합니다.

from pyspark.sql import SparkSession
spark = SparkSession.builder.getOrCreate()

%dataset을 사용하여 PySpark 3 전자 필기장으로 읽고 쓸 수 있습니다.

의 도입으로 Spark 2.4, %dataset 사용자 정의 마법은 PySpark 3에서 사용할 수 있도록 제공됩니다(Spark 2.4) 노트북 IPython 커널에서 사용할 수 있는 매직 명령에 대한 자세한 내용은 IPython 매직 설명서.

사용

%dataset {action} --datasetId {id} --dataFrame {df} --mode batch

설명

사용자 지정 Data Science Workspace 데이터 집합을 읽거나 쓰는 매직 명령 PySpark 노트북 (Python 3).

이름 설명 필수 여부
{action} 데이터 집합에 수행할 작업 유형입니다. 두 가지 작업을 "읽기" 또는 "쓰기"로 사용할 수 있습니다.
--datasetId {id} 읽거나 쓸 데이터 세트의 ID를 제공하는 데 사용됩니다.
--dataFrame {df} 팬더 데이터 프레임
  • 작업이 "읽기"이면 {df}은(는) 데이터 집합 읽기 작업 결과를 사용할 수 있는 변수입니다(데이터 프레임 등).
  • 작업이 "write"이면 이 데이터 프레임 {df}이(가) 데이터 집합에 기록됩니다.
--mode 데이터 읽기 방식을 변경하는 추가 매개 변수입니다. 허용되는 매개 변수는 "batch" 및 "interactive"입니다. 기본적으로 모드는 "batch"로 설정됩니다.
더 작은 데이터 세트에서 쿼리 성능을 향상시키기 위해 "대화형" 모드를 사용하는 것이 좋습니다.

에서 PySpark 테이블을 검토합니다 전자 필기장 데이터 제한 섹션을 확인하여 mode 는 로 설정되어야 합니다. interactive 또는 batch.

  • 예제 읽기: %dataset read --datasetId 5e68141134492718af974841 --dataFrame pd0 --mode batch
  • 쓰기 예: %dataset write --datasetId 5e68141134492718af974842 --dataFrame pd0 --mode batch
중요

다음을 사용하여 데이터 캐싱 df.cache() 데이터를 쓰기 전에 전자 필기장의 성능을 크게 향상시킬 수 있습니다. 다음 오류를 수신하는 경우 도움이 될 수 있습니다.

  • 스테이지 오류로 인해 작업이 중단되었습니다… 각 파티션에서 동일한 수의 요소가 있는 RDD만 압축할 수 있습니다.
  • 원격 RPC 클라이언트가 연결이 끊기고 다른 메모리 오류가 발생했습니다.
  • 데이터 세트를 읽고 쓸 때 성능이 저하됩니다.

자세한 내용은 문제 해결 안내서 추가 정보.

다음 방법을 사용하여 JupiterLab buy에서 위의 예를 자동으로 생성할 수 있습니다.

JupiterLab의 왼쪽 탐색에서 데이터 아이콘 탭(아래에 강조 표시됨)을 선택합니다. 다음 데이터 세트스키마 디렉터리가 나타납니다. 선택 데이터 세트 마우스 오른쪽 단추를 클릭한 다음 전자 필기장에 데이터 쓰기 사용할 데이터 세트의 드롭다운 메뉴에서 옵션을 선택합니다. 전자 필기장의 아래쪽에 실행 가능한 코드 항목이 나타납니다.

  • 사용 전자 필기장에서 데이터 탐색 읽기 셀을 생성합니다.
  • 사용 전자 필기장에 데이터 쓰기 쓰기 셀을 생성합니다.

로컬 데이터 프레임 만들기

PySpark 3을 사용하여 로컬 데이터 프레임을 만들려면 SQL 쿼리를 사용합니다. 예:

date_aggregation.createOrReplaceTempView("temp_df")

df = spark.sql('''
  SELECT *
  FROM sparkdf
''')

local_df
df = spark.sql('''
  SELECT *
  FROM sparkdf
  LIMIT limit
''')
sample_df = df.sample(fraction)

대체(Replacement), 이중 분수(double fraction) 또는 긴 시드(long seed)와 같은 선택적 시드 샘플을 지정할 수도 있습니다.

필터 ExperienceEvent 데이터

액세스 및 필터링 ExperienceEvent PySpark 전자 필기장의 데이터 세트를 사용하려면 데이터 세트 ID({DATASET_ID})를 채울 수 있습니다. 필터링 시간 범위는 함수를 사용하여 정의됩니다 spark.sql(): 함수 매개 변수가 SQL 쿼리 문자열입니다.

다음 셀이 ExperienceEvent 데이터 집합은 2019년 1월 1일부터 2019년 12월 31일 말까지 독점적으로 존재하는 데이터 집합입니다.

# PySpark 3 (Spark 2.4)

from pyspark.sql import SparkSession
spark = SparkSession.builder.getOrCreate()

%dataset read --datasetId {DATASET_ID} --dataFrame df --mode batch

df.createOrReplaceTempView("event")
timepd = spark.sql("""
    SELECT *
    FROM event
    WHERE timestamp > CAST('2019-01-01 00:00:00.0' AS TIMESTAMP)
    AND timestamp < CAST('2019-12-31 23:59:59.9' AS TIMESTAMP)
""")
timepd.show()

스칼라 노트북

아래 설명서에는 다음 개념에 대한 예가 나와 있습니다.

SparkSession 초기화

모든 Scala 전자 필기장에서 다음 표준 코드로 세션을 초기화해야 합니다.

import org.apache.spark.sql.{ SparkSession }
val spark = SparkSession
  .builder()
  .master("local")
  .getOrCreate()

데이터 집합 읽기

Scala에서 clientContext 플랫폼 값을 가져와서 반환하려면 다음과 같은 변수를 정의할 필요가 없습니다 var userToken. 아래의 Scala 예에서 clientContext 는 데이터 집합을 읽는 데 필요한 모든 값을 가져오고 반환하는 데 사용됩니다.

중요

다음을 사용하여 데이터 캐싱 df.cache() 데이터를 쓰기 전에 전자 필기장의 성능을 크게 향상시킬 수 있습니다. 다음 오류를 수신하는 경우 도움이 될 수 있습니다.

  • 스테이지 오류로 인해 작업이 중단되었습니다… 각 파티션에서 동일한 수의 요소가 있는 RDD만 압축할 수 있습니다.
  • 원격 RPC 클라이언트가 연결이 끊기고 다른 메모리 오류가 발생했습니다.
  • 데이터 세트를 읽고 쓸 때 성능이 저하됩니다.

자세한 내용은 문제 해결 안내서 추가 정보.

import org.apache.spark.sql.{Dataset, SparkSession}
import com.adobe.platform.token.ClientContext
val spark = SparkSession.builder().master("local").config("spark.sql.warehouse.dir", "/").getOrCreate()

val clientContext = ClientContext.getClientContext()
val df1 = spark.read.format("com.adobe.platform.query")
  .option("user-token", clientContext.getUserToken())
  .option("ims-org", clientContext.getOrgId())
  .option("api-key", clientContext.getApiKey())
  .option("service-token", clientContext.getServiceToken())
  .option("sandbox-name", clientContext.getSandboxName())
  .option("mode", "batch")
  .option("dataset-id", "5e68141134492718af974844")
  .load()

df1.printSchema()
df1.show(10)
요소 설명
df1 데이터를 읽고 쓰는 데 사용되는 Pendder 데이터 프레임을 나타내는 변수입니다.
user-token 을 사용하여 자동으로 가져오는 사용자 토큰 clientContext.getUserToken().
서비스 토큰 을 사용하여 자동으로 가져오는 서비스 토큰 clientContext.getServiceToken().
ims 조직 를 사용하여 자동으로 가져오는 IMS 조직 ID입니다 clientContext.getOrgId().
api 키 를 사용하여 자동으로 가져오는 API 키 clientContext.getApiKey().

Scala 테이블에서 전자 필기장 데이터 제한 섹션을 확인하여 mode 는 로 설정되어야 합니다. interactive 또는 batch.

다음 방법을 사용하여 JupiterLab buy에서 위의 예를 자동으로 생성할 수 있습니다.

JupiterLab의 왼쪽 탐색에서 데이터 아이콘 탭(아래에 강조 표시됨)을 선택합니다. 다음 데이터 세트스키마 디렉터리가 나타납니다. 선택 데이터 세트 마우스 오른쪽 단추를 클릭한 다음 전자 필기장에서 데이터 탐색 사용할 데이터 세트의 드롭다운 메뉴에서 옵션을 선택합니다. 전자 필기장의 아래쪽에 실행 가능한 코드 항목이 나타납니다.

  • 사용 전자 필기장에서 데이터 탐색 읽기 셀을 생성합니다.
  • 사용 전자 필기장에 데이터 쓰기 쓰기 셀을 생성합니다.

데이터 집합에 쓰기

Scala에서 clientContext 플랫폼 값을 가져와서 반환하려면 다음과 같은 변수를 정의할 필요가 없습니다 var userToken. 아래의 Scala 예에서 clientContext 는 데이터 집합에 쓰는 데 필요한 모든 값을 정의하고 반환하는 데 사용됩니다.

중요

다음을 사용하여 데이터 캐싱 df.cache() 데이터를 쓰기 전에 전자 필기장의 성능을 크게 향상시킬 수 있습니다. 다음 오류를 수신하는 경우 도움이 될 수 있습니다.

  • 스테이지 오류로 인해 작업이 중단되었습니다… 각 파티션에서 동일한 수의 요소가 있는 RDD만 압축할 수 있습니다.
  • 원격 RPC 클라이언트가 연결이 끊기고 다른 메모리 오류가 발생했습니다.
  • 데이터 세트를 읽고 쓸 때 성능이 저하됩니다.

자세한 내용은 문제 해결 안내서 추가 정보.

import org.apache.spark.sql.{Dataset, SparkSession}
import com.adobe.platform.token.ClientContext
val spark = SparkSession.builder().master("local").config("spark.sql.warehouse.dir", "/").getOrCreate()

val clientContext = ClientContext.getClientContext()
df1.write.format("com.adobe.platform.query")
  .option("user-token", clientContext.getUserToken())
  .option("service-token", clientContext.getServiceToken())
  .option("ims-org", clientContext.getOrgId())
  .option("api-key", clientContext.getApiKey())
  .option("sandbox-name", clientContext.getSandboxName())
  .option("mode", "batch")
  .option("dataset-id", "5e68141134492718af974844")
  .save()
element 설명
df1 데이터를 읽고 쓰는 데 사용되는 Pendder 데이터 프레임을 나타내는 변수입니다.
user-token 을 사용하여 자동으로 가져오는 사용자 토큰 clientContext.getUserToken().
서비스 토큰 을 사용하여 자동으로 가져오는 서비스 토큰 clientContext.getServiceToken().
ims 조직 를 사용하여 자동으로 가져오는 IMS 조직 ID입니다 clientContext.getOrgId().
api 키 를 사용하여 자동으로 가져오는 API 키 clientContext.getApiKey().

Scala 테이블에서 전자 필기장 데이터 제한 섹션을 확인하여 mode 는 로 설정되어야 합니다. interactive 또는 batch.

로컬 데이터 프레임 만들기

Scala를 사용하여 로컬 데이터 프레임을 만들려면 SQL 쿼리가 필요합니다. 예:

sparkdf.createOrReplaceTempView("sparkdf")

val localdf = spark.sql("SELECT * FROM sparkdf LIMIT 1)

필터 ExperienceEvent 데이터

액세스 및 필터링 ExperienceEvent scala 전자 필기장의 데이터 세트를 사용하려면 데이터 세트 ID({DATASET_ID})를 채울 수 있습니다. 필터링 시간 범위는 함수를 사용하여 정의됩니다 spark.sql(): 함수 매개 변수가 SQL 쿼리 문자열입니다.

다음 셀이 ExperienceEvent 데이터 집합은 2019년 1월 1일부터 2019년 12월 31일 말까지 독점적으로 존재하는 데이터 집합입니다.

// Spark (Spark 2.4)

// Turn off extra logging
import org.apache.log4j.{Level, Logger}
Logger.getLogger("org").setLevel(Level.OFF)
Logger.getLogger("com").setLevel(Level.OFF)

import org.apache.spark.sql.{Dataset, SparkSession}
val spark = org.apache.spark.sql.SparkSession.builder().appName("Notebook")
  .master("local")
  .getOrCreate()

// Stage Exploratory
val dataSetId: String = "{DATASET_ID}"
val orgId: String = sys.env("IMS_ORG_ID")
val clientId: String = sys.env("PYDASDK_IMS_CLIENT_ID")
val userToken: String = sys.env("PYDASDK_IMS_USER_TOKEN")
val serviceToken: String = sys.env("PYDASDK_IMS_SERVICE_TOKEN")
val mode: String = "batch"

var df = spark.read.format("com.adobe.platform.query")
  .option("user-token", userToken)
  .option("ims-org", orgId)
  .option("api-key", clientId)
  .option("mode", mode)
  .option("dataset-id", dataSetId)
  .option("service-token", serviceToken)
  .load()
df.createOrReplaceTempView("event")
val timedf = spark.sql("""
    SELECT *
    FROM event
    WHERE timestamp > CAST('2019-01-01 00:00:00.0' AS TIMESTAMP)
    AND timestamp < CAST('2019-12-31 23:59:59.9' AS TIMESTAMP)
""")
timedf.show()

다음 단계

이 문서에서는 JupiterLab 노트북을 사용하여 데이터 세트에 액세스하는 일반적인 지침을 다룹니다. 데이터 세트 쿼리에 대한 자세한 내용은 JupiterLab 전자 필기장의 쿼리 서비스 설명서. 데이터 세트를 탐색하고 시각화하는 방법에 대한 자세한 내용은 다음 문서를 참조하십시오 전자 필기장을 사용하여 데이터 분석.

에 대한 선택적 SQL 플래그 Query Service

이 표에서는 사용할 수 있는 선택적 SQL 플래그를 설명합니다 Query Service.

플래그 설명
-h, --help 도움말 메시지를 표시하고 종료합니다.
-n, --notify 쿼리 결과를 알리는 토글 옵션.
-a, --async 이 플래그를 사용하면 쿼리가 비동기식으로 실행되며 쿼리가 실행되는 동안 커널을 해제할 수 있습니다. 쿼리가 완료되지 않은 경우 정의되지 않을 수 있으므로 쿼리 결과를 변수에 할당할 때는 주의하십시오.
-d, --display 이 플래그를 사용하면 결과가 표시되지 않습니다.

이 페이지에서는