Questa esercitazione fornisce informazioni sulla conversione data_access_sdk_python
al nuovo Python platform_sdk
in Python e R. Questo tutorial fornisce informazioni sulle seguenti operazioni:
Per effettuare chiamate a è necessaria l’autenticazione Adobe Experience Platform, ed è composto da Chiave API, ID organizzazione IMS, token utente e token di servizio.
Se utilizzi Jupyter Notebook, utilizza il codice seguente per generare il client_context
:
client_context = PLATFORM_SDK_CLIENT_CONTEXT
Se non utilizzi Jupyter Notebook o se devi modificare l’organizzazione IMS, utilizza il seguente codice di esempio:
from platform_sdk.client_context import ClientContext
client_context = ClientContext(api_key={API_KEY},
org_id={ORG_ID},
user_token={USER_TOKEN},
service_token={SERVICE_TOKEN})
Se utilizzi Jupyter Notebook, utilizza il codice seguente per generare il client_context
:
library(reticulate)
use_python("/usr/local/bin/ipython")
psdk <- import("platform_sdk")
py_run_file("../.ipython/profile_default/startup/platform_sdk_context.py")
client_context <- py$PLATFORM_SDK_CLIENT_CONTEXT
Se non utilizzi Jupyter Notebook o se devi modificare l’organizzazione IMS, utilizza il seguente codice di esempio:
library(reticulate)
use_python("/usr/local/bin/ipython")
psdk <- import("platform_sdk")
client_context <- psdk$client_context$ClientContext(api_key={API_KEY},
org_id={ORG_ID},
user_token={USER_TOKEN},
service_token={SERVICE_TOKEN})
Con il nuovo Platform SDK, la dimensione massima di lettura è di 32 GB, con un tempo massimo di lettura di 10 minuti.
Se il tempo di lettura richiede troppo tempo, puoi provare a utilizzare una delle seguenti opzioni di filtro:
L’organizzazione IMS è impostata all’interno di client_context
.
Per leggere i dati in Python, usa il codice di esempio seguente:
from platform_sdk.dataset_reader import DatasetReader
dataset_reader = DatasetReader(client_context, "{DATASET_ID}")
df = dataset_reader.limit(100).read()
df.head()
Per leggere i dati in R, utilizza il codice di esempio seguente:
DatasetReader <- psdk$dataset_reader$DatasetReader
dataset_reader <- DatasetReader(client_context, "{DATASET_ID}")
df <- dataset_reader$read()
df
Poiché il filtro per ID batch non è più supportato, per eseguire la lettura dei dati è necessario utilizzare offset
e limit
.
df = dataset_reader.limit(100).offset(1).read()
df.head
df <- dataset_reader$limit(100L)$offset(1L)$read()
df
La granularità del filtro delle date ora è definita dalla marca temporale, anziché essere impostata dal giorno.
df = dataset_reader.where(\
dataset_reader['timestamp'].gt('2019-04-10 15:00:00').\
And(dataset_reader['timestamp'].lt('2019-04-10 17:00:00'))\
).read()
df.head()
df2 <- dataset_reader$where(
dataset_reader['timestamp']$gt('2018-12-10 15:00:00')$
And(dataset_reader['timestamp']$lt('2019-04-10 17:00:00'))
)$read()
df2
Il nuovo Platform L’SDK supporta le seguenti operazioni:
Operazione | Funzione |
---|---|
È uguale a (= ) |
eq() |
Maggiore di (> ) |
gt() |
Maggiore o uguale a (>= ) |
ge() |
Minore di (< ) |
lt() |
Minore o uguale a (<= ) |
le() |
E (& ) |
And() |
Oppure (` | `) |
Per perfezionare ulteriormente la lettura dei dati, puoi anche filtrare per nome di colonna.
df = dataset_reader.select(['column-a','column-b']).read()
df <- dataset_reader$select(c('column-a','column-b'))$read()
I risultati ricevuti possono essere ordinati in base a colonne specificate del set di dati di destinazione e nel loro ordine (asc/desc) rispettivamente.
Nell’esempio seguente, il dataframe è ordinato per "colonna-a" in ordine crescente. Le righe con gli stessi valori per "column-a" sono quindi ordinate per "column-b" in ordine decrescente.
df = dataset_reader.sort([('column-a', 'asc'), ('column-b', 'desc')])
df <- dataset_reader$sort(c(('column-a', 'asc'), ('column-b', 'desc')))$read()
L’organizzazione IMS è impostata all’interno di client_context
.
Per scrivere i dati in Python e R, usate uno dei seguenti esempi:
from platform_sdk.models import Dataset
from platform_sdk.dataset_writer import DatasetWriter
dataset = Dataset(client_context).get_by_id("{DATASET_ID}")
dataset_writer = DatasetWriter(client_context, dataset)
write_tracker = dataset_writer.write({PANDA_DATAFRAME}, file_format='json')
dataset <- psdk$models$Dataset(client_context)$get_by_id("{DATASET_ID}")
dataset_writer <- psdk$dataset_writer$DatasetWriter(client_context, dataset)
write_tracker <- dataset_writer$write({PANDA_DATAFRAME}, file_format='json')
Dopo aver configurato platform_sdk
caricatore di dati, i dati vengono sottoposti a preparazione e quindi suddivisi nel train
e val
set di dati. Per informazioni sulla preparazione dei dati e sulla progettazione delle funzioni, consulta la sezione su preparazione dei dati e progettazione delle funzioni nel tutorial per la creazione di una ricetta con JupyterLab notebook.