Importare una composizione in pacchetti nell’interfaccia utente di Data Science Workspace

NOTE
Data Science Workspace non è più disponibile per l’acquisto.
Questa documentazione è destinata ai clienti esistenti che dispongono di diritti precedenti su Data Science Workspace.

Questo tutorial fornisce ad insight come configurare e importare una composizione in pacchetti utilizzando l’esempio di vendita al dettaglio fornito. Al termine di questa esercitazione, sarà possibile creare, addestrare e valutare un modello in Adobe Experience Platform Data Science Workspace.

Prerequisiti

Questo tutorial richiede una formula in pacchetti sotto forma di URL di un’immagine Docker. Per ulteriori informazioni, vedere il tutorial su come creare un pacchetto dei file di origine in una ricetta.

Flusso di lavoro dell'interfaccia utente

L'importazione di una composizione in pacchetti in Data Science Workspace richiede configurazioni di composizione specifiche, compilate in un unico file JSON (JavaScript Object Notation). Questa compilazione di configurazioni di composizione viene definita file di configurazione. Una ricetta confezionata con un particolare set di configurazioni è indicata come istanza di ricetta. Una ricetta può essere utilizzata per creare molte istanze di ricetta in Data Science Workspace.

Il flusso di lavoro per l’importazione di una composizione di pacchetto è costituito dai seguenti passaggi:

Configurare una ricetta configure

Ogni istanza di ricetta in Data Science Workspace è accompagnata da un set di configurazioni che adattano l'istanza di ricetta a un caso d'uso particolare. I file di configurazione definiscono i comportamenti predefiniti di apprendimento e punteggio di un modello creato utilizzando questa istanza di ricetta.

NOTE
I file di configurazione sono specifici per ricetta e caso.

Di seguito è riportato un file di configurazione di esempio che mostra i comportamenti predefiniti di formazione e punteggio per la ricetta di vendita al dettaglio.

[
    {
        "name": "train",
        "parameters": [
            {
                "key": "learning_rate",
                "value": "0.1"
            },
            {
                "key": "n_estimators",
                "value": "100"
            },
            {
                "key": "max_depth",
                "value": "3"
            },
            {
                "key": "ACP_DSW_INPUT_FEATURES",
                "value": "date,store,storeType,storeSize,temperature,regionalFuelPrice,markdown,cpi,unemployment,isHoliday"
            },
            {
                "key": "ACP_DSW_TARGET_FEATURES",
                "value": "weeklySales"
            },
            {
                "key": "ACP_DSW_FEATURE_UPDATE_SUPPORT",
                "value": false
            },
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key": "ACP_DSW_TRAINING_XDM_SCHEMA",
                "value": "{SEE BELOW FOR DETAILS}"
            },
            {
                "key": "evaluation.labelColumn",
                "value": "weeklySalesAhead"
            },
            {
                "key": "evaluation.metrics",
                "value": "MAPE,MAE,RMSE,MASE"
            }
        ]
    },
    {
        "name": "score",
        "parameters": [
            {
                "key": "tenantId",
                "value": "_{TENANT_ID}"
            },
            {
                "key":"ACP_DSW_SCORING_RESULTS_XDM_SCHEMA",
                "value":"{SEE BELOW FOR DETAILS}"
            }
        ]
    }
]
Chiave parametro
Tipo
Descrizione
learning_rate
Numero
Scalare per la moltiplicazione del gradiente.
n_estimators
Numero
Numero di alberi nella foresta per Classificatore Foresta casuale.
max_depth
Numero
Profondità massima di un albero nel classificatore Foresta casuale.
ACP_DSW_INPUT_FEATURES
Stringa
Elenco di attributi dello schema di input separati da virgole.
ACP_DSW_TARGET_FEATURES
Stringa
Elenco di attributi dello schema di output separati da virgole.
ACP_DSW_FEATURE_UPDATE_SUPPORT
Booleano
Determina se le funzioni di input e output sono modificabili
tenantId
Stringa
Questo ID garantisce che le risorse create abbiano uno spazio dei nomi corretto e siano contenute all’interno dell’organizzazione. Segui questi passaggi per trovare il tuo ID tenant.
ACP_DSW_TRAINING_XDM_SCHEMA
Stringa
Schema di input utilizzato per l’apprendimento di un modello. Lascia vuoto questo campo durante l’importazione nell’interfaccia utente, sostituisci con ID schema di apprendimento durante l’importazione tramite API.
evaluation.labelColumn
Stringa
Etichetta di colonna per le visualizzazioni di valutazione.
evaluation.metrics
Stringa
Elenco separato da virgole delle metriche di valutazione da utilizzare per la valutazione di un modello.
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA
Stringa
Schema di output utilizzato per il punteggio di un modello. Lascia vuoto questo campo durante l’importazione nell’interfaccia utente, sostituisci con SchemaID con punteggio durante l’importazione tramite API.

Ai fini di questa esercitazione, è possibile lasciare i file di configurazione predefiniti per la ricetta di vendita al dettaglio nel riferimento Data Science Workspace nel modo in cui sono.

Importa ricetta basata su Docker - Python python

Iniziare navigando e selezionando Workflows che si trova in alto a sinistra nell'interfaccia utente di Experience Platform. Quindi, selezionare Importa ricetta e selezionare Launch.

Viene visualizzata la pagina Configura per il flusso di lavoro Importa ricetta. Inserisci un nome e una descrizione per la ricetta, quindi seleziona Next nell'angolo in alto a destra.

configura flusso di lavoro

NOTE
Nell'esercitazione di Creazione di pacchetti di file di origine in una ricetta, è stato fornito un URL Docker al termine della creazione della ricetta di vendita al dettaglio utilizzando i file di origine Python.

Una volta nella pagina Seleziona origine, incolla l'URL Docker corrispondente alla composizione del pacchetto creata utilizzando Python file di origine nel campo Source URL. Quindi, importare il file di configurazione fornito trascinandolo o utilizzare il file system Browser. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/python/retail/retail.config.json. Selezionare Python nel menu a discesa Runtime e Classification nel menu a discesa Type. Una volta compilato tutto, seleziona Next nell'angolo in alto a destra per passare a Gestisci schemi.

NOTE
Il tipo supporta Classification e Regression. Se il modello non rientra in uno di questi tipi, selezionare Custom.

Quindi, seleziona gli schemi di input e output per la vendita al dettaglio nella sezione Gestisci schemi. Sono stati creati utilizzando lo script di avvio fornito nell'esercitazione crea lo schema e il set di dati per la vendita al dettaglio.

Nella sezione Gestione delle funzionalità, seleziona l'identificazione del tenant nel visualizzatore di schema per espandere lo schema di input Retail Sales. Selezionare le funzionalità di input e output evidenziando la funzionalità desiderata e selezionando Input Feature o Target Feature nella finestra Field Properties a destra. Ai fini di questa esercitazione, impostare weeklySales come Target Feature e tutti gli altri elementi come Input Feature. Seleziona Next per rivedere la nuova ricetta configurata.

Rivedi la ricetta, aggiungi, modifica o rimuovi le configurazioni come necessario. Seleziona Finish per creare la ricetta.

Procedi ai passaggi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.

Importa ricetta basata su Docker - R r

Iniziare navigando e selezionando Workflows che si trova in alto a sinistra nell'interfaccia utente di Experience Platform. Quindi, selezionare Importa ricetta e selezionare Launch.

Viene visualizzata la pagina Configura per il flusso di lavoro Importa ricetta. Inserisci un nome e una descrizione per la ricetta, quindi seleziona Next nell'angolo in alto a destra.

configura flusso di lavoro

NOTE
Nell'esercitazione Creare un pacchetto dei file di origine in una ricetta è stato fornito un URL Docker al termine della creazione della ricetta di vendita al dettaglio utilizzando i file di origine R.

Una volta nella pagina Seleziona origine, incolla l'URL Docker corrispondente alla composizione del pacchetto creata utilizzando i file di origine R nel campo Source URL. Quindi, importare il file di configurazione fornito trascinandolo o utilizzare il file system Browser. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/R/Retail\ -\ GradientBoosting/retail.config.json. Selezionare R nel menu a discesa Runtime e Classification nel menu a discesa Type. Una volta compilato tutto, seleziona Next nell'angolo in alto a destra per passare a Gestisci schemi.

NOTE
Type supporta Classification e Regression. Se il modello non rientra in uno di questi tipi, selezionare Custom.

Quindi, seleziona gli schemi di input e output per la vendita al dettaglio nella sezione Gestisci schemi. Sono stati creati utilizzando lo script di avvio fornito nell'esercitazione crea lo schema e il set di dati per la vendita al dettaglio.

Nella sezione Gestione delle funzionalità, seleziona l'identificazione del tenant nel visualizzatore di schema per espandere lo schema di input Retail Sales. Selezionare le funzionalità di input e output evidenziando la funzionalità desiderata e selezionando Input Feature o Target Feature nella finestra Field Properties a destra. Ai fini di questa esercitazione, impostare weeklySales come Target Feature e tutti gli altri elementi come Input Feature. Seleziona Next per rivedere la nuova ricetta configurata.

Rivedi la ricetta, aggiungi, modifica o rimuovi le configurazioni come necessario. Seleziona Fine per creare la ricetta.

Procedi ai passaggi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.

Importa ricetta basata su Docker - PySpark pyspark

Iniziare navigando e selezionando Workflows che si trova in alto a sinistra nell'interfaccia utente di Experience Platform. Quindi, selezionare Importa ricetta e selezionare Launch.

Viene visualizzata la pagina Configura per il flusso di lavoro Importa ricetta. Inserisci un nome e una descrizione per la ricetta, quindi seleziona Next nell'angolo in alto a destra per procedere.

configura flusso di lavoro

NOTE
Nell'esercitazione Creare pacchetti di file di origine in una ricetta è stato fornito un URL Docker al termine della creazione della ricetta di vendita al dettaglio utilizzando i file di origine PySpark.

Una volta nella pagina Seleziona origine, incolla l'URL Docker corrispondente alla composizione del pacchetto creata utilizzando i file di origine PySpark nel campo Source URL. Quindi, importare il file di configurazione fornito trascinandolo o utilizzare il file system Browser. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/pyspark/retail/pipeline.json. Selezionare PySpark nel menu a discesa Runtime. Dopo aver selezionato il runtime di PySpark, l'artefatto predefinito viene automaticamente popolato in Docker. Selezionare Classification nel menu a discesa Tipo. Una volta compilato tutto, seleziona Next nell'angolo in alto a destra per passare a Gestisci schemi.

NOTE
Type supporta Classification e Regression. Se il modello non rientra in uno di questi tipi, selezionare Custom.

Quindi, seleziona gli schemi di input e output per la vendita al dettaglio utilizzando il selettore Gestisci schemi. Gli schemi sono stati creati utilizzando lo script di avvio fornito nell'esercitazione Crea schema e set di dati per la vendita al dettaglio.

gestisci schemi

Nella sezione Gestione delle funzionalità, seleziona l'identificazione del tenant nel visualizzatore di schema per espandere lo schema di input Retail Sales. Selezionare le funzionalità di input e output evidenziando la funzionalità desiderata e selezionando Input Feature o Target Feature nella finestra Field Properties a destra. Ai fini di questa esercitazione, impostare weeklySales come Target Feature e tutti gli altri elementi come Input Feature. Seleziona Next per rivedere la nuova ricetta configurata.

Rivedi la ricetta, aggiungi, modifica o rimuovi le configurazioni come necessario. Seleziona Finish per creare la ricetta.

Procedi ai passaggi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.

Importa ricetta basata su Docker - Scala scala

Iniziare navigando e selezionando Workflows che si trova in alto a sinistra nell'interfaccia utente di Experience Platform. Quindi, selezionare Importa ricetta e selezionare Launch.

Viene visualizzata la pagina Configura per il flusso di lavoro Importa ricetta. Inserisci un nome e una descrizione per la ricetta, quindi seleziona Next nell'angolo in alto a destra per procedere.

configura flusso di lavoro

NOTE
Nell'esercitazione Creazione di pacchetti di file di origine in una ricetta è stato fornito un URL Docker al termine della creazione della ricetta di vendita al dettaglio utilizzando i file di origine Scala (Spark).

Una volta nella pagina Seleziona origine, incolla l'URL Docker corrispondente alla composizione del pacchetto creata utilizzando i file di origine Scala nel campo URL Source. Quindi, importa il file di configurazione fornito trascinandolo e rilasciandolo oppure utilizza il browser del file system. Il file di configurazione fornito si trova in experience-platform-dsw-reference/recipes/scala/retail/pipelineservice.json. Selezionare Spark nel menu a discesa Runtime. Una volta selezionato il runtime Spark, l'artefatto predefinito viene automaticamente popolato in Docker. Selezionare Regression dal menu a discesa Tipo. Una volta compilato tutto, seleziona Next nell'angolo in alto a destra per passare a Gestisci schemi.

NOTE
Il tipo supporta Classification e Regression. Se il modello non rientra in uno di questi tipi, selezionare Custom.

Quindi, seleziona gli schemi di input e output per la vendita al dettaglio utilizzando il selettore Gestisci schemi. Gli schemi sono stati creati utilizzando lo script di avvio fornito nell'esercitazione Crea schema e set di dati per la vendita al dettaglio.

gestisci schemi

Nella sezione Gestione delle funzionalità, seleziona l'identificazione del tenant nel visualizzatore di schema per espandere lo schema di input Retail Sales. Selezionare le funzionalità di input e output evidenziando la funzionalità desiderata e selezionando Input Feature o Target Feature nella finestra Field Properties a destra. Ai fini di questa esercitazione, impostare "weeklySales" come Target Feature e tutto il resto come Input Feature. Seleziona Next per rivedere la nuova ricetta configurata.

Rivedi la ricetta, aggiungi, modifica o rimuovi le configurazioni come necessario. Seleziona Finish per creare la ricetta.

Procedi ai passaggi successivi per scoprire come creare un modello in Data Science Workspace utilizzando la ricetta di vendita al dettaglio appena creata.

Passaggi successivi next-steps

Questo tutorial ha fornito ad insight informazioni sulla configurazione e l'importazione di una ricetta in Data Science Workspace. Ora puoi creare, addestrare e valutare un modello utilizzando la ricetta appena creata.

recommendation-more-help
cc79fe26-64da-411e-a6b9-5b650f53e4e9