Configurare un flusso di dati per una connessione batch di archiviazione cloud nell'interfaccia utente

Un flusso di dati è un'attività pianificata che recupera e trasferisce dati da un'origine a un set di dati Platform. Questa esercitazione fornisce i passaggi per configurare un nuovo flusso di dati utilizzando l'account di archiviazione cloud.

Introduzione

Questa esercitazione richiede una buona conoscenza dei seguenti componenti di Adobe Experience Platform:

  • Experience Data Model (XDM) Sistema: Il framework standard con cui Experience Platform organizzare i dati relativi all'esperienza dei clienti.
    • Nozioni di base sulla composizione dello schema: Scoprite i componenti di base degli schemi XDM, inclusi i principi chiave e le procedure ottimali nella composizione dello schema.
    • Esercitazione sull'Editor di schema: Scoprite come creare schemi personalizzati utilizzando l'interfaccia utente dell'Editor di schema.
  • Real-time Customer Profile: Fornisce un profilo di consumo unificato e in tempo reale basato su dati aggregati provenienti da più origini.

Inoltre, questa esercitazione richiede l'utilizzo di un account di archiviazione cloud prestabilito. Un elenco di esercitazioni per la creazione di diversi account di archiviazione cloud nell'interfaccia utente è disponibile nella panoramica dei connettori sorgente.

Formati di file supportati

Experience Platform supporta i seguenti formati di file da acquisire da archivi esterni:

  • Valori separati da delimitatore (DSV): Il supporto per i file di dati in formato DSV è attualmente limitato ai valori separati da virgola. Il valore delle intestazioni dei campi all'interno dei file formattati DSV deve essere costituito solo da caratteri alfanumerici e caratteri di sottolineatura. In futuro verrà fornito il supporto per i file DSV generali.
  • JavaScript Object Notation (JSON): I file di dati in formato JSON devono essere conformi allo standard XDM.
  • Apache Parquet: I file di dati in formato parquet devono essere conformi allo standard XDM.

Seleziona dati

Dopo aver creato l'account di archiviazione cloud, viene visualizzato il passaggio Select data, che fornisce un'interfaccia per esplorare la gerarchia dei file di archiviazione cloud.

  • La metà sinistra dell'interfaccia è un browser di directory che visualizza i file e le directory del server.
  • La metà destra dell'interfaccia consente di visualizzare in anteprima fino a 100 righe di dati da un file compatibile.

Selezionando una cartella elencata potete scorrere la gerarchia delle cartelle in cartelle più profonde. Dopo aver selezionato un file o una cartella compatibile, viene visualizzato il menu a discesa Select data format, in cui è possibile scegliere un formato per visualizzare i dati nella finestra di anteprima.

Selezionate il formato di dati appropriato per il file da acquisire e consentite la compilazione della finestra di anteprima per alcuni secondi.

Potete impostare un delimitatore personalizzato al momento dell’assimilazione dei file delimitati. Selezionate l'opzione Delimiter, quindi selezionate un delimitatore dal menu a discesa. Nel menu sono visualizzate le opzioni utilizzate più di frequente per i delimitatori, inclusi una virgola (,), una scheda (\t) e una pipe (|). In alternativa, è possibile selezionare Custom e immettere un delimitatore personalizzato desiderato nella barra di input a comparsa.

Dopo aver selezionato il formato dei dati e impostato il delimitatore, selezionare Next.

Inviare file Parquet o JSON

Gli account di archiviazione cloud supportano anche i file JSON e Parquet. I file parquet devono essere conformi a XDM, mentre i file JSON non devono presentare reclamo XDM. Per caricare i file JSON o Parquet, selezionate il formato di file appropriato dal browser directory e applicate il formato di dati compatibile dall'interfaccia giusta.

Se il formato dei dati è in JSON, verrà visualizzata un'anteprima con informazioni sui dati all'interno del file. Nella schermata di anteprima, potete selezionare se il JSON è conforme a XDM utilizzando il menu a discesa XDM compliant.

Selezionare Next per continuare.

IMPORTANTE

A differenza dei tipi di file delimitati e JSON, i file in formato Parquet non sono disponibili per l'anteprima.

Mappatura dei campi dati su uno schema XDM

Viene visualizzato il passaggio Mapping, che fornisce un'interfaccia interattiva per mappare i dati di origine su un set di dati Platform. I file di origine formattati in Parquet devono essere conformi a XDM e non devono essere configurati manualmente, mentre i file CSV richiedono la configurazione esplicita della mappatura, ma consentono di scegliere quali campi di dati di origine mappare. I file JSON, se contrassegnati come reclamo XDM, non richiedono la configurazione manuale. Tuttavia, se non è contrassegnato come conforme con XDM, sarà necessario configurare esplicitamente la mappatura.

Scegliere un set di dati in entrata in cui assimilare i dati. È possibile utilizzare un set di dati esistente o crearne uno nuovo.

Utilizzare un dataset esistente

Per assimilare i dati in un dataset esistente, selezionare Existing dataset, quindi l'icona del dataset.

Viene visualizzata la finestra di dialogo Select dataset. Trovare il set di dati che si desidera utilizzare, selezionarlo, quindi fare clic su Continue.

Utilizza un nuovo set di dati

Per inserire i dati in un nuovo dataset, selezionare New dataset e immettere un nome e una descrizione per il dataset nei campi forniti. Per aggiungere uno schema, è possibile immettere un nome di schema esistente nella finestra di dialogo Select schema. In alternativa, è possibile selezionare Schema advanced search per cercare uno schema appropriato.

Durante questo passaggio, potete abilitare il dataset per Real-time Customer Profile e creare una visualizzazione olistica degli attributi e dei comportamenti di un'entità. I dati di tutti i set di dati abilitati saranno inclusi in Profile e le modifiche verranno applicate al salvataggio del flusso di dati.

Attivate il pulsante Profile dataset per abilitare il set di dati di destinazione per Profile.

Viene visualizzata la finestra di dialogo Select schema. Selezionare lo schema che si desidera applicare al nuovo dataset, quindi selezionare Done.

In base alle esigenze, è possibile scegliere di mappare direttamente i campi oppure utilizzare le funzioni di mappatura per trasformare i dati di origine in modo da derivare i valori calcolati o calcolati. Per ulteriori informazioni sulla mappatura dei dati e sulle funzioni di mappatura, fare riferimento all'esercitazione sulla mappatura dei dati CSV ai campi dello schema XDM.

Per i file JSON, oltre a mappare direttamente i campi ad altri campi, è possibile mappare direttamente gli oggetti ad altri oggetti e array ad altri array. È inoltre possibile visualizzare in anteprima e mappare tipi di dati complessi, ad esempio array in file JSON, utilizzando un connettore origine di archiviazione cloud.

Non è possibile eseguire la mappatura tra tipi diversi. Ad esempio, non è possibile eseguire il mapping di un oggetto a una matrice o di un campo a un oggetto.

SUGGERIMENTO

Platform fornisce raccomandazioni intelligenti per i campi mappati automaticamente in base allo schema di destinazione o al dataset selezionato. Puoi regolare manualmente le regole di mappatura in base ai tuoi casi di utilizzo.

Selezionare Preview data per visualizzare i risultati della mappatura fino a 100 righe di dati di esempio dal set di dati selezionato.

Durante l'anteprima, la colonna dell'identità ha priorità come primo campo, in quanto rappresenta le informazioni chiave necessarie per convalidare i risultati della mappatura.

Una volta mappati i dati di origine, selezionare Close.

Pianificare le esecuzioni dell'assimilazione

Viene visualizzato il passaggio Scheduling, che consente di configurare una pianificazione di assimilazione per l'acquisizione automatica dei dati di origine selezionati tramite le mappature configurate. Nella tabella seguente sono riportati i diversi campi configurabili per la pianificazione:

Campo Descrizione
Frequenza Le frequenze selezionabili sono Once, Minute, Hour, Day e Week.
Intervallo Un numero intero che imposta l'intervallo per la frequenza selezionata.
Ora di inizio Una marca temporale UTC che indica quando è impostata la prima assimilazione.
Backfill Un valore booleano che determina i dati inizialmente acquisiti. Se Backfill è abilitato, tutti i file correnti nel percorso specificato verranno acquisiti durante la prima assimilazione pianificata. Se Backfill è disattivato, verranno acquisiti solo i file caricati tra la prima esecuzione dell'assimilazione e l'ora di inizio. I file caricati prima dell'ora di inizio non vengono assimilati.

I flussi di dati sono progettati per l'acquisizione automatica dei dati su base programmata. Per iniziare, selezionate la frequenza di assimilazione. Quindi, impostare l'intervallo per specificare il periodo tra due esecuzioni di flusso. Il valore dell'intervallo deve essere un numero intero diverso da zero e deve essere impostato su maggiore o uguale a 15.

Per impostare l’ora di inizio dell’assimilazione, regolate la data e l’ora visualizzate nella casella Ora di inizio. In alternativa, potete selezionare l'icona del calendario per modificare il valore dell'ora di inizio. L'ora di inizio deve essere maggiore o uguale all'ora corrente in UTC.

Specificare i valori per la pianificazione e selezionare Next.

Impostazione di un flusso di dati per l’assimilazione una tantum

Per impostare l'inserimento una tantum, selezionate la freccia a discesa di frequenza e selezionate Once. È possibile continuare a apportare modifiche a un set di flussi di dati per l’inserimento di una frequenza una tantum, purché l’ora di inizio rimanga in futuro. Una volta trascorso l’ora di inizio, il valore di frequenza una tantum non può più essere modificato. Interval e non Backfill sono visibili quando si configura un flusso di dati per l’assimilazione una tantum.

IMPORTANTE

È vivamente consigliato pianificare il flusso di dati per l'inserimento una tantum quando si utilizza il connettore FTP.

Dopo aver fornito i valori appropriati alla pianificazione, selezionare Next.

Fornire i dettagli del flusso di dati

Viene visualizzato il passaggio Dataflow detail, che consente di assegnare un nome e una breve descrizione al nuovo flusso di dati.

Durante questo processo, è inoltre possibile abilitare Partial ingestion e Error diagnostics. L'abilitazione di Partial ingestion consente di assimilare i dati contenenti errori, fino a una determinata soglia che è possibile impostare. Se si abilita Error diagnostics, verranno forniti dettagli su tutti i dati errati che vengono inseriti separatamente in batch. Per ulteriori informazioni, vedere la panoramica sull'assimilazione parziale dei batch.

Immettete i valori per il flusso di dati e selezionate Next.

Controllare il flusso di dati

Viene visualizzato il passaggio Review, che consente di rivedere il nuovo flusso di dati prima che venga creato. I dettagli sono raggruppati nelle seguenti categorie:

  • Connection: Mostra il tipo di origine, il percorso pertinente del file di origine scelto e la quantità di colonne all'interno del file di origine.
  • Assign dataset & map fields: Mostra il set di dati in cui vengono acquisiti i dati di origine, incluso lo schema a cui il set di dati aderisce.
  • Scheduling: Mostra il periodo, la frequenza e l’intervallo attivi della pianificazione di assimilazione.

Dopo aver rivisto il flusso di dati, fate clic su Finish e lasciate che sia possibile creare il flusso di dati.

Monitorare il flusso di dati

Una volta creato il flusso di dati, puoi monitorare i dati che vengono acquisiti attraverso di esso per visualizzare informazioni su velocità di assimilazione, successo ed errori. Per ulteriori informazioni su come monitorare il flusso di dati, consulta l'esercitazione su monitorare gli account e i flussi di dati nell'interfaccia utente.

Eliminare il flusso di dati

È possibile eliminare i flussi di dati che non sono più necessari o che sono stati creati in modo non corretto utilizzando la funzione Delete disponibile nell'area di lavoro Dataflows. Per ulteriori informazioni sull'eliminazione dei flussi di dati, vedere l'esercitazione sull'eliminazione dei flussi di dati nell'interfaccia utente](…/…/delete.md).[

Passaggi successivi

Seguendo questa esercitazione, hai creato con successo un flusso di dati per l'inserimento di dati da un archivio cloud esterno e hai acquisito informazioni sul monitoraggio dei set di dati. Per saperne di più sulla creazione di flussi di dati, puoi completare l’apprendimento guardando il video sottostante. Inoltre, i dati in entrata possono ora essere utilizzati dai servizi a valle Platform quali Real-time Customer Profile e Data Science Workspace. Per ulteriori informazioni, consulta i documenti seguenti:

AVVERTENZA

L'interfaccia Platform mostrata nel video seguente è obsoleta. Per informazioni sulle ultime funzionalità e videate dell’interfaccia, consulta la documentazione precedente.

Appendice

Le sezioni seguenti forniscono informazioni aggiuntive sull'utilizzo dei connettori di origine.

Disattivazione di un flusso di dati

Quando un flusso di dati viene creato, diventa immediatamente attivo e i dati vengono acquisiti in base alla pianificazione specificata. Puoi disattivare un flusso di dati attivo in qualsiasi momento seguendo le istruzioni riportate di seguito.

Nell'area di lavoro Sources, fare clic sulla scheda Browse. Quindi, fare clic sul nome dell'account associato al flusso di dati attivo che si desidera disattivare.

Viene visualizzata la pagina Source activity. Selezionate il flusso di dati attivo dall'elenco per aprire la relativa colonna Properties sul lato destro dello schermo, che contiene un pulsante di attivazione/disattivazione Enabled. Fate clic sull’interruttore per disattivare il flusso di dati. La stessa opzione può essere utilizzata per riattivare un flusso di dati dopo che è stato disabilitato.

Attivare i dati in entrata per la popolazione Profile

I dati in entrata provenienti dal connettore di origine possono essere utilizzati per arricchire e compilare i dati Real-time Customer Profile. Per ulteriori informazioni sulla compilazione dei dati Real-time Customer Profile, vedere l'esercitazione sulla popolazione di profili.

In questa pagina

Adobe Summit Banner

A virtual event April 27-28.

Expand your skills and get inspired.

Register for free
Adobe Summit Banner

A virtual event April 27-28.

Expand your skills and get inspired.

Register for free