Un flusso di dati è un'attività pianificata che recupera e trasferisce dati da un'origine a un Platform set di dati. Questa esercitazione fornisce i passaggi per configurare un nuovo flusso di dati utilizzando l'account di archiviazione cloud.
Questa esercitazione richiede una buona conoscenza dei seguenti componenti di Adobe Experience Platform:
Inoltre, questa esercitazione richiede l'utilizzo di un account di archiviazione cloud prestabilito. Un elenco di esercitazioni per la creazione di diversi account di archiviazione cloud nell'interfaccia utente è disponibile nella panoramica dei connettorisorgente.
Experience Platform supporta i seguenti formati di file da acquisire da archivi esterni:
Dopo aver creato l'account di archiviazione cloud, viene visualizzato il Select data passaggio che fornisce un'interfaccia interattiva per esplorare la gerarchia di archiviazione cloud.
Selezionando una cartella elencata potete scorrere la gerarchia delle cartelle in cartelle più profonde. Dopo aver selezionato un file o una cartella compatibile, viene visualizzato il Select data format menu a discesa, in cui è possibile scegliere un formato per visualizzare i dati nella finestra di anteprima.
Una volta completata la finestra di anteprima, potete selezionare Next di caricare tutti i file nella cartella selezionata. Per caricare un file specifico, selezionatelo dall’elenco prima di selezionarlo Next.
Gli account di archiviazione cloud supportano anche i file JSON e Parquet. I file parquet devono essere conformi a XDM, mentre i file JSON non devono presentare reclamo XDM. Per caricare i file JSON o Parquet, selezionate il formato di file appropriato dal browser directory e applicate il formato di dati compatibile dall'interfaccia giusta.
Se il formato dei dati è in JSON, verrà visualizzata un'anteprima con informazioni sui dati all'interno del file. Nella schermata di anteprima, potete selezionare se il JSON è conforme a XDM utilizzando il XDM compliant menu a discesa.
Selezionare Next per continuare.
A differenza dei tipi di file delimitati e JSON, i file in formato Parquet non sono disponibili per l'anteprima.
Viene visualizzato il Mapping passaggio che fornisce un'interfaccia interattiva per mappare i dati di origine a un Platform dataset. I file di origine formattati in Parquet devono essere conformi a XDM e non devono essere configurati manualmente, mentre i file CSV richiedono la configurazione esplicita della mappatura, ma consentono di scegliere quali campi di dati di origine mappare. I file JSON, se contrassegnati come reclamo XDM, non richiedono la configurazione manuale. Tuttavia, se non è contrassegnato come conforme con XDM, sarà necessario configurare esplicitamente la mappatura.
Scegliere un set di dati in entrata in cui assimilare i dati. È possibile utilizzare un set di dati esistente o crearne uno nuovo.
Utilizzare un dataset esistente
Per assimilare i dati in un dataset esistente, selezionare Existing dataset, quindi l'icona del dataset.
Viene visualizzata Select dataset la finestra di dialogo. Trovare il set di dati che si desidera utilizzare, selezionarlo, quindi fare clic Continue.
Utilizza un nuovo set di dati
Per assimilare i dati in un nuovo dataset, selezionare New dataset e immettere un nome e una descrizione per il dataset nei campi forniti. Per aggiungere uno schema, è possibile immettere un nome di schema esistente nella Select schema finestra di dialogo. In alternativa, è possibile selezionare l'opzione Schema advanced search per cercare uno schema appropriato.
Durante questo passaggio, potete abilitare il dataset per Real-time Customer Profile e creare una visualizzazione olistica degli attributi e dei comportamenti di un'entità. I dati di tutti i set di dati abilitati verranno inclusi in Profile e le modifiche verranno applicate al salvataggio del flusso di dati.
Attivate il Profile dataset pulsante per attivare il set di dati di destinazione per Profile.
Viene visualizzata Select schema la finestra di dialogo. Selezionare lo schema da applicare al nuovo dataset, quindi selezionare Done.
In base alle esigenze, è possibile scegliere di mappare direttamente i campi oppure utilizzare le funzioni di mappatura per trasformare i dati di origine in modo da derivare i valori calcolati o calcolati. Per ulteriori informazioni sulla mappatura dei dati e sulle funzioni di mappatura, consulta l’esercitazione sulla mappatura dei dati CSV ai campidello schema XDM.
Per i file JSON, oltre alla mappatura diretta dei campi ad altri campi, è possibile mappare direttamente gli oggetti ad altri oggetti e array ad altri array.
Non è possibile eseguire la mappatura tra tipi diversi. Ad esempio, non è possibile eseguire il mapping di un oggetto a una matrice o di un campo a un oggetto.
Platform fornisce raccomandazioni intelligenti per i campi mappati automaticamente in base allo schema di destinazione o al dataset selezionato. Puoi regolare manualmente le regole di mappatura in base ai tuoi casi di utilizzo.
Selezionate Preview data per visualizzare i risultati della mappatura di fino a 100 righe di dati di esempio dal set di dati selezionato.
Durante l'anteprima, la colonna dell'identità ha priorità come primo campo, in quanto rappresenta le informazioni chiave necessarie per convalidare i risultati della mappatura.
Una volta mappati i dati di origine, selezionare Close.
Viene visualizzato il Scheduling passaggio che consente di configurare una pianificazione di assimilazione per l'acquisizione automatica dei dati di origine selezionati tramite le mappature configurate. Nella tabella seguente sono riportati i diversi campi configurabili per la pianificazione:
Campo | Descrizione |
---|---|
Frequenza | Le frequenze selezionabili includono Once , Minute , Hour , Day e Week . |
Intervallo | Un numero intero che imposta l'intervallo per la frequenza selezionata. |
Ora di inizio | Una marca temporale UTC che indica quando è impostata la prima assimilazione. |
Backfill | Un valore booleano che determina i dati inizialmente acquisiti. Se Backfill è abilitata, tutti i file correnti nel percorso specificato verranno acquisiti durante la prima assimilazione pianificata. Se Backfill è disattivato, verranno assimilati solo i file caricati tra la prima esecuzione dell'assimilazione e l'ora di inizio. I file caricati prima dell'ora di inizio non vengono assimilati. |
I flussi di dati sono progettati per l'acquisizione automatica dei dati su base programmata. Per iniziare, selezionate la frequenza di assimilazione. Quindi, impostare l'intervallo per specificare il periodo tra due esecuzioni di flusso. Il valore dell'intervallo deve essere un numero intero diverso da zero e deve essere impostato su maggiore o uguale a 15.
Per impostare l’ora di inizio dell’assimilazione, regolate la data e l’ora visualizzate nella casella Ora di inizio. In alternativa, potete selezionare l'icona del calendario per modificare il valore dell'ora di inizio. L'ora di inizio deve essere maggiore o uguale all'ora corrente in UTC.
Specificare i valori per la pianificazione e selezionare Next.
Per impostare l’inserimento una tantum, selezionate la freccia a discesa di frequenza e selezionate Once. È possibile continuare a apportare modifiche a un set di flussi di dati per l’inserimento di una frequenza una tantum, purché l’ora di inizio rimanga in futuro. Una volta trascorso l’ora di inizio, il valore di frequenza una tantum non può più essere modificato. Interval e non Backfill sono visibili quando si configura un flusso di dati per l’assimilazione una tantum.
Dopo aver fornito i valori appropriati alla pianificazione, selezionare Next.
Viene visualizzato il Dataflow detail passaggio che consente di assegnare un nome e una breve descrizione al nuovo flusso di dati.
Durante questo processo, potete anche abilitare Partial ingestion e Error diagnostics. L'abilitazione Partial ingestion consente di acquisire i dati contenenti errori, fino a una certa soglia che è possibile impostare. L'attivazione Error diagnostics fornirà dettagli su eventuali dati errati che vengono inseriti separatamente in batch. Per ulteriori informazioni, consultate la panoramica sull’assimilazione parziale deibatch.
Immettete i valori per il flusso di dati e selezionate Next.
Viene visualizzato il Review passaggio che consente di rivedere il nuovo flusso di dati prima della creazione. I dettagli sono raggruppati nelle seguenti categorie:
Dopo aver rivisto il flusso di dati, fai clic su Finish e consenti la creazione del flusso di dati.
Una volta creato il flusso di dati, puoi monitorare i dati che vengono acquisiti attraverso di esso per visualizzare informazioni su velocità di assimilazione, successo ed errori. Per ulteriori informazioni su come monitorare il flusso di dati, consulta l’esercitazione sul monitoraggio di account e flussi di dati nell’interfaccia utente.
È possibile eliminare i flussi di dati che non sono più necessari o che sono stati creati in modo non corretto utilizzando la Delete funzione disponibile nell' Dataflows area di lavoro. Per ulteriori informazioni su come eliminare i flussi di dati, consulta l’esercitazione sull’ eliminazione dei flussi di dati nell’interfacciautente.
Seguendo questa esercitazione, hai creato con successo un flusso di dati per l'inserimento di dati da un archivio cloud esterno e hai acquisito informazioni sul monitoraggio dei set di dati. Per saperne di più sulla creazione di flussi di dati, puoi completare l’apprendimento guardando il video sottostante. Inoltre, i dati in entrata possono ora essere utilizzati dai Platform servizi a valle come Real-time Customer Profile e Data Science Workspace. Per ulteriori informazioni, consulta i documenti seguenti:
L’ Platform interfaccia utente mostrata nel video seguente è obsoleta. Per informazioni sulle ultime funzionalità e videate dell’interfaccia, consulta la documentazione precedente.
Le sezioni seguenti forniscono informazioni aggiuntive sull'utilizzo dei connettori di origine.
Quando un flusso di dati viene creato, diventa immediatamente attivo e i dati vengono acquisiti in base alla pianificazione specificata. Puoi disattivare un flusso di dati attivo in qualsiasi momento seguendo le istruzioni riportate di seguito.
Nell’area di Sources lavoro, fate clic sulla Browse scheda. Quindi, fare clic sul nome dell'account associato al flusso di dati attivo che si desidera disattivare.
Viene Source activity visualizzata la pagina. Selezionate il flusso di dati attivo dall’elenco per aprire la relativa Properties colonna sul lato destro dello schermo, che contiene un pulsante di Enabled attivazione/disattivazione. Fate clic sull’interruttore per disattivare il flusso di dati. La stessa opzione può essere utilizzata per riattivare un flusso di dati dopo che è stato disabilitato.
I dati in entrata provenienti dal connettore di origine possono essere utilizzati per arricchire e compilare Real-time Customer Profile i dati. Per ulteriori informazioni sulla compilazione Real-time Customer Profile dei dati, consulta l’esercitazione sulla popolazione diprofili.