Connettore HDFS Apache (Beta)
Adobe Experience Platform fornisce connettività nativa per i provider di cloud come AWS, Google Cloud Platform e Azure, consentendo di portare i dati da questi sistemi. I dati acquisiti possono essere formattati come JSON, Parquet o delimitati. Il supporto per i provider di archiviazione cloud include Apache HDFS.
ELENCO CONSENTITI di indirizzo IP
Prima di utilizzare i connettori di origine, è necessario aggiungere un elenco di indirizzi IP a un elenco consentiti. La mancata aggiunta all’elenco consentiti degli indirizzi IP specifici per l’area geografica potrebbe causare errori o prestazioni non ottimali durante l’utilizzo delle origini. Per ulteriori informazioni, vedere la pagina elenco consentiti indirizzo IP.
Vincoli di denominazione per file e directory
Di seguito è riportato un elenco di vincoli di cui è necessario tenere conto per la denominazione del file di archiviazione cloud o della directory.
- I nomi dei componenti di directory e file non possono superare i 255 caratteri.
- I nomi di file e directory non possono terminare con una barra (
/
). Se fornito, verrà rimosso automaticamente. - I seguenti caratteri URL riservati devono essere correttamente preceduti dall'escape:
! ' ( ) ; @ & = + $ , % # [ ]
- I seguenti caratteri non sono consentiti:
" \ / : | < > * ?
. - Caratteri di percorso URL non validi non consentiti. I punti di codice come
\uE000
, sebbene validi nei nomi di file NTFS, non sono caratteri Unicode validi. Inoltre, alcuni caratteri ASCII o Unicode, come i caratteri di controllo (da 0x00 a 0x1F, \u0081, ecc.), non sono consentiti. Per le regole che regolano le stringhe Unicode in HTTP/1.1, vedere RFC 2616, Sezione 2.2: Regole di base e RFC 3987. - Non sono consentiti i seguenti nomi di file: LPT1, LPT2, LPT3, LPT4, LPT5, LPT6, LPT7, LPT8, LPT9, COM1, COM2, COM3, COM4, COM5, COM6, COM7, COM8, COM9, PRN, AUX, NUL, CON, CLOCK$, carattere punto (.) e due caratteri punto (…).
Connetti Apache HDFS a Platform
La documentazione seguente fornisce informazioni su come collegare Apache HDFS a Platform utilizzando le API o l'interfaccia utente: