(Beta) Apache conector HDFS
Adobe Experience Platform proporciona conectividad nativa para proveedores de la nube como AWS, Google Cloud Platform y Azure, lo que le permite obtener los datos de estos sistemas. Los datos ingeridos pueden tener el formato JSON, Parquet o estar delimitados. La compatibilidad con los proveedores de almacenamiento en la nube incluye Apache HDFS.
LISTA DE PERMITIDOS de direcciones IP
Se debe agregar una lista de direcciones IP a una lista de permitidos antes de trabajar con conectores de origen. Si no se agregan las direcciones IP específicas de la región a la lista de permitidos, pueden producirse errores o no rendimiento al utilizar fuentes. Consulte la página lista de permitidos de direcciones IP para obtener más información.
Restricciones de nomenclatura para archivos y directorios
A continuación se muestra una lista de restricciones que debe tener en cuenta al nombrar el archivo o directorio de almacenamiento en la nube.
- Los nombres de componentes de directorio y archivo no pueden superar los 255 caracteres.
- Los nombres de directorio y archivo no pueden terminar con una barra diagonal (
/
). Si se proporciona, se eliminará automáticamente. - Los siguientes caracteres de URL reservadas deben ser de escape correcto:
! ' ( ) ; @ & = + $ , % # [ ]
- No se permiten los siguientes caracteres:
" \ / : | < > * ?
. - No se permiten caracteres de ruta de URL no válidos. Los puntos de código como
\uE000
, si bien son válidos en los nombres de archivo NTFS, no son caracteres Unicode válidos. Además, algunos caracteres ASCII o Unicode, como los caracteres de control (0x00 a 0x1F, \u0081, etc.), tampoco están permitidos. Para las reglas que rigen las cadenas Unicode en HTTP/1.1, consulte RFC 2616, Section 2.2: Basic Rules y RFC 3987. - No se permiten los siguientes nombres de archivo: LPT1, LPT2, LPT3, LPT4, LPT5, LPT6, LPT7, LPT8, LPT9, COM1, COM2, COM3, COM4, COM5, COM6, COM7, COM8, COM9, PRN, AUX, NUL, CON, CLOCK$, carácter de punto (.) y dos caracteres de punto (…).
Conectar Apache HDFS a Platform
La siguiente documentación proporciona información sobre cómo conectar Apache HDFS a Platform mediante API o la interfaz de usuario: