(测试版) Apache HDFS连接器

注意

Apache HDFS连接器处于测试阶段。 请参阅 源概述 有关使用测试版标签的连接器的更多信息。

Adobe Experience Platform为AWS等云提供商提供本机连接, Google Cloud Platform和 Azure,允许您从这些系统中导入数据。 摄取的数据可以采用JSON、Parquet或分隔格式。 对云存储提供商的支持包括 Apache HDFS。

IP地址允许列表

在使用源连接器之前,必须将IP地址列表添加到允许列表。 无法将特定于区域的IP地址添加到允许列表,在使用源时可能会导致错误或性能不佳。 请参阅 IP地址允许列表 页面以了解更多信息。

文件和目录的命名限制

以下是在命名云存储文件或目录时必须考虑的限制列表。

  • 目录和文件组件名称不能超过255个字符。
  • 目录和文件名不能以正斜杠(/)。 如果提供,则会自动将其删除。
  • 以下保留的URL字符必须正确转义: ! ' ( ) ; @ & = + $ , % # [ ]
  • 不允许使用以下字符: " \ / : | < > * ?.
  • 不允许使用非法的URL路径字符。 代码点,如 \uE000,但在NTFS文件名中有效,是无效的Unicode字符。 此外,还不允许使用某些ASCII或Unicode字符,如控制字符(0x00到0x1F、\u0081等)。 有关HTTP/1.1中控制Unicode字符串的规则,请参阅 RFC 2616,第2.2节:基本规则RFC 3987.
  • 不允许使用以下文件名:LPT1、LPT2、LPT3、LPT4、LPT5、LPT6、LPT7、LPT8、LPT9、COM1、COM2、COM3、COM4、COM5、COM6、COM7、COM8、COM9、PRN、NUL、CON、CLOK$、点(.)字符和两个点(.)字符。

连接 Apache HDFS到 Platform

以下文档提供了有关如何连接的信息 Apache HDFS到 Platform 使用API或用户界面:

使用API

使用UI

在此页面上