为 Adobe Experience Manager Assets 实施时,必须确保在磁盘、CPU、内存、IO和网络吞吐量方面有足够的可用资源。 调整其中许多资源的大小需要了解系统中加载的资产数量。 如果没有更好的量度可用,您可以将现有库的大小除以库的年龄,以查找创建资产的速率。
在调整 Assets 实施是根据要摄取到系统中的原始图像的大小进行计算。 默认情况下, Experience Manager 除了原始图像之外,还会创建三个演绎版,以用于渲染 Experience Manager 用户界面元素。 在以前的实施中,观察到这些演绎版假定采用的资产大小是所摄取资产的两倍。
除了现成的演绎版之外,大多数用户还定义自定义演绎版。 除了演绎版之外, Assets 允许您从常用文件类型(例如 Adobe InDesign 和 Adobe Illustrator.
最后, Experience Manager 在版本历史记录中存储资产的重复项。 您可以配置要经常清除的版本。 但是,许多用户选择在系统中长时间保留版本,这会占用额外的存储空间。
考虑到这些因素,您需要一种方法来计算一个可接受的、准确的存储空间来存储用户资产。
执行上述步骤可帮助您确定以下内容:
您可以在网络大小调整电子表格中指定这些数字,以确定数据存储所需的总空间。 此外,它还是确定在中维护资产版本或修改资产的影响的有用工具 Experience Manager 磁盘增长。
工具中填充的示例数据演示了执行上述步骤有多么重要。 如果您仅根据加载的原始图像(1 TB)来调整数据存储大小,则您可能将存储库大小低估了15倍。
对于大型数据存储,您可以通过网络连接驱动器上的共享文件数据存储或通过Amazon S3数据存储来实施共享数据存储。 在这种情况下,单个实例无需维护二进制文件的副本。 此外,共享数据存储有助于无二进制复制,并有助于减少将资产复制到发布环境的带宽。
数据存储可以在主创作实例和备用创作实例之间共享,以使用在主实例中所做的更改来最小化更新备用实例所花费的时间。 您还可以在创作实例和发布实例之间共享数据存储,以在复制过程中最大限度地减少流量。
由于存在某些缺陷,因此在任何情况下都不建议共享数据存储。
共享数据存储,在基础架构中引入单点故障。 假设您的系统有一个作者实例和两个发布实例,每个实例都有其自己的数据存储。 如果其中任何一个崩溃,则另外两个仍可以继续运行。 但是,如果共享数据存储,则单个磁盘故障可能会破坏整个基础架构。 因此,请确保您维护共享数据存储的备份,您可以在其中快速还原数据存储。
与常规的磁盘体系结构相比,部署用于共享数据存储的AWS S3服务会显着降低故障概率,因此这是首选。
共享数据存储还增加了操作的复杂性,如垃圾收集。 通常,只需单击一次即可启动独立数据存储的垃圾收集。 但是,共享数据存储除了在单个节点上运行实际集合之外,还需要对使用数据存储的每个成员执行标记扫描操作。
对于AWS操作,实施单个中央位置(通过Amazon S3),而不是构建EBS卷的RAID阵列,可以显着抵消系统的复杂性和操作风险。
共享数据存储要求将二进制文件存储在所有实例之间共享的网络挂载驱动器上。 由于这些二进制文件是通过网络访问的,因此系统性能会受到不利影响。 使用快速网络连接到快速磁盘阵列可以部分减轻影响。 但是,这个建议很昂贵。 对于AWS操作,所有磁盘都是远程的,需要网络连接。 临时卷在实例启动或停止时丢失数据。
后台写入线程会引入S3实现中的延迟。 备份过程必须考虑到此滞后。 此外,进行备份时, Lucene索引可能仍不完整。 它适用于写入S3数据存储并从其他实例访问的任何时间敏感文件。
由于以下资源消耗,因此很难获得NodeStore或DocumentStore的精确大小调整图:
由于二进制文件存储在数据存储中,因此每个二进制文件都占用一些空间。 大多数存储库的大小都低于100GB。 但是,存储库的大小可能最大为1 TB。 此外,要执行离线压缩,您需要在卷上有足够的可用空间来重写压缩的存储库和预压缩版本。 一条经验法则是,将磁盘的大小调整为存储库预期大小的1.5倍。
对于存储库,使用IOPS级别大于3000的SSD或磁盘。 为了消除IOPS引入性能瓶颈的机率,请监控CPU IO等待级别以及早期问题迹象。
Assets 有许多用例使网络性能比我们的许多 Experience Manager 项目。 客户可以拥有快速服务器,但如果网络连接不足以支持从系统上传和下载资产的用户加载,则速度仍会很慢。 在用户的网络连接中确定阻塞点的方法是好的 Experience Manager at 与用户体验、实例大小、工作流评估和网络拓扑相关的资产注意事项.
在调整实施大小时,务必牢记系统限制。 如果建议的实施超出了这些限制,则应用创意策略,例如在多个资产之间划分资产 Assets 实施。
文件大小并非导致内存不足(OOM)问题的唯一因素。 它还取决于图像的尺寸。 在开始时提供更高的堆大小可避免OOM问题 Experience Manager.
此外,您还可以编辑 com.day.cq.dam.commons.handler.StandardImageHandler
组件来使用大于零的中间临时文件。
由于文件系统限制,数据存储中可以存在的文件数量限制为21亿。 在达到数据存储限制之前,存储库可能会遇到由于节点数量过大而导致的问题。
如果演绎版生成不正确,请使用Camera Raw库。 但是,在这种情况下,图像的最长边不应大于65000像素。 此外,图像不应包含超过512 MP(512 x 1024 x 1024像素)。 资产的大小无关紧要。
很难准确估计支持的TIFF文件的大小,该文件现成包含的特定堆 Experience Manager 因为像素大小等其他因素会影响处理。 有可能 Experience Manager 可以即装即用处理大小为255 MB的文件,但无法处理大小为18 MB的文件,因为与前者相比,后者包含的像素数异常高。
默认情况下, Experience Manager 允许您上传文件大小最大为2 GB的资产。 要在 Experience Manager,请参阅 上传超大资产的配置.