在调整环境大小时 Adobe Experience Manager Assets 因此,在磁盘、CPU、内存、IO和网络吞吐量方面确保有足够的可用资源非常重要。 调整其中许多资源的大小需要了解有多少资源正在加载到系统中。 如果没有更好的量度,您可以按库的年龄除以现有库的大小,以找出创建资产的速率。
确定所需的磁盘空间大小时发生的常见错误 Assets 实施是根据要摄取到系统中的原始图像的大小进行计算。 默认情况下, Experience Manager 除了原始图像之外,还创建三个演绎版,以用于渲染 Experience Manager 用户界面元素。 在以前的实施中,已观察到这些演绎版假设的资产大小是摄取资产的两倍。
除了现成的演绎版之外,大多数用户还会定义自定义演绎版。 除了演绎版, Assets 用于从常见文件类型中提取子资产,例如 Adobe InDesign 和 Adobe Illustrator.
最后,版本控制功能 Experience Manager 在版本历史记录中存储资产的重复项。 您可以配置要经常清除的版本。 但是,许多用户选择将版本保留在系统中较长时间,这会占用额外的存储空间。
考虑到这些因素,您需要一种方法来计算存储用户资产所需的存储空间(此存储空间精确到可以接受的程度)。
执行上述步骤有助于确定以下内容:
您可以在网络大小调整电子表格中指定这些数字,以确定数据存储所需的总空间。 此外,它还是确定在中维护资产版本或修改资产的影响的有用工具 Experience Manager 磁盘增长。
该工具中填充的示例数据说明了执行上述步骤的重要性。 如果您仅根据正在加载的原始图像来调整数据存储的大小(1 TB),则可能会将存储库大小低估了15倍。
对于大型数据存储,您可以通过网络连接驱动器上的共享文件数据存储区或Amazon S3数据存储区来实施共享数据存储。 在这种情况下,各个实例无需维护二进制文件的副本。 此外,共享数据存储有助于进行无二进制复制,并帮助减少用于将资产复制到发布环境的带宽。
数据存储可以在主实例和备用创作实例之间共享,以将在主实例中所做的更改更新备用实例所需的时间减至最少。 您还可以在创作实例和发布实例之间共享数据存储,以最大程度地减少复制期间的流量。
由于存在一些缺陷,并非在所有情况下都建议共享数据存储。
拥有共享数据存储,会给基础架构带来单点故障。 假定您的系统有一个作者实例和两个发布实例,每个实例都有自己的数据存储。 如果其中任何一个崩溃,其他两个仍可以继续运行。 但是,如果数据存储是共享的,则单个磁盘故障可能会破坏整个基础架构。 因此,请确保维护了共享数据存储的备份,您可以从中快速恢复数据存储。
最好将AWS S3服务部署到共享数据存储,因为它与普通磁盘体系结构相比可显着降低故障概率。
共享数据存储也会增加操作的复杂性,例如垃圾收集。 通常,只需单击一下即可启动独立数据存储的垃圾收集。 但是,共享数据存储除了在单个节点上运行实际集合外,还需要对使用该数据存储的每个成员进行标记扫描操作。
对于AWS操作,实施单个中心位置(通过Amazon S3)而不是构建EBS卷的RAID阵列,可以显着抵消系统的复杂性和操作风险。
共享数据存储要求将二进制文件存储在所有实例之间共享的网络装载驱动器上。 由于通过网络访问这些二进制文件,因此系统性能会受到负面影响。 您可以通过使用到快速磁盘阵列的快速网络连接来部分缓解影响。 然而,这是一个代价高昂的主张。 在AWS操作中,所有磁盘都是远程磁盘,需要网络连接。 临时卷在实例启动或停止时丢失数据。
S3实施中的延迟是由后台写入线程引入的。 备份过程必须考虑这种延迟。 此外,在进行备份时,Lucene索引可能仍然不完整。 它适用于写入S3数据存储并从其他实例访问的任何时间敏感文件。
由于以下资源消耗,很难获得NodeStore或DocumentStore的精确大小调整数字:
由于二进制文件存储在数据存储中,因此每个二进制文件都会占用一些空间。 大多数存储库的大小低于100GB。 但是,可能有更大的存储库,最大大小为1 TB。 此外,要执行离线压缩,卷上需要足够的可用空间,以便与预压缩版本一起重写压缩的存储库。 一个好的经验法则是将磁盘大小设置为存储库预期大小的1.5倍。
对于存储库,请使用IOPS级别大于3000的SSD或磁盘。 为了消除IOPS引入性能瓶颈的可能性,请监控CPU IO等待级别以发现问题的早期迹象。
Assets 有许多使用案例,使网络性能比我们的许多产品更重要 Experience Manager 个项目。 客户可以拥有快速服务器,但如果网络连接不够大,不足以支持从系统上传和下载资产的用户加载,则服务器速度仍会显得缓慢。 确定用户网络连接中的阻塞点的方法很好 Experience Manager 在 用户体验、实例大小、工作流评估和网络拓扑的资源注意事项.
在调整实施大小时,请务必牢记系统限制。 如果建议的实施超出这些限制,请采用创意策略,例如跨多个资产进行分区 Assets 实施。
文件大小不是导致内存不足(OOM)问题的唯一因素。 它还取决于图像的尺寸。 通过在启动时提供更大的栈大小可避免OOM问题 Experience Manager.
此外,您还可以编辑的阈值大小属性 com.day.cq.dam.commons.handler.StandardImageHandler
组件来使用大于零的中间临时文件。
由于文件系统限制,数据存储中可以存在的文件数量限制可以是21亿。 存储库可能在很久之后才达到数据存储限制时遇到因大量节点导致的问题。
如果格式副本的生成不正确,请使用Camera Raw库。 但是,在这种情况下,图像的最长边不应大于65000像素。 此外,图像不应包含超过512 MP(512 x 1024 x 1024像素)。 资产规模并不重要。
很难准确地估计由的特定栈支持的现成TIFF文件的大小 Experience Manager 因为像素大小等附加因素会影响处理。 有可能 Experience Manager 可以立即处理大小为255 MB的文件,但不能处理大小为18 MB的文件,因为后者包含的像素数比前者高得异乎寻常。
默认情况下, Experience Manager 允许您上传文件大小最大为2 GB的资产。 要在中上传非常大的资产,请执行以下操作 Experience Manager,请参见 用于上传超大型资产的配置.