Guía de tamaño de Assets assets-sizing-guide
Al cambiar el tamaño del entorno para una implementación de Adobe Experience Manager Assets, es importante asegurarse de que haya suficientes recursos disponibles en términos de disco, CPU, memoria, E/S y rendimiento de red. Para cambiar el tamaño de muchos de estos recursos es necesario conocer cuántos recursos se están cargando en el sistema. Si no hay una métrica mejor disponible, puede dividir el tamaño de la biblioteca existente por la edad de la biblioteca para encontrar la tasa a la que se crean los recursos.
Disco disk
Almacén de datos datastore
Un error común que se produce al cambiar el tamaño del espacio en disco necesario para una implementación de Assets es basar los cálculos en el tamaño de las imágenes sin procesar que se van a introducir en el sistema. De forma predeterminada, Experience Manager crea tres representaciones además de la imagen original para utilizarlas en la renderización de Experience Manager Elementos de la interfaz de usuario. En implementaciones anteriores, se ha observado que estas representaciones suponen el doble del tamaño de los recursos ingeridos.
La mayoría de los usuarios definen representaciones personalizadas, además de las representaciones predeterminadas. Además de las representaciones, Assets permite extraer subrecursos de tipos de archivo comunes, como InDesign y Illustrator.
Por último, las funciones de control de versiones de AEM almacenan duplicados de los recursos en el historial de versiones. Puede configurar las versiones que desea depurar con frecuencia. Sin embargo, muchos usuarios eligen conservar versiones en el sistema durante mucho tiempo, lo que consume espacio de almacenamiento adicional.
Teniendo en cuenta estos factores, necesita una metodología para calcular un espacio de almacenamiento aceptablemente preciso para almacenar los activos de los usuarios.
- Determine el tamaño y la cantidad de recursos que se cargarán en el sistema.
- Obtenga una muestra representativa de los recursos que se van a cargar en AEM. Por ejemplo, si planea cargar archivos de PSD, JPG, IA y PDF en el sistema, necesitará varias imágenes de muestra de cada formato de archivo. Además, estas muestras deben ser representativas de los diferentes tamaños de archivo y complejidades de las imágenes.
- Defina las representaciones que desea utilizar.
- Cree las representaciones en Experience Manager uso de las aplicaciones de Creative Cloud de ImageMagick o Adobe. Además de las representaciones que especifican los usuarios, cree representaciones listas para usar. Para los usuarios que implementan Dynamic Media Classic, puede utilizar el binario IC para generar las representaciones PTIFF que se almacenarán en AEM.
- Si planea utilizar subrecursos, genéelos para los tipos de archivo correspondientes. Consulte la documentación en línea sobre cómo generar páginas de subrecursos a partir de archivos de InDesign o archivos PNG/PDF de capas de Illustrator.
- Compare el tamaño de las imágenes de salida, las representaciones y los subrecursos con las imágenes originales. Permite generar un factor de crecimiento esperado cuando se carga el sistema. Por ejemplo, si genera representaciones y subrecursos con un tamaño combinado de 3 GB después de procesar 1 GB de activos, el factor de crecimiento de la representación es 3.
- Determine el tiempo máximo durante el cual se deben mantener las versiones de los recursos en el sistema.
- Determine con qué frecuencia se modifican los recursos existentes en el sistema. If Experience Manager se utiliza como centro de colaboración en flujos de trabajo creativos, la cantidad de cambios es alta. Si solo se cargan en el sistema los recursos finalizados, este número es mucho menor.
- Determine cuántos recursos se cargan en el sistema cada mes. Si no está seguro, compruebe el número de recursos que están disponibles actualmente y divida el número por la edad del recurso más antiguo para calcular un número aproximado.
Al realizar los pasos del 1 al 9, puede determinar lo siguiente:
- Tamaño sin procesar de los recursos que se van a cargar
- Número de recursos que se van a cargar
- Factor de crecimiento de representación
- Número de modificaciones de recursos realizadas por mes
- Número de meses para mantener las versiones de los activos
- Número de nuevos activos cargados cada mes
- Años de crecimiento para asignar espacio
Puede especificar estos números en la hoja de cálculo Tamaño de red para determinar el espacio total necesario para el almacén de datos. También es una herramienta útil para determinar el impacto de mantener versiones de recursos o modificar recursos en Experience Manager crecimiento del disco.
Los datos de ejemplo rellenados en la herramienta muestran la importancia de realizar los pasos mencionados. Si cambia el tamaño del almacén de datos en función únicamente de las imágenes sin procesar que se están cargando (1 TB), es posible que haya subestimado el tamaño del repositorio en un factor de 15.
Almacenes de datos compartidos shared-datastores
Para grandes almacenes de datos, puede implementar un almacén de datos compartido a través de un almacén de datos de archivos compartidos en una unidad conectada a la red o a través de un almacén de datos S3. En este caso, las instancias individuales no necesitan mantener una copia de los binarios. Además, un almacén de datos compartido facilita la replicación sin binarios y ayuda a reducir el ancho de banda utilizado para replicar recursos para publicar entornos o descargar instancias.
Casos de uso use-cases
El almacén de datos se puede compartir entre una instancia de autor principal y en espera para minimizar el tiempo que se tarda en actualizar la instancia en espera con los cambios realizados en la instancia principal. Adobe recomienda compartir el almacén de datos entre una instancia de autor principal y las instancias de autor de descarga para reducir los gastos generales en la descarga del flujo de trabajo. También puede compartir el almacén de datos entre el autor y las instancias de publicación para minimizar el tráfico durante la replicación.
Inconvenientes drawbacks
Debido a algunos inconvenientes, no se recomienda compartir un almacén de datos en todos los casos.
Punto único de error single-point-of-failure
Al tener un almacén de datos compartido, introduce un solo punto de fallo en una infraestructura. Considere un escenario en el que su sistema tiene un autor y dos instancias de publicación, cada una con su propio almacén de datos. Si alguno de ellos se bloquea, los otros dos pueden seguir ejecutándose. Sin embargo, si se comparte el almacén de datos, una única falla de disco puede eliminar toda la infraestructura. Por lo tanto, asegúrese de mantener una copia de seguridad del almacén de datos compartido desde el que pueda restaurar el almacén de datos rápidamente.
Se prefiere implementar el servicio AWS S3 para los almacenes de datos compartidos porque reduce significativamente la probabilidad de fallo en comparación con las arquitecturas de disco normales.
Mayor complejidad increased-complexity
Los almacenes de datos compartidos también aumentan la complejidad de las operaciones, como la colección de residuos. Normalmente, la recolección de basura para un almacén de datos independiente se puede iniciar con un solo clic. Sin embargo, los almacenes de datos compartidos requieren operaciones de barrido de marca en cada miembro que utiliza el almacén de datos, además de ejecutar la colección real en un solo nodo.
Para las operaciones de AWS, la implementación de una única ubicación central (mediante S3), en lugar de crear una matriz RAID de volúmenes EBS, puede compensar de manera significativa la complejidad y los riesgos operativos del sistema.
Problemas de rendimiento performance-concerns
Un almacén de datos compartido requiere que los binarios se almacenen en una unidad montada en red que se comparte entre todas las instancias. Dado que se accede a estos binarios a través de una red, el rendimiento del sistema se ve afectado negativamente. Puede mitigar parcialmente el impacto mediante el uso de una conexión de red rápida a una matriz rápida de discos. Sin embargo, esta es una propuesta cara. En el caso de las operaciones de AWS, todos los discos son remotos y requieren conectividad de red. Los volúmenes efímeros pierden datos cuando la instancia se inicia o se detiene.
Latencia latency
La latencia en implementaciones S3 se introduce mediante los subprocesos de escritura en segundo plano. Los procedimientos de copia de seguridad deben tener en cuenta esta latencia y cualquier procedimiento de descarga. Es posible que el recurso S3 no esté presente en S3 cuando se inicie un trabajo de descarga. Además, los índices de Lucene pueden seguir incompletos al realizar una copia de seguridad. Se aplica a cualquier archivo con distinción de tiempo escrito en el almacén de datos S3 y al que se accede desde otra instancia.
Almacén de nodos/almacén de documentos node-store-document-store
Es difícil obtener cifras precisas de tamaño para un almacén de nodos o almacén de documentos debido a los recursos que consumen los siguientes:
- Metadatos de recursos
- Versiones de recursos
- Registros de auditoría
- Flujos de trabajo archivados y activos
Dado que los binarios se almacenan en el almacén de datos, cada binario ocupa algún espacio. La mayoría de los repositorios tienen un tamaño inferior a 100 GB. Sin embargo, puede haber repositorios más grandes de hasta 1 TB de tamaño. Además, para realizar la compactación sin conexión, se necesita suficiente espacio libre en el volumen para reescribir el repositorio compactado junto con la versión compactada previamente. Una buena regla general es cambiar el tamaño del disco a 1,5 veces el tamaño esperado para el repositorio.
Para el repositorio, utilice SSD o discos con un nivel IOPS bueno a 3000. Para eliminar las posibilidades de que IOPS introduzca cuellos de botella en el rendimiento, supervise los niveles de espera de E/S de CPU para detectar signos tempranos de problemas.
Red network
Assets tiene una serie de casos de uso que hacen que el rendimiento de la red sea más importante que en muchos de nuestros Experience Manager proyectos. Un cliente puede tener un servidor rápido, pero si la conexión de red no es lo suficientemente grande como para soportar la carga de los usuarios que cargan y descargan recursos del sistema, entonces seguirá pareciendo lenta. Existe una buena metodología para determinar el punto de interrupción en la conexión de red de un usuario a Experience Manager at Experience Manager Consideraciones sobre los recursos para la experiencia del usuario, el tamaño de las instancias, la evaluación del flujo de trabajo y la topología de la red.
WebDAV webdav
Si agrega la variable Experience Manager de la aplicación de escritorio a la mezcla, los problemas de red se vuelven más graves debido a las ineficiencias en el protocolo WebDAV.
Para ilustrar estas ineficiencias, el Adobe probó el rendimiento del sistema mediante WebDAV en el sistema operativo X. Se abrió, editó y guardó un archivo de InDesign de 3,5 MB. Se formularon las siguientes observaciones:
- Se generaron alrededor de 100 solicitudes HTTP para completar la operación
- El archivo se cargó cuatro veces a través de HTTP
- El archivo se descargó una vez a través de HTTP
- La operación tardó 42 segundos en completarse.
- Se transfirió un total de 18 MB
Al analizar el tiempo de ahorro promedio para los archivos a través de WebDAV, se encontró que el rendimiento aumenta drásticamente a medida que el ancho de banda aumenta hasta el nivel de 5-10 Mbps. Por lo tanto, Adobe recomienda que cada usuario que acceda al sistema simultáneamente tenga al menos 10 Mbps de velocidad de carga y 5-10 Mbps de ancho de banda.
Para obtener más información, consulte Resolución de problemas Experience Manager aplicación de escritorio.
Restricciones limitations
Al dimensionar una implementación, es importante tener en cuenta las limitaciones del sistema. Si la implementación propuesta supera estas limitaciones, utilice estrategias creativas, como la partición de los recursos en varias implementaciones de Assets.
El tamaño del archivo no es el único factor que contribuye a los problemas de falta de memoria (OOM). También depende de las dimensiones de la imagen. Puede evitar problemas con OOM proporcionando un tamaño de pila más alto al comenzar AEM.
Además, puede editar la propiedad de tamaño de umbral del com.day.cq.dam.commons.handler.StandardImageHandler
en Configuration Manager para utilizar un archivo temporal intermedio bueno a cero.
Número máximo de activos maximum-number-of-assets
El límite en el número de archivos que pueden existir en un almacén de datos puede ser de 2.1 billones debido a las limitaciones del sistema de archivos. Es probable que el repositorio encuentre problemas debido a un gran número de nodos mucho antes de alcanzar el límite del almacén de datos.
Si las representaciones se generan incorrectamente, utilice la biblioteca Camera Raw. Sin embargo, en este caso, el lado más largo de la imagen no debe ser bueno de 65000 píxeles. Además, la imagen no debe contener más de 512 MP (512 *) 1024 * 1024 píxeles)'. El tamaño del recurso es insignificante.
Es difícil estimar con precisión el tamaño del archivo TIFF compatible de serie (OOTB) con una pila específica para Experience Manager debido a factores adicionales, como el tamaño de los píxeles, influyen en el procesamiento. Es posible que Experience Manager puede procesar un archivo de tamaño de 255 MB OOTB, pero no puede procesar un tamaño de archivo de 18 MB porque este último consta de un número inusualmente mayor de píxeles que el primero.
Tamaño de los recursos size-of-assets
De forma predeterminada, Experience Manager permite cargar recursos de tamaños de archivo de hasta 2 GB. Para cargar recursos muy grandes en AEM, consulte Configuración para cargar recursos muy grandes.