Lors du dimensionnement de l’environnement pour une mise en œuvre d’Adobe Experience Manager Assets, il est important de s’assurer que les ressources disponibles sont suffisantes en termes de disque, de processeur, de mémoire, d’entrée/de sortie et de débit réseau. Le dimensionnement de plusieurs de ces ressources nécessite une compréhension du nombre de ressources chargées dans le système. Si aucune meilleure mesure n’est disponible, vous pouvez diviser la taille de la bibliothèque existante par l’âge de la bibliothèque pour trouver le taux de création des ressources.
Une erreur courante lors du dimensionnement de l’espace disque requis pour une mise en œuvre d’Assets consiste à baser les calculs sur la taille des images brutes à intégrer dans le système. Par défaut, Experience Manager crée trois rendus en plus de l’image d’origine afin d’effectuer le rendu des éléments de l’interface utilisateur d’Experience Manager. Dans les mises en oeuvre précédentes, ces rendus supposent deux fois la taille des ressources ingérées.
La plupart des utilisateurs définissent des rendus personnalisés en plus des rendus prêts à l’emploi. En plus des rendus, Assets permet d’extraire des sous-ressources à partir de types de fichiers courants, tels qu’Adobe InDesign et Adobe Illustrator.
Enfin, les fonctionnalités de création de versions d’Experience Manager stockent les doublons des ressources dans l’historique des versions. Vous pouvez configurer les versions à purger aussi fréquemment que souhaité. Cependant, de nombreux utilisateurs choisissent de conserver longtemps les versions dans le système, ce qui consomme de l’espace de stockage supplémentaire.
Compte tenu de ces facteurs, vous avez besoin d’une méthodologie pour calculer un espace de stockage acceptable et précis afin de stocker les ressources des utilisateurs.
L’exécution des étapes ci-dessus vous aide à déterminer les éléments suivants :
Vous pouvez indiquer ces chiffres dans la feuille de calcul Dimensionnement du réseau afin de déterminer l’espace total requis pour le magasin de données. C’est également un outil utile pour déterminer l’impact de la conservation des versions des ressources ou de la modification des ressources dans Experience Manager sur la croissance du disque.
Les exemples de données renseignés dans l’outil montrent à quel point il est important de réaliser les étapes mentionnées. Si vous dimensionnez le magasin de données uniquement en fonction des images brutes à charger (1 To), vous avez peut-être sous-estimé la taille du référentiel d’un facteur de 15.
Les magasins de données volumineux peuvent être partagés en optant pour un magasin de données de fichiers partagée sur un lecteur relié au réseau ou un magasin de données S3. Dans ce cas, les instances individuelles n’ont pas besoin de gérer une copie des binaires. En outre, un magasin de données partagé facilite la réplication sans fichier binaire et permet de réduire la bande passante utilisée pour répliquer les ressources dans les environnements de publication.
Le magasin de données peut être partagé entre une instance d’auteur principale et de secours afin de réduire le temps nécessaire à la mise à jour de l’instance de secours avec les modifications apportées à l’instance principale. Vous pouvez également partager la banque de données entre les instances d’auteur et de publication afin de réduire le trafic pendant la réplication.
En raison de certains écueils, le partage d’une banque de données n’est pas recommandé dans tous les cas.
Disposer d’une banque de données partagée introduit un point unique d’échec dans une infrastructure. Supposons que votre système dispose d’une instance de création et de deux instances de publication, chacune disposant de sa propre banque de données. Si l'un d'eux se bloque, les deux autres peuvent continuer à fonctionner. Cependant, si la banque de données est partagée, une seule panne de disque peut entraîner l’arrêt de toute l’infrastructure. Par conséquent, assurez-vous de conserver une sauvegarde de la banque de données partagée à partir de laquelle vous pouvez restaurer rapidement la banque de données.
Il est préférable de déployer le service AWS S3 pour les entrepôts de données partagés, car cela réduit considérablement la probabilité d’échec par rapport aux architectures de disque normales.
Les banques de données partagées augmentent également la complexité des opérations, telles que le nettoyage de la mémoire. Normalement, le nettoyage de la mémoire pour une banque de données autonome peut être lancé en un seul clic. Toutefois, les banques de données partagées nécessitent des opérations de balayage des marques sur chaque membre qui utilise l’entrepôt de données, en plus d’exécuter la collection réelle sur un seul noeud.
Pour les opérations AWS, la mise en œuvre d’un emplacement central unique (via Amazon S3) plutôt que la création d’une matrice RAID de volumes EBS peut considérablement limiter la complexité et les risques opérationnels du système.
Un magasin de données partagé nécessite que les fichiers binaires soient stockés sur un lecteur monté sur le réseau partagé entre toutes les instances. Comme ces fichiers binaires sont accessibles sur un réseau, les performances du système sont affectées. Vous pouvez partiellement atténuer cet impact en utilisant une connexion réseau rapide à une matrice rapide de disques. Toutefois, il s’agit d’une proposition coûteuse. S’il existe des opérations AWS, tous les disques sont distants et nécessitent une connectivité réseau. Les volumes éphémères perdent des données lorsque l’instance démarre ou s’arrête.
La latence dans les implémentations S3 est introduite par les threads d’écriture en arrière-plan. Les procédures de sauvegarde doivent tenir compte de cette latence. En outre, les index Lucene peuvent rester incomplets lors d’une sauvegarde. Il s’applique à tout fichier sensible au temps écrit dans la banque de données S3 et accessible à partir d’une autre instance.
Il est difficile d’obtenir des chiffres de dimensionnement précis pour un NodeStore ou un DocumentStore en raison des ressources utilisées par les éléments suivants :
Comme les fichiers binaires sont stockés dans la banque de données, chaque fichier binaire occupe un certain espace. La plupart des référentiels ont une taille inférieure à 100 Go. Cependant, vous pouvez rencontrer des référentiels de plus grande taille pouvant atteindre 1 To. De plus, pour effectuer un compactage hors ligne, vous avez besoin d’assez d’espace sur le volume pour réécrire le référentiel compacté avec la version précompactée. Une bonne règle de base consiste à dimensionner le disque à 1,5 fois la taille attendue pour le référentiel.
Pour le référentiel, utilisez des disques SSD ou des disques dont le niveau IOPS est supérieur à 3000. Pour éviter que les IOPS n’introduisent des goulets d’étranglement en termes de performances, surveillez les niveaux d’attente des E/S du processeur pour détecter les premiers signes de problèmes.
Assets comporte plusieurs cas d’utilisation qui rendent les performances réseau plus importantes que sur la plupart de nos Experience Manager projets. Un client peut disposer d’un serveur rapide, mais si la connexion réseau n’est pas assez puissante pour soutenir la charge des utilisateurs qui chargent et téléchargent des ressources à partir du système, il semblera toujours lent. Il existe une bonne méthodologie pour déterminer le point d’étranglement de la connexion réseau d’un utilisateur vers Experience Manager dans le document Observations relatives à Assets en ce qui concerne l’expérience utilisateur, le dimensionnement des instances, l’évaluation des workflows et la topologie réseau.
Lors du dimensionnement d’une mise en oeuvre, il est important de garder à l’esprit les limites du système. Si la mise en œuvre proposée dépasse ces restrictions, utilisez des stratégies créatives, telles que le partitionnement des ressources entre plusieurs mises en œuvre d’Assets.
La taille du fichier n’est pas le seul facteur qui contribue aux problèmes de mémoire insuffisante (OOM). Cela dépend également des dimensions de l’image. Vous pouvez éviter les problèmes d’insuffisance de mémoire en fournissant une taille de tas supérieure lorsque vous démarrez Experience Manager.
En outre, vous pouvez modifier la propriété de taille de seuil du composant com.day.cq.dam.commons.handler.StandardImageHandler
dans Configuration Manager pour utiliser un fichier temporaire intermédiaire supérieur à zéro.
La limite du nombre de fichiers pouvant exister dans une banque de données peut être de 2,1 milliards en raison de limitations du système de fichiers. Il est probable que le référentiel rencontre des problèmes en raison d’un grand nombre de noeuds bien avant d’atteindre la limite de l’entrepôt de données.
Si les rendus sont générés de manière incorrecte, utilisez la bibliothèque Camera Raw. Toutefois, dans ce cas, le côté le plus long de l’image ne doit pas être supérieur à 65 000 pixels. En outre, l’image ne doit pas contenir plus de 512 Mpx (512*1024 x 1024 pixels). La taille de la ressource n’a pas d’importance.
Il est difficile d’estimer avec précision la taille du fichier TIFF pris en charge prêt à l’emploi avec un tas spécifique pour Experience Manager en raison de facteurs supplémentaires, tels que la taille des pixels, qui influence le traitement. Il est possible qu’Experience Manager puisse traiter un fichier prêt à l’emploi d’une taille de 255 Mo, mais ne puisse pas traiter un fichier de 18 Mo, parce que ce dernier comprend un nombre inhabituellement plus élevé de pixels par rapport au premier.
Par défaut, Experience Manager vous permet de charger des ressources d’une taille de fichier allant jusqu’à 2 Go. Pour charger des ressources très volumineuses dans Experience Manager, consultez Configuration pour charger des ressources très volumineuses.