Adobe Experience Manager Assets guide d’optimisation des performances

Une configuration Experience Manager Assets contient un certain nombre de composants matériels, logiciels et réseau. Selon votre scénario de déploiement, vous pouvez avoir besoin d’apporter des modifications spécifiques à la configuration des composants matériels, logiciels et réseau pour supprimer les goulots d’étranglement en termes de performances.

En outre, l’identification et le respect de certaines directives d’optimisation du matériel et des logiciels permettent de créer une base solide qui permet à votre déploiement Experience Manager Assets de répondre aux attentes en matière de performances, d’évolutivité et de fiabilité.

Des performances médiocres dans Experience Manager Assets peuvent avoir une incidence sur l’expérience utilisateur en ce qui concerne les performances interactives, le traitement des ressources, la vitesse de téléchargement et d’autres aspects.

En fait, l’optimisation des performances est une tâche essentielle que vous effectuez avant d’établir des mesures cibles pour chacun de vos projets.

Voici quelques éléments principaux essentiels pour lesquels vous devez identifier et corriger les problèmes de performances avant que ceux-ci aient un impact sur les utilisateurs.

Plate-forme

Bien que Experience Manager soit pris en charge sur un certain nombre de plateformes, Adobe a trouvé la meilleure prise en charge des outils natifs sous Linux et Windows, ce qui contribue à des performances optimales et à la facilité d’implémentation. Idéalement, vous devez déployer un système d’exploitation 64 bits pour répondre aux exigences de mémoire élevée d’un déploiement Experience Manager Assets. Comme pour tout déploiement de Experience Manager, vous devez implémenter TarMK chaque fois que possible. Bien que TarMK ne puisse pas mesurer au-delà d’une instance d’auteur simple, il semble offrir de meilleurs résultats que MongoMK. Vous pouvez ajouter des instances de déchargement TarMK pour augmenter la puissance de traitement des workflows de votre déploiement Experience Manager Assets.

Dossier temporaire

Pour améliorer les temps de chargement des ressources, utilisez un stockage haute performance pour le répertoire temporaire Java. Sous Linux et Windows, un disque SSD ou RAM peut être utilisé. Dans des environnements cloud, un type de stockage à grande vitesse équivalent peut être utilisé. Par exemple, dans Amazon EC2, un lecteur éphémère peut être utilisé pour le dossier temporaire.

En supposant que le serveur dispose de suffisamment de mémoire, configurez un disque RAM. Sous Linux, exécutez les commandes suivantes pour créer un disque RAM de 8 Go :

mkfs -q /dev/ram1 800000
 mkdir -p /mnt/aem-tmp
 mount /dev/ram1 /mnt/aem-tmp
 df -H | grep aem-tmp

Sous Windows OS, utilisez un pilote tiers pour créer un lecteur RAM ou utilisez simplement un stockage haute performance tel que SSD.

Une fois que le volume temporaire haute performance est prêt, définissez le paramètre JVM -Djava.io.tmpdir. Par exemple, vous pouvez ajouter le paramètre JVM ci-dessous à la variable CQ_JVM_OPTS dans le script bin/start de Experience Manager :

-Djava.io.tmpdir=/mnt/aem-tmp

Configuration Java

Version Java

Adobe recommande de déployer Experience Manager Assets sur Java 8 pour des performances optimales.

Paramètres JVM

Définissez les paramètres JVM suivants :

  • -XX:+UseConcMarkSweepGC
  • -Doak.queryLimitInMemory=500000
  • -Doak.queryLimitReads=100000
  • -Dupdate.limit=250000
  • -Doak.fastQuerySize=true

Configuration d’entrepôt de données et de mémoire

Configuration d’entrepôt de données basé sur les fichiers

Il est recommandé à tous les utilisateurs de Experience Manager Assets de séparer l’entrepôt de données de l’entrepôt de segments. En outre, la configuration des paramètres maxCachedBinarySize et cacheSizeInMB peut vous aider à optimiser les performances. Définissez le paramètre maxCachedBinarySize selon la plus petite taille de fichier pouvant être contenue dans le cache. Spécifiez la taille du cache en mémoire à utiliser pour l’entrepôt de données dans cacheSizeInMB. Adobe vous recommande de définir cette valeur entre 2 et 10 % de la taille totale du tas. Toutefois, le chargement ou le test des performances peuvent vous aider à déterminer le paramètre idéal.

Configuration de la taille maximale du cache d’images mis en mémoire tampon

Lors du chargement de grandes quantités de ressources vers Adobe Experience Manager, afin de permettre des pics inattendus de consommation de mémoire et d’empêcher l’échec de la JVM avec des erreurs OutOfMemoryErrors, réduisez la taille maximale configurée du cache d’image mis en mémoire tampon. Prenez l’exemple d’un système présentant un tas maximal (paramètre -Xmx) de 5 Go, un BlobCache Oak défini sur 1 Go et un cache de documents défini sur 2 Go. Dans ce cas, le cache mis en mémoire tampon prendrait au maximum 1,25 Go, ce qui laisserait seulement 0,75 Go pour les pics inattendus.

Configurez la taille du cache mis en mémoire tampon dans la console web OSGi. À l’emplacement https://host:port/system/console/configMgr/com.day.cq.dam.core.impl.cache.CQBufferedImageCache, définissez la propriété cq.dam.image.cache.max.memory en octets. Par exemple, 1073741824 représente 1 Go (1 024 x 1 024 x 1 024 = 1 Go).

À partir de Experience Manager 6.1 SP1, si vous utilisez un noeud sling:osgiConfig pour configurer cette propriété, veillez à définir le type de données sur Long. Pour plus de détails, voir CQBufferedImageCache utilise le tas pendant le téléchargement des ressources.

Entrepôts de données partagés

La mise en œuvre d’un entrepôt de données basé sur les fichiers, partagé ou S3, peut vous aider à économiser de l’espace disque et à augmenter le débit réseau dans des implémentations à grande échelle. Pour plus d’informations sur les avantages et inconvénients de l’utilisation d’une banque de données partagée, voir le Guide de dimensionnement des ressources.

Entrepôt de données S3

La configuration de l’entrepôt de données S3 suivante (org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.cfg) a permis à Adobe d’extraire 12,8 To d’objets BLOB (Binary Large Objects) d’un entrepôt de données basé sur les fichiers existant dans un entrepôt de données S3 vers un site client :

accessKey=<snip>
 secretKey=<snip>
 s3Bucket=<snip>
 s3Region=us-standard
 s3EndPoint=<a href="https://s3.amazonaws.com/">s3.amazonaws.com</a>
 connectionTimeout=120000
 socketTimeout=120000
 maxConnections=80
 writeThreads=60
 concurrentUploadsThreads=30
 asyncUploadLimit=30
 maxErrorRetry=1000
 path=/opt/author/crx-quickstart/repository/datastore
 s3RenameKeys=false
 s3Encryption=SSE_S3
 proactiveCaching=true
 uploadRetries=1000
 migrateFailuresCount=400

Optimisation du réseau

Adobe recommande d’activer HTTPS, car de nombreuses entreprises qui possèdent des pare-feu analysent le trafic HTTP, ce qui a une incidence sur les chargements et endommage les fichiers. Pour les chargements de fichiers volumineux, assurez-vous que les utilisateurs disposent d’une connexion filaire au réseau, car les réseaux Wi-Fi saturent rapidement. Pour obtenir des instructions sur l’identification des goulets d’étranglement du réseau, voir le Guide sur le dimensionnement des ressources. Pour évaluer les performances du réseau en analysant la topologie du réseau, voir Considérations sur le réseau des ressources.

Votre stratégie d’optimisation du réseau dépend principalement de la quantité de bande passante disponible et de la charge sur votre instance Experience Manager. Les options de configuration courantes, notamment les pare-feu ou les proxys, peuvent améliorer les performances du réseau. Voici quelques points essentiels à prendre en compte :

  • En fonction du type d’instance (petite, moyenne, grande), assurez-vous que vous disposez de suffisamment de bande passante réseau pour votre instance de Experience Manager. Une allocation de bande passante adéquate est particulièrement importante si Experience Manager est hébergé sur AWS.
  • Si votre instance Experience Manager est hébergée sur AWS, vous pouvez bénéficier d’une stratégie de mise à l’échelle polyvalente. Augmentez la taille de l’instance si les utilisateurs prévoient une charge élevée. Réduisez-la pour une charge moyenne/faible.
  • HTTPS : la plupart des utilisateurs possèdent des pare-feu qui analysent le trafic HTTP, ce qui est susceptible d’avoir une incidence sur le chargement des fichiers ou même endommager des fichiers lors de l’opération de chargement.
  • Chargements volumineux : assurez-vous que les utilisateurs disposent d’une connexion filaire au réseau (les connexions Wi-Fi sont rapidement saturées).

Workflows

Workflows transitoires

Dans la mesure du possible, définissez le workflow Ressource de mise à jour de gestion des actifs numériques sur Transitoire. Le paramètre réduit considérablement les surcharges nécessaires pour traiter les workflows car, dans ce cas, ils n’ont pas besoin de faire l’objet d’un suivi et de processus d’archivage classiques.

  1. Accédez à /miscadmin dans le déploiement Experience Manager à l’adresse https://[aem_server]:[port]/miscadmin.

  2. Développez Outils > Processus > Modèles > dam.

  3. Ouvrez Ressource de mise à jour de gestion des actifs numériques. Depuis le panneau d’outils flottant, basculez vers l’onglet Page, puis cliquez sur Propriétés de la page.

  4. Sélectionnez Processus transitoire et cliquez sur OK.

    REMARQUE

    Certaines fonctions ne prennent pas en charge les workflows transitoires. Si votre déploiement Assets nécessite ces fonctionnalités, ne configurez pas de workflows transitoires.

Dans les cas où les workflows transitoires ne peuvent pas être utilisés, exécutez régulièrement la purge des workflows pour supprimer les workflows Ressource de mise à jour de gestion des actifs numériques archivés afin de garantir que les performances du système ne se dégradent pas.

En règle générale, exécutez les workflows de purge une fois par semaine. Cependant, dans les scénarios gourmands en ressources, tels que l’ingestion de ressources à grande échelle, vous pouvez l’exécuter plus fréquemment.

Pour configurer la purge des workflows, ajoutez une nouvelle configuration de purge de workflow d’Adobe Granite via la console OSGi. Configurez et planifiez ensuite le workflow dans le cadre de la période de maintenance hebdomadaire.

Si la purge s’exécute trop longtemps, elle s’arrête. Par conséquent, vous devez vous assurer que vos tâches de purge se terminent pour éviter les cas où l’exécution de la purge des workflows échoue en raison du nombre élevé de workflows.

Par exemple, après avoir exécuté de nombreux workflows transitoires (ce qui crée des noeuds d’instance de workflow), vous pouvez exécuter ACS AEM Commons Workflow Remover sur une base ad hoc. Il supprime les instances de workflow terminées et redondantes immédiatement sans attendre l’exécution du planificateur de purge de workflow d’Adobe Granite.

Tâches parallèles maximales

Par défaut, Experience Manager exécute un nombre maximal de tâches parallèles égal au nombre de processeurs sur le serveur. Le problème avec ce paramètre est que pendant les périodes de charge importante, tous les processeurs sont occupés par les workflows Ressource de mise à jour de gestion des actifs numériques, ce qui ralentit la réactivité de l’interface utilisateur et empêche Experience Manager d’exécuter d’autres processus qui assurent la stabilité et les performances du serveur. En tant que bonne pratique, définissez cette valeur sur la moitié des processeurs disponibles sur le serveur en procédant comme suit :

  1. Sur Experience Manager Auteur, accédez à https://[aem_server]:[port]/system/console/slingevent.

  2. Cliquez sur Modifier dans chaque file d’attente de workflow pertinente pour votre mise en oeuvre, par exemple File d’attente de workflows transitoires Granite.

  3. Mettez à jour la valeur de Maximum Parallel Jobs (Nombre maximal de tâches en parallèle) et cliquez sur Enregistrer.

Configurer une file d’attente à la moitié des processeurs disponibles est une solution exploitable pour commencer. Cependant, vous pouvez être amené à augmenter ou à réduire ce nombre pour atteindre un débit maximal et l’ajuster selon l’environnement. Il existe des files d’attente distinctes pour les workflows transitoires et non transitoires, ainsi que d’autres processus, tels que les workflows externes. Si plusieurs files d’attente configurées à 50 % des processeurs sont activées simultanément, le système peut devenir rapidement surchargé. Les files d’attente utilisées varient considérablement selon les différentes implémentations de l’utilisateur. Par conséquent, vous devrez peut-être les configurer de manière réfléchie pour un maximum d’efficacité sans sacrifier la stabilité des serveurs.

Configuration des ressources de mise à jour de gestion des ressources numériques

Le workflow Ressource de mise à jour de gestion des actifs numériques contient une suite complète d’étapes configurées pour les tâches, telles que la génération PTIFF Dynamic Media et l’intégration Adobe InDesign Server. Cependant, plusieurs de ces étapes peuvent être inutiles à la plupart des utilisateurs. Adobe vous recommande de créer une copie personnalisée du modèle de workflow Ressources de mise à jour de gestion des actifs numériques et de supprimer toutes les étapes inutiles. Dans ce cas, mettez à jour les lanceurs pour Ressource de mise à jour de gestion des actifs numériques afin qu’ils pointent vers le nouveau modèle.

L’exécution intensive du workflow Ressource de mise à jour de gestion des actifs numériques peut considérablement augmenter la taille de la banque de données de votre fichier. Les résultats d’un test effectué par Adobe ont montré que la taille de l’entrepôt de données peut augmenter d’environ 400 Go si environ 5 500 workflows sont exécutés pendant une période de 8 heures.

Il s’agit d’une augmentation temporaire ; l’entrepôt de données est restauré à sa taille d’origine après avoir exécuté la tâche Nettoyage de la mémoire d’entrepôt de données.

En règle générale, la tâche Nettoyage de la mémoire d’entrepôt de données s’exécute chaque semaine avec d’autres tâches de maintenance planifiées.

Si vous disposez d’un espace disque limité et exécutez de manière intensive les workflows Ressources de mise à jour de gestion des actifs numériques, pensez à planifier plus fréquemment la tâche de nettoyage de la mémoire.

Génération de rendus au moment de l’exécution

Les clients utilisent des images de tailles et de formats différents sur leur site web ou pour les distribuer à leurs partenaires professionnels. Étant donné que chaque rendu s’ajoute à l’encombrement d’une ressource dans le référentiel, Adobe recommande d’utiliser cette fonction judicieusement. Pour limiter le nombre de ressources nécessaires pour traiter et stocker des images, vous pouvez générer ces images au moment de l’exécution plutôt que comme rendus pendant l’assimilation.

De nombreux clients de sites mettent en œuvre un servlet d’image qui redimensionne ou recadre les images lorsque cela est nécessaire, ce qui a pour effet d’appliquer une charge supplémentaire à l’instance de publication. Toutefois, tant que ces images peuvent être mises en cache, le défi peut être plus facilement relevé.

Une autre approche consiste à utiliser la technologie Dynamic Media pour annuler entièrement la manipulation d’images. En outre, vous pouvez déployer Brand Portal qui prend en charge les responsabilités de génération de rendu à partir de l’infrastructure Experience Manager, mais également l’ensemble du niveau de publication.

ImageMagick

Si vous personnalisez le workflow Ressource de mise à jour de gestion des actifs numériques pour générer des rendus à l’aide d’ImageMagick, Adobe vous recommande de modifier le fichier policy.xml à l’emplacement /etc/ImageMagick/. Par défaut, ImageMagick utilise l’espace disque disponible entier pour le volume du système d’exploitation et la quantité de mémoire disponible. Effectuez les modifications de configuration suivantes dans la section policymap de policy.xml pour limiter ces ressources.

<policymap>
  <!-- <policy domain="system" name="precision" value="6"/> -->
  <policy domain="resource" name="temporary-path" value="/ephemeral0/imagemagick_tmp"/>
  <policy domain="resource" name="memory" value="1000MiB"/>
  <policy domain="resource" name="map" value="1000MiB"/>
  <!-- <policy domain="resource" name="area" value="1gb"/> -->
  <policy domain="resource" name="disk" value="10000MiB"/>
  <!-- <policy domain="resource" name="file" value="768"/> -->
  <policy domain="resource" name="thread" value="1"/>
  <policy domain="resource" name="throttle" value="50"/>
  <!-- <policy domain="resource" name="time" value="3600"/> -->
</policymap>

En outre, définissez le chemin du dossier temporaire d’ImageMagick dans le fichier configure.xml (ou en définissant la variable d’environnement MAGIC_TEMPORARY_PATH) sur une partition de disque disposant d’un espace et d’IOPS appropriés.

ATTENTION

Une configuration incorrecte peut rendre votre serveur instable si ImageMagick utilise tout l’espace disque disponible. Les modifications de stratégie requises pour traiter des fichiers volumineux à l’aide d’ImageMagick peuvent avoir une incidence sur les performances de Experience Manager. Pour plus d’informations, voir Installation et configuration d’ImageMagick.

REMARQUE

Les fichiers ImageMagick policy.xml et configure.xml sont disponibles à l’adresse /usr/lib64/ImageMagick-*/config/ au lieu de /etc/ImageMagick/. Voir la documentation ImageMagick pour connaître l’emplacement des fichiers de configuration.

Si vous utilisez Experience Manager sur Adobe Managed Services (AMS), contactez l’assistance clientèle Adobe si vous prévoyez de traiter de nombreux fichiers PSD ou PSB volumineux. Collaborez avec le représentant de l’assistance clientèle d’Adobe afin de mettre en oeuvre ces bonnes pratiques pour votre déploiement AMS et de choisir les meilleurs outils et modèles possibles pour les formats propriétaires de l’Adobe. Experience Manager peut ne pas traiter des fichiers PSB à très haute résolution de plus de 3 000 x 2 3 000 pixels.

Écriture différée XMP

XMP écriture différée met à jour la ressource d’origine chaque fois que des métadonnées sont modifiées dans Experience Manager, ce qui se traduit par les éléments suivants :

  • La ressource elle-même est modifiée
  • Une version de la ressource est créée
  • Ressource de mise à jour de gestion des actifs numériques est exécuté par rapport à la ressource

Les résultats répertoriés consomment une grande quantité de ressources. Par conséquent, Adobe recommande la désactivation de l’écriture différée XMP, si cela n’est pas obligatoire.

L’importation d’une grande quantité de métadonnées peut entraîner une activité d’écriture différée XMP gourmande en ressources si l’indicateur d’exécution de workflow est vérifié. Planifiez une importation de ce type quand le serveur est peu utilisé afin que les performances d’autres utilisateurs ne soient pas affectées.

Réplication

Lors de la réplication des ressources vers un grand nombre d’instances de publication (par exemple, dans une implémentation de sites), Adobe vous recommande d’utiliser la réplication par chaîne. Dans ce cas, l’instance d’auteur est répliquée vers une instance de publication unique qui est répliquée à son tour vers d’autres instances de publication, ce qui libère l’instance d’auteur.

Configuration de la réplication en chaîne

  1. Sélectionnez l’instance de publication vers laquelle vous souhaitez effectuer les réplications en chaîne
  2. Sur cette instance de publication, ajoutez des agents de réplication qui pointent vers d’autres instances de publication
  3. Sur chacun de ces agents de réplication, activez « À la réception » dans l’onglet « Déclencheurs »
REMARQUE

Adobe ne recommande pas d’activer automatiquement les ressources. Cependant, si nécessaire, Adobe recommande d’effectuer cette opération en tant que dernière étape d’un workflow, généralement Ressource de mise à jour de gestion des actifs numériques.

Recherche des index

Installez les derniers Service Packs et les correctifs liés aux performances, car ils incluent souvent des mises à jour des index système. Voir Conseils sur l’optimisation des performances pour connaître certaines optimisations d’index.

Créez des index personnalisés pour les demandes que vous exécutez régulièrement. Pour plus d’informations, consultez la méthodologie pour l’analyse des requêtes lentes et la création d’index personnalisés. Pour des informations complémentaires au sujet des meilleures pratiques de requête et d’index, consultez les Meilleures pratiques pour les requêtes et l’indexation.

Configurations de l’index Lucene

Certaines optimisations peuvent être effectuées sur les configurations d’index Oak qui peuvent améliorer les performances Experience Manager Assets. Mettez à jour les configurations d’index pour améliorer le temps de réindexation :

  1. Ouvrez CRXDe /crx/de/index.jsp et connectez-vous en tant qu’utilisateur administrateur.
  2. Accédez à /oak:index/lucene.
  3. Ajoutez une propriété String[] excludedPaths avec les valeurs /var, /etc/workflow/instances et /etc/replication.
  4. Accédez à /oak:index/damAssetLucene. Ajoutez une propriété String[] includedPaths avec la valeur /content/dam. Enregistrer les modifications.

Si vos utilisateurs n’ont pas besoin d’effectuer une recherche de texte intégral de ressources (par exemple, une recherche dans les documents PDF), désactivez-la. Vous améliorez les performances de l’index en désactivant l’indexation de texte intégral. Pour désactiver l'extraction de texte Apache Lucene, procédez comme suit :

  1. Dans l’interface Experience Manager, accédez à Package Manager.
  2. Téléchargez et installez le package disponible à l’adresse disable_indexingbinarytextextraction-10.zip.

Paramètre guessTotal

Lors de la création de requêtes qui génèrent d’importants ensembles de résultats, utilisez le paramètre guessTotal de façon à éviter une utilisation élevée de la mémoire lors de l’exécution.

Problèmes connus

Fichiers volumineux

Il existe deux problèmes importants connus relatifs aux fichiers volumineux dans Experience Manager. Lorsque la taille des fichiers est supérieure à 2 Go, la synchronisation de reprise progressive peut s’exécuter en cas de mémoire insuffisante. Dans certains cas, cela empêche la synchronisation de reprise de s’exécuter. Dans d’autres cas, cela entraîne le blocage de l’instance principale. Ce scénario s’applique à tout fichier Experience Manager supérieur à 2 Go, y compris les modules de contenu.

De même, lorsque les fichiers atteignent 2 Go lors de l’utilisation d’un entrepôt de données S3 partagé, il peut s’écouler un certain temps avant que le fichier ne soit entièrement conservé du cache vers le système de fichiers. Par conséquent, lorsque vous avez recours à une réplication sans binaire, il est possible que les données binaires ne soient pas conservées avant la fin de la réplication. Cette situation peut entraîner des problèmes, surtout si la disponibilité des données est importante.

Test de performance

Pour chaque déploiement Experience Manager , établissez un régime de test de performance qui peut identifier et résoudre les goulets d’étranglement rapidement. Voici quelques points clés.

Test réseau

Pour tous les problèmes liés aux performances du réseau du client, effectuez les tâches suivantes :

  • Tester les performances du réseau sur le réseau du client
  • Testez les performances du réseau sur le réseau Adobe. Pour les clients AMS, consultez votre CSE pour effectuer des tests sur le réseau Adobe.
  • Tester les performances du réseau depuis un autre point d’accès
  • En utilisant un outil localisateur de réseau
  • Tester par rapport au Dispatcher

Experience Manager test de déploiement

Pour réduire la latence et atteindre un débit élevé grâce à une utilisation efficace du processeur et au partage de charge, surveillez régulièrement les performances de votre déploiement Experience Manager. En particulier :

  • Exécutez des tests de chargement par rapport au déploiement Experience Manager .
  • Surveiller les performances de chargement et la réactivité de l’interface utilisateur.

Experience Manager Assets liste de contrôle des performances et impact des tâches de gestion des ressources

  • Autoriser HTTPS à contourner tous les renifleurs de trafic HTTP d’entreprise.
  • Utiliser une connexion câblée pour le chargement de ressources volumineuses.
  • Déploiement sur Java 8.
  • Définition de paramètres JVM optimaux.
  • Configurez un entrepôt de données de système de fichiers ou un entrepôt de données S3.
  • Désactivez la génération de sous-ressources. Si elle est activée, AEM workflow crée une ressource distincte pour chaque page dans une ressource multi-page. Chacune de ces pages est une ressource individuelle qui consomme de l’espace disque supplémentaire, nécessite un contrôle de version et un traitement de workflow supplémentaire. Si vous n’avez pas besoin de pages distinctes, désactivez les activités de génération et d’extraction de sous-ressources.
  • Activer les workflows transitoires.
  • Régler les files d’attente de workflows Granite pour limiter les tâches concurrentes.
  • Configurez ImageMagick pour limiter la consommation des ressources.
  • Supprimez les étapes inutiles du workflow Ressource de mise à jour de gestion des actifs numériques.
  • Configurer la purge des workflows et versions.
  • Optimisez les index avec les derniers Service Packs et correctifs. Vérifiez auprès de l’assistance clientèle d’Adobe toutes les optimisations d’index supplémentaires qui peuvent être disponibles.
  • Utilisez guessTotal afin d’optimiser les performances des requêtes.
  • Si vous configurez Experience Manager pour détecter les types de fichiers à partir du contenu des fichiers (en activant Day CQ DAM Mime Type Service dans la console Web AEM), chargez de nombreux fichiers en masse aux heures creuses, car cela consomme beaucoup de ressources.

Sur cette page