Comprendre les résultats de vos tests

Découvrez comment fonctionne le test de qualité du code des pipelines et comment il peut améliorer la qualité de vos déploiements.

Présentation

Pendant l’exécution du pipeline, un certain nombre de mesures sont saisies et comparées soit aux indicateurs clés de performance (ICP) définis par le propriétaire de l’entreprise, soit aux normes définies par Adobe Managed Services.

Celles-ci sont rapportées à l’aide d’un système d’évaluation à trois niveaux, tel que défini dans la section suivante.

REMARQUE

Pour en savoir plus sur les tests pris en charge par Cloud Manager pour AEM as a Cloud Service, consultez la documentation d’AEM as a Cloud Service..

Évaluation à trois niveaux

Le pipeline comprend trois points de contrôle :

  • Qualité du code
  • Test de performance
  • Test de sécurité

Pour chaque point de contrôle, il existe une structure à trois niveaux pour les problèmes identifiés par le point de contrôle.

  • Critique - il s’agit des problèmes qui entraînent une défaillance immédiate du pipeline.
  • Important - il s’agit des problèmes qui entraînent la mise en pause du pipeline. Le responsable du déploiement, le responsable de projet ou le propriétaire de l’entreprise peuvent soit contourner les problèmes, auquel cas le pipeline continue, soit accepter les problèmes, auquel cas le pipeline s’arrête avec un échec. Le contournement des échecs importants est soumis à un délai d’expiration.
  • Informations - il s’agit des problèmes fournis uniquement à titre d’information et qui n’ont aucune incidence sur l’exécution du pipeline.
REMARQUE

Dans un pipeline uniquement axé sur la qualité du code, les échecs importants du point de contrôle Qualité du code ne peuvent pas être remplacés car l’étape de test de qualité du code est la dernière étape du pipeline.

Test de qualité du code

Cette étape évalue la qualité du code de votre application, qui est l’objectif principal d’un pipeline de qualité de code uniquement. Elle est exécutée immédiatement après l’étape de création dans tous les pipelines hors production et de production. Reportez-vous au document Configuration de pipelines hors production pour en savoir plus.

Présentation du test de qualité du code

Les tests de qualité du code analysent le code source afin de s’assurer qu’il répond à certains critères de qualité. Il est mis en œuvre par une combinaison d’analyses SonarQube, d’examen au niveau du package de contenu à l’aide d’OakPAL et de validation du Dispatcher à l’aide de l’outil d’optimisation du Dispatcher.

Il existe plus de 100 règles combinant des règles Java génériques et des règles spécifiques à AEM. Certaines des règles spécifiques à AEM sont créées en fonction des bonnes pratiques de l’équipe d’ingénierie AEM et sont appelées Règles de qualité du code personnalisé.

REMARQUE

Vous pouvez télécharger la liste complète des règles via ce lien.

Les résultats des tests de qualité du code sont fournis sous forme de notes. Le tableau ci-dessous résume les notes attribuées à divers critères de test :

Nom Définition Catégorie Seuil d’échec
Note de sécurité A = Aucune vulnérabilité
B = au moins 1 vulnérabilité mineure
C = au moins 1 vulnérabilité majeure
D = au moins 1 vulnérabilité critique
E = au moins 1 vulnérabilité bloquante
Critique < B
Note de fiabilité A = Aucun bug
B = au moins 1 bug mineur
C = au moins 1 bug majeur
D = au moins 1 bug critique
E = au moins 1 bug bloquant
Important < C
Note de maintenabilité Défini par le coût de remédiation en suspens pour les code smells, comme un pourcentage du temps qui a déjà été consacré à l’application.
  • A = <= 5 %
  • B = 6-10 %
  • C = 11-20 %
  • D = 21-50 %
  • E = > 50 %
Important < A
Couverture Défini par un mélange de couverture de ligne de test unitaire et de couverture de condition à l’aide de la formule :
Coverage = (CT + CF + LC) / (2 * B + EL)
  • CT = Conditions qui ont été évaluées comme true au moins une fois lors de l’exécution de tests unitaires
  • CF = Conditions qui ont été évaluées comme false au moins une fois lors de l’exécution de tests unitaires
  • LC = Lignes couvertes = lines_to_cover - uncover_lines
  • B = nombre total de conditions
  • EL = nombre total de lignes exécutables (lines_to_cover)
Important < 50 %
Tests unitaires ignorés Nombre de tests unitaires ignorés Infos > 1
Problèmes en cours Types de problèmes généraux – Vulnérabilités, bogues et smells de code Infos > 0
Lignes dupliquées Défini comme le nombre de lignes impliquées dans les blocs dupliqués. Un bloc de code est considéré comme dupliqué dans les conditions suivantes.
Projets non Java :
  • Il doit y avoir au moins 100 jetons successifs et dupliqués.
  • Ces jetons doivent être répartis au moins sur :
  • 30 lignes de code pour COBOL
  • 20 lignes de code pour ABAP
  • 10 lignes de code pour d’autres langages
Projets Java :
  • Il devrait y avoir au moins 10 déclarations successives et dupliquées, quel que soit le nombre de jetons et de lignes.
Les différences dans la mise en retrait ainsi que dans les littéraux de chaîne sont ignorées lors de la détection des doublons.
Infos > 1 %
Compatibilité Cloud Service Nombre de problèmes de compatibilité Cloud Service identifiés Infos > 0
REMARQUE

Reportez-vous aux Définitions des mesures de SonarQube pour des informations plus détaillées.

REMARQUE

Pour en savoir plus sur les règles de qualité du code personnalisé exécutées par Cloud Manager, reportez-vous au document Règles de qualité du code personnalisé.

Traitement des faux positifs

Le processus d’analyse de qualité n’est pas parfait et identifiera parfois de manière incorrecte des problèmes qui ne sont pas réellement problématiques. On parle alors de faux positif.

Dans ces cas, le code source peut être annoté avec l’annotation standard Java @SuppressWarnings en spécifiant l’ID de la règle comme attribut d’annotation. Par exemple, un faux positif courant est que la règle de SonarQube permettant de détecter les mots de passe codés en dur peut être agressive sur la façon dont un mot de passe codé en dur est identifié.

Le code suivant est assez courant dans un projet AEM, qui comporte du code pour se connecter à un service externe.

@Property(label = "Service Password")
private static final String PROP_SERVICE_PASSWORD = "password";

SonarQube lèvera alors une vulnérabilité de blocage. Mais après avoir examiné le code, vous identifiez qu’il ne s’agit pas d’une vulnérabilité et vous pouvez l’annoter avec l’identifiant de règle approprié.

@SuppressWarnings("squid:S2068")
@Property(label = "Service Password")
private static final String PROP_SERVICE_PASSWORD = "password";

Cependant, si le code était en fait ceci :

@Property(label = "Service Password", value = "mysecretpassword")
private static final String PROP_SERVICE_PASSWORD = "password";

La bonne solution consiste alors à supprimer le mot de passe codé en dur.

REMARQUE

Bien qu’il soit préférable de rendre l’annotation @SuppressWarnings aussi précise que possible, c’est-à-dire de n’annoter que l’énoncé ou le bloc qui cause le problème, il est tout de même possible de le faire à un niveau qui se rapporte à la classe.

Test de sécurité

Cloud Manager exécute les contrôles existants, Contrôles d’intégrité de sécurité AEM, sur l’environnement d’évaluation suite au déploiement et indique leur statut via l’interface utilisateur. Les résultats sont agrégés à partir de toutes les instances AEM de l’environnement.

Ces mêmes contrôles d’intégrité peuvent être exécutés à tout moment par l’intermédiaire de la console Web ou du tableau de bord d’opérations.

Si l’une des instances signale un échec pour un contrôle d’intégrité donné, l’ensemble de l’environnement ne réussit pas ce contrôle d’intégrité. Comme pour les tests de qualité du code et de performance, ces contrôles d’intégrité sont classés en catégories et signalés à l’aide du système de point de contrôle à trois niveaux. La seule différence réside dans le fait qu’il n’existe aucun seuil dans le cas des tests de sécurité. Tous les contrôles d’intégrité réussissent ou non.

Le tableau suivant répertorie les contrôles d’intégrité :

Nom Implémentation du contrôle d’intégrité Catégorie
La disponibilité de l’API d’ajout de pare-feu de désérialisation est dans un état acceptable. Disponibilité de l’API d’ajout de pare-feu de désérialisation Critique
Le pare-feu de désérialisation est fonctionnel… Pare-feu de désérialisation fonctionnel Critique
Le pare-feu de désérialisation est chargé… Pare-feu de désérialisation chargé Critique
L’implémentation AuthorizableNodeName n’expose pas d’ID autorisable dans le nom/chemin du nœud. Génération de nom de nœud autorisé Critique
Les mots de passe par défaut ont été modifiés… Comptes de connexion par défaut Critique
Le servlet GET par défaut Sling est protégé contre les attaques par DOS. Servlet Sling Get Critique
Le gestionnaire de scripts Sling Java est configuré correctement. Gestionnaire de script Java Sling Critique
Le gestionnaire de script JSP Sling est correctement configuré. Gestionnaire de script JSP Sling Critique
SSL est correctement configuré… Configuration SSL Critique
Aucune stratégie de profil utilisateur évidemment risquée n’a été trouvée. Accès par défaut au profil utilisateur Critique
Le filtre référent Sling est configuré pour empêcher les attaques CSRF. Filtre référent Sling Important
Le gestionnaire de bibliothèques HTML Adobe Granite est configuré correctement. Configuration de gestionnaire de bibliothèque HTML CQ Important
Le lot Prise en charge CRXDE est désactivé… Prise en charge de CRXDE Important
Le lot DavEx Sling et le servlet sont désactivés… Contrôle d’intégrité DavEx Important
L’exemple de contenu n’est pas installé… Packages d’exemple de contenu Important
Le filtre de requête WCM et le filtre de débogage WCM sont désactivés… Configuration des filtres WCM Important
Le lot WebDAV Sling et le servlet sont correctement configurés… Contrôle d’intégrité WebDAV Important
Le serveur web est configuré pour empêcher les clics publicitaires… Configuration du serveur web Important
La réplication n’utilise pas l’utilisateur admin. Utilisateurs de réplication et de transport Infos

Test de performance

AEM Sites

Cloud Manager exécute des tests de performances pour les programmes AEM Sites. Le test de performance est exécuté pendant environ 30 minutes en émulant des utilisateurs virtuels (conteneurs) qui simulent des utilisateurs réels pour accéder aux pages sur l’environnement d’évaluation, et par là le trafic qu’ils généreraient. Vous pouvez trouver ces pages à l’aide d’un robot d’exploration.

Utilisateurs virtuels

Le nombre d’utilisateurs ou de conteneurs virtuels qui sont émulés par Cloud Manager est déterminé par les indicateurs clés de performance (temps de réponse et pages vues/min) définis par l’utilisateur dans le rôle Propriétaire de l’entreprise lors de la création ou de la modification du programme. En fonction des ICP définis, il est possible d’émuler jusqu’à 10 conteneurs de simulation d’utilisateurs réels. Les pages sélectionnées pour les tests sont divisées et attribuées à chaque utilisateur virtuel.

Robot d’exploration

Avant le début de la période de test de 30 minutes, Cloud Manager explore l’environnement d’évaluation à l’aide d’une ou de plusieurs URL d’amorçage configurées par l’ingénieur chargé du succès client. À partir de ces URL, le code HTML de chaque page est examiné et les liens sont parcourus en largeur d’abord. Ce processus d’exploration est limité à un maximum de 5 000 pages. Les requêtes du robot d’exploration ont un délai d’expiration fixe de 10 secondes.

Ensembles de pages pour les tests

Les pages sont sélectionnées selon trois ensembles de pages. Cloud Manager utilise les journaux d’accès des instances AEM à travers les environnements de production et d’évaluation pour déterminer les ensembles suivants :

  • Pages en direct populaires : cette option est sélectionnée pour s’assurer que les pages les plus populaires consultées par les clients en direct sont testées. Cloud Manager lit le journal d’accès et détermine les 25 pages les plus consultées par les clients en direct afin de générer une liste des meilleures Popular Live Pages. L’intersection de celles-ci, également présentes dans l’environnement d’évaluation, est ensuite analysée dans l’environnement d’évaluation.

  • Autres pages en direct : cette option est sélectionnée pour s’assurer que les pages qui ne font pas partie des 25 pages en direct les plus populaires, et qui ne sont donc pas populaires, mais restent importantes à tester, sont testées. Comme pour les pages en direct populaires, elles sont extraites du journal d’accès et doivent également être présentes dans l’environnement d’évaluation.

  • Nouvelles pages : cette option est sélectionnée pour tester les nouvelles pages qui n’ont peut-être été déployées qu’en évaluation et pas encore en production, mais qui doivent être testées.

Répartition du trafic entre les ensembles de pages sélectionnés

Vous pouvez choisir entre un et trois ensembles de pages dans l’onglet Tests de votre configuration de pipeline. La répartition du trafic dépend du nombre d’ensembles sélectionnés. En d’autres termes, si les trois ensembles sont sélectionnés, 33 % du nombre total de pages vues est attribué à chaque ensemble. Si deux ensembles sont sélectionnés, 50 % est attribué à chaque ensemble. Si un seul est sélectionné, 100 % du trafic va à cet ensemble.

Prenons cet exemple.

  • Il y a une répartition 50/50 entre les ensembles de pages en direct populaires et de nouvelles pages.
  • Les autres pages en direct ne sont pas utilisées.
  • L’ensemble des nouvelles pages contient 3 000 pages.
  • L’ICP des pages vues par minute est fixé à 200.

Pendant la période de test de 30 minutes :

  • Chacune des 25 pages de l’ensemble des pages en direct populaires est consultée 120 fois : ((200 * 0.5) / 25) * 30 = 120
  • Chacune des 3 000 pages de l’ensemble de nouvelles pages est consultée une fois : ((200 * 0.5) / 3000) * 30 = 1

Tests et compte rendu des performances

Cloud Manager exécute des tests de performance pour les programmes AEM Sites en demandant des pages en tant qu’utilisateur non authentifié par défaut sur le serveur de publication d’évaluation pendant une période de test de 30 minutes. Il mesure les mesures générées par l’utilisateur virtuel (temps de réponse, taux d’erreur, vues par minute, etc.) pour chaque page ainsi que différentes mesures au niveau du système (UC, mémoire, données réseau) pour toutes les instances.

Le tableau suivant résume la matrice de test de performance à l’aide du système de point de contrôle à trois niveaux :

Mesure Catégorie Seuil d’échec
Taux d’erreur des demandes de pages Critique >= 2 %
Taux d’utilisation de l’UC Critique >= 80 %
Délai d’attente d’E/S de disque Critique >= 50 %
95e centile du temps de réponse Important >= ICP de niveau programme
Délai de réponse max. Important >= 18 secondes
Nombre de pages vues par minute Important < ICP de niveau programme
Utilisation de la bande passante de disque Important >= 90 %
Utilisation de la bande passante réseau Important >= 90 %
Demandes par minute Infos >= 6 000

Pour plus d’informations sur l’utilisation de l’authentification de base pour les tests de performance de Sites et Assets, consultez la section Tests de performances authentifiés.

REMARQUE

Les instances de création et de publication sont surveillées pendant la durée du test. Dans le cas où une mesure pour une instance n’est pas obtenue, cette mesure est signalée comme inconnue et l’étape correspondante échoue.

Facultatif - Test de performance authentifié

Si nécessaire, les clients AMS disposant de sites authentifiés peuvent spécifier un nom d’utilisateur et un mot de passe que Cloud Manager utilisera pour accéder au site web lors des tests de performance des sites.

Le nom d’utilisateur et le mot de passe sont spécifiés sous la forme de variables de pipeline avec les noms CM_PERF_TEST_BASIC_USERNAME et CM_PERF_TEST_BASIC_PASSWORD.

Le nom d’utilisateur doit être stocké dans une variable string et le mot de passe doit être stocké dans une variable secretString. Si ces deux éléments sont spécifiés, chaque requête du robot de tests de performances et des utilisateurs virtuels de test contiendra ces informations d’identification sous forme d’authentification HTTP basique.

Pour définir ces variables à l’aide de l’interface de ligne de commande de Cloud Manager, exécutez :

$ aio cloudmanager:set-pipeline-variables <pipeline id> --variable CM_PERF_TEST_BASIC_USERNAME <username> --secret CM_PERF_TEST_BASIC_PASSWORD <password>

Reportez-vous au document Correctif des variables de pipeline de l’utilisateur pour apprendre à utiliser l’API.

AEM Assets

Cloud Manager exécute des tests de performance pour les programmes AEM Assets en chargeant des ressources de manière répétée pendant une période de test de 30 minutes.

Exigences de l’intégration

Pour les tests de performances Assets, votre ingénieur du succès client (CSE) crée un utilisateur cloudmanager et un mot de passe lors de l’intégration de l’auteur à l’environnement d’évaluation. Les étapes du test de performance nécessitent un utilisateur appelé cloudmanager et le mot de passe associé configuré par votre CSE. Cet utilisateur ne doit pas être supprimé de l’instance de l’auteur ni ses autorisations modifiées. Si vous le faites, vous risquez de faire échouer le test de performance Assets.

Images et ressources pour les tests

Les clients peuvent charger leurs propres ressources pour les tester. Cette opération peut être effectuée à partir de l’écran Configuration du pipeline ou Modifier. Les formats d’image courants tels que JPEG, PNG, GIF et BMP sont pris en charge, ainsi que les fichiers Photoshop, Illustrator et PostScript.

Si aucune image n’est chargée, Cloud Manager utilise une image et des documents PDF par défaut à des fins de test.

Répartition des ressources pour les tests

La répartition du nombre de ressources de chaque type qui sont chargées par minute est définie dans l’écran Configuration du pipeline ou Modifier.

Par exemple, si une répartition 70/30 est utilisée et que 10 ressources sont chargées par minute, 7 images et 3 documents seront chargés par minute.

Tests et compte rendu des performances

Cloud Manager crée un dossier sur l’instance de création à l’aide du nom d’utilisateur et du mot de passe configurés par le CSE dans la section Exigences de l’intégration. Les ressources sont ensuite chargées dans le dossier à l’aide d’une bibliothèque open source. Les tests exécutés par l’étape de test des ressources sont écrits à l’aide de cette bibliothèque open source. Le temps de traitement de chaque ressource et diverses mesures au niveau du système sont mesurés pendant les 30 minutes que dure le test. Cette fonctionnalité permet de charger des images et des documents PDF.

CONSEIL

Reportez-vous au document Configuration de pipelines de production pour en savoir plus. Reportez-vous au document Configuration de votre programme pour savoir comment configurer votre programme et définir vos ICP.

Graphiques des résultats des tests de performance

Un certain nombre de mesures sont disponibles dans la Boîte de dialogue des tests de performance.

Liste des mesures

Les panneaux de mesures peuvent être développés pour afficher un graphique, fournir un lien vers un téléchargement ou les deux.

Mesures développées sous forme de graphique

Cette fonctionnalité est disponible pour les mesures suivantes.

  • Utilisation de l’UC

    • Graphique montrant l’utilisation de l’UC pendant la période de test.
  • Temps d’attente des E/S de disque

    • Graphique du temps d’attente des E/S de disque pendant la période de test.
  • Taux d’erreur de page

    • Graphique des erreurs de page par minute pendant la période de test.
    • Fichier CSV répertoriant les pages qui ont généré une erreur pendant le test.
  • Utilisation de la bande passante du disque

    • Graphique de l’utilisation de la bande passante du disque pendant la période de test.
  • Utilisation de la bande passante du réseau

    • Graphique de l’utilisation de la bande passante du réseau pendant la période de test.
  • Temps de réponse maximal

    • Graphique du temps de réponse maximal par minute pendant la période de test.
  • 95e centile du temps de réponse

    • Graphique du 95e centile du temps de réponse par minute pendant la période de test.
    • Fichier CSV répertoriant les pages dont le 95e centile du temps de réponse a dépassé les ICP définis.

Optimisation de l’analyse des packages de contenu

Dans le cadre du processus d’analyse de la qualité, Cloud Manager effectue une analyse des packages de contenu générés par la version Maven. Cloud Manager propose des optimisations pour accélérer ce processus, qui sont efficaces lorsque certaines contraintes de conditionnement sont observées. La plus importante est l’optimisation effectuée pour les projets qui génèrent un seul package de contenu, généralement appelé package « all », qui contient un certain nombre d’autres packages de contenu générés par la version, qui sont marqués comme étant ignorés. Lorsque Cloud Manager détecte ce scénario, plutôt que de décompresser le package « all », les packages de contenu individuels sont analysés directement et triés en fonction des dépendances. Par exemple, considérez la sortie de génération suivante.

  • all/myco-all-1.0.0-SNAPSHOT.zip (module de contenu)
  • ui.apps/myco-ui.apps-1.0.0-SNAPSHOT.zip (module de contenu ignoré)
  • ui.content/myco-ui.content-1.0.0-SNAPSHOT.zip (module de contenu ignoré)

Si les seuls éléments contenus dans myco-all-1.0.0-SNAPSHOT.zip sont les deux modules de contenu ignorés, les deux modules intégrés seront analysés au lieu du module de contenu « all ».

Pour les projets qui produisent des dizaines de packages incorporés, il a été démontré que cette optimisation permet de gagner jusqu’à 10 minutes par exécution de pipeline.

Un cas particulier peut se produire lorsque le module de contenu « all » contient une combinaison de modules de contenu ignorés et de lots OSGi. Par exemple, si myco-all-1.0.0-SNAPSHOT.zip contient les deux packages incorporés mentionnés précédemment ainsi qu’un ou plusieurs lots OSGi, un nouveau package de contenu minimal est créé avec uniquement les lots OSGi. Ce module est toujours nommé cloudmanager-synthetic-jar-package et les lots contenus sont placés dans /apps/cloudmanager-synthetic-installer/install.

REMARQUE
  • Cette optimisation n’a aucune incidence sur les packages déployés dans AEM.
  • Étant donné que la correspondance entre les packages de contenu incorporés et les packages de contenu ignorés est basée sur les noms de fichier, cette optimisation ne peut pas être effectuée si plusieurs packages de contenu ignorés portent exactement le même nom de fichier ou si le nom du fichier est modifié lors de l’incorporation.

Sur cette page