Les règles de robots vous permettent de supprimer du trafic de votre suite de rapports généré par des araignées et des robots connus. La suppression du trafic de robots permet d’obtenir une mesure plus précise de l’activité des utilisateurs sur votre site web.
Voici un aperçu vidéo sur la configuration des règles de robots :
Une fois les règles de robots définies, elles servent de critères de comparaison pour tout le trafic entrant. Le trafic qui correspond à l’une de ces règles n’est ni collecté dans la suite de rapports, ni inclus dans les mesures de trafic.
Pour mettre à jour ou télécharger des règles de robots, accédez à Analytics > Admin > Suites de rapports. Sélectionnez la suite de rapports correcte, puis accédez à Modifier les paramètres > Général > Règles de robots.
En règle générale, la suppression du trafic de robots réduit le volume des mesures de trafic et de conversion. Pour de nombreux utilisateurs, la suppression du trafic de robots se traduit par une augmentation des taux de conversion et d’autres mesures d’utilisation. Avant de supprimer le trafic de robots, contactez les parties intéressées afin de vous assurer qu’elles sont en mesure d’apporter les modifications nécessaires aux indicateurs clés de performance à la suite de ce changement. Si possible, nous vous conseillons d’abord de supprimer le trafic de robots d’une petite suite de rapports afin d’évaluer l’impact potentiel.
Les données de trafic de robots sont stockées dans un référentiel distinct en vue d’être affichées dans les rapports Robots et Pages de robots. Il existe deux options pour activer le filtrage des robots :
Type de règle | Description |
---|---|
Règles de robots IAB standard | En sélectionnant l’option Activer les règles de filtrage de robots IAB, vous utilisez la liste internationale des robots (International Spiders & Robots List) fournie par l’IAB (Bureau international de la publicité) pour supprimer le trafic de robots. La plupart des clients sélectionnent au moins cette option. |
Règles de robots personnalisées | Vous pouvez définir et ajouter des règles de robots personnalisées basées sur des agents utilisateurs, des adresses IP ou des plages d’adresses IP. |
Activez les règles de robots IAB standard en cochant la case Activer les règles de filtrage de robots IAB. Cette sélection va supprimer les robots de la liste internationale des robots (International Spiders & Robots List) fournie par l’IAB (Bureau international de la publicité) pour supprimer le trafic de robots. Adobe met à jour cette liste de lʼIAB tous les mois.
Adobe n’est pas en mesure de fournir la liste des robots IAB détaillée aux clients.Vous pouvez cependant utiliser le rapport Robots pour consulter la liste des robots qui ont accédé à votre site. Pour soumettre un robot à la liste de l’IAB, consultez l’IAB.
Il est possible de définir manuellement 500 règles dans l’interface utilisateur. Au-delà de cette limite, les règles doivent être gérées en bloc au moyen des options Importer un fichier et Exporter des règles de robots.
Les règles de robots personnalisées vous permettent de filtrer le trafic sur la base des conditions que vous avez définies.
Les règles de robots personnalisées sont définies à l’aide des types de conditions suivants :
Plusieurs conditions peuvent être définies pour une seule règle. Dans le cas de conditions multiples, une correspondance est établie à l’aide de l’opérateur « OU ». Si vous indiquez, par exemple, une valeur pour Agent utilisateur et Adresse IP, le trafic est considéré comme du trafic de robots si l’une des conditions est remplie.
Une condition Agent utilisateur vérifie la valeur correspondante afin de déterminer si elle contient ou commence par la chaîne spécifiée. En cas de sélection de l’option contient, une correspondance est établie avec la sous-chaîne si elle est présente dans l’agent utilisateur.
Des valeurs facultatives peuvent être incluses dans la liste ne contient pas afin de définir les valeurs qui ne peuvent pas se trouver dans l’agent utilisateur pour qu’une correspondance soit établie. Vous pouvez inclure plusieurs valeurs, à raison d’une valeur par ligne. Si l’agent utilisateur répond aux critères spécifiés dans la chaîne de correspondance, mais contient également une chaîne reprise dans la liste « ne contient pas », il n’est pas considéré comme une correspondance.
Le champ contient est limité à 100 caractères. La liste « ne contient pas » est limitée à 255 caractères, moins un caractère de séparation pour chaque nouvelle ligne. (Cela équivaut au nombre de chaînes - 1. Si vous indiquez 4 chaînes ne contient pas, 3 caractères de séparation sont obligatoires.) Les correspondances de chaînes ne sont pas sensibles à la casse.
Établit une correspondance avec une ou plusieurs adresses IP dans le même bloc à l’aide de caractères génériques (*). Indiquez les valeurs numériques de l’adresse IP avec laquelle vous souhaitez établir une correspondance. Remplacez par * toutes les valeurs que vous souhaitez faire correspondre à l’aide d’un caractère générique. La liste suivante contient des exemples de chaînes de correspondance d’adresses IP :
10.10.10.1
10.10.10.*
Indiquez les plages de début et de fin des adresses IP avec lesquelles vous souhaitez établir une correspondance. Remplacez par * toutes les valeurs que vous souhaitez faire correspondre à l’aide d’un caractère générique.
Pour importer des règles de robots en vrac, vous pouvez télécharger un fichier CSV qui les définit.
Créez un fichier CSV avec les colonnes suivantes, en respectant l’ordre indiqué :
Colonne 1 | Colonne 2 | Colonne 3 | Colonne 4 | Colonne 5 |
---|---|---|---|---|
Nom du robot | Début IP | Fin IP | Règle de correspondance de l’agent (contient ou commence par) |
Agent - Exclure (255 caractères max.) |
Vous pouvez définir trois types de règles de robots :
Chaque ligne du fichier d’importation ne peut contenir que l’une des définitions de robot suivantes :
L’agent utilisateur contient ou commence par : indiquez une seule chaîne d’agent utilisateur avec laquelle établir une correspondance dans la colonne Agent - Inclure. Indiquez le type de correspondance à effectuer en indiquant contient ou commence par dans le champ Règle de correspondance de l’agent. Vous pouvez inclure une valeur facultative dans la colonne Agent - Exclure pour définir une ou plusieurs chaînes délimitées par une barre verticale (|
) que l’agent ne contient pas. Les correspondances de chaînes ne sont pas sensibles à la casse. Les colonnes Début IP et Fin IP doivent, toutes deux, être vides.
Correspondance d’une seule adresse IP ou d’un seul caractère générique : pour établir une correspondance avec une seule adresse IP (10.10.10.1
) ou une adresse IP avec un caractère générique (10.10.*.*
), indiquez la même valeur dans les colonnes Début IP et Fin IP. Règle de correspondance de l’agent, Agent - Inclure et Agent - Exclure doivent être vides.
Correspondance de plage IP : définissez une plage d’adresses IP à l’aide des colonnes Début IP et Fin IP. Vous pouvez utiliser des caractères génériques pour faire correspondre des plages d’adresses IP ; par exemple 10.10.10.*
avec 10.10.20.*
. Règle de correspondance de l’agent, Agent - Inclure et Agent - Exclure doivent être vides.
Pour établir une correspondance avec un robot à l’aide d’une combinaison de règles associées par un opérateur « OU » (par exemple, agent utilisateur OU adresse IP), indiquez un nom identique pour toutes les règles à combiner dans le champ du nom de robot. Les correspondances « AND » ne sont pas prises en charge.
Cochez la case Remplacer les règles existantes pour supprimer toutes les règles existantes et les remplacer par celles définies dans le fichier de téléchargement.
Le bouton Exporter le fichier de robot téléchargé exporte toutes les règles définies dans l’interface utilisateur au format CSV.
Les règles de robots s’appliquent à toutes les données d’analyse. Les données supprimées par les règles de robots ne sont visibles que dans les rapports Robots et Pages de robots.
Les règles VISTA sont appliquées après les règles de robots. Consultez Ordre de traitement dans le guide d’utilisation des notes techniques.
Traitement de visites enregistrant de nombreux accès : si plus de 100 accès se produisent au cours d’une visite, la fonction de création de rapports détermine si la durée de la visite (en secondes) est inférieure ou égale au nombre d’accès. Dans ce cas, compte tenu des coûts de traitement des visites longues et intensives, la création de rapports recommence avec une nouvelle visite. Les visites qui enregistrent de nombreux accès sont généralement causées par des attaques de robots et ne sont pas considérées comme ses sessions de navigation normales effectuées par des visiteurs.
Les accès marqués comme bots
sont facturés comme des appels au serveur.
La liste des robots IAB est basée uniquement sur l’agent-utilisateur. De ce fait, le filtrage basé sur cette liste n’est pas affecté par les paramètres d’obscurcissement d’IP. Pour le filtrage des robots non IAB (règles personnalisées), l’IP peut faire partie des critères de filtrage. Si vous filtrez des robots à l’aide de l’IP, le filtrage se produit une fois que le dernier octet a été supprimé, si ce paramètre est activé, mais avant les autres options d’obscurcissement d’IP, par exemple la suppression de l’ensemble de l’IP ou son remplacement par un ID unique.
Si l’obscurcissement d’IP est activé, l’exclusion de l’adresse IP survient avant l’obscurcissement ; ainsi, les clients n’ont rien à changer lorsqu’ils activent cette option.
Si le dernier octet est supprimé, ceci a lieu avant le filtrage IP. Par conséquent, le dernier octet est remplacé par un 0 et les règles d’exclusion IP doivent être mises à jour afin de correspondre aux adresses IP avec un zéro à la fin. Le * correspondant doit correspondre à 0.