Présentation de l’optimisation pour les moteurs de recherche

Le référencement naturel (SEO) consiste à affiner le contenu et la présentation d’un site afin d’améliorer la façon dont les pages sont indexées par les moteurs de recherche. Commerce comprend différentes fonctionnalités pour prendre en charge votre effort continu d’optimisation du moteur de recherche.

TIP
Pour Adobe Commerce as a Cloud Service, consultez les directives SEO de la documentation du Storefront Commerce

Métadonnées

[PaaS uniquement]{class="badge informative" title="S’applique uniquement aux projets Adobe Commerce on Cloud (infrastructure PaaS gérée par Adobe) et aux projets On-premise."}

Découvrez comment ajouter et améliorer des métadonnées riches en mots-clés pour votre site et votre boutique.

Utilisation d’un plan de site

[PaaS uniquement]{class="badge informative" title="S’applique uniquement aux projets Adobe Commerce on Cloud (infrastructure PaaS gérée par Adobe) et aux projets On-premise."}

Un plan de site améliore la façon dont votre boutique est indexée par les moteurs de recherche et est conçu pour trouver les pages qui pourraient être ignorées par les robots d’exploration web. Un plan de site peut être configuré pour indexer toutes les pages et images.

Réécritures d’URL

[PaaS uniquement]{class="badge informative" title="S’applique uniquement aux projets Adobe Commerce on Cloud (infrastructure PaaS gérée par Adobe) et aux projets On-premise."}

L’outil Réécriture d’URL vous permet de modifier toute URL associée à un produit, une catégorie ou une page CMS.

Robots pour moteurs de recherche

La configuration Commerce comprend des paramètres permettant de générer et de gérer des instructions pour les robots d’exploration et les robots web qui indexent votre site. Si la demande de robots.txt atteint Commerce (plutôt qu'un fichier physique), elle est acheminée dynamiquement vers le contrôleur robots. Les instructions sont des directives reconnues et suivies par la plupart des moteurs de recherche.

Par défaut, le fichier robots.txt généré par Commerce contient des instructions pour que le moteur de recherche web évite d’indexer certaines parties du site qui contiennent des fichiers utilisés en interne par le système. Vous pouvez utiliser les paramètres par défaut ou définir vos propres instructions personnalisées pour tous les moteurs de recherche ou pour des moteurs spécifiques. Il existe de nombreux articles en ligne qui explorent le sujet en détail.

Exemple d’instructions personnalisées

Autorise un accès complet

User-agent:*
Disallow:

Interdit l’accès à tous les dossiers

User-agent:*
Interdire : /

Instructions par défaut

User-agent : *
Refuser : /index.php/
Refuser : /*?
Interdire : /checkout/
Interdire : /app/
Interdire : /lib/
Interdire : /*.php$
Interdire : /pkginfo/
Interdire : /report/
Interdire : /var/
Interdire : /catalog/
Interdire : /customer/
Interdire : /sendfriend/
Interdire : /review/
Interdire : /*SID=

Configurer robots.txt

  1. Dans la barre latérale Admin, accédez à Content > Design>Configuration.

  2. Recherchez la configuration Global dans la première ligne de la grille et cliquez sur Edit.

    Configuration de la conception globale {width="700" modal="regular"}

  3. Faites défiler vers le bas et développez Sélecteur d’extension la section Search Engine Robots, puis procédez comme suit :

    Configuration de la conception - robots de moteurs de recherche {width="600" modal="regular"}

    • Définissez Default Robots sur l’une des options suivantes :

      table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto
      Option Description
      INDEX, FOLLOW Indique aux robots d’exploration Web d’indexer le site et de vérifier ultérieurement les modifications.
      NOINDEX, FOLLOW Indique aux robots d’exploration Web d’éviter d’indexer le site, mais de revenir ultérieurement pour prendre connaissance des modifications.
      INDEX, NOFOLLOW Indique aux robots d’indexation web d’indexer le site une fois, mais de ne pas revenir ultérieurement pour connaître les modifications.
      NOINDEX, NOFOLLOW Indique aux robots d’exploration Web d’éviter d’indexer le site et de ne pas revenir ultérieurement pour connaître les modifications.
    • Si nécessaire, saisissez des instructions personnalisées dans la zone de Edit Custom instruction of robots.txt file. Par exemple, lorsqu’un site est en développement, vous pouvez interdire l’accès à tous les dossiers.

    • Pour restaurer les instructions par défaut, cliquez sur Reset to Default.

  4. Cliquez ensuite sur Save Configuration.

recommendation-more-help
d5ef48ad-708f-4ce5-a225-e7bb6053ded5