robots.txt donne une erreur 404 à Adobe Commerce sur l’infrastructure cloud

Cet article fournit un correctif pour le moment où le fichier robots.txt renvoie une erreur 404 dans Adobe Commerce sur l’infrastructure cloud.

Produits et versions concernés

Adobe Commerce sur l’infrastructure cloud (toutes versions)

Problème

Le fichier robots.txt ne fonctionne pas et renvoie une exception Nginx. Le fichier robots.txt est généré dynamiquement "à la volée". Le fichier robots.txt n’est pas accessible par l’URL /robots.txt car Nginx possède une règle de réécriture qui redirige de force toutes les requêtes /robots.txt vers le fichier /media/robots.txt qui n’existe pas.

Cause

Cela se produit généralement lorsque Nginx n’est pas configuré correctement.

Solution

La solution consiste à désactiver la règle Nginx qui redirige les requêtes /robots.txt vers le fichier /media/robots.txt. Les commerçants avec libre-service activé peuvent le faire par eux-mêmes, et les marchands sans libre-service activé doivent créer un ticket d’assistance.

Si le libre-service n’est pas activé (ou si vous ne savez pas s’il est activé), envoyez un ticket d’assistance Magento demandant la suppression de la règle de redirection Nginx des demandes /robots.txt vers /media/robots.txt.

Si vous avez activé le libre-service, mettez à niveau les outils de la fonction ECID vers au moins la version 2002.0.12 et supprimez la règle de redirection Nginx dans votre fichier .magento.app.yaml. Pour plus d’informations, reportez-vous à la section Ajout de robots de moteur de recherche et de carte de site dans la documentation destinée aux développeurs.

Lecture connexe

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a