robots.txt ger 404 fel Adobe Commerce i molninfrastrukturen

Den här artikeln innehåller en korrigering för när filen robots.txt genererar ett 404-fel i Adobe Commerce i molninfrastrukturen.

Berörda produkter och versioner

Adobe Commerce om molninfrastruktur (alla versioner)

Problem

Filen robots.txt fungerar inte och genererar ett Nginx-undantag. Filen robots.txt genereras dynamiskt "i farten". robots.txt-filen är inte tillgänglig av URL:en /robots.txt eftersom Nginx har en omskrivningsregel som tvingar alla /robots.txt-begäranden till /media/robots.txt-filen som inte finns.

Orsak

Detta inträffar vanligtvis när Nginx inte är korrekt konfigurerat.

Lösning

Lösningen är att inaktivera Nginx-regeln som omdirigerar /robots.txt-begäranden till /media/robots.txt-filen. Handlare med aktiverad självbetjäning kan göra det själva, och handlare utan självbetjäning måste skapa en supportanmälan.

Om du inte har aktiverat självbetjäning (eller inte vet om det är aktiverat) skickar du en Magento-supportbiljett och begär att Nginx-omdirigeringsregeln ska tas bort från /robots.txt-begäranden till /media/robots.txt.

Om du har aktiverat självbetjäning kan du uppgradera ECE-Tools till minst 2002.0.12 och ta bort Nginx-omdirigeringsregeln i filen .magento.app.yaml. Mer information finns i Lägg till webbplatskarta och sökrobotar i utvecklardokumentationen.

Relaterad läsning

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a