robots.txt ger 404 fel Adobe Commerce i molninfrastrukturen
Den här artikeln innehåller en korrigering för när filen robots.txt
genererar ett 404-fel i Adobe Commerce i molninfrastrukturen.
Berörda produkter och versioner
Adobe Commerce om molninfrastruktur (alla versioner)
Problem
Filen robots.txt
fungerar inte och genererar ett Nginx-undantag. Filen robots.txt
genereras dynamiskt "i farten". robots.txt
-filen är inte tillgänglig av URL:en /robots.txt
eftersom Nginx har en omskrivningsregel som tvingar alla /robots.txt
-begäranden till /media/robots.txt
-filen som inte finns.
Orsak
Detta inträffar vanligtvis när Nginx inte är korrekt konfigurerat.
Lösning
Lösningen är att inaktivera Nginx-regeln som omdirigerar /robots.txt
-begäranden till /media/robots.txt
-filen. Handlare med aktiverad självbetjäning kan göra det själva, och handlare utan självbetjäning måste skapa en supportanmälan.
Om du inte har aktiverat självbetjäning (eller inte vet om det är aktiverat) skickar du en Magento-supportbiljett och begär att Nginx-omdirigeringsregeln ska tas bort från /robots.txt
-begäranden till /media/robots.txt
.
Om du har aktiverat självbetjäning kan du uppgradera ECE-Tools till minst 2002.0.12 och ta bort Nginx-omdirigeringsregeln i filen .magento.app.yaml
. Mer information finns i Lägg till webbplatskarta och sökrobotar i utvecklardokumentationen.
Relaterad läsning
- Så här blockerar du skadlig trafik för Magento Commerce Cloud på snabbnivå i vår kunskapsbas för support.
- Lägg till webbplatskarta och sökrobotar i utvecklardokumentationen.
- Sökmotorrobotar i användarhandboken.