robots.txt geeft 404 fouten in Adobe Commerce op cloudinfrastructuur

Dit artikel bevat een oplossing voor het probleem wanneer in het robots.txt -bestand een fout van 404 optreedt in Adobe Commerce op de cloud-infrastructuur.

Betrokken producten en versies

Adobe Commerce op cloudinfrastructuur (alle versies)

Probleem

Het bestand robots.txt werkt niet en genereert een Nginx-uitzondering. Het robots.txt -bestand wordt dynamisch "ter plekke" gegenereerd. Het robots.txt -bestand is niet toegankelijk via de /robots.txt URL omdat Nginx een herschrijfregel heeft die alle /robots.txt -aanvragen forceert omleiden naar het /media/robots.txt -bestand dat niet bestaat.

Oorzaak

Dit gebeurt typisch wanneer Nginx niet behoorlijk wordt gevormd.

Oplossing

De oplossing is het uitschakelen van de regel Nginx die /robots.txt -aanvragen doorstuurt naar het /media/robots.txt -bestand. De handelaren met toegelaten zelfbediening kunnen het op hun eigen doen, en de handelaren zonder zelf-dienst toegelaten behoefte om een steunkaartje tot stand te brengen.

Als u niet de toegelaten zelfbediening hebt (of niet zeker als het) toeliet, voorlegt een kaartje van de Steun van het Magentoverzoekend schrapping van de Nginx omleidingsregel van /robots.txt verzoeken aan /media/robots.txt.

Als u de zelfbediening hebt ingeschakeld, werkt u ECE-Tools bij naar minimaal 2002.0.12 en verwijdert u de Nginx-omleidingsregel in uw .magento.app.yaml -bestand. U kunt naar verwijzen voeg plaatstoewijzing en onderzoekmachine robotsin onze ontwikkelaarsdocumentatie voor meer informatie toe.

Verwante lezing

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a