robots.txt gibt 404-Fehler Adobe Commerce in der Cloud-Infrastruktur

Dieser Artikel enthält eine Fehlerbehebung für den Zeitpunkt, zu dem die Variable robots.txt -Datei gibt in Adobe Commerce in der Cloud-Infrastruktur einen 404-Fehler aus.

Betroffene Produkte und Versionen

Adobe Commerce in der Cloud-Infrastruktur (alle Versionen)

Problem

Die robots.txt -Datei funktioniert nicht und gibt eine Nginx-Ausnahme aus. Die robots.txt wird dynamisch "on the fly" generiert. Die robots.txt auf die Datei nicht zugreifen kann. /robots.txt URL, da Nginx über eine Neuschreibungsregel verfügt, die alle /robots.txt Anforderungen an /media/robots.txt nicht vorhanden ist.

Ursache

Dies geschieht normalerweise, wenn Nginx nicht ordnungsgemäß konfiguriert ist.

Lösung

Die Lösung besteht darin, die Nginx-Regel zu deaktivieren, die umleitet /robots.txt Anforderungen an /media/robots.txt -Datei. Händler mit aktiviertem Self-Service können dies allein tun, und Händler ohne aktivierten Self-Service müssen ein Support-Ticket erstellen.

Wenn Sie die Self-Service-Funktion nicht aktiviert haben (oder nicht sicher sind, ob sie aktiviert ist), Senden eines Magento Support-Tickets Anforderung der Entfernung der Nginx-Umleitungsregel aus /robots.txt Anforderungen an /media/robots.txt.

Wenn Sie die Self-Service-Funktion aktiviert haben, aktualisieren Sie bitte ECE-Tools auf mindestens 2002.0.12 und entfernen Sie die Nginx-Weiterleitungsregel in Ihrer .magento.app.yaml -Datei. Weitere Informationen finden Sie unter Sitemap- und Suchmaschinenroboter hinzufügen in unserer Entwicklerdokumentation für weitere Informationen.

Verwandte Informationen

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a