robots.txt gibt 404-Fehler Adobe Commerce in der Cloud-Infrastruktur

Dieser Artikel enthält eine Fehlerbehebung für den Fall, dass die Datei robots.txt in Adobe Commerce in der Cloud-Infrastruktur einen 404-Fehler ausgibt.

Betroffene Produkte und Versionen

Adobe Commerce in der Cloud-Infrastruktur (alle Versionen)

Problem

Die Datei robots.txt funktioniert nicht und gibt eine Nginx-Ausnahme aus. Die Datei "robots.txt" wird dynamisch "on the fly" generiert. Auf die Datei robots.txt kann nicht über die URL /robots.txt zugegriffen werden, da Nginx über eine Neuschreibungsregel verfügt, die erzwungen alle /robots.txt -Anforderungen an die nicht vorhandene Datei /media/robots.txt umleitet.

Ursache

Dies geschieht normalerweise, wenn Nginx nicht ordnungsgemäß konfiguriert ist.

Lösung

Die Lösung besteht darin, die Nginx-Regel zu deaktivieren, die /robots.txt -Anforderungen an die /media/robots.txt -Datei weiterleitet. Händler mit aktiviertem Self-Service können dies allein tun, und Händler ohne aktivierten Self-Service müssen ein Support-Ticket erstellen.

Wenn Sie die Self-Service-Funktion nicht aktiviert haben (oder nicht sicher sind, ob sie aktiviert ist), senden Sie ein Magento Support-Ticket, das die Entfernung der Nginx-Umleitungsregel aus /robots.txt -Anfragen an /media/robots.txt anfordert.

Wenn Sie die Self-Service-Funktion aktiviert haben, aktualisieren Sie bitte ECE-Tools auf mindestens 2002.0.12 und entfernen Sie die Nginx-Weiterleitungsregel in Ihrer .magento.app.yaml -Datei. Weitere Informationen finden Sie unter Hinzufügen von Sitemap- und Suchmaschinen-Robotern in unserer Entwicklerdokumentation.

Verwandte Informationen

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a