robots.txt gibt 404-Fehler Adobe Commerce in der Cloud-Infrastruktur
Dieser Artikel enthält eine Fehlerbehebung für den Fall, dass die Datei robots.txt
in Adobe Commerce in der Cloud-Infrastruktur einen 404-Fehler ausgibt.
Betroffene Produkte und Versionen
Adobe Commerce in der Cloud-Infrastruktur (alle Versionen)
Problem
Die Datei robots.txt
funktioniert nicht und gibt eine Nginx-Ausnahme aus. Die Datei "robots.txt
" wird dynamisch "on the fly" generiert. Auf die Datei robots.txt
kann nicht über die URL /robots.txt
zugegriffen werden, da Nginx über eine Neuschreibungsregel verfügt, die erzwungen alle /robots.txt
-Anforderungen an die nicht vorhandene Datei /media/robots.txt
umleitet.
Ursache
Dies geschieht normalerweise, wenn Nginx nicht ordnungsgemäß konfiguriert ist.
Lösung
Die Lösung besteht darin, die Nginx-Regel zu deaktivieren, die /robots.txt
-Anforderungen an die /media/robots.txt
-Datei weiterleitet. Händler mit aktiviertem Self-Service können dies allein tun, und Händler ohne aktivierten Self-Service müssen ein Support-Ticket erstellen.
Wenn Sie die Self-Service-Funktion nicht aktiviert haben (oder nicht sicher sind, ob sie aktiviert ist), senden Sie ein Magento Support-Ticket, das die Entfernung der Nginx-Umleitungsregel aus /robots.txt
-Anfragen an /media/robots.txt
anfordert.
Wenn Sie die Self-Service-Funktion aktiviert haben, aktualisieren Sie bitte ECE-Tools auf mindestens 2002.0.12 und entfernen Sie die Nginx-Weiterleitungsregel in Ihrer .magento.app.yaml
-Datei. Weitere Informationen finden Sie unter Hinzufügen von Sitemap- und Suchmaschinen-Robotern in unserer Entwicklerdokumentation.
Verwandte Informationen
- Wie Sie böswilligen Traffic für Magento Commerce Cloud auf Fastly-Ebene blockieren in unserer Support-Wissensdatenbank.
- Fügen Sie in unserer Entwicklerdokumentation Sitemap und Suchmaschinen-Roboter hinzu.
- Suchmaschinen-Roboter in unserem Benutzerhandbuch.