robots.txt gibt 404 Fehler in Adobe Commerce in Cloud-Infrastruktur
Dieser Artikel bietet eine Fehlerbehebung für den Fall, dass die robots.txt
-Datei einen 404-Fehler in Adobe Commerce in der Cloud-Infrastruktur ausgibt.
Betroffene Produkte und Versionen
Adobe Commerce auf Cloud-Infrastruktur (alle Versionen)
Problem
Die robots.txt
funktioniert nicht und löst eine Nginx-Ausnahme aus. Die robots.txt
wird dynamisch „on the fly“ generiert. Auf die robots.txt
-Datei kann über die /robots.txt
-URL nicht zugegriffen werden, da Nginx über eine Rewrite-Regel verfügt, die alle /robots.txt
-Anfragen an die nicht vorhandene /media/robots.txt
-Datei weiterleitet.
Ursache
Dies geschieht in der Regel, wenn Nginx nicht ordnungsgemäß konfiguriert ist.
Lösung
Die Lösung besteht darin, die Nginx-Regel zu deaktivieren, die /robots.txt
Anfragen an die /media/robots.txt
-Datei weiterleitet. Händler mit aktivierter Self-Service-Funktion können dies selbstständig tun, und Händler ohne aktivierter Self-Service-Funktion müssen ein Support-Ticket erstellen.
Wenn Sie den Self-Service nicht aktiviert haben (oder nicht sicher sind, ob er aktiviert ist), senden Sie ein Magento-Support-Ticket und fordern Sie die Entfernung der Nginx-Umleitungsregel von /robots.txt
Anfragen an /media/robots.txt
an.
Wenn Sie den Self-Service aktiviert haben, aktualisieren Sie bitte ECE-Tools auf mindestens 2002.0.12 und entfernen Sie die Nginx-Umleitungsregel in Ihrer .magento.app.yaml
. Weitere Informationen finden Sie in Entwicklerdokumentation unter „Hinzufügen von SitemapsSuchmaschinenrobotern“.
Verwandtes Lesen
- Wie Sie bösartigen Traffic für Magento Commerce Cloud auf Fastly-Ebene blockieren finden Sie in unserer Support-Wissensdatenbank.
- Hinzufügen von Sitemap- und Suchmaschinenrobotern in unserer Entwicklerdokumentation.
- Suchmaschinenroboter in unserem Benutzerhandbuch.