404-Fehler beim Zugriff auf robots.txt in Adobe Commerce in der Cloud-Infrastruktur
Wenn beim Zugriff auf die Datei robots.txt in der Cloud-Infrastruktur von Adobe Commerce der Fehler 404 ausgegeben wird, deaktivieren Sie die Nginx-Regel, die /robots.txt
-Anfragen an /media/robots.txt
weiterleitet.
Beschreibung description
Umgebung
Adobe Commerce auf Cloud-Infrastruktur (alle Versionen)
Problem
Die robots.txt
funktioniert nicht und löst eine Nginx-Ausnahme aus. Sie wird dynamisch „on the fly“ generiert und ist über die /robots.txt
URL nicht zugänglich, da Nginx eine Rewrite-Regel hat, die alle /robots.txt
-Anfragen an die /media/robots.txt
-Datei weiterleitet, die nicht existiert.
Ursache
Dies tritt auf, wenn Nginx nicht richtig konfiguriert ist.
Auflösung resolution
Um das Problem zu beheben, deaktivieren Sie die Nginx-Regel, die /robots.txt
-Anfragen an die /media
/robots.txt
-Datei weiterleitet.
- Wenn der Self-Service nicht aktiviert ist (oder Sie sich nicht sicher sind, ob er aktiviert ist), senden Sie ein Adobe Commerce-Support-Ticket mit der Bitte, die Nginx-Umleitungsregel von
/robots.txt
nach/media/robots.txt
zu entfernen. - Wenn der Self-Service aktiviert ist, aktualisieren Sie ECE-Tools auf Version 2002.0.12 oder höher. Entfernen Sie dann die Nginx-Umleitungsregel aus Ihrer
.magento.app.yaml
.
Detaillierte Anleitungen finden Sie unter Hinzufügen von Siteübersichten und Suchmaschinenrobotern in der Entwicklerdokumentation zu Adobe Commerce.
Verwandtes Lesen
- Blockieren Sie bösartigen Traffic für Magento Commerce Cloud auf Fastly-Ebene in unserer Support-Wissensdatenbank
- Suchmaschinenroboter in unserem Benutzerhandbuch