robots.txt gibt 404 Fehler in Adobe Commerce in Cloud-Infrastruktur

Dieser Artikel bietet eine Fehlerbehebung für den Fall, dass die robots.txt-Datei einen 404-Fehler in Adobe Commerce in der Cloud-Infrastruktur ausgibt.

Betroffene Produkte und Versionen

Adobe Commerce auf Cloud-Infrastruktur (alle Versionen)

Problem

Die robots.txt funktioniert nicht und löst eine Nginx-Ausnahme aus. Die robots.txt wird dynamisch „on the fly“ generiert. Auf die robots.txt-Datei kann über die /robots.txt-URL nicht zugegriffen werden, da Nginx über eine Rewrite-Regel verfügt, die alle /robots.txt-Anfragen an die nicht vorhandene /media/robots.txt-Datei weiterleitet.

Ursache

Dies geschieht in der Regel, wenn Nginx nicht ordnungsgemäß konfiguriert ist.

Lösung

Die Lösung besteht darin, die Nginx-Regel zu deaktivieren, die /robots.txt Anfragen an die /media/robots.txt-Datei weiterleitet. Händler mit aktivierter Self-Service-Funktion können dies selbstständig tun, und Händler ohne aktivierter Self-Service-Funktion müssen ein Support-Ticket erstellen.

Wenn Sie den Self-Service nicht aktiviert haben (oder nicht sicher sind, ob er aktiviert ist), senden Sie ein Magento-Support-Ticket und fordern Sie die Entfernung der Nginx-Umleitungsregel von /robots.txt Anfragen an /media/robots.txt an.

Wenn Sie den Self-Service aktiviert haben, aktualisieren Sie bitte ECE-Tools auf mindestens 2002.0.12 und entfernen Sie die Nginx-Umleitungsregel in Ihrer .magento.app.yaml. Weitere Informationen finden Sie in Entwicklerdokumentation unter „Hinzufügen von SitemapsSuchmaschinenrobotern“.

Verwandtes Lesen

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a