404-Fehler beim Zugriff auf robots.txt in Adobe Commerce in der Cloud-Infrastruktur

Wenn beim Zugriff auf die Datei robots.txt in der Cloud-Infrastruktur von Adobe Commerce der Fehler 404 ausgegeben wird, deaktivieren Sie die Nginx-Regel, die /robots.txt-Anfragen an /media/robots.txt weiterleitet.

Beschreibung description

Umgebung

Adobe Commerce auf Cloud-Infrastruktur (alle Versionen)

Problem

Die robots.txt funktioniert nicht und löst eine Nginx-Ausnahme aus. Sie wird dynamisch „on the fly“ generiert und ist über die /robots.txt URL nicht zugänglich, da Nginx eine Rewrite-Regel hat, die alle /robots.txt-Anfragen an die /media/robots.txt-Datei weiterleitet, die nicht existiert.

Ursache

Dies tritt auf, wenn Nginx nicht richtig konfiguriert ist.

Auflösung resolution

Um das Problem zu beheben, deaktivieren Sie die Nginx-Regel, die /robots.txt-Anfragen an die /media/robots.txt-Datei weiterleitet.

  • Wenn der Self-Service nicht aktiviert ist (oder Sie sich nicht sicher sind, ob er aktiviert ist), senden Sie ein Adobe Commerce-Support-Ticket mit der Bitte, die Nginx-Umleitungsregel von /robots.txt nach /media/robots.txt zu entfernen.
  • Wenn der Self-Service aktiviert ist, aktualisieren Sie ECE-Tools auf Version 2002.0.12 oder höher. Entfernen Sie dann die Nginx-Umleitungsregel aus Ihrer .magento.app.yaml.

Detaillierte Anleitungen finden Sie unter Hinzufügen von Siteübersichten und Suchmaschinenrobotern in der Entwicklerdokumentation zu Adobe Commerce.

Verwandtes Lesen

recommendation-more-help
3d58f420-19b5-47a0-a122-5c9dab55ec7f