SEO-Übersicht

Suchmaschinenoptimierung (SEO) ist die Vorgehensweise, den Inhalt und die Darstellung einer Site zu optimieren, um die Indexierung der Seiten durch Suchmaschinen zu verbessern. Commerce bietet verschiedene Funktionen, um Ihre laufenden SEO-Bemühungen zu unterstützen.

Metadaten

Erfahren Sie mehr über das Hinzufügen und Verbessern von schlüsselwortreichen Metadaten für Ihre Site und Ihren Store.

Verwenden einer Sitemap

Eine Sitemap verbessert die Indexierung Ihres Stores durch Suchmaschinen und dient dazu, Seiten zu finden, die von Webcrawlern übersehen werden. Eine Sitemap kann so konfiguriert werden, dass alle Seiten und Bilder indiziert werden.

URL-Neuschreibungen

Mit dem Tool URL Rewrite können Sie jede URL ändern, die mit einem Produkt, einer Kategorie oder einer CMS-Seite verknüpft ist.

Suchmaschinen-Roboter

Die Commerce-Konfiguration umfasst Einstellungen zum Generieren und Verwalten von Anweisungen für Webcrawler und Bots, die Ihre Site indizieren. Wenn die Anfrage für robots.txt Commerce erreicht (und nicht eine physische Datei), wird sie dynamisch an den Robotercontroller weitergeleitet. Die Anweisungen sind Anweisungen, die von den meisten Suchmaschinen erkannt und befolgt werden.

Standardmäßig enthält die von Commerce generierte Datei robots.txt Anweisungen für Webcrawler, um die Indizierung bestimmter Teile der Site zu vermeiden, die Dateien enthalten, die intern vom System verwendet werden. Sie können die Standardeinstellungen verwenden oder eigene benutzerdefinierte Anweisungen für alle oder für bestimmte Suchmaschinen definieren. Es gibt viele Artikel online, die das Thema im Detail untersuchen.

Beispiel für benutzerdefinierte Anweisungen

Ermöglicht vollständigen Zugriff

User-agent:*
disallow:

Ermöglicht den Zugriff auf alle Ordner

User-agent:*
disallow: /

Standardanweisungen

Benutzeragent: *
Nicht zulassen: /index.php/
Nicht zulassen: /*?
Nicht zulassen: /checkout/
Nicht zulassen: /app/
Nicht zulassen: /lib/
Nicht zulassen: /*.php$
Nicht zulassen: /pkginfo/
Nicht zulassen: /report/
Nicht zulassen: /var/
Nicht zulassen: /catalog/
Nicht zulassen: /customer/
Nicht zulassen/
Nicht zulassen: /review/
Nicht zulassen: /*SID=

Konfigurieren von robots.txt

  1. Wechseln Sie in der Seitenleiste Admin zu Content > Design>Configuration.

  2. Suchen Sie die Konfiguration Global in der ersten Zeile des Rasters und klicken Sie auf Edit.

    Globale Designkonfiguration {width="700" modal="regular"}

  3. Scrollen Sie nach unten und erweitern Sie den Abschnitt Search Engine Robots um den Erweiterungsselektor und gehen Sie folgendermaßen vor:

    Designkonfiguration - Suchmaschinen-Roboter {width="600" modal="regular"}

    • Setzen Sie Default Robots auf einen der folgenden Werte:

      table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto
      Option Beschreibung
      INDEX, FOLLOW Weist Webcrawler an, die Site zu indizieren und später auf Änderungen zu überprüfen.
      NOINDEX, FOLLOW Weist Webcrawler an, die Indizierung der Site zu vermeiden, aber später auf Änderungen zurückzugreifen.
      INDEX, NOFOLLOW Weist Webcrawler an, die Site einmalig zu indizieren, aber später nicht auf Änderungen zu überprüfen.
      NOINDEX, NOFOLLOW Weist Webcrawler an, die Indizierung der Site zu vermeiden und später nicht auf Änderungen zu überprüfen.
    • Geben Sie bei Bedarf benutzerdefinierte Anweisungen in das Feld Edit Custom instruction of robots.txt file ein. Während sich beispielsweise eine Site in der Entwicklung befindet, sollten Sie den Zugriff auf alle Ordner untersagen.

    • Um die Standardanweisungen wiederherzustellen, klicken Sie auf Reset to Default.

  4. Klicken Sie nach Abschluss des Vorgangs auf Save Configuration.

recommendation-more-help
d5ef48ad-708f-4ce5-a225-e7bb6053ded5