SEO-Übersicht
Suchmaschinenoptimierung (SEO) ist die Praxis der Feinabstimmung des Inhalts und der Präsentation einer Site, um die Art und Weise zu verbessern, wie die Seiten von Suchmaschinen indiziert werden. Commerce bietet verschiedene Funktionen zur Unterstützung Ihrer fortlaufenden SEO-Bemühungen.
Metadaten
Erfahren Sie mehr über das Hinzufügen und Verbessern von (Metadaten für Ihre Site und Ihren Speicher.
Verwenden einer Sitemap
Eine Sitemap verbessert die Art und Weise, wie Ihr Store von Suchmaschinen indiziert wird, und wurde entwickelt, um Seiten zu finden, die von Webcrawlern übersehen werden könnten. Eine Sitemap kann so konfiguriert werden, dass alle Seiten und Bilder indiziert werden.
URL-Neuschreibungen
Mit dem URL Rewrite-Tool können Sie jede URL ändern, die mit einem Produkt, einer Kategorie oder einer CMS-Seite verknüpft ist.
Suchmaschinenroboter
Die Commerce-Konfiguration enthält Einstellungen zum Generieren und Verwalten von Anweisungen für Webcrawler und Bots, die Ihre Site indizieren. Wenn die Anfrage für robots.txt
Commerce erreicht (und keine physische Datei), wird sie dynamisch an den Robots-Controller weitergeleitet. Die Anweisungen sind Anweisungen, die von den meisten Suchmaschinen erkannt und befolgt werden.
Standardmäßig enthält die von Commerce generierte Datei robots.txt Anweisungen für Web Crawler, um die Indizierung bestimmter Teile der Site zu vermeiden, die Dateien enthalten, die intern vom System verwendet werden. Sie können die Standardeinstellungen verwenden oder eigene benutzerdefinierte Anweisungen für alle oder für bestimmte Suchmaschinen definieren. Es gibt viele Online-Artikel, die sich ausführlich mit dem Thema befassen.
Beispiel für benutzerdefinierte Anweisungen
Ermöglicht vollständigen Zugriff
user-agent:*
disallow:
Deaktiviert den Zugriff auf alle Ordner
user-agent:*
disallow: /
Standardanweisungen
user-agent: *
disallow: /index.php/
disallow: /*?
disallow: /checkout/
disallow: /app/
disallow: /lib/
disallow: /*.php$
disallow: /pkginfo/
disallow: /report/
disallow: /var/
disallow: /catalog/
disallow: /customer/
disallow: /sendfriend/
disallow: /review/
Disallow: /*SID=
Konfigurieren von robots.txt
-
Navigieren Sie in Admin-Seitenleiste zu Content > Design>Configuration.
-
Suchen Sie die Global Konfiguration in der ersten Zeile des Rasters und klicken Sie auf Edit.
-
Scrollen Sie nach unten und erweitern Sie
-
Legen Sie Default Robots auf eine der folgenden Einstellungen fest:
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto Option Beschreibung INDEX, FOLLOW
Weist Web-Crawler an, die Site zu indizieren und später erneut auf Änderungen zu prüfen. NOINDEX, FOLLOW
Weist Web-Crawler an, die Indizierung der Site zu vermeiden, aber später erneut nach Änderungen zu suchen. INDEX, NOFOLLOW
Weist Web-Crawler an, die Site einmal zu indizieren, aber später nicht mehr auf Änderungen zu überprüfen. NOINDEX, NOFOLLOW
Weist Web-Crawler an, die Indizierung der Site zu vermeiden und später nicht mehr auf Änderungen zu überprüfen. -
Geben Sie bei Bedarf benutzerdefinierte Anweisungen in das Edit Custom instruction of robots.txt file ein. Beispielsweise können Sie während der Entwicklung einer Site den Zugriff auf alle Ordner verbieten.
-
Um die Standardanweisungen wiederherzustellen, klicken Sie auf Reset to Default.
-
-
Klicken Sie abschließend auf Save Configuration.