Begrenzen Sie schädlichen Traffic für Adobe Commerce auf der schnellsten Ebene.

Dieser Artikel enthält die Schritte, die Sie unternehmen können, um böswilligen Traffic zu verhindern, wenn Sie vermuten, dass Ihr Adobe Commerce im Cloud-Infrastrukturspeicher einen DDoS-Angriff durchmacht.

Betroffene Produkte und Versionen:

  • Adobe Commerce auf Cloud-Infrastruktur 2.3.x

In diesem Artikel gehen wir davon aus, dass Sie bereits über die böswilligen IPs und/oder deren Land und Benutzeragenten verfügen. Adobe Commerce für Cloud-Infrastrukturbenutzer erhalten diese Informationen normalerweise vom Adobe Commerce-Support. Die folgenden Abschnitte enthalten Schritte zum Blockieren des Traffics auf der Grundlage dieser Informationen. Alle Änderungen sollten in der Produktionsumgebung vorgenommen werden.

Zugriff auf das Admin Panel

Wenn Ihre Website von DDoS überlastet ist, können Sie sich möglicherweise nicht bei Ihrem Commerce-Administrator anmelden (und alle in diesem Artikel beschriebenen Schritte ausführen).

Um Zugriff auf den Admin zu erhalten, stellen Sie Ihre Website in den Wartungsmodus, wie unter Aktivieren oder Deaktivieren des Wartungsmodus und Ihre IP-Adresse auf die Whitelist setzen. Deaktivieren Sie den Wartungsmodus, nachdem dies abgeschlossen ist.

Blockieren des Datenverkehrs nach IP

Für die Adobe Commerce im Cloud-Infrastrukturspeicher besteht die wirksamste Möglichkeit, den Traffic nach bestimmten IP-Adressen und Subnetzen zu blockieren, darin, im Commerce-Admin eine ACL für Fastly hinzuzufügen. Im Folgenden finden Sie die Schritte mit Links zu detaillierteren Anweisungen:

  1. Navigieren Sie in Commerce Admin zu Stores > Konfiguration > Erweitert > System > Vollständiger Seiten-Cache > Schnelle Konfiguration.
  2. Neue ACL erstellen mit einer Liste von IP-Adressen oder Subnetzen, die Sie blockieren werden.
  3. Fügen Sie ihn der ACL-Liste und dem Block hinzu, wie im Abschnitt Blockieren Handbuch für das Fastly_CDN-Modul für Adobe Commerce.

Blockieren des Datenverkehrs nach Ländern

Für die Adobe Commerce im Cloud-Infrastrukturspeicher besteht die wirksamste Möglichkeit, den Datenverkehr nach Ländern zu blockieren, darin, im Commerce-Administrator eine ACL für Fastly hinzuzufügen.

  1. Navigieren Sie in Commerce Admin zu Stores > Konfiguration > Erweitert > System > Vollständiger Seiten-Cache > Schnelle Konfiguration.
  2. Wählen Sie die Länder aus und konfigurieren Sie die Blockierung mithilfe der ACL, wie im Abschnitt Blockieren Handbuch für das Fastly_CDN-Modul für Adobe Commerce.

Blockieren des Traffics durch den Benutzeragenten

Um eine Blockierung basierend auf dem Benutzeragenten einzurichten, müssen Sie Ihrer Fastly-Konfiguration ein benutzerdefiniertes VCL-Snippet hinzufügen. Gehen Sie dazu wie folgt vor:

  1. Navigieren Sie in Commerce Admin zu Stores > Konfiguration > Erweitert > System > Vollständiger Seiten-Cache.
  2. Dann Schnelle Konfiguration > Benutzerdefinierte VCL-Snippets.
  3. Erstellen Sie das neue benutzerdefinierte Snippet wie im Abschnitt Benutzerdefinierte VCL-Snippets Handbuch für das Modul Fastly_CDN. Sie können das folgende Codebeispiel verwenden. Dieses Beispiel deaktiviert den Traffic für die AhrefsBot und SemrushBot Benutzeragenten.
name: block_bad_useragents
  type: recv
  priority: 5
  VCL:
  if ( req.http.User-Agent ~ "(AhrefsBot|SemrushBot)" ) {
      error 405 "Not allowed";
  }

Ratenbegrenzung (experimentelle Fastly-Funktion)

Es gibt eine experimentelle Fastly-Funktion für Adobe Commerce in der Cloud-Infrastruktur, mit der Sie das Ratenlimit für bestimmte Pfade und Crawler festlegen können. Bitte verweisen Sie auf Dokumentation zu Fastly-Modulen für Details.

Die Funktionalität muss vor der Verwendung in der Produktion umfassend auf dem Staging getestet werden, da dies legitimen Traffic blockieren kann.

Empfohlen: Aktualisieren Sie robots.txt

Aktualisieren Ihrer robots.txt -Datei kann helfen, bestimmte Suchmaschinen, Crawler und Roboter daran zu hindern, bestimmte Seiten zu durchsuchen. Beispiele für Seiten, die nicht durchsucht werden sollten, sind Suchergebnisseiten, Checkout, Kundeninformationen usw. Wenn Roboter diese Seiten nicht durchsuchen können, kann die Anzahl der von diesen Robotern generierten Anfragen reduziert werden.

Bei der Verwendung von robots.txt:

  • Roboter können Ihre robots.txt. Insbesondere Malware-Roboter, die das Web auf Sicherheitslücken scannen, und E-Mail-Adressen-Ernster, die von Spammern verwendet werden, werden keine Beachtung finden.
  • Die robots.txt -Datei ist eine öffentlich zugängliche Datei. Jeder kann sehen, welche Bereiche Ihres Servers Sie nicht von Robotern verwenden möchten.

Grundlegende Informationen und Standard-Adobe Commerce robots.txt -Konfiguration finden Sie im Abschnitt Suchmaschinen-Roboter in unserer Entwicklerdokumentation.

Allgemeine Informationen und Empfehlungen robots.txt, siehe:

Arbeiten Sie mit Ihrem Entwickler und/oder SEO-Experte zusammen, um zu bestimmen, welche Benutzeragenten Sie zulassen möchten oder welche Sie nicht zulassen möchten.

Verwandte Informationen

Produktspezifische Lizenzbedingungen für Adobe Commerce on Cloud

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a