Fastly 수준에서 Adobe Commerce에 대한 악성 트래픽 차단

이 문서에서는 클라우드 인프라 스토어의 Adobe Commerce에서 DDoS 공격이 발생한다고 의심되는 경우 악성 트래픽을 차단하는 데 사용할 수 있는 단계를 제공합니다.

영향을 받는 제품 및 버전:

  • 클라우드 인프라의 Adobe Commerce 2.3.x

이 문서에서는 이미 악성 IP 및/또는 해당 국가 및 사용자 에이전트가 있다고 가정합니다. Adobe Commerce on cloud infrastructure 사용자는 일반적으로 Adobe Commerce 지원에서 이 정보를 가져옵니다. 다음 섹션은 이 정보를 기반으로 트래픽을 차단하는 단계를 제공합니다. 모든 변경 작업은 프로덕션 환경에서 수행해야 합니다.

관리 패널 액세스 권한 얻기

웹 사이트가 DDoS에 의해 오버로드되는 경우 Commerce 관리자에 로그인하지 못할 수 있습니다(및 이 문서에 자세히 설명된 모든 단계를 수행).

관리자에 액세스하려면에 설명된 대로 웹 사이트를 유지 관리 모드로 전환합니다. 유지 관리 모드 활성화 또는 비활성화 IP 주소를 화이트리스트에 추가 합니다. 이 작업을 완료한 후 유지 관리 모드를 비활성화합니다.

IP별 트래픽 차단

Adobe Commerce on cloud infrastructure store의 경우 특정 IP 주소 및 서브넷으로 트래픽을 차단하는 가장 효과적인 방법은 Commerce 관리자에 Fastly용 ACL을 추가하는 것입니다. 다음은 보다 자세한 지침에 대한 링크가 있는 단계입니다.

  1. Commerce 관리에서 다음 위치로 이동합니다. 스토어 > 구성 > 고급 > 시스템 > 전체 페이지 캐시 > Fastly 구성.
  2. 새 ACL 만들기 차단할 IP 주소 또는 서브넷 목록을 사용합니다.
  3. 에 설명된 대로 ACL 목록 및 블록에 추가합니다. 차단 Adobe Commerce용 Fastly_Cdn 모듈 가이드.

국가별 트래픽 차단

클라우드 인프라 스토어의 Adobe Commerce에서 국가별 트래픽을 차단하는 가장 효과적인 방법은 Commerce 관리자에서 Fastly에 대한 ACL을 추가하는 것입니다.

  1. Commerce 관리에서 다음 위치로 이동합니다. 스토어 > 구성 > 고급 > 시스템 > 전체 페이지 캐시 > Fastly 구성.
  2. 국가를 선택하고 다음에 설명된 대로 ACL을 사용하여 차단을 구성합니다. 차단 Adobe Commerce용 Fastly_Cdn 모듈 가이드.

사용자 에이전트별 트래픽 차단

사용자 에이전트를 기반으로 차단을 설정하려면 Fastly 구성에 사용자 지정 VCL 코드 조각을 추가해야 합니다. 이렇게 하려면 다음 단계를 수행합니다.

  1. Commerce 관리에서 다음 위치로 이동합니다. 스토어 > 구성 > 고급 > 시스템 > 전체 페이지 캐시.
  2. 그러면 Fastly 구성 > 사용자 지정 VCL 코드 조각.
  3. 에 설명된 대로 새 사용자 지정 코드 조각을 만듭니다. 사용자 지정 VCL 코드 조각 fastly_Cdn 모듈에 대한 안내서입니다. 다음 코드 샘플을 예로 사용할 수 있습니다. 이 샘플은 AhrefsBotSemrushBot 사용자 에이전트.
name: block_bad_useragents
  type: recv
  priority: 5
  VCL:
  if ( req.http.User-Agent ~ "(AhrefsBot|SemrushBot)" ) {
      error 405 "Not allowed";
  }

속도 제한(실험적 Fastly 기능)

특정 경로 및 크롤러에 대한 속도 제한을 지정할 수 있는 클라우드 인프라의 Adobe Commerce에 대한 실험적인 Fastly 기능이 있습니다. 다음을 참조하십시오. Fastly 모듈 설명서 을 참조하십시오.

이 기능은 적법한 트래픽을 차단할 수 있으므로 프로덕션에서 사용하기 전에 스테이징에서 광범위하게 테스트되어야 합니다.

권장: robots.txt 업데이트를 고려합니다.

업데이트 중 robots.txt 파일은 특정 검색 엔진, 크롤러 및 로봇이 특정 페이지를 크롤링하지 않도록 하는 데 도움이 될 수 있습니다. 크롤링해서는 안 되는 페이지의 예로는 검색 결과 페이지, 체크아웃, 고객 정보 등이 있습니다. 로봇이 이러한 페이지를 크롤링하지 않도록 하면 해당 로봇이 생성하는 요청 수를 줄이는 데 도움이 될 수 있습니다.

을 사용할 때 두 가지 중요한 고려 사항이 있습니다 robots.txt:

  • 로봇은 robots.txt. 특히 보안 취약점이 있는지 웹을 검색하는 멀웨어 로봇, 스패머가 사용하는 이메일 주소 추수기 등은 주의를 기울이지 않는다.
  • 다음 robots.txt 파일은 공개적으로 사용 가능한 파일입니다. 모든 사람이 사용자의 서버에서 로봇이 사용하지 않았으면 하는 섹션을 볼 수 있습니다.

기본 정보 및 기본 Adobe Commerce robots.txt 구성은 다음에서 찾을 수 있습니다 검색 엔진 로봇 개발자 설명서에 있는 문서입니다.

에 대한 일반 정보 및 권장 사항 robots.txt를 참조하십시오.

개발자 및/또는 SEO 전문가와 협력하여 허용하거나 허용하지 않을 사용자 에이전트를 결정합니다.

관련 읽기

Adobe Commerce on Cloud에 대한 제품별 라이선스 약관

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a