robots.txt 클라우드 인프라에 404 오류 Adobe Commerce 제공
클라우드 인프라의 Adobe Commerce에서 robots.txt 파일에 액세스할 때 404 오류가 발생하는 경우 /robots.txt
요청을 /media/robots.txt
(으)로 리디렉션하는 Nginx 규칙을 비활성화합니다.
설명 description
환경
클라우드 인프라의 Adobe Commerce(모든 버전)
문제
robots.txt
파일이 작동하지 않으며 Nginx 예외가 발생합니다. Nginx에는 존재하지 않는 /media/robots.txt
파일로 모든 /robots.txt
요청을 강제로 리디렉션하는 다시 작성 규칙이 있으므로 동적으로 "즉시" 생성되고 /robots.txt
URL을 통해 액세스할 수 없습니다.
원인
이 문제는 Nginx가 제대로 구성되지 않은 경우 발생합니다.
해결 방법 resolution
이 문제를 해결하려면 /robots.txt
요청을 /media
/robots.txt
파일로 리디렉션하는 Nginx 규칙을 사용하지 않도록 설정하십시오.
- 셀프서비스가 활성화되지 않은 경우(또는 확실하지 않은 경우)
/robots.txt
에서/media/robots.txt
(으)로 Nginx 리디렉션 규칙 제거를 요청하는 Adobe Commerce 지원 티켓을 제출하십시오. - 셀프서비스가 활성화된 경우 ECE-Tools 을(를) 버전 2002.0.12 이상으로 업그레이드하십시오. 그런 다음
.magento.app.yaml
파일에서 Nginx 리디렉션 규칙을 제거합니다.
자세한 지침은 Adobe Commerce 개발자 설명서에서 사이트 맵 및 검색 엔진 로봇 추가를 참조하십시오.
관련 읽기
- 지원 기술 자료에서 Fastly 수준에서 Magento Commerce Cloud에 대한 악성 트래픽 차단
- 사용 안내서의 검색 엔진 로봇
recommendation-more-help
3d58f420-19b5-47a0-a122-5c9dab55ec7f