robots.txt在雲端基礎結構上顯示404錯誤Adobe Commerce

如果您在雲端基礎結構上存取Adobe Commerce中的robots.txt檔案時發生​ 404 ​錯誤,請停用將/robots.txt要求重新導向至/media/robots.txt的Nginx規則。

說明 description

環境

雲端基礎結構上的Adobe Commerce (所有版本)

問題

robots.txt檔案無法運作,並擲回Nginx例外狀況。 它是動態「即時」產生的,而且無法透過/robots.txt URL存取,因為Nginx有強制將所有/robots.txt要求重新導向到不存在的/media/robots.txt檔案的重寫規則。

原因

當Nginx未正確設定時,就會發生這種情況。

解決方法 resolution

若要解決此問題,請停用將/robots.txt要求重新導向至/media/robots.txt檔案的Nginx規則。

  • 如果未啟用自助服務(或您不確定是否啟用),請提交Adobe Commerce支援票證,要求將Nginx重新導向規則從/robots.txt移除至/media/robots.txt
  • 如果已啟用自助服務,請將 ECE-Tools 升級至 版本2002.0.12 或更新版本。 然後,從您的.magento.app.yaml檔案中移除Nginx重新導向規則。

如需詳細指引,請參閱Adobe Commerce開發人員檔案中的新增網站地圖和搜尋引擎機器人

相關閱讀

  • 在我們的支援知識庫中,在Fastly層級🔗封鎖Magento Commerce Cloud的惡意流量
  • 使用手冊中的搜尋引擎機器人
recommendation-more-help
3d58f420-19b5-47a0-a122-5c9dab55ec7f