robots.txt在雲端基礎結構上顯示404錯誤Adobe Commerce

本文提供雲端基礎結構上robots.txt檔案在Adobe Commerce中擲回404錯誤時的修正。

受影響的產品和版本

雲端基礎結構上的Adobe Commerce (所有版本)

問題

robots.txt檔案無法運作,並擲回Nginx例外狀況。 robots.txt檔案是動態「即時」產生的。 /robots.txt URL無法存取robots.txt檔案,因為Nginx有重寫規則,可強制將所有/robots.txt要求重新導向不存在的/media/robots.txt檔案。

原因

這通常發生在Nginx未正確設定時。

解決方案

解決方案是停用Nginx規則,將/robots.txt要求重新導向至/media/robots.txt檔案。 具有已啟用自助服務的商戶可以自行操作,而未具有自助服務的商戶需要建立支援票證。

如果您未啟用自助服務(或不確定是否已啟用),請提交Magento支援票證,要求將Nginx重新導向規則從/robots.txt要求移除至/media/robots.txt

如果您已啟用自助服務,請將ECE-Tools升級為至少2002.0.12,並移除.magento.app.yaml檔案中的Nginx重新導向規則。 如需詳細資訊,請參考開發人員檔案中的新增網站地圖和搜尋引擎機器人

相關閱讀

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a