robots.txt在云基础架构上显示404错误Adobe Commerce

本文修复了robots.txt文件在云基础架构上的Adobe Commerce中引发404错误的情况。

受影响的产品和版本

云基础架构上的Adobe Commerce(所有版本)

问题

robots.txt文件不起作用,引发了Nginx异常。 robots.txt文件是“动态”生成的。 /robots.txt URL无法访问robots.txt文件,因为Nginx具有重写规则,该规则强制将所有/robots.txt请求重定向到不存在的/media/robots.txt文件。

原因

当Nginx未正确配置时,通常会发生这种情况。

解决方案

解决方案是禁用将/robots.txt请求重定向到/media/robots.txt文件的Nginx规则。 启用了自助服务的商家可以自行完成此操作,而未启用自助服务的商家需要创建支持工单。

如果未启用自助服务(或不确定是否启用自助服务),请提交Magento支持票证,请求将Nginx重定向规则从/robots.txt个请求删除到/media/robots.txt

如果您已启用自助服务,请将ECE-Tools至少升级到2002.0.12,并在.magento.app.yaml文件中删除Nginx重定向规则。 有关详细信息,请参考开发人员文档中的添加站点地图和搜索引擎机器人

相关阅读

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a