robots.txt: error 404 de Adobe Commerce en la infraestructura en la nube

Este artículo proporciona una corrección para los casos en los que el archivo robots.txt genera un error 404 en Adobe Commerce en la infraestructura en la nube.

Productos y versiones afectados

Adobe Commerce en la infraestructura en la nube (todas las versiones)

Problema

El archivo robots.txt no funciona y genera una excepción Nginx. El archivo robots.txt se genera dinámicamente "sobre la marcha". La dirección URL /robots.txt no tiene acceso al archivo robots.txt porque Nginx tiene una regla de reescritura que redirige por la fuerza todas las solicitudes /robots.txt al archivo /media/robots.txt que no existe.

Causa

Esto suele ocurrir cuando Nginx no está configurado correctamente.

Solución

La solución es deshabilitar la regla Nginx que redirige las solicitudes de /robots.txt al archivo /media/robots.txt. Los comerciantes con un autoservicio habilitado pueden hacerlo por su cuenta y los comerciantes sin un autoservicio habilitado deben crear un vale de soporte.

Si no tiene habilitado el autoservicio (o no está seguro de si lo tiene habilitado), envíe un vale de soporte técnico para Magento solicitando la eliminación de la regla de redireccionamiento Nginx de /robots.txt solicitudes a /media/robots.txt.

Si tiene habilitado el autoservicio, actualice ECE-Tools al menos a 2002.0.12 y elimine la regla de redireccionamiento Nginx en su archivo .magento.app.yaml. Para obtener más información, consulte Agregar robots de mapa del sitio y motores de búsqueda en nuestra documentación para desarrolladores.

Lectura relacionada

recommendation-more-help
8bd06ef0-b3d5-4137-b74e-d7b00485808a