robots.txt: error 404 de Adobe Commerce en la infraestructura en la nube
Este artículo proporciona una corrección para los casos en los que el archivo robots.txt
genera un error 404 en Adobe Commerce en la infraestructura en la nube.
Productos y versiones afectados
Adobe Commerce en la infraestructura en la nube (todas las versiones)
Problema
El archivo robots.txt
no funciona y genera una excepción Nginx. El archivo robots.txt
se genera dinámicamente "sobre la marcha". La dirección URL /robots.txt
no tiene acceso al archivo robots.txt
porque Nginx tiene una regla de reescritura que redirige por la fuerza todas las solicitudes /robots.txt
al archivo /media/robots.txt
que no existe.
Causa
Esto suele ocurrir cuando Nginx no está configurado correctamente.
Solución
La solución es deshabilitar la regla Nginx que redirige las solicitudes de /robots.txt
al archivo /media/robots.txt
. Los comerciantes con un autoservicio habilitado pueden hacerlo por su cuenta y los comerciantes sin un autoservicio habilitado deben crear un vale de soporte.
Si no tiene habilitado el autoservicio (o no está seguro de si lo tiene habilitado), envíe un vale de soporte técnico para Magento solicitando la eliminación de la regla de redireccionamiento Nginx de /robots.txt
solicitudes a /media/robots.txt
.
Si tiene habilitado el autoservicio, actualice ECE-Tools al menos a 2002.0.12 y elimine la regla de redireccionamiento Nginx en su archivo .magento.app.yaml
. Para obtener más información, consulte Agregar robots de mapa del sitio y motores de búsqueda en nuestra documentación para desarrolladores.
Lectura relacionada
- Cómo bloquear el tráfico malintencionado para Magento Commerce Cloud en el nivel Fastly de nuestra base de conocimiento de soporte.
- Agregue robots de mapa del sitio y de motor de búsqueda en nuestra documentación para desarrolladores.
- Robots de motores de búsqueda en nuestra guía del usuario.