Información general de SEO
Optimización de motores de búsqueda (SEO) es la práctica de ajustar el contenido y la presentación de un sitio para mejorar la forma en que los motores de búsqueda indexan las páginas. Commerce incluye varias funciones para apoyar su esfuerzo continuo de SEO.
Metadatos
Obtenga más información sobre cómo agregar y mejorar metadatos con palabras clave para su sitio y tienda.
Uso de un mapa del sitio
Un mapa del sitio mejora la forma en que los motores de búsqueda indizan su tienda y está diseñado para encontrar páginas que podrían pasar por alto los rastreadores web. Se puede configurar un mapa del sitio para indexar todas las páginas e imágenes.
Reescrituras de URL
La herramienta Reescritura de URL le permite cambiar cualquier URL asociada a un producto, categoría o página de CMS.
Robots de motor de búsqueda
La configuración de Commerce incluye opciones para generar y administrar instrucciones para los rastreadores web y bots que indexan el sitio. Si la solicitud de robots.txt
llega a Commerce (en lugar de a un archivo físico), se enrutará dinámicamente al controlador de robots. Las instrucciones son directivas que la mayoría de los motores de búsqueda reconoce y sigue.
De forma predeterminada, el archivo robots.txt generado por Commerce contiene instrucciones para que el rastreador web no indexe ciertas partes del sitio que contienen archivos que el sistema utiliza internamente. Puede utilizar la configuración predeterminada o definir sus propias instrucciones personalizadas para todos o para motores de búsqueda específicos. Hay muchos artículos en línea que exploran el tema en detalle.
Ejemplo de instrucciones personalizadas
Permite Acceso Completo
Usuario-agente:*
No permitir:
No permite el acceso a todas las carpetas
Usuario-agente:*
No permitir: /
Instrucciones predeterminadas
Usuario-agente: *
No permitir: /index.php/
No permitir: /*?
No permitir: /checkout/
No permitir: /app/
No permitir: /lib/
No permitir: /*.php$
No permitir: /pkginfo/
No permitir: /report/
No permitir: /var/
No permitir: /catalog/
No permitir: /customer/
No permitir: /sendfriend/
No permitir: /review/
No permitir: /*SID=
Configurar robots.txt
-
En la barra lateral Admin, vaya a Content > Design>Configuration.
-
Busque la configuración Global en la primera fila de la cuadrícula y haga clic en Edit.
{width="700" modal="regular"}
-
Desplácese hacia abajo y expanda en la sección Search Engine Robots y haga lo siguiente:
{width="600" modal="regular"}
-
Establezca Default Robots en una de las siguientes opciones:
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto Opción Descripción INDEX, FOLLOW
Indica a los rastreadores web que indexen el sitio y que vuelvan más tarde para ver si hay cambios. NOINDEX, FOLLOW
Indica a los rastreadores web que eviten indizar el sitio, pero que vuelvan más tarde para ver si hay cambios. INDEX, NOFOLLOW
Indica a los rastreadores web que indiquen el sitio una vez, pero que no vuelvan más tarde para ver si hay cambios. NOINDEX, NOFOLLOW
Indica a los rastreadores web que eviten indizar el sitio y que no vuelvan más tarde para ver si hay cambios. -
Si es necesario, escriba instrucciones personalizadas en el cuadro Edit Custom instruction of robots.txt file. Por ejemplo, mientras un sitio está en desarrollo, es posible que desee impedir el acceso a todas las carpetas.
-
Para restaurar las instrucciones predeterminadas, haga clic en Reset to Default.
-
-
Una vez finalizado, haga clic en Save Configuration.