Visão geral da SEO

Otimização do mecanismo de pesquisa (SEO) é a prática de ajustar o conteúdo e a apresentação de um site para melhorar a forma como as páginas são indexadas por mecanismos de pesquisa. O Commerce inclui vários recursos para dar suporte ao seu esforço contínuo de SEO.

Metadados

Saiba mais sobre como adicionar e aprimorar palavras-chave ricas metadados para seu site e loja.

Uso de um mapa de site

A mapa do site melhora a maneira como sua loja é indexada por mecanismos de pesquisa e é projetada para encontrar páginas que podem ser ignoradas por rastreadores da web. Um mapa do site pode ser configurado para indexar todas as páginas e imagens.

Substituições de URL

A variável Regravação de URL A ferramenta permite alterar qualquer URL associado a um produto, categoria ou página do CMS.

Robôs do mecanismo de pesquisa

A configuração do Commerce inclui configurações para gerar e gerenciar instruções para rastreadores da Web e bots que indexam seu site. Se o pedido de robots.txt alcançar o Commerce (em vez de um arquivo físico), ele é roteado dinamicamente para o controlador de robôs. As instruções são diretivas reconhecidas e seguidas pela maioria dos mecanismos de pesquisa.

Por padrão, o arquivo robots.txt gerado pelo Commerce contém instruções para que o crawler da Web evite indexar determinadas partes do site que contêm arquivos usados internamente pelo sistema. Você pode usar as configurações padrão ou definir suas próprias instruções personalizadas para todos ou para mecanismos de pesquisa específicos. Há muitos artigos online que exploram o assunto em detalhes.

Exemplo de instruções personalizadas

Permite acesso total

User-agent:*
Não permitir:

Não permite acesso a todas as pastas

User-agent:*
Não permitir: /

Instruções padrão

User-agent: *
Não permitir: /index.php/
Não permitir: /*?
Não permitir: /checkout/
Não permitir: /app/
Não permitir: /lib/
Não permitir: /*.php$
Não permitir: /pkginfo/
Não permitir: /report/
Não permitir: /var/
Não permitir: /catalog/
Não permitir: /customer/
Não permitir: /sendfriend/
Não permitir: /review/
Não permitir: /*SID=

Configurar robots.txt

  1. No Admin barra lateral, vá para Content > Design>Configuration.

  2. Localize o Global na primeira linha da grade e clique em Edit.

    Configuração de design global {width="700" modal="regular"}

  3. Rolar para baixo e expandir Seletor de expansão o Search Engine Robots e faça o seguinte:

    Configuração de design - robôs de mecanismo de pesquisa {width="600" modal="regular"}

    • Definir Default Robots a um dos seguintes:

      table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto
      Opção Descrição
      INDEX, FOLLOW Instrui os rastreadores da web a indexar o site e verificar novamente mais tarde se há alterações.
      NOINDEX, FOLLOW Instrui os rastreadores da Web a evitar a indexação do site, mas a verificar novamente mais tarde se há alterações.
      INDEX, NOFOLLOW Instrui os rastreadores da web a indexar o site uma vez, mas a não verificar novamente mais tarde se há alterações.
      NOINDEX, NOFOLLOW Instrui os rastreadores da web a evitar a indexação do site e a não verificar novamente se há alterações.
    • Se necessário, insira instruções personalizadas na caixa Edit Custom instruction of robots.txt file caixa. Por exemplo, enquanto um site estiver em desenvolvimento, talvez você queira proibir o acesso a todas as pastas.

    • Para restaurar as instruções padrão, clique em Reset to Default.

  4. Quando terminar, clique em Save Configuration.

recommendation-more-help
d5ef48ad-708f-4ce5-a225-e7bb6053ded5