Visão geral da SEO

A Otimização do mecanismo de pesquisa (SEO) é a prática de ajustar o conteúdo e a apresentação de um site para melhorar a forma como as páginas são indexadas pelos mecanismos de pesquisa. O Commerce inclui vários recursos para dar suporte ao seu esforço contínuo de SEO.

Metadados

Saiba mais sobre como adicionar e aprimorar metadados ricos em palavras-chave para seu site e loja.

Uso de um mapa de site

Um mapa do site melhora a forma como o armazenamento é indexado pelos mecanismos de pesquisa e foi projetado para localizar páginas que podem ser ignoradas pelos rastreadores da Web. Um mapa do site pode ser configurado para indexar todas as páginas e imagens.

Substituições de URL

A ferramenta Reescrita de URL permite alterar qualquer URL associada a um produto, categoria ou página de CMS.

Robôs do mecanismo de pesquisa

A configuração do Commerce inclui configurações para gerar e gerenciar instruções para crawlers e bots da Web que indexam seu site. Se a solicitação de robots.txt atingir o Commerce (em vez de um arquivo físico), ela será roteada dinamicamente para o controlador de robôs. As instruções são diretivas reconhecidas e seguidas pela maioria dos mecanismos de pesquisa.

Por padrão, o arquivo robots.txt gerado pelo Commerce contém instruções para o crawler da Web evitar a indexação de determinadas partes do site que contêm arquivos usados internamente pelo sistema. Você pode usar as configurações padrão ou definir suas próprias instruções personalizadas para todos ou para mecanismos de pesquisa específicos. Há muitos artigos online que exploram o assunto em detalhes.

Exemplo de instruções personalizadas

Permite Acesso Completo

User-agent:*
Não permitir:

Não permite acesso a todas as pastas

User-agent:*
Não permitir: /

Instruções Padrão

User-agent: *
Não permitir: /index.php/
Não permitir: /*?
Não permitir: /checkout/
Não permitir: /app/
Não permitir: /lib/
Não permitir: /*.php$
Não permitir: /pkginfo/
Não permitir: /report/
Não permitir: /var/
Não permitir: /catalog/
Não permitir: /customer/
Não permitir: /sendfriend/
Não permitir: /review/
Não permitir: /*SID=

Configurar robots.txt

  1. Na barra lateral Admin, vá para Content > Design>Configuration.

  2. Localize a configuração Global na primeira linha da grade e clique em Edit.

    Configuração de design global {width="700" modal="regular"}

  3. Role para baixo e expanda Seletor de expansão a seção Search Engine Robots e faça o seguinte:

    Configuração de design - robôs de mecanismo de pesquisa {width="600" modal="regular"}

    • Defina Default Robots como um dos seguintes:

      table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto
      Opção Descrição
      INDEX, FOLLOW Instrui os rastreadores da web a indexar o site e verificar novamente mais tarde se há alterações.
      NOINDEX, FOLLOW Instrui os rastreadores da Web a evitar a indexação do site, mas a verificar novamente mais tarde se há alterações.
      INDEX, NOFOLLOW Instrui os rastreadores da web a indexar o site uma vez, mas a não verificar novamente mais tarde se há alterações.
      NOINDEX, NOFOLLOW Instrui os rastreadores da web a evitar a indexação do site e a não verificar novamente se há alterações.
    • Se necessário, insira instruções personalizadas na caixa Edit Custom instruction of robots.txt file. Por exemplo, enquanto um site estiver em desenvolvimento, talvez você queira proibir o acesso a todas as pastas.

    • Para restaurar as instruções padrão, clique em Reset to Default.

  4. Quando terminar, clique em Save Configuration.

recommendation-more-help
d5ef48ad-708f-4ce5-a225-e7bb6053ded5