Visão geral da SEO
A Otimização do mecanismo de pesquisa (SEO) é a prática de ajustar o conteúdo e a apresentação de um site para melhorar a forma como as páginas são indexadas pelos mecanismos de pesquisa. O Commerce inclui vários recursos para dar suporte ao seu esforço contínuo de SEO.
Metadados
Saiba mais sobre como adicionar e aprimorar metadados ricos em palavras-chave para seu site e loja.
Uso de um mapa de site
Um mapa do site melhora a forma como o armazenamento é indexado pelos mecanismos de pesquisa e foi projetado para localizar páginas que podem ser ignoradas pelos rastreadores da Web. Um mapa do site pode ser configurado para indexar todas as páginas e imagens.
Substituições de URL
A ferramenta Reescrita de URL permite alterar qualquer URL associada a um produto, categoria ou página de CMS.
Robôs do mecanismo de pesquisa
A configuração do Commerce inclui configurações para gerar e gerenciar instruções para crawlers e bots da Web que indexam seu site. Se a solicitação de robots.txt
atingir o Commerce (em vez de um arquivo físico), ela será roteada dinamicamente para o controlador de robôs. As instruções são diretivas reconhecidas e seguidas pela maioria dos mecanismos de pesquisa.
Por padrão, o arquivo robots.txt gerado pelo Commerce contém instruções para o crawler da Web evitar a indexação de determinadas partes do site que contêm arquivos usados internamente pelo sistema. Você pode usar as configurações padrão ou definir suas próprias instruções personalizadas para todos ou para mecanismos de pesquisa específicos. Há muitos artigos online que exploram o assunto em detalhes.
Exemplo de instruções personalizadas
Permite Acesso Completo
User-agent:*
Não permitir:
Não permite acesso a todas as pastas
User-agent:*
Não permitir: /
Instruções Padrão
User-agent: *
Não permitir: /index.php/
Não permitir: /*?
Não permitir: /checkout/
Não permitir: /app/
Não permitir: /lib/
Não permitir: /*.php$
Não permitir: /pkginfo/
Não permitir: /report/
Não permitir: /var/
Não permitir: /catalog/
Não permitir: /customer/
Não permitir: /sendfriend/
Não permitir: /review/
Não permitir: /*SID=
Configurar robots.txt
-
Na barra lateral Admin, vá para Content > Design>Configuration.
-
Localize a configuração Global na primeira linha da grade e clique em Edit.
{width="700" modal="regular"}
-
Role para baixo e expanda a seção Search Engine Robots e faça o seguinte:
{width="600" modal="regular"}
-
Defina Default Robots como um dos seguintes:
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto Opção Descrição INDEX, FOLLOW
Instrui os rastreadores da web a indexar o site e verificar novamente mais tarde se há alterações. NOINDEX, FOLLOW
Instrui os rastreadores da Web a evitar a indexação do site, mas a verificar novamente mais tarde se há alterações. INDEX, NOFOLLOW
Instrui os rastreadores da web a indexar o site uma vez, mas a não verificar novamente mais tarde se há alterações. NOINDEX, NOFOLLOW
Instrui os rastreadores da web a evitar a indexação do site e a não verificar novamente se há alterações. -
Se necessário, insira instruções personalizadas na caixa Edit Custom instruction of robots.txt file. Por exemplo, enquanto um site estiver em desenvolvimento, talvez você queira proibir o acesso a todas as pastas.
-
Para restaurar as instruções padrão, clique em Reset to Default.
-
-
Quando terminar, clique em Save Configuration.