Visão geral da SEO
Otimização do mecanismo de pesquisa (SEO) é a prática de ajustar o conteúdo e a apresentação de um site para melhorar a forma como as páginas são indexadas por mecanismos de pesquisa. O Commerce inclui vários recursos para dar suporte ao seu esforço contínuo de SEO.
Metadados
Saiba mais sobre como adicionar e aprimorar palavras-chave ricas metadados para seu site e loja.
Uso de um mapa de site
A mapa do site melhora a maneira como sua loja é indexada por mecanismos de pesquisa e é projetada para encontrar páginas que podem ser ignoradas por rastreadores da web. Um mapa do site pode ser configurado para indexar todas as páginas e imagens.
Substituições de URL
A variável Regravação de URL A ferramenta permite alterar qualquer URL associado a um produto, categoria ou página do CMS.
Robôs do mecanismo de pesquisa
A configuração do Commerce inclui configurações para gerar e gerenciar instruções para rastreadores da Web e bots que indexam seu site. Se o pedido de robots.txt
alcançar o Commerce (em vez de um arquivo físico), ele é roteado dinamicamente para o controlador de robôs. As instruções são diretivas reconhecidas e seguidas pela maioria dos mecanismos de pesquisa.
Por padrão, o arquivo robots.txt gerado pelo Commerce contém instruções para que o crawler da Web evite indexar determinadas partes do site que contêm arquivos usados internamente pelo sistema. Você pode usar as configurações padrão ou definir suas próprias instruções personalizadas para todos ou para mecanismos de pesquisa específicos. Há muitos artigos online que exploram o assunto em detalhes.
Exemplo de instruções personalizadas
Permite acesso total
User-agent:*
Não permitir:
Não permite acesso a todas as pastas
User-agent:*
Não permitir: /
Instruções padrão
User-agent: *
Não permitir: /index.php/
Não permitir: /*?
Não permitir: /checkout/
Não permitir: /app/
Não permitir: /lib/
Não permitir: /*.php$
Não permitir: /pkginfo/
Não permitir: /report/
Não permitir: /var/
Não permitir: /catalog/
Não permitir: /customer/
Não permitir: /sendfriend/
Não permitir: /review/
Não permitir: /*SID=
Configurar robots.txt
-
No Admin barra lateral, vá para Content > Design>Configuration.
-
Localize o Global na primeira linha da grade e clique em Edit.
-
Rolar para baixo e expandir
-
Definir Default Robots a um dos seguintes:
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto Opção Descrição INDEX, FOLLOW
Instrui os rastreadores da web a indexar o site e verificar novamente mais tarde se há alterações. NOINDEX, FOLLOW
Instrui os rastreadores da Web a evitar a indexação do site, mas a verificar novamente mais tarde se há alterações. INDEX, NOFOLLOW
Instrui os rastreadores da web a indexar o site uma vez, mas a não verificar novamente mais tarde se há alterações. NOINDEX, NOFOLLOW
Instrui os rastreadores da web a evitar a indexação do site e a não verificar novamente se há alterações. -
Se necessário, insira instruções personalizadas na caixa Edit Custom instruction of robots.txt file caixa. Por exemplo, enquanto um site estiver em desenvolvimento, talvez você queira proibir o acesso a todas as pastas.
-
Para restaurar as instruções padrão, clique em Reset to Default.
-
-
Quando terminar, clique em Save Configuration.