Panoramica SEO
L'ottimizzazione per i motori di ricerca (SEO) consiste nel perfezionare il contenuto e la presentazione di un sito per migliorare il modo in cui le pagine vengono indicizzate dai motori di ricerca. Commerce include varie funzioni per supportare l’attività SEO (Search Engine Optimization) in corso.
Metadati
Ulteriori informazioni sull'aggiunta e l'ottimizzazione di metadati ricchi di parole chiave per il sito e l'archivio.
Utilizzo di una mappa del sito
Una mappa del sito migliora l'indicizzazione dell'archivio da parte dei motori di ricerca ed è progettata per trovare pagine che potrebbero essere ignorate dai crawler Web. È possibile configurare una mappa del sito per indicizzare tutte le pagine e le immagini.
Riscritture URL
Lo strumento URL Riscrittura consente di modificare qualsiasi URL associato a una pagina di prodotto, categoria o CMS.
Robot per motori di ricerca
La configurazione di Commerce include impostazioni per generare e gestire istruzioni per i crawler web e i bot che indicizzano il sito. Se la richiesta per robots.txt
raggiunge Commerce (anziché un file fisico), viene instradata dinamicamente al controller robots. Le istruzioni sono direttive riconosciute e seguite dalla maggior parte dei motori di ricerca.
Per impostazione predefinita, il file robots.txt generato da Commerce contiene istruzioni per il Web crawler per evitare di indicizzare alcune parti del sito che contengono file utilizzati internamente dal sistema. Puoi utilizzare le impostazioni predefinite, definire istruzioni personalizzate per tutti o per motori di ricerca specifici. Ci sono molti articoli online che esplorano l'argomento in dettaglio.
Esempio di istruzioni personalizzate
Consente L'Accesso Completo
Agente utente:*
Non consentire:
Accesso negato a tutte le cartelle
Agente utente:*
Non consentire: /
Istruzioni predefinite
Agente utente: *
Non consentire: /index.php/
Non consentire: /*?
Non consentire: /checkout/
Non consentire: /app/
Non consentire: /lib/
Non consentire: /*.php$
Non consentire: /pkginfo/
Non consentire: /report/
Non consentire: /var/
Non consentire: /catalog/
Non consentire: /customer/
Non consentire: /sendfriend/
Non consentire: /review/
Non consentire: /*SID=
Configura robots.txt
-
Nella barra laterale Admin, passa a Content > Design>Configuration.
-
Trovare la configurazione Global nella prima riga della griglia e fare clic su Edit.
{width="700" modal="regular"}
-
Scorri verso il basso ed espandi il nella sezione Search Engine Robots ed effettua le seguenti operazioni:
{width="600" modal="regular"}
-
Imposta Default Robots su uno dei seguenti:
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto Opzione Descrizione INDEX, FOLLOW
Indica ai Web crawler di indicizzare il sito e di verificare in seguito la presenza di modifiche. NOINDEX, FOLLOW
Indica ai crawler Web di evitare l'indicizzazione del sito, ma di verificare in seguito la presenza di modifiche. INDEX, NOFOLLOW
Indica ai Web crawler di indicizzare il sito una sola volta, ma di non verificare in seguito la presenza di modifiche. NOINDEX, NOFOLLOW
Indica ai Web crawler di evitare l'indicizzazione del sito e di non verificare in seguito la presenza di modifiche. -
Se necessario, immettere istruzioni personalizzate nella casella Edit Custom instruction of robots.txt file. Ad esempio, mentre un sito è in fase di sviluppo, è possibile che si desideri non consentire l'accesso a tutte le cartelle.
-
Per ripristinare le istruzioni predefinite, scegliere Reset to Default.
-
-
Al termine, fare clic su Save Configuration.