Panoramica SEO

L'ottimizzazione per i motori di ricerca (SEO) consiste nel perfezionare il contenuto e la presentazione di un sito per migliorare il modo in cui le pagine vengono indicizzate dai motori di ricerca. Commerce include varie funzioni per supportare l’attività SEO (Search Engine Optimization) in corso.

Metadati

Ulteriori informazioni sull'aggiunta e l'ottimizzazione di metadati ricchi di parole chiave per il sito e l'archivio.

Utilizzo di una mappa del sito

Una mappa del sito migliora l'indicizzazione dell'archivio da parte dei motori di ricerca ed è progettata per trovare pagine che potrebbero essere ignorate dai crawler Web. È possibile configurare una mappa del sito per indicizzare tutte le pagine e le immagini.

Riscritture URL

Lo strumento URL Riscrittura consente di modificare qualsiasi URL associato a una pagina di prodotto, categoria o CMS.

Robot per motori di ricerca

La configurazione di Commerce include impostazioni per generare e gestire istruzioni per i crawler web e i bot che indicizzano il sito. Se la richiesta per robots.txt raggiunge Commerce (anziché un file fisico), viene instradata dinamicamente al controller robots. Le istruzioni sono direttive riconosciute e seguite dalla maggior parte dei motori di ricerca.

Per impostazione predefinita, il file robots.txt generato da Commerce contiene istruzioni per il Web crawler per evitare di indicizzare alcune parti del sito che contengono file utilizzati internamente dal sistema. Puoi utilizzare le impostazioni predefinite, definire istruzioni personalizzate per tutti o per motori di ricerca specifici. Ci sono molti articoli online che esplorano l'argomento in dettaglio.

Esempio di istruzioni personalizzate

Consente L'Accesso Completo

Agente utente:*
Non consentire:

Accesso negato a tutte le cartelle

Agente utente:*
Non consentire: /

Istruzioni predefinite

Agente utente: *
Non consentire: /index.php/
Non consentire: /*?
Non consentire: /checkout/
Non consentire: /app/
Non consentire: /lib/
Non consentire: /*.php$
Non consentire: /pkginfo/
Non consentire: /report/
Non consentire: /var/
Non consentire: /catalog/
Non consentire: /customer/
Non consentire: /sendfriend/
Non consentire: /review/
Non consentire: /*SID=

Configura robots.txt

  1. Nella barra laterale Admin, passa a Content > Design>Configuration.

  2. Trovare la configurazione Global nella prima riga della griglia e fare clic su Edit.

    Configurazione progettazione globale {width="700" modal="regular"}

  3. Scorri verso il basso ed espandi il selettore di espansione nella sezione Search Engine Robots ed effettua le seguenti operazioni:

    Configurazione progettazione - robot motore di ricerca {width="600" modal="regular"}

    • Imposta Default Robots su uno dei seguenti:

      table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 layout-auto
      Opzione Descrizione
      INDEX, FOLLOW Indica ai Web crawler di indicizzare il sito e di verificare in seguito la presenza di modifiche.
      NOINDEX, FOLLOW Indica ai crawler Web di evitare l'indicizzazione del sito, ma di verificare in seguito la presenza di modifiche.
      INDEX, NOFOLLOW Indica ai Web crawler di indicizzare il sito una sola volta, ma di non verificare in seguito la presenza di modifiche.
      NOINDEX, NOFOLLOW Indica ai Web crawler di evitare l'indicizzazione del sito e di non verificare in seguito la presenza di modifiche.
    • Se necessario, immettere istruzioni personalizzate nella casella Edit Custom instruction of robots.txt file. Ad esempio, mentre un sito è in fase di sviluppo, è possibile che si desideri non consentire l'accesso a tutte le cartelle.

    • Per ripristinare le istruzioni predefinite, scegliere Reset to Default.

  4. Al termine, fare clic su Save Configuration.

recommendation-more-help
d5ef48ad-708f-4ce5-a225-e7bb6053ded5