Conoscenza
I toolkit di Semrush
SEO
Site Audit
Risoluzione dei problemi di Site Audit

Risoluzione dei problemi di Site Audit

Il tuo Site Audit non funziona correttamente?

Risoluzione dei problemi di Site Audit image 1

Ci sono diversi motivi per cui al crawler di Site Audit viene impedito di analizzare le pagine, in base alla configurazione e alla struttura del tuo sito web. Tra questi:  

  • Il file Robots.txt blocca il crawler
  • L'ambito del crawling esclude alcune aree del sito
  • Il sito non è direttamente online a causa dell'hosting condiviso
  • Le pagine si trovano dietro un gateway/un'area del sito riservata
  • Il crawler viene bloccato dal tag noindex
  • Il dominio non può essere risolto dal DNS: il dominio inserito nella configurazione è offline
  • Contenuti del sito web costruiti su JavaScript. Anche se Site Audit è in grado di eseguire il rendering del codice JS, questo può comunque essere la causa di alcuni problemi

Step per la risoluzione dei problemi

Segui questi step di risoluzione dei problemi per vedere se riesci a correggere qualcosa da solo prima di rivolgerti al nostro team di assistenza.

Un file Robots.txt fornisce istruzioni ai bot su come scansionare (o non scansionare) le pagine di un sito web. Puoi consentire e vietare a bot come Googlebot o Semrushbot di effettuare il crawling di tutto il tuo sito o di aree specifiche del sito utilizzando comandi come Allow, Disallow e Crawl Delay. 

Se il tuo robots.txt impedisce al nostro bot di eseguire il crawling, il nostro strumento Site Audit non sarà in grado di controllare il tuo sito. 

Puoi controllare il tuo Robots.txt alla ricerca di eventuali comandi Disallow che impediscano a crawler come il nostro di accedere al tuo sito web. 

Per consentire al bot Semrush Site Audit (SiteAuditBot) di effettuare il crawling del tuo sito, aggiungi quanto segue al tuo file robots.txt:

User-agent: SiteAuditBot

Disallow:   

(lascia uno spazio vuoto dopo "Disallow:")

Ecco un esempio di come può apparire un file robots.txt:

Elenco delle direttive allow e disallow in un file robots.txt di esempio. Le direttive disallow sono evidenziate in rosso, quelle allow in verde chiaro. Ci sono anche istruzioni aggiuntive sul lato destro della schermata: Disallow = istruzione ai bot di NON effettuare il crawling di quest'area del sito (in rosso), Allow = istruzione ai bot di effettuare il crawling di quest'area del sito (in verde).

Nota i vari comandi in base allo user agent (crawler) a cui il file si rivolge.

Questi file sono pubblici e per essere trovati devono essere nel livello superiore di un sito. Per trovare il file robots.txt di un sito web, inserisci nel tuo browser il dominio principale del sito seguito da /robots.txt. Ad esempio, il file robots.txt di Semrush.com si trova all'indirizzo https://semrush.com/robots.txt.

Tra i termini che potresti vedere in un file robots.txt ci sono:

  • User-Agent = il web crawler a cui stai dando istruzioni. 
    • Es: SiteAuditBot, Googlebot
  • Allow = un comando (solo per Googlebot) che indica al bot che può effettuare il crawling di una pagina o di un'area specifica di un sito anche se la pagina o la cartella madre sono vietate.
  • Disallow = un comando che indica al bot di non effettuare il crawling di uno specifico URL o sottocartella di un sito. 
    • Es: Disallow: /admin/
  • Crawl Delay = un comando che indica ai bot quanti secondi aspettare prima di caricare e analizzare un'altra pagina. 
  • Sitemap = indica dove si trova il file sitemap.xml per un determinato URL.
  • / = utilizza il simbolo "/" dopo un comando disallow per indicare al bot di non effettuare il crawling dell'intero sito 
  • * = un simbolo jolly che rappresenta qualsiasi stringa di caratteri possibili in un URL, utilizzato per indicare un'area di un sito o tutti gli user agent. 
    • Es: Disallow: /blog/* indicherebbe tutti gli URL della sottocartella blog di un sito
    • Es: User Agent: * indicherebbe istruzioni per tutti i bot

Per saperne di più sulle specifiche del file Robots.txt consulta Google o il blog di Semrush.

Se vedi il seguente codice nella pagina principale di un sito web, ci dice che non ci è permesso indicizzare/seguire i link presenti e che il nostro accesso è bloccato.

<meta name="robots" content="noindex, nofollow" >

Oppure, una pagina contenente almeno uno dei seguenti elementi: "noindex", "nofollow", "none", porterà all'errore di crawling.

Per consentire al nostro bot di effettuare il crawling di una pagina di questo tipo, rimuovi questi tag "noindex" dal codice della tua pagina. Per maggiori informazioni sul tag noindex, consulta questo articolo del Supporto Google.

Per inserire il bot nella whitelist, contatta il tuo webmaster o il tuo provider di hosting e chiedigli di inserire SiteAuditBot nella whitelist.

Gli indirizzi IP del bot sono: 85.208.98.128/25 (una sottorete utilizzata solo da Site Audit)

Il bot utilizza le porte standard 80 HTTP e 443 HTTPS per connettersi.

Se utilizzi dei plugin (Wordpress, ad esempio) o dei CDN (content delivery network) per gestire il tuo sito, dovrai inserire l'IP del bot nella whitelist anche di questi.

Per la whitelist su Wordpress, contatta il supporto di Wordpress.

I CDN più comuni che bloccano il nostro crawler includono:

  • Cloudflare - leggi come inserire nella whitelist qui
  • Imperva - leggi come inserire nella whitelist qui
  • ModSecurity - leggi come inserire nella whitelist qui
  • Sucuri - leggi come inserire nella whitelist qui

Nota bene: se disponi di un hosting condiviso, è possibile che il tuo provider non ti permetta di inserire nella whitelist i bot o di modificare il file Robots.txt.

Fornitori di hosting

Di seguito ti elenchiamo alcuni dei provider di hosting più famosi del web e le modalità per inserire un bot nella whitelist di ciascuno di essi o per richiedere assistenza al loro team di supporto: 

  1. Siteground - istruzioni per la whitelist 
  2. 1&1 IONOS - istruzioni per la whitelist 
  3. Bluehost* - istruzioni per la whitelist 
  4. Hostgator* - istruzioni per la whitelist 
  5. Hostinger - istruzioni per la whitelist 
  6. GoDaddy - istruzioni per la whitelist 
  7. GreenGeeks - istruzioni per la whitelist 
  8. Big Commerce - È necessario contattare il supporto 
  9. Liquid Web - È necessario contattare il supporto 
  10. iPage - È necessario contattare il supporto
  11. InMotion - È necessario contattare il supporto
  12. Glowhost - È necessario contattare il supporto
  13. A2 Hosting - È necessario contattare il supporto
  14. DreamHost - È necessario contattare il supporto

* Nota bene: queste istruzioni sono valide per HostGator e Bluehost se hai un sito web su VPS o un Hosting dedicato.

Per vedere quanto è stato utilizzato il tuo budget di crawling attuale, vai su Profilo - Dati sull'abbonamento e cerca "Pagine da analizzare" sotto "Il mio piano".

A seconda del tuo livello di abbonamento, hai un numero limitato di pagine da analizzare in un mese (budget di crawling mensile). Se superi il numero di pagine consentite dal tuo abbonamento, dovrai acquistare ulteriori limiti o aspettare il mese successivo, quando i limiti verranno aggiornati.

Inoltre, se durante la configurazione riscontri un errore "Hai raggiunto il limite di campagne eseguite simultaneamente", tieni presente che i diversi livelli di abbonamento hanno limiti diversi per le verifiche simultanee:

  • Gratis: 1
  • Pro: 2
  • Guru: 2
  • Business: 5

Se il dominio non può essere risolto dal DNS, probabilmente significa che il dominio inserito durante la configurazione è offline. Di solito gli utenti hanno questo problema quando inseriscono un dominio principale (example.com), senza rendersi conto che la versione del dominio principale del loro sito non esiste e che è necessario inserire la versione WWW (www.example.com).  

Per evitare questo problema, il proprietario del sito web potrebbe aggiungere un redirect dal sito non protetto "example.com" al sito protetto "www.example.com" che esiste sul server. Questo problema potrebbe verificarsi anche al contrario, se il dominio root di qualcuno è protetto, ma la sua versione WWW no. In questo caso, dovrai semplicemente reindirizzare la versione WWW al dominio principale.

Se la tua homepage ha dei link al resto del sito nascosti in elementi JavaScript, devi abilitare il JS-rendering, in modo che possiamo leggerli e fare il crawling di quelle pagine. Questa funzionalità è disponibile solo per gli abbonamenti Guru e Business.

Una dimostrazione di come abilitare il rendering JavaScript nelle impostazioni di Site Audit. I punti in evidenza mostrano la scheda e la sezione delle impostazioni corrette.

Per non perdere le pagine più importanti del tuo sito web con il nostro crawl, puoi cambiare la fonte del crawl da sito web a sitemap: in questo modo, i crawler non perderanno le pagine più difficili da trovare naturalmente sul sito web durante l'audit.

Dimostrazione su dove trovare l'impostazione Fonti crawl in Site Audit. Il menù a tendina è evidenziato e presenta tutte le opzioni disponibili per la Fonte crawl.

Possiamo anche eseguire il crawling dell'HTML di una pagina con alcuni elementi JS ed esaminare i parametri dei tuoi file JS e CSS con i nostri controlli Performance.

Il tuo sito web potrebbe bloccare SemrushBot nel tuo file robots.txt. Puoi cambiare l'User Agent da SemrushBot a GoogleBot e il tuo sito web probabilmente permetterà all'User Agent di Google di effettuare il crawling. Per effettuare questa modifica, trova l'ingranaggio delle impostazioni nel tuo Progetto e seleziona User Agent.

Istruzioni su dove trovare le impostazioni dello User-agent in Site Audit. Nel report Panoramica, l'icona dell'ingranaggio in alto a destra è evidenziata per indicare il menù a tendina che si apre quando l'utente lo clicca. Il menù delle impostazioni può essere scrollato verso il basso per trovare le impostazioni esatte necessarie, in questo caso l'impostazione dello user agent (questa riga è evidenziata anche nel menù)

Se si utilizza questa opzione, le risorse interne bloccate e le pagine bloccate dai controlli di crawl non verranno attivate. Tieni presente che per utilizzarla è necessario verificare la proprietà del sito.

Questa opzione è utile per i siti che sono in fase di manutenzione. È utile anche quando il proprietario del sito non vuole modificare il file robots.txt.

Per controllare le aree private del tuo sito web che sono protette da password, inserisci le tue credenziali nell'opzione "Crawling con le tue credenziali" nell'ingranaggio delle impostazioni.

Questa procedura è particolarmente raccomandata per i siti ancora in fase di sviluppo o che sono privati e protetti da password.

Istruzioni su come attivare l'opzione "crawling con credenziali" in Site Audit. In questa GIF, il cursore apre le impostazioni tramite l'icona a forma di ingranaggio in alto a destra e seleziona l'opzione "Crawling con credenziali" dalle voci del menù a tendina. Fatto questo, appare un menù pop-up per bypassare le restrizioni del sito web. Dopo che la seconda casella è stata selezionata in quella scheda, vengono inserite le credenziali di prova e il cursore scende per salvare le impostazioni.

"Le impostazioni del crawler sono cambiate rispetto all'audit precedente. Questo potrebbe influenzare i risultati dell'audit in corso e il numero di problemi rilevati."

Questa notifica appare in Site Audit dopo aver aggiornato le impostazioni e aver rieseguito l'audit. Non si tratta della segnalazione di un problema, ma piuttosto di una nota che riporta un possibile motivo della variazione dei risultati dell'analisi.

Dai un'occhiata al nostro post su I più grandi errori SEO che danneggiano i siti web.