Perché solo alcune delle pagine del mio sito sono state scansionate?
Se hai notato che solo 4-6 pagine del tuo sito web vengono scansionate (la home page, gli URL della sitemap e il file robots.txt), molto probabilmente è perché il nostro bot non è riuscito a trovare i link interni in uscita della tua homepage. Qui sotto troverai le possibili cause di questo problema.
Potrebbero non esserci link interni in uscita sulla pagina principale, oppure potrebbero essere incorporati nel JavaScript. Se hai un abbonamento Pro, il nostro bot non analizza i contenuti JavaScript; quindi, se la tua homepage ha dei link al resto del sito nascosti in elementi JavaScript, non li leggeremo e non effettueremo il crawling di quelle pagine.
Sebbene il crawling dei contenuti JavaScript sia disponibile solo per gli utenti Guru e Business, possiamo eseguire il crawling dell'HTML di una pagina con elementi JS e possiamo esaminare i parametri dei tuoi file JS e CSS con i nostri controlli delle prestazioni indipendentemente dal tipo di abbonamento (Pro, Guru o Business).
In entrambi i casi, esiste un modo per garantire che il nostro bot esegua il crawling delle tue pagine. Per farlo, devi cambiare la fonte di crawl da "sito web" a "sitemap" o "URL da file" nelle impostazioni della campagna:
"Sito web" è la fonte predefinita. Significa che effettueremo il crawling del tuo sito web utilizzando un algoritmo di ricerca di tipo breadth-first e navigheremo attraverso i link che vediamo nel codice della tua pagina, a partire dalla homepage.
Se scegli una delle altre opzioni, effettueremo il crawling dei link presenti nella sitemap o nel file caricato.
Il nostro crawler potrebbe essere stato bloccato su alcune pagine nel file robots.txt del sito o da tag noindex/nofollow. Puoi verificare se questo è il caso nel tuo report Pagine sottoposte a crawling:
Puoi controllare il tuo Robots.txt alla ricerca di eventuali comandi Disallow che impediscano a crawler come il nostro di accedere al tuo sito web.
Se vedi il seguente codice nella pagina principale di un sito web, ci dice che non siamo autorizzati a indicizzare i link presenti e che il nostro accesso è bloccato. Oppure, una pagina che contenga almeno uno dei due: "nofollow" o "none", porterà a un errore di crawling.
<meta name="robots" content="noindex, nofollow">
Troverai maggiori informazioni su questi errori nel nostro articolo sulla risoluzione dei problemi.
Il limite per le altre pagine del tuo sito web è di 2MB. Se le dimensioni dell'HTML di una pagina sono troppo grandi, vedrai il seguente errore:
- What Issues Can Site Audit Identify?
- How many pages can I crawl in a Site Audit?
- Quanto ci vuole a eseguire il crawling di un sito web? Mi sembra che il mio audit sia bloccato.
- Come faccio ad analizzare un sottodominio?
- Can I manage the automatic Site Audit re-run schedule?
- Can I set up a custom re-crawl schedule?
- Come viene calcolato il punteggio di Site Health nello strumento Site Audit?
- How Does Site Audit Select Pages to Analyze for Core Web Vitals?
- How do you collect data to measure Core Web Vitals in Site Audit?
- Why is there a difference between GSC and Semrush Core Web Vitals data?
- Perché solo alcune delle pagine del mio sito sono state scansionate?
- Perché pagine funzionanti del mio sito web risultano non disponibili?
- Why can’t I find URLs from the Audit report on my website?
- Why does Semrush say I have duplicate content?
- Why does Semrush say I have an incorrect certificate?
- What are unoptimized anchors and how does Site Audit identify them?
- What do the Structured Data Markup Items in Site Audit Mean?
- Can I stop a current Site Audit crawl?
- Using JS Impact Report to Review a Page
- Configurare Site Audit
- Risoluzione dei problemi di Site Audit
- Site Audit Overview Report
- Report tematici di Site Audit
- Reviewing Your Site Audit Issues
- Report Pagine scansionate di Site Audit
- Site Audit Statistics
- Compare Crawls and Progress
- Exporting Site Audit Results
- Come ottimizzare la velocità di crawling dell'audit del tuo sito
- Come integrare Site Audit con Zapier
- JS Impact Report