Oggi cari amici di SEMrush vi svelerò alcuni segreti, per modo di dire, che io stesso e i membri del mio team utilizziamo per migliorare la crawbilità di un sito.
Sfatiamo subito un mito dicendo che la SEO è una disciplina meramente tecnica che affonda le sue radici nel codice, proprio da lì si deve intervenire perché puoi proporre i migliori contenuti del mondo, ma se gli spider dei motori di ricerca non li trovano a cosa ti serve? Un po' come avere un negozio di alta moda nei quartieri decentrati e di periferia, ovvero bel prodotto, ma chi se lo compra?
In questo articolo proverò a darti un po' di tips che a mio avviso troppo spesso vengono sottovalutati lato codice.
Oggi porrò l'accento su due temi a me molto cari: l'eliminazione di pagine inutili e il log dei file.
Elimina le pagine fantasma
Uno degli errori più frequenti, e allo stesso tempo sottovalutati da chi si occupa di SEO, è quello di verificare se vi sono all'interno del sito pagine fantasma, concetto conosciuto in inglese come Zombie pages.
Cosa intendiamo per pagine fantasma o Zombie?
Immagina un e-commerce che, ad esempio, fa degli A-B test. Una volta terminati questi esperimenti, chi si occupa di gestire la situazione dimentica di togliere una delle due pagine. Ecco, per Google siamo in presenza di due pagine molto simili, per non dire identiche, quindi il primo consiglio che ti dò è di andare a verificare la presenza di pagine "inutili" sul tuo sito ed eliminarle. Per inutili intendo anche pagine di scarso valore che non stanno generando performance.
Come identificare e rimuovere pagine di scarso valore
Ecco la procedura dettagliata che utilizzo con i miei clienti per identificare e rimuovere le pagine con scarso rendimento:
1. Stima il numero di pagine che dovresti avere
Stima il numero di prodotti reali, il numero di categorie, i post del blog e pagine di supporto e accorpali. Fai lavorare Google con il comando site:
site:www.gaetanoromeo.it
A livello spannometrico dovresti aver più o meno lo stesso numero di pagine indicizzate che avevi contato nell'operazione precedente, se risulta un numero troppo elevato di pagine indicizzate intervieni analizzando quali potrebbero essere quelle pagine sfuggite al tuo occhio e che in realtà non dovrebbero essere indicizzate.
2. Decidi cosa tenere e cosa rimuovere
Per anni, ti è stato detto che l'aggiunta di nuovi contenuti sul tuo sito aumenta il traffico e migliora la SEO. Dovresti fare attività di blogging almeno una volta alla settimana, giusto?
Beh forse.
In realtà se un post sul blog è presente sul tuo sito Web da anni ma non produce performance in termini di visite, quel vecchio contenuto potrebbe danneggiare il tuo posizionamento in realtà. Di recente, abbiamo eliminato il 90% dei post del blog di un cliente. Perché? Perché non stavano generando nessun traffico. Fatto ciò, il sito ha iniziato a posizionarsi in maniera migliore.
Morale della favola: se nessuno visita un URL del tuo sito e il contenuto di quella pagina non aggiunge valore, non è necessario che ci sia!
3. Revisionare e rinnovare le pagine necessarie con poco traffico. Content curation
Se un URL ha contenuti di valore che vuoi che le persone vedano, ma non riceve traffico, è tempo di intervenire con azioni di content curation.
Cosa potresti fare per migliorarne il posizionamento? Per esempio potresti consolidare le pagine intervenendo sui contenuti e rendendoli più attuali, potresti ottimizzare meglio il contenuto attraverso l'utilizzo strategico e mirato dei link interni e potresti cambiare la navigazione per veicolare il traffico verso la pagina che ti interessa.
Inoltre, assicurati che tutte le tue pagine statiche abbiano contenuti solidi e unici. Quando Google vede migliaia di pagine sul tuo sito con contenuti identici o simili, può ridurre il tuo punteggio di pertinenza.
4. Assicurati che le pagine dei risultati di ricerca non vengano indicizzate
Non tutte le pagine del tuo sito devono essere indicizzate. L'esempio principale di quanto affermato sono le pagine dei risultati di ricerca (pensa ai filtri del motore di ricerca interno di un e-commerce). Questo ahimè è un problema comune.
Controlla il log dei File
L'utilizzo dell'analisi dei file di log SEO è una soluzione piuttosto importante per migliorare la parte tecnica del tuo sito lato SEO.
I log sono gli unici dati accurati al 100% per capire veramente come i motori di ricerca stanno eseguendo la scansione del tuo sito web. L'analisi dei log ti aiuta a capire come posizionarti più in alto, per ottenere più traffico, conversioni e vendite. Ma prima di approfondire i suoi benefici, comprendiamo quali sono le analisi che si possono fare.
Che cos'è un log file?
Un file di log del server Web è un output di file creato da un server Web contenente "hit" o record di tutte le richieste ricevute dal server.
I dati ricevuti sono archiviati in modo anonimo e includono dettagli quali l'ora e la data in cui è stata effettuata la richiesta, l'indirizzo IP della richiesta, l'URL / il contenuto richiesto e l'agente utente lato browser. Questi file spesso vengono utilizzati per il controllo e la risoluzione dei problemi tecnici del sito, ma possono essere estremamente utili lato SEO.
Sai cosa succede quando qualcuno scrive un URL, come http://www.semrush, in un browser? In poche parole il browser traduce l'URL in 3 parti:
- Protocollo
- Nome del server
- Nome del file
Il nome del server (semrush.com) viene convertito in un indirizzo IP tramite il server dei nomi di dominio. La connessione effettuata tra il browser e il server dedicato consente di raggiungere il file richiesto. Una richiesta Get HTTP viene quindi inviata al server per la pagina giusta che quindi porta a visualizzare la pagina visibile che poi vedrai sullo schermo. Ognuna di queste richieste è quindi considerata un "hit" dal server.
L'aspetto di un file di log può dipendere dal tipo di server e configurazioni utilizzate (Apache, IIS, ecc.). Ma ci sono attributi integrati che puoi trovare spesso:
- IP del server
- User-agent
- Timestamp (data e ora)
- Codice di stato HTTP
- Metodo (GET / POST)
- URL richiesta (alias: URL radice + query URL)
E poi, altri attributi possono essere aggiunti, come:
- Nome host
- Byte scaricati
- Tempo preso
- Richiesta / Client IP
Log del file per la SEO
L'analisi dei log consente di comprendere esattamente come i motori di ricerca stanno eseguendo la scansione del tuo sito Web mentre vengono salvate tutte le richieste effettuate sul server del tuo hosting. Devi solo filtrare lo user-agent e l'IP del client per accedere ai dettagli della scansione. È quindi possibile analizzare il comportamento dei crawler sul proprio sito Web e individuare i seguenti punti:
- Il budget crawl per la ricerca e per indicizzazione è stato speso in modo efficiente?
- Quali errori di accessibilità sono stati riscontrati durante la scansione?
- Dove sono le aree di carenza lato crawl?
Queste 3 domande rappresentano solo una rapida panoramica del potenziale dell'analisi del log. L'analisi del log può anche aiutare a determinare se l' architettura del tuo sito è ottimizzata, se hai problemi di prestazioni del sito, e altri fattori molto importanti per Google.
Aggiornamento!
Questa settimana SEMrush ha lasciato una nuovissima funzionalità, Log File Analyzer - uno strumento innovativo che ti permetterà di dare un'occhiata al tuo sito dal punto di vista di un Googlebot.
- Quali errori vengono rilevati durante la scansione?
- Quali sono le pagine più scansionate?
- Il crawl budget è speso in modo efficiente per la ricerca per indicizzazione?
Con Log File Analyzer di SEMrush dai una risposta a tutte queste domande e sai cosa succede quando un motore di ricerca esegue la scansione del tuo sito web.
Leggi la notizia completa qui.
Parametri da prendere in considerazione
Volume di scansione del Bot
Il volume di ricerca per indicizzazione Bot si riferisce al numero di richieste fatte da GoogleBot, BingBot, Baidu, Yahoo e Yandex e in generale da tutti i motori di ricerca,per un determinato periodo di tempo. Il volume di ricerca per indicizzazione del Bot può mostrarti se sei stato sottoposto a scansione da un motore di ricerca specifico. Ad esempio, se vuoi essere trovato in Cina, ma Baidu non ti sta prendendo in considerazione, questo è un problema serio.
Scansione del budget crawl
Il budget crawl si riferisce al numero di pagine che un motore di ricerca scansiona ogni volta che visita il tuo sito. Questo budget è collegato all'autorità del dominio e proporzionale al flusso di link equity del sito web.
Il problema è che questo budget potrebbe essere sprecato su pagine non pertinenti o, peggio ancora, di scarso interesse sia per noi che per i fruitori del sito. Supponiamo che tu disponga di un budget di 1000 pagine al giorno, quindi desideri che queste 1000 pagine vengano visualizzate nelle SERP. Se hai nuovi contenuti che desideri indicizzare ma non è rimasto alcun budget, Google non indicizzerà i nuovi contenuti.
Ecco perché devi capire dove spendi il budget per l'indicizzazione delle tue pagine con l'analisi dei log.
Vuoi approfondire l'argomento? Guarda il webinar di SEMrush con Filippo Sogus:
Reindirizzamenti temporanei 302
Questo tipo di reindirizzamento non è il massimo lato SEO, in quanto non passa "link juice" dei link esterni dal vecchio URL al nuovo. Preferisci sempre un reindirizzamento 301 di tipo permanente. L'analisi dei log può aiutarti a individuare questa tiplogia di reindirizzamenti. Giusto dire che sembra che il 302 venga ormai interpretato alla pari di un 301, ma per non sapere né leggere e né scrivere io dove sono sicuro che il reindirizzamento è permanente opto sempre per un 301.
Errori del codice di risposta
L'analisi log può aiutarti a individuare errori nel codice di stato come 4XX e 5XX che possono influire negativamente sulla SEO. Comprendere il diverso codice di stato HTTP può aiutarti a migliorare il livello di percezione di Google nei confronti del tuo sito.
Questi sono soltanto alcuni dei tanti tips che posso darti, ma in realtà ce ne sono ancora molti, ma perché esaurire tutto con oggi?
Quali sono le questioni tecniche lato SEO che vorresti che approfondissi?
Scrivimelo qui sotto nei commenti! Alla prossima :)