L’analisi SEO è una vera e propria fotografia sullo stato di salute di un sito web. Ha lo scopo di identificare le criticità e di consigliare eventuali accorgimenti per migliorare il posizionamento del sito sui motori di ricerca e l’esperienza di navigazione dell’utente. Il frutto di quest’analisi è un documento di valutazione creato ad hoc per il cliente, dove vengono spiegate nel dettaglio le problematiche riscontrate sul sito e fornite le migliori soluzioni tecniche possibili.
È importante chiarire che, per poter realizzare un'analisi SEO professionale, è imprescindibile avere delle competenze avanzate: affidarsi esclusivamente agli strumenti di valutazione automatica non permette di andare a fondo nei problemi!
Per svolgere un’analisi SEO professionale serve tanto lavoro “manuale”, sulle pagine, ma soprattutto sul codice. Quest’attività richiede grande impegno, pazienza, creatività, ma soprattutto passione e un pizzico di curiosità. Tuttavia, un lavoro ben fatto, permette di scoprire nuove informazioni, e di ragionare su aspetti nuovi, mai riscontrati prima… per questo motivo è una delle attività del mio lavoro che mi appassiona di più!
La SEO sta diventando una materia sempre più profonda e complessa, e i controlli che anni fa richiedevano poche ore, attualmente possono tenere impegnati per diversi giorni. Ecco perché avere una scaletta ben definita, con tutti i punti da toccare all’interno di un’analisi SEO è un must. Questa mini guida, però, non intende esaurire tutti gli aspetti che vanno presi in considerazione in un’analisi di questo tipo...
È sempre bene tenere a mente che ogni sito ha la propria storia, le proprie caratteristiche e le proprie necessità!
Quando si dovrebbe svolgere l’analisi di un sito web?
L’analisi di un sito web è un’attività fondamentale per ogni tipologia di piattaforma, che sia un e-commerce o una semplice vetrina. Quando deve essere realizzata? In primis, in vista della realizzazione di un nuovo sito web, ma anche in occasione di una migrazione SEO friendly per verificare che tutto sia stato implementato correttamente, oppure nel caso di un sito carente in termini di ritorno.
Leggi il post Qual è il momento giusto per fare l’audit di un sito web?
Quali sono gli aspetti fondamentali da toccare in una SEO audit?
A mio parere, sono quattro i macro argomenti fondamentali da trattare all'interno di un'analisi SEO o SEO audit: la presenza sul web, l’architettura del sito, i contenuti e l’usabilità.
Approfondiamoli insieme!
1. Presenza sul web
-
Panoramica e indicizzazione delle risorse
Quando realizzo l’audit tecnica di un sito web, per prima cosa mi occupo di verificare le pagine indicizzate dal motore di ricerca, utilizzando il comando site: di Google.
Il site: è anche un modo attraverso il quale è possibile capire velocemente se sono presenti pagine non inserite dal webmaster. Ad esempio, se il sito fosse stato compromesso, ovvero manipolato con contenuti spam (ad esempio prodotti farmaceutici come il viagra ed il cialis), potrei trovare in SERP diversi risultati anomali. Ecco un esempio:
SERP penalizzazioneQuesto comando permette anche di verificare la presenza di ulteriori domini o sottodomini collegati al sito corporate, che potrebbero avere la necessità di essere gestiti. Ad esempio, mi è capitato spesso di trovare domini parzialmente o completamente duplicati nei contenuti. Oppure ancora, di trovare diversi domini di primo livello nazionali (ccTLD, ad esempio www.example.it) oltre alla sottodirectory con dominio di primo livello generico (gTLD, ad esempio www.example.com/it/), e di chiedermi se non fosse meglio uniformare la scelta di posizionamento delle varie localizzazioni geografiche. Ovviamente ritengo che quest’ultima osservazione vada effettuata con cognizione di causa, in funzione degli obiettivi aziendali espressi dal cliente.
-
Analisi dei competitor
Il secondo step riguarda l’analisi del posizionamento in relazione ai competitor. La medesima mi permette di capire i punti di forza e di debolezza del sito e di decidere le azioni da intraprendere durante le future campagne di ottimizzazione. Prima di realizzare un’audit SEO, solitamente, chiedo al cliente di fornirmi una lista di quelli che ritiene suoi principali competitor. Non è detto che questi nomi corrispondano ai reali concorrenti organici trovati all'interno delle SERP, anzi. Per individuare i competitor organici utilizzo le diverse funzionalità di SEMrush, ovvero il classico Analisi Dominio > Ricerca Organica > Competitor e l'analisi GAP.
Un altro aspetto che ritengo parte del capitolo “presenza sul web” è l'analisi del link profile. L’analisi dei backlink all’interno di una SEO audit è molto utile per capire il grado di popolarità e di autorevolezza del sito in questione, ma anche per rilevare eventuali link spam, frutto della strategia malevole di un competitor o di un collega poco ferrato in materia. Gli strumenti che possono essere utilizzati per condurre questa ricerca sono Majestic, Ahrefs e lo stesso SEMrush.
2. Architettura del sito web
Leggi il post Immagini e SEO: come ottimizzare le immagini per Google.
4. Usabilità del sito web
Conclusioni
Per realizzare un'Analisi Seo professionale per un sito web è imprescindibile saper leggere i dati e avere delle conoscenze tecniche orizzontali avanzate. Come già anticipato nella premessa, questa checklist non esaurisce tutti i punti che possono essere presi in considerazione durante l'analisi, ma ritengo sia un buon punto di partenza. Troppo approfondita? Io non credo!
Ricordatevi che, in un mondo così concorrenziale come quello del Web, un'audit ben fatta può portare dei vantaggi strategici non indifferenti!
Fammi sapere cosa ne pensi!
-
Link Profile
-
Alberatura
Per alberatura si intende la struttura gerarchica delle sezioni di un sito che hanno origine nella home page e si snodano nelle relative categorie e sottocategorie. È molto importante perché fa capire ai motori di ricerca come Google quali argomenti vengono trattati da quel determinato sito web e che livello gerarchico presentano. L’ideale sarebbe avere una struttura bilanciata, sia in senso orizzontale che verticale, in modo che l’utente non si trovi disorientato e raggiunga con pochi click tutte le informazioni di cui potrebbe aver bisogno. Per analizzare l’alberatura utilizzo Screaming Frog, un tool che scansiona il sito come farebbe il bot di Google, inoltre navigo il sito manualmente, prestando attenzione a diversi elementi presenti nelle pagine, come ad esempio breadcrumbs e URL. Una volta ricostruita la struttura del sito, la rappresento graficamente e da qui vado ad apportare eventuali miglioramenti. Spesso mi capita di scoprire che la struttura non è distribuita su più livelli gerarchici, o al contrario che il livello di profondità raggiunto sia eccessivo. O, meglio ancora, che l'alberatura potrebbe essere snellita, andando a raggruppare pagine dal contenuto affine e/o duplicato.
-
Struttura URL
Le URL dovrebbero riflettere la struttura del sito nella sua suddivisione in categorie, sottocategorie e prodotti. Se statiche e prive di parametri consentono di rendere immediatamente chiaro l’argomento della pagina. A mio parere un URL breve è preferibile rispetto ad uno di maggiore lunghezza, non tanto nell’ottica di creare un contenuto piacevole agli occhi del motore di ricerca, ma perché penso che un utente troverà molto più semplice copiare, incollare, condividere o embeddare un indirizzo corto. Inoltre, anche se sono consapevole che le keyword inserite all'interno degli URL influiscono minimamente sul ranking, consiglio sempre di ottimizzarle.
-
Menu di navigazione
Il menu di navigazione permette la consultazione delle sezioni più importanti del sito perché è il primo elemento visuale con cui si misura l’utente appena entrato. Per il menu principale, quindi, è meglio scegliere solo le voci davvero importanti, tralasciando quelle secondarie, o addirittura terziarie, che possano distrarre o addirittura sviare l’utente. In caso di siti complessi di grandi dimensioni, potrebbero anche essere valutate delle soluzioni di navigazione alternative, che permettano di ridurre il numero di click che l'utente deve effettuare per raggiungere una pagina in profondità del sito (es. scheda prodotto). Una delle soluzioni favorite in questo caso è quella del MegaMenu in overlay. Qualsiasi sia la scelta effettuata, è chiaro che le lable debbano sempre essere chiare, rappresentative e descrittive del contenuto.
-
Hreflang
Se il sito web, oggetto di analisi SEO, è multilingue necessita di essere segnalato ai motori di ricerca attraverso l'implementazione del markup hreflang. L’hreflang è un attributo che va inserito all’interno del codice di tutte le pagine che presentano una relativa traduzione in lingua. La gestione corretta di questo metatag rappresenta un buon passo verso il posizionamento dell’azienda nei mercati esteri. Come controllare che sia stato implementato correttamente? Attraverso il tasto destro del mouse, cliccando sulla voce “visualizza sorgente pagina”. La corretta dicitura per un sito che presenta la versione in lingua italiana, inglese, francese dovrebbe essere:
<link rel="alternate" hreflang="it" href="https://www.sito.com/it/"/>
<link rel="alternate" hreflang="en" href="https://www.sito.com/en/"/>
<link rel="alternate" hreflang="fr" href="https://www.sito.com/fr/"/> -
Paginazione
Gli elementi link rel="next" e rel="prev" servono per indicare la relazione tra le singole URL di un sito web. Questo tipo di markup, infatti, consente a Google di capire che si vorrebbe ordinare queste pagine in sequenza logica. Questo attributo è fondamentale, soprattutto se ci si trova in presenza di una sequenza di articoli, di eventi, o di pagine di categoria (ovviamente, in mancanza della pagina “view all”). I vantaggi nell’utilizzo della paginazione dei contenuti sono: permettere a Google di indicizzare meglio queste pagine e consentire al motore di ricerca di scegliere la pagina che potrebbe rispondere correttamente alla ricerca dell’utente. Difficilmente viene implementata nel modo giusto dagli sviluppatori.
-
Sitemap XML
La sitemap XML del sito permette ai motori di ricerca di capire meglio la struttura del sito e dare rilevanza alle pagine più importanti, in particolar modo a quelle che per motivi di alberatura sono situate più in profondità. È necessario assicurarsi che questa mappa contenga tutte le pagine principali del sito, che non presenti errori o URL bloccati dall'indicizzazione, che sia costantemente aggiornata e che indichi la priorità delle pagine corretta, al fine di favorire una più veloce indicizzazione e conseguente posizionamento. Per trovarla, generalmente, guardo se è inserita all'interno dei robot.txt, oppure effettuo questo tipo di ricerca:
filetype:xml site:esempio.com inurl:sitemap
Nel caso di siti web complessi prediligo sitemap divise per lingua e raggruppate sotto un indice generale. L'indirizzo viene testato e inviato all'interno della Search Console, ma anche aggiunto al file robots.txt.
-
Robots.txt
Contiene direttive di accesso o restrizione al sito, destinate ai bot dei motori di ricerca (e non solo). Google in generale consiglia di non bloccare alcuna risorsa se non in casi strettamente necessari e molto particolari (esempio: una sezione ancora in fase di sviluppo). Come accedervi? Digitando l’url www.miosito.it/robots.txt. Per un controllo approfondito, che mi permetta di sapere se il file robots.txt impedisce l'accesso dei crawler a URL specifici, utilizzo lo strumento Tester presente nella Search Console.
Leggi il post: Guida rapida alla scrittura di un file Robots.txt. -
Errori 404
Solitamente, quando un utente richiede una pagina che non esiste il relativo server restituisce un errore 404 (non trovato). Quando un bot di ricerca raggiunge una pagina di questo tipo, un'unità del budget per la ricerca per indicizzazione va sprecata. Ecco perché è importante trovare e correggere tutti i link non funzionanti sul sito. Come effettuare un check degli errori di scansione? Se si dispone degli accessi si può usare Search Console (sezione Scansione > Errori di scansione) o il fidato Screaming Frog. Indipendentemente da questo, il mio consiglio è quello di creare sempre una pagina 404 personalizzata, da utilizzare al posto di quella standard, con un messaggio più accattivante e produttivo per l’utente.
-
HTTP & HTTPS
Google ha dichiarato che da luglio 2018 il suo browser Chrome segnalerà come “non sicura” qualsiasi pagina sprovvista di certificato SSL, indipendentemente dal suo contenuto. L’intenzione è quella di rendere HTTPS il nuovo standard per la navigazione sul web. Non tutti i siti si sono ancora adeguati a questo standard, oppure molti non hanno svolto la migrazione correttamente, ed in quest’ultimo caso è fondamentale intervenire tempestivamente con dei redirect 301 puntuali, per evitare il problema della duplicazione dei contenuti.
3. Contenuti del sito web
-
Posizionamento organico del sito
La scelta delle parole chiave, per chi fa posizionamento sui motori di ricerca, è una delle fasi fondamentali che condiziona in modo sostanziale l’esito della promozione e il raggiungimento degli obiettivi prefissati. È fondamentale dare un’occhiata al posizionamento del sito. Le chiavi sono performanti? Rispettano l’intento di ricerca? Questo è importante chiedersi quando si effettua un’analisi approfondita che non si ferma alla mera osservazione del dato offerto dai tool. Ovviamente, per la ricerca di parole chiave mi affido completamente al tool di SEMrush.
-
Contenuto e duplicazione
Assicurati che il testo delle pagine abbia una lunghezza corretta, sia distribuito all’interno dei paragrafi e sia ottimizzato in ottica SEO. Per garantire risultati di qualità presta anche una particolare attenzione alla presenza di contenuto duplicato intra o extra dominio. Se questo succede, il sito e potrebbe essere penalizzato. Ovviamente, in questo caso, il mio consiglio è quello di evitare la canonicalizzazione (tranne casi dove non non sia strettamente necessario, come ad esempio due o più schede prodotto che presentano delle varianti di dimensione o colore), perché ritengo che produrre un contenuto unico, originale e ben ottimizzato per ogni pagina resti la via più sicura ed efficace verso il successo di un sito sito.
-
Intestazioni (headings)
Gli headings (H1, H2, H3, etc.) sono elementi fondamentali per la SEO, atti ad organizzare la struttura di un contenuto testuale. Il tag H1 corrisponde al titolo principale della pagina: la prassi consiglia di inserirne uno solo per ogni pagina, ottimizzato con la parola chiave principale rilevata. Il tag H2, invece, identifica il sottotitolo, mentre i successivi tag (H3, H4, H5, H6) vengono utilizzati per marcare i titoletti di eventuali sottoparagrafi. Attenzione! Spesso questi tag vengono inseriti a caso all'interno della pagina, su elementi che non corrispondono alle titolazioni. Tramite un controllo manuale potrai verificarne la loro correttezza. Leggi il post Scrivi Headings, Title e Meta Tag Description efficaci!
-
Metatag Title e Description
Il tag title è l’elemento on page più importante lato SEO. Si tratta di un tag che permette all’utente di capire, tramite l’interfaccia del browser, cosa sta guardando, ancor prima di vedere la pagina stessa. La sua funzione è fondamentale non solo lato utente, ma anche per i motori di ricerca, poiché il page title influenza il posizionamento. In una SEO Audit occorre accertarsi che i title siano presenti all’interno di ogni pagina del sito, che non siano eccessivamente lunghi, duplicati, o che targettizzino la stessa parola chiave (al fine di prevenire il problema della cannibalizzazione delle keyword). La meta description, invece, non è essenziale per il posizionamento, ma contribuisce alla creazione da parte dei motori di ricerca dell’annuncio visualizzato in SERP. Occorre dunque che venga inserita manualmente, almeno nelle pagine più importanti del sito, e che venga sempre inserita una call to action (cioè un verbo in forma imperativa che inviti il cliente all’azione, ad esempio scopri, visita, acquista, ecc.)
-
Alt delle immagini
Ottimizzare le immagini per il web è estremamente importante: una bella fotografia, ben ottimizzata e compressa, renderà il sito piacevole per gli utenti, ma anche agli occhi dei motori di ricerca. Nella mia analisi controllo sempre che i file siano caricati con una dimensione appropriata in termini di pixel e di Kilobyte, che posseggano un nome il più possibile corrispondente all’immagine e che sia stato inserito l’attributo ALT text corretto. Screaming Frog ci segnala le immagini prive dell’ALT e quelle con dimensioni superiori ai 100 KB, ma per vedere se il codice è stato implementato correttamente eseguo sempre un controllo manuale a random.
-
Link interni
Un altro aspetto che controllo nella mia Audit SEO sono i collegamenti interni. Una buona strategia di linking interna al sito permette di incrementare la rilevanza delle pagine e la profondità raggiunta, sia dagli utenti, che dai motori di ricerca. Il Link Juice, infatti, dipende proprio dalla distribuzione dei link all'interno delle pagine. Il mio suggerimento è sempre quello di valutare una strategia che si basi sulla creazione di link rilevanti per il visitatore e di andare a correggere eventuali link “rotti”, che portano a pagine che non esistono più.
-
Tempi di caricamento
Il tempo di caricamento è un elemento importante sia per il posizionamento sui motori di ricerca, che per l’usabilità del sito. La velocità, infatti ha anche un impatto enorme sulla UX: le pagine più lente hanno frequenze di rimbalzo più elevate e tassi di conversione più bassi. Per verificare se le pagine del sito in analisi superano il test di velocità utilizzo due strumenti: Page Speed Insight e GT Metrix, e consiglio al cliente i miglioramenti necessari, che devono essere implementati dallo sviluppatore. Leggi la Ricerca sulle prestazioni dei siti web | Studio SEMrush 2018.
-
Mobile & Responsive
L’utilizzo di un layout responsive ad oggi si rende necessario, vista la recente introduzione del “Mobile First Indexing”. Il test di Google per i dispositivi mobili include una selezione di criteri di usabilità, come la configurazione del tag viewport, l'uso di plug-in e la dimensione degli elementi selezionabili. Anche qui non mi limito all’utilizzo del tool, ma eseguo un controllo manuale, poiché mi è capitato diverse volte di riscontrare problemi di visualizzazione delle pagine, ad esempio il menù poco funzionante, un uso spropositato di spazi bianchi, testo sovrapposto alle immagini, etc.
-
Microdati JSON-LD
La marcatura con i dati strutturati è un modo per mettere delle etichette ai contenuti al fine di descrivere un tipo specifico di informazioni, come indirizzi, recensioni, prezzi, rating, ecc. L’obiettivo dei microdati è quello di dare la possibilità ai crawler dei motori di ricerca di interpretare in modo univoco il significato del testo. La maggior parte dei siti che mi capita di analizzare non implementa lo script dei dati strutturati, perciò ne consiglio l’inserimento fornendo un esempio allo sviluppatore. Leggi il post: Dati Strutturati: perché non puoi farne a meno.