Trust, rating, flow, authority: tutti gli eredi del PageRank
In principio era il PageRank. Poi Matt Cutts chiarì, una volta per tutte, che tale metrica, relazionata in gran parte alla presenza di backlink o link in ingresso, non è poi così importante. O meglio, non dovrebbe essere MAI il tuo obiettivo finale.
Aggiornamenti sul Google PageRank: le parole di Matt Cutts
Pagerank: chi era costui?
Ma permettimi di fare un piccolo passo indietro e provare a spiegarti cos’è il PageRank.
Quando un utente effettua una ricerca su Google, affinché il motore di ricerca sia in grado di mostrare risultati pertinenti, è necessario ordinare opportunamente le pagine indicizzate. Per farlo serve un buon algoritmo capace di valutare la qualità e la pertinenza dei risultati di ricerca.
Dopotutto, Google non è nient’altro che una macchinae non può in nessun modo leggere e interpretare – come potrebbe fare un umano (per il momento quantomeno) – testi, immagini e altre tipologie di contenuti multimediali.
Per questo motivo, i motori di ricerca si servono di algoritmi più o meno raffinati e intelligenti per “leggere”, interpretare e, di conseguenza, ordinare nel modo più opportuno i risultati della query di ricerca.
La quantità – ma in particolar modo la qualità – dei link in entrata è tuttora uno dei parametri cardine di tali algoritmi.
In altri termini, se un sito è sufficientemente popolare e riceve molti link in entrata molto probabilmente i suoi contenuti saranno premiati con un buon posizionamento nella SERP.
Obiettivo del PageRank, quindi, è determinare, in modo oggettivo e mediante un valore numerico compreso tra 0 e 10, la popolarità del sito in questione.
Tuttavia, questo valore non viene aggiornato da diverso tempo e, allo stato attuale, è un concetto ormai superato a discapito di altri parametri. Il principio alla base dei nuovi algoritmi è molto semplice e allo stesso tempo complesso e articolato: parliamo di ‘fiducia’.
Trustrank: la fiducia prima di tutto
Come certamente saprai, Google Panda penalizza fortemente i siti di bassa qualità, così come i contenuti duplicati e le pagine sovra-ottimizzate.
Gli algoritmi che si basano sul TrustRank, a differenza di quelli che determinavano il PageRank, mirano per l’appunto a contrastare lo spam e i siti di scarsa utilità per gli utenti.
Un algoritmo di questo tipo è detto di apprendimento automatico, poiché sfrutta l’intervento umano per classificare opportunamente un corpus di dati.
In altri termini, l’utente umano (tipicamente un quality rater) esamina i siti e rivela alla macchina quali di essi sono considerati spam e quali no. Dopo un certo numero di classificazioni, l’algoritmo potrà iniziare a lavorare autonomamente basandosi sulle informazioni impartite dall’umano, alla ricerca di pattern utili alla catalogazione.
Un altro concetto molto importante per comprendere l’algoritmo di TrustRank (e apprezzarne l’efficacia, rispetto al Pagerank) è la ‘vicinanza’: i siti spam, di frequente, sono ‘vicini’, ovvero collegati tra loro tramite link.
Un sito di buona qualità e molto popolare, infatti, non avrà alcuna necessità di comparire all’interno di una directory spam o di un sito di comunicati stampa di bassa qualità.
Per questo motivo, dovresti sempre prestare molta attenzione non soltanto ai link in uscita, ma anche ai link in entrata.
La Negative SEO, difatti, mira alla penalizzazione dei competitors tramite tecniche Black Hat SEO, tra cui proprio una link building estrema e molto rischiosa.
Ti starai probabilmente chiedendo a questo punto come evitare la ‘vicinanza’ ai siti spam, ovvero come misurare la bontà di un sito (o di un dominio) per poi eliminare opportunamente i link spam (o quantomeno relegarli nell’abisso del nofollow).
Prosegui nella lettura e lo scopriremo insieme!
Ma prima, una doverosa premessa: per poter utilizzare i tool che esaminerò qui brevemente, non è indispensabile attivare un abbonamento. Le funzionalità di base, sebbene con determinate limitazioni, sono disponibili generalmente anche per gli account freeware o demo.
Oltre il Pagerank: MOZ e lo Spam Score
Moz ha ideato due indicatori molto potenti e largamente utilizzati per valutare il grado di autorevolezza di un sito. Si tratta del Domain Authority e del Page Authority.
Il primo valuta il dominio, mentre il secondo si focalizza sulla pagina in questione, in altri termini sull’URL digitata nel campo di ricerca.
Entrambi i valori (un valore numerico compreso tra 0 e 100) effettuano una stima del posizionamento all’interno della SERP, per quanto riguarda il dominio o la specifica URL.
Vorrei però attirare la tua attenzione su un altro parametro, a mio avviso piuttosto importante, lo spam score: si tratta di un indice che valuta la probabilità che il sito web in questione possa ricevere una penalizzazione a causa dello spam.
In un interessante articolo viene spiegata nel dettaglio la nuova metrica e soprattutto i 17 fattori (o flag) utilizzati per determinare l’indice di spam.
Un sito web che presenta, ad esempio, fra i 3 e i 4 flag avrà una probabilità compresa tra 4.2 e 7.5% di incorrere in una penalizzazione. Un sito web che presenterà invece ben 10 flag avrà un rischio penalizzazione pari al 77.3%.
Ma quali sono, nel dettaglio, questi flag? A ragion veduta MOZ ha deciso di includere una serie di fattori on page, quali ad esempio la lunghezza del nome di dominio, il numero di pagine che costituiscono il sito web, la presenza o meno di informazioni di contatto, oltre a fattori strettamente legati all’utilizzo dei link (fattori off page).
Majestic: parola d’ordine qualità
Majestic utilizza due indici che mirano a valutare la qualità del profilo di backlink: il Trust Flow e il Citation Flow (entrambi compresi tra 0 e 100) misurano, rispettivamente, la qualità e l’affidabilità dei siti che presentano un link verso il sito in questione e la quantità di tali link e citazioni.
Per comprendere meglio se il tuo sito ha un buon profilo di backlink, è utile dividere il Trust Flow per il Citation Flow. Quanto più il numero ottenuto sarà vicino ad 1 tanto più i link in entrata saranno di buona qualità e provenienti da siti di qualità ed autorevoli.
Vale la pena anche di esaminare i grafici che mostrano il rapporto tra Trust e Citation Flow.
Qui, ogni puntino rappresenta un backlink.
Immaginando di dividere l’area compresa tra ascissa e ordinata in quattro quadranti, ti puoi facilmente rendere conto che quello in alto a destra sarà il più redditizio dal punto di vista di una linkbuilding di qualità.
Il quadrante in basso a destra sarà invece il più sfavorevole, con link provenienti da siti che presentano un basso Trust Flow e un alto Citation Flow.
Quantità senza qualità.
Ahrefs e le nuove metriche del Rating
Ahrefs, in maniera similare aMOZ, adopera due metriche, URL Rating e Domain Rating, che valutano rispettivamente la qualità della pagina (o URL) e dell’intero dominio.
Altrettanto utile è l’analisi delle tipologie di link, in particolare per quanto riguarda i link dofollow e nofollow.
Un sito che, per esempio, abbia un profilo di backlink costituito da un’elevatissima percentuale di link dofollow potrebbe essere a rischio penalizzazione o quantomeno attirare pericolosamente le attenzioni di Google su di sé.
I link, infatti, come chiarito più volte da Matt Cutts, dovrebbe essere naturali, presentare anchor text differenziati (NO ad anchor secche e sempre uguali) ed essere, in certa misura, nofollow (dovuti, per esempio, alla pubblicazione di comunicati stampa o banner pubblicitari o all’attività di blog commenting).
SEMrush: analizza i tuoi competitor
Arrivati fino a questo punto, superato il concetto di Pagerank, avrai certamente compreso l’importanza di una link building di qualità – per migliorare il posizionamento del tuo sito e, dunque, il fatturato! – ed è qui che SEMrush può aiutarti in questo arduo compito.
Puoi per esempio fare un’attenta valutazione delle anchor utilizzate per i tuoi link, oppure esaminarne la provenienza, o ancora effettuare un confronto di backlink, per individuare punti di forza e debolezza dei tuoi competitors diretti.
Fin qui abbiamo parlato esclusivamente di link building, ma la valutazione di un dominio può esserti utile in altre occasioni, per esempio se hai intenzione di acquistare un sito, oppure se temi di essere stato vittima di Negative SEO e hai quindi bisogno di effettuare il disavow dei link malevoli.
Cos’è la SEO e come fare una ottimizzazione di successo?
SEO è quell’insieme di operazioni online per aumentare la visibilità di un sito. Scegliendo i migliori strumenti SEO per avere una ottimizzazione dei contenuti, social e indicizzazione di successo bisogna:
- Fare un’analisi SEO del sito
- Migliorare vecchi post, sia per desktop che mobile
- Ottimizzare contenuti e immagini
- Lavorare alle meta html, titoli, cache e meta tag
- Gestire SEO anche per siti multilingua
- Ottimizzare per la Local SEO
- Lavorare sulla semantica
E tu quali tool e strumenti online o desktop utilizzi per sopperire alla perdita del PageRank?
Quale metrica ritieni più utile?
Foto ( pagerank): Shutterstock