Link Cleaning: quando un link tossico è meglio rifiutarlo

Dario Ciracì

nov 15, 20175 min di lettura
Link Cleaning: quando un link tossico è meglio rifiutarlo

La Link Building sta diventando anche in Italia un mercato piuttosto fruttuoso, come testimonia anche l'indagine realizzata lo scorso anno dalla mia agenzia sul mercato della Link Building nel 2017.

Il costo medio di un link col tempo è lievitato e molti publisher stanno adottando questa strategia di vendita affiancandola ad altre anche più regolamentate, come Display Adv e Native Adv.

Detox di link: alcune cifre su Linkbuilding e pagamento per post

Parallelamente all'attività di costruzione di link se ne affianca un'altra opposta: quella che potremmo chiamare "Link Cleaning o Link Detox".

Pensare oggi di creare un business investendo nella visibilità organica, senza però tener traccia costante dei link che giungono sul proprio sito, è poco professionale, oltre che rischioso.

 I link infatti, possono essere tossici e necessitare di analisi e pulizia per diverse ragioni:

  •  l'agenzia che costruisce i link può costruire link di bassa qualità;
  • il nostro sito può essere soggetto ad attività di Negative SEO, causata da competitor;
  • anche i link naturali devono essere controllati, analizzati e rimossi quando possibile.

Quante volte ti è capitato di ricevere un link da aggregatori di contenuti che duplicano un intero tuo articolo compresi anche i link?

I siti in questione nel 99% dei casi sono di bassa qualità e già soggetti a filtri algoritmici, in quanto, spesso, l'intera loro produzione di contenuti è costituita da duplicati.

Quando ci troviamo di fronte a link tossici abbiamo due possibilità:

  1. contattare il webmaster per richiederne la rimozione (soluzione più faticosa);
  2. usare il Disavow Tool di Google, lo strumento per il rifiuto dei link.

Ora, mi è capitato in passato di vedere numerose situazioni in cui veniva usato lo strumento inserendo link anche di qualità, solo per il fatto che, alcuni siti, venivano valutati di bassa qualità.

Lo stesso Google ci mette in allarme sull'utilizzo del Disavow Tool; sostanzialmente dice di usarlo soltanto se si è certi di ciò che si sta facendo. Altrimenti, meglio non usarlo.

Quante aziende hanno visto perdere traffico organico perché rifiutavano buona parte del loro profilo link e quei link erano magari i tasselli che gli stavano garantendo il traffico? Sicuramente tante.

Per capire quando un link è realmente tossico, a mio avviso possiamo utilizzare una scala di livelli di tossicità del link basata su una serie di marcatori di spam che con il tempo ha trovato diffusione e accordo tra la comunità SEO e lo stesso Google.

Livelli di Tossicità di un Link:

Nel primo livello ci faccio solitamente ricadere quei link da siti web che sono nella zona grigia tra l'accettabile e il non accettabile.

Per capirci, possiamo trovarci dinanzi ad un link sospetto in situazioni come le seguenti:

  1. Presenza di link dofollow esterni in siti che normalmente non linkano mai all'esterno.
  2. Presenza di anchor text money non proprio contestualizzate.
  3. Presenza di testi nell'articolo che hanno lunghezza, formattazioni, disposizione dei contenuti differente rispetto a quelli tipici pubblicati sul sito
  4. ecc.

In questi casi si è sempre in bilico sul da farsi. Il sito linkante può infatti essere realmente di buona qualità, avere un buon trust, essere in target, sviluppare traffico e avere buone metriche SEO, al punto da ritenere del tutto sbagliato rimuovere quel link.

Eppure può esserci la possibilità che se un anti-spam fighter di Google finisce su quell'articolo individua un pattern di innaturalezza del link.

Con il secondo livello andiamo più nello specifico e nella più facile individuazione di link tossici.

Un link ha una tossicità evidente quando il link appare "pericoloso" sia agli occhi del webmaster che lo inserisce, sia a quelli di chi lo riceve. Entrambi i soggetti sono infatti consapevoli di realizzare un'azione che Google espressamente vieta nelle sue linee guida.

Un link è più sospetto quando proviene da siti che in 1 articolo su 2 tra quelli pubblicati linkano all'esterno, utilizzando testi commerciali rivolti a specifiche landing page e a nicchie anche del tutto differenti tra loro.

Questa è una pratica che oggi trovo molto diffusa tra le PBN o i dropped domains riattivati senza una precisa strategia editoriale. Il rischio di riattivare un dominio senza sviluppare una tematica (e, dunque, rimanendo, sul generalista) è che il trust acquisito dal dominio è destinato a sperperarsi nel tempo perché il sito in breve si riempie di pagine che linkano quasi sempre all'esterno. Il dominio, dunque, viene a trovarsi con una struttura di link in uscita non controbilanciati e alimentati da nuovi link in entrata.

Questo comporta che, a distanza di tempo, quel dominio perda tutta la spinta iniziale e il trust che possedeva.

Non va però meglio neanche al sito che acquista. Il problema dei siti generalisti è che, non avendo una tematica specifica, anche il trust distribuito dai loro link non è mai conforme alla tematica del sito di destinazione.

Una cosa che ho notato recentemente, a seguito dei Quality Update di Google (di cui ho scritto un caso di recupero di successo qui), è che i siti che non sono stati toccati dall'algoritmo avevano un buon rapporto Trust Flow, Citation Flow, metriche di Majestic SEO. Il Trust Flow è calcolato infatti dalla pertinenza tematica che c'è tra sito linkante e sito linkato (oltre alla qualità del link e, dunque, del PageRank).

Mentre nelle prime due casistiche possiamo sperare nella benevolenza dell'algoritmo Penguin Real-Time o dello stesso staff anti-spam di Google, nel terzo caso ci troviamo dinanzi a situazioni per cui, se non abbiamo i corretti strumenti di analisi e stiamo facendo Link Building senza avere una corretta consapevolezza dei rischi, stiamo letteralmente scavando la tomba al nostro sito e al nostro business.

Quando mi trovo dinanzi a link provenienti da network di siti tra loro collegati mi scatta subito un campanello d'allarme. Evitate come la peste di acquistare link da siti collegati tramite network.

Google è in grado da diversi anni di individuare un network non mascherato (e, spesso, anche quelli mascherati) e di abbattere interi business sulla base delle loro "carte d'identità" tutte riconducibili a una o poche persone.

In rete è possibile ancora trovare tanti case studies in merito, una tra queste che ti consiglio di leggere è quella del gigante William Hill, penalizzato per questo tipo di link nel 2014.

 Un network è facilmente identificabile quando i siti:

  • condividono lo stesso script Google Analytics;
  • condividono le stesse unità Adsense;
  • hanno lo stesso IP o classe C;
  • sono sullo stesso server;
  • hanno lo stesso intestatario del dominio.

Anche quando un algoritmo non riesce a individuare un network ricordati sempre che un essere umano può facilmente farlo. Gli stessi tool che utilizziamo noi SEO li usano anche a Google, e probabilmente i loro sono anche migliori.

  • dominio non indicizzato (il dominio è di così bassa qualità che Google non vuole neanche indicizzare la pagina all'interno della quale è presente il vostro link e, a pensarci bene, è anche meglio!);
  • pagine malevoli;
  • pagine interamente spam;
  • listing di link esterni;
  • pagine off-topic e irrilevanti geograficamente;
  • siti con layout povero;
  • siti con un rapporto non equilibrato tra link in entrata vs link in uscita;
  • ecc.

Un ottimo strumento per tenere sempre traccia della qualità dei propri link e prendere decisioni critiche in fretta è il Backlink Audit di SEMrush che, tra i suoi marcatori di tossicità dei link, contiene buona parte dei pattern conosciuti nell'ambiente SEO.

Link detox: puoi usare Backlink Audit tool per trovare link tossici

Hai visto compromesso qualche progetto importante a causa di pagine malevoli, network di siti o domini di bassa qualità? Come ti sei comportato?

Condividi
Author Photo
Dario è il fondatore dell‘agenzia Webinfermento e autore del blog Webinfermento.it.. Specializzato in SEO, Content Marketing e Link Earning, partecipa come docente e relatore nelle più importanti conferenze italiane di web marketing. Ha curato numerosi progetti di successo nel Content Marketing e ha scritto il libro “Gestisci Blog, Social e SEO con il Content Marketing“, edito da Flaccovio Editore.