Fred Update: l'impatto del nuovo aggiornamento di Google

Google, come è noto, rilascia numerosi e costanti aggiornamenti al proprio algoritmo. Negli ultimi mesi, l'attenzione della comunità SEO e dei webmaster si è focalizzata sull'update denominato Fred. Il nome sembrerebbe da attribuire a un tweet scherzoso di Gary Illyes (uno dei portavoce di Google), il quale incalzato dalle richieste di news ha scritto:

D'ora in poi, se non diversamente dichiarato, ogni aggiornamento verrà chiamato Fred.

Ma andiamo con ordine e vediamo prima cos'è successo. Lo scorso marzo, con alcuni sentori già a febbraio, si è assistito ad oscillazioni anche consistenti nelle SERP di Google. All'inizio all'interno della comunità SEO si era ipotizzato che i cambiamenti e le penalizzazioni fossero da attribuire ai backlink. Dunque a un aggiornamento simile a Penguin e legato alla qualità dei link in ingresso.

Le linee guida di Google condannano la compravendita e in genere l'ottenimento forzato di link al proprio sito web. Così quando si registrano forti scossoni nei risultati di ricerca, è nei profili di backlink che spesso si focalizza l'attenzione iniziale del mondo SEO. I successivi approfondimenti sulle conseguenze di Fred però, hanno fatto spostare il focus sulla qualità dei contenuti.

Si tratterebbe quindi di un update più vicino al noto  Panda. Alcuni analisti SEO hanno ipotizzato che più di un nuovo algoritmo, siamo di fronte a un aggiornamento di Panda stesso. Come sempre in tutti i casi di aggiornamenti dell'algoritmo Google, si possono solo fare supposizioni in base a quanto lasciano trapelare da Mountain View, oltreché attraverso l'analisi concreta di dati e l'andamento dei siti web.

fred-update.jpg

Le caratteristiche di Fred Update

Dunque Fred update più che a Penguin sembrerebbe affine a Panda, l'aggiornamento che influisce sulla qualità dei contenuti. Ma in questo caso cosa si intende per qualità dei contenuti? Fred sembrerebbe aver colpito sopratutto i portali che, sfruttando l'autorità del dominio, hanno prodotto e posizionato contenuti nei più diversi ambiti (siti che potremmo definire "troppo generalisti").

Non è necessariamente l'approccio generalista il problema, ma più il pattern di questi siti: portali sviluppati con l'obiettivo prioritario di attrarre traffico per monetizzare.

Lo scopo dell'aggiornamento Fred e degli altri di questi ultimi mesi, sembrerebbe anche quello di contrastare le notizie false, ingannevoli o poco accurate presenti sul web. Pagine create con lo scopo di diffondere notizie inesatte, allarmanti e discriminatorie. O ancora notizie diffuse con il solo scopo di portare beneficio a specifiche persone o organizzazioni. Ciò in linea con il contrasto alle fake news che sta riguardando in generale il mondo dei media (si veda ad esempio Facebook).

Vediamo alcune delle caratteristiche dei siti web colpiti da Fred:

  • Contenuto di scarsa qualità, copiato da altre fonti, o non in grado di soddisfare i bisogni degli utenti.
  • Siti sovra-ottimizzati lato SEO.
  • Parametri di visita non ottimali, che denotano il basso livello dei contenuti (frequenza di rimbalzo elevata, tempo di permanenze dei visitatori nelle pagine basso).
  • Presenza nelle pagine web di pubblicità troppo invasiva, che sovrasta il vero contenuto.
  • Violazione delle linee guide di Google (aggiornate proprio lo scorso marzo).

Le "vittime" illustri di Fred

I siti che hanno registrato anche evidenti perdite di traffico sono numerosi. Molti di questi presentano alcune delle caratteristiche descritte. Si tratta di siti che producono una grande quantità di contenuti, ma in alcuni casi più per attrarre traffico (e monetizzare), che per offrire qualcosa di realmente utile e originale agli utenti.

Come spesso accade nei momenti di grandi oscillazioni in SERPsi registrano pure situazioni di difficile interpretazione. Ci si riferisce a siti con contenuti scadenti che sembrerebbero essere premiati e altri invece di maggiore qualità che perdono terreno. Ciò può dipendere da ulteriori fattori, oppure da assestamenti nei risultati, quando non anche da "falsi positivi" (nemmeno Google è perfetto).

Tornando alle "vittime" di Fred, vediamo alcuni siti di news piuttosto noti che hanno registrato cali nei volumi di traffico (anche molto corposi):

  • Notizie.it
  • Forexinfo.it
  • Ilsussidiario.net
  • Blastingnews.com
  • Aranzulla.it

Anche il sito di Salvatore Aranzulla ha registrato importanti cali nel traffico acquisito (Aranzulla ha però dichiarato, che nel suo caso i cali di traffico sono da imputare al passaggio da HTTP a HTTPS). Si tratta solo di alcuni dei portali colpiti dagli ultimi aggiornamenti di Google. Molti di questi, come è evidente, sono siti dall'informazione generalista, che pubblicano annualmente una gran mole di contenuti di diverso tipo.

Che fare per non essere colpiti da Fred

In base ai dati e alle supposizioni più accreditate, vediamo alcune best practices da adottare per evitare di incappare in penalizzazioni, o comunque in perdita di traffico per via dell'update Fred.

  • Le nuove linee guide di Google, e in generale la tendenza nei nuovi media, è quella di contrastare le cosiddette fake news. Dunque se si gestisce un portale di informazione, verificare sempre le fonti e cercare di offrire contenuti il più possibile esatti, approfonditi e utili agli utenti. Evitare assolutamente le notizie non verificate, allarmistiche o prodotte solo per attirare visitatori.
  • Non esagerare nello spazio dedicato all'interno delle pagine web a banner o spazi pubblicitari. Questi inoltre devono essere chiaramente distinguibili dal contenuto principale.
  • Alcuni dei siti colpiti da Fred sono, come abbiamo visto, portali che trattano i più diversi argomenti. A riguardo potrebbe risultare più utile costruire la propria autorevolezza sul web, concentrandosi sullo sviluppo di un argomento più ristretto. Dunque su un focus meno dispersivo, in modo da costruirsi una propria solida credibilità nella nicchia prescelta.
  • Evitare la sovra-ottimizzazione lato SEO delle pagine web. La ripetizione ossessiva o comunque innaturale delle parole chiave fa parte ormai da tempo della SEO del passato. Occorre però ribadirlo, in quanto ancora oggi diversi webmaster continuano a seguire il medesimo approccio.
  • Concentrarsi sulle esigenze degli utenti, ciò sia dal punto di vista dei contenuti, che da quello generale della navigabilità sulle pagine web. Quindi cercare di sviluppare contenuti pensati per rispondere a esigenze specifiche degli utenti. Curare poi la velocità di caricamento delle pagine web, oltre che la relativa user experience.

Conclusioni

Ogni volta che vengono rilasciati uno o più aggiornamenti dell'algoritmo Google è sempre difficile mettere insieme tutti i pezzi. In generale però l'attivismo della comunità SEO consente comunque di ricostruirne almeno un pattern principale. In questo caso, a detta della stragrande maggioranza degli analisti SEO, i link non sarebbero i responsabili degli scossoni in SERP, che andrebbero invece imputati alle considerazioni sui contenuti già viste.

In generale è stato notato come siti magari più piccoli, hanno registrato miglioramenti nel proprio ranking Google. Si tratta di siti web che trattano argomenti più ristretti e specifici. Che hanno cioè un focus più di nicchia. Tali siti verticalizzati si sono presi una piccola "rivincita" sui grossi portali generalisti.

Pur non trattandosi certamente di un sito piccolo in termini di traffico e keywords posizionate, un esempio di tale ragionamento lo si trova in fanpage.it. Il sito Fanpage ha organizzato i suoi contenuti in domini di terzo livello tematici per ogni argomento (gossip, cucina, cinema, ecc.). Tali sottodomini hanno registrato un'importante crescita nei volumi di ricerca, in seguito agli ultimi aggiornamenti nell'algoritmo Google.

Ciò farebbe pensare che al momento Google sta agendo per costruire SERP dal search intent più preciso e marcato. Risultati di ricerca che cercano di rispondere alle domande degli utenti con contenuti meno ampi e generici, ma più specifici e in target. Ciò sarebbe un'ottima notizia per tutti gli esperti di settore, che tentano di costruire la propria autorevolezza su un argomento specifico e ben approfondito.

L'ultimo consiglio è quello di preferire la qualità alla quantità, puntando su documentazione e approfondimento accurato degli argomenti che andremo a sviluppare nei nostri contenuti.

Hai notato qualche oscillazione in SERP negli ultimi mesi che si potrebbe imputare a Fred?

Puoi verificarlo usando SEMrush e controllando l'andamento del traffico organico di qualsiasi dominio in un range temporale determinato. 

Fammi sapere cosa ne pensi di questo nuovo aggiornamento di Google nei commenti.

Author Photo
Francesco BellomiaConsulente SEO e Copywriter. Ho collaborato con web agency italiane e svolto attività come freelance. Appassionato di scrittura per il web, in particolare in ambito SEO e search marketing. Tennis e serie TV nel tempo libero.
Subscribe to learn more about Notizie di Settore
By clicking “Subscribe” you agree to Semrush Privacy Policy and consent to Semrush using your contact data for newsletter purposes
More about Notizie di Settore
Penguin 4.0: ecco da dove possono arrivare le PenalizzazioniVenerdì scorso Google ha annunciato ufficialmente un nuovo importante update di Penguin, che ora fa parte del Google core ranking algorithm. Quali sono le novità di Penguin 4.0? A cosa stare attenti ora? Insieme vediamo come affrontare questo aggiornamento e quali tool ti aiuteranno a non incorrere in penalizzazioni. Scopriamo anche il File Disavow per l‘esclusione dei link e come compilarlo correttamente.