logo-small
Funzionalità Prezzi
Notizie 0
Ultime notizie Visualizza tutti

Momentaneamente non disponibili. Torna in un secondo momento.

Visualizza tutti
Webinar 0
Prossimi webinar Visualizza tutti
Prossimi webinar

Spiacenti, non abbiamo trovato prossimi webinar previsti.

Vedi webinar registrati
Blog 0
Post recenti Visualizza tutti

Momentaneamente non disponibili. Torna in un secondo momento.

Visualizza tutti
Julia Olennikova

Visual SEO Studio tool: Introduzione alla SEO tecnica

Julia Olennikova
Visual SEO Studio tool: Introduzione alla SEO tecnica

Cos’è la SEO tecnica e perché è importante saperla fare?

Durante il suo webinar per SEMrush, Federico Sasso, creatore di “Visual SEO Studio”, strumento per il Technical SEO Auditing, ci ha mostrato come vedere il nostro sito con gli occhi di un bot di Google, e i 6 principali passi del processo di Technical SEO Auditing. 

Relatore: Federico Sasso, architetto software divenuto imprenditore, è fondatore della software house aStonish Studio srl. Creatore di 'Visual SEO Studio', strumento per Technical SEO Auditing, divide il proprio tempo tra programmazione, SEO, public speaking e gestione dell'impresa. Quando non lavora potete trovarlo vicino al mare.

Introduzione alla SEO tecnica. Visual SEO Studio nell’analisi SEO 

Partiamo proprio dall’inizio, cioè dalla definizione della SEO. La mia variante potrebbe essere leggermente diversa da quelle che potete trovare in altre fonti.  

Mi piace concepirla come un insieme di azioni il cui scopo è massimizzare il rendimento economico di un sito web, in particolare migliorando qualità e quantità del traffico dai motori di ricerca

È una realtà molto vasta, che richiede molte competenze, ed è il motivo per cui ci sono tanti professionisti che si definiscono “SEO” e che a volte fanno cose leggermente diverse a seconda del settore.  Le varie parti del SEO

Noi oggi parleremo della SEO tecnica, che è solo una parte della SEO, ma sempre più corposa. Sarò assistito da uno strumento desktop di Technical SEO Auditing che si chiama Visual SEO Studio, le cui principali caratteristiche sono: 

  • On-Page / On-Site (Off-Site coming soon) 
  • In Beta Gratuita senza limitazioni 
  • Stabile 
  • Base utenti sviluppata (usato in 134 paesi, tradotto in 6 lingue) 
  • Modello Freemium, vi sarà sempre versione gratuita 
  • Oggi solo Windows (presto arriverà anche per Mac) 

Il tool è concepito per: 

  1. Professionisti SEO (Agenzie, Consulenti, In-House) 

  2. Agenzie/Sviluppatori Web e E-Commerce 

  3. Titolari di business, webmasters 

Alla fine vi faremo vedere anche in diretta come si fa l’audit tecnico con questo tool, ma prima ci soffermiamo su alcuni concetti importanti, partendo proprio dai passi essenziali del processo di Audit. 

Cos’è Technical SEO Auditing? 

E’ un’analisi tecnica di un sito web, visto con gli occhi di un motore di ricerca.  

Semplificando possiamo definire i 6 passi del processo, che sono una catena di pre-requisiti: 

  1. Esplorabilità (Crawlability) 
  2. Indicizzabilità 
  3. Posizionamento 
  4. Click-Through Rate 
  5. Tasso di rimbalzo (in parte) 
  6. Tasso di conversione (in parte) 

Ci soffermeremo oggi sui primi due passi, anche perché è importante capire che senza un elemento precedente di questa catena l’elemento successivo non esiste. 

Esplorabilità (Crawlability): 

Questo fattore viene regolato da REP (Robot Exclusion Protocol), è un insieme di regole che dettano il comportamento dei search bot, chiamati anche spider. Le risorse richieste per gli spider sono: 

  • Il file robots.txt, un file in testo dedicato agli spider, che gli dice cosa gli è concesso e soprattutto cosa non gli è concesso visitare. Se lo spider è bene educato, obbedisce a queste regole; 

  • Meta tag dedicati ai robots, che possono essere sia generici per tutti i bot che specifici. L’esplorabilità è dettata da due valori: “follow” e “nofollow”. Se io, che sono un bot, sono riuscito ad arrivare in una pagina e non sono stato bloccato dal robots.txt, visualizzo la pagina e trovo dei link. Questi valori mi fanno capire se devo seguirli o no; 

  • Le stesse direttive “follow” e “nofollow” possono essere trovate anche nell’header HTTP; 

  • rel=”nofollow”, un attributo che potete trovare nel tag <a href>. Vuol dire che il bot non è autorizzato a seguire quel particolare link in quella particolare pagina. 

Visual SEO Studio fa di tutto per essere somigliante al più possibile ai motori di ricerca veri, ma ci sono delle differenze importanti per chi fa SEO tecnica: 

Comunque il crawling del tool è una buona approssimazione del comportamento di un motore di ricerca generico. 

Ottimizzazione crawl path 

Uno dei punti di forza di Visual SEO Studio è l’ottimizzazione dei percorsi di esplorazione (crawl path). Consente di vedere immediatamente sia crawl path che la profondità dei link. Per esempio, vediamo che questa pagina “Tour del prodotto” è stata esplorata in base a un link presente nell’altra pagina, il cui link è stato trovato nella Home Page: 

Esplorabilità e Tour del prodotto

Qui vedo tutte le proprietà di una singola pagina scaricata, raggruppate per categorie. Alcune delle caratteristiche che ci interessano in quella lista sono Index e Follow (in fondo), che sono praticamente un aggregato di tutte le informazioni raccolte:  
Esplorabilità e liste Index e Follow

Ottimizzazione Crawl budget 

Crawl budget è la quantità di risorse che un motore di ricerca può dedicare al nostro sito. Non è una cosa che riguarda siti piccoli, un sito di 500-2000 pagine non ha problemi di Crawl budget. Però per siti particolarmente corposi, come un e-commerce che ha un milione di URL, può essere un problema tangibile. 

Quando serve allora pensare al concetto di Crawl budget? 

Facciamo una calcolo per un e-commerce di 50 mila pagine (non sono veramente tante per un sito di questo tipo):

Ottimizzare il Crawl budget

Come possiamo ottimizzare il Crawl budget? 

Possiamo intervenire tramite: 

  • Robots.txt 

  • rel=”nofollow” 

  • Struttura di link 

  • Meta robots 

  • Eliminazione contenuti inutili e duplicazioni 

La velocità di scansione del vostro sito può essere verificata tramite Google Search Console in questo modo (vi consiglio di non salvare le modifiche ma di lasciar decidere a Google quale sia la frequenza migliore): 

Esplorare la velocità di scansione

Indicizzabilità: 

L’indicizzabilità è il secondo elemento della catena, vuol dire semplicemente se il bot che arriva alle mie pagine può o non può salvarle nell’indice. È regolata sempre da Robot Exclusion Protocol, ma c’è da notare che: 

robots.txt non influenza l’indicizzabilità. Sorprendentemente per molti, le risorse bloccate da robots.txt possono essere indicizzate lo stesso, perlomeno per Google; 

I meta tag “robots” o specifici per i bot, così come i valori “index” e “noindex” (e anche le equivalenti in HTTP) influenzano l’indicizzabilità dicendo chiaramente ai bot cosa devono e cosa non devono fare; 

- In parte lo fa anche il tag Canonical link; 

- Infine, un aspetto importante che molto spesso non viene considerato, è che il motore di ricerca potrebbe decidere di non indicizzare un contenuto. 

Visual SEO Studio in azione 

È ora di scatenare lo spider: vediamo come potete utilizzare questo tool per l’analisi del vostro sito. 

Federico Sasso ci ha mostrato i principi di SEO Tecnica su cui si fonda il tool da lui creato per simulare lo sguardo di un bot di Google. 

Anche tu ottimizzi la tua web in base alle regole della SEO tecnica? 

Raccontaci quali sono gli aspetti che consideri più importanti e come fai per gestirli al meglio. 

foto (Visual SEO): ShutterStock

Content Producer at SEMrush

2000 simboli rimanenti
Have a Suggestion?