Abbiamo tradotto questo articolo dall'inglese. Clicca qui per leggere l'articolo originale. Se noti qualche problema con i contenuti, non esitare a contattarci all'indirizzo report-osteam@semrush.com.
Da quando Google ha lanciato la modalità AI, mi sono posto due domande:
- Come possiamo garantire che i nostri contenuti vengano visualizzati nei risultati dell'IA?
- Come possiamo capire cosa funziona quando la ricerca tramite intelligenza artificiale è ancora in gran parte un mistero?
Sebbene online si trovino molti consigli, molti di essi sono, nella migliore delle ipotesi, speculativi. Tutti hanno ipotesi sull'ottimizzazione dell'intelligenza artificiale, ma pochi stanno conducendo esperimenti concreti per vedere cosa funziona.
Un'idea è quella di ottimizzare il fan-out della query . Il fan-out delle query è un processo in cui i sistemi di intelligenza artificiale (in particolare Google AI Mode e la ricerca ChatGPT) prendono la query di ricerca originale e la suddividono in più sottoquery, quindi raccolgono informazioni da varie fonti per creare una risposta completa.
Questa illustrazione descrive perfettamente il processo di distribuzione delle query.

La strategia di ottimizzazione è semplice: identificare le sottoquery relative a un argomento specifico e quindi assicurarsi che la pagina includa contenuti mirati a tali query. Se lo fai, hai maggiori probabilità di essere selezionato nelle risposte dell'IA (almeno in teoria).
Ho quindi deciso di fare un piccolo test per vedere se funziona davvero. Ho selezionato quattro articoli dal nostro blog, li ho fatti aggiornare da un membro del team per rispondere alle domande più frequenti e ho monitorato la visibilità della nostra IA per un mese.
I risultati? Bene, rivelano alcuni spunti interessanti sull'ottimizzazione dell'intelligenza artificiale.
Ecco i punti chiave del nostro esperimento:
Punti chiave
- L'ottimizzazione per le query fan-out aumenta significativamente le citazioni AI: nel nostro piccolo campione di quattro articoli, abbiamo più che raddoppiato le citazioni nei prompt monitorati, passando da due a cinque. Sebbene i numeri assoluti siano piccoli rispetto alle dimensioni del campione, le citazioni erano la metrica principale che intendevamo influenzare e l'aumento è indicativo di un successo.
- Le citazioni dell'IA possono essere imprevedibili: Ho controllato periodicamente durante il mese e, a un certo punto, le nostre citazioni sono arrivate fino a nove, prima di scendere di nuovo a cinque. Ci sono state segnalazioni secondo cui ChatGPT ha ridotto drasticamente le citazioni per marchi ed editori in generale. Dimostra semplicemente quanto velocemente le cose possano cambiare quando ci si affida alle piattaforme di intelligenza artificiale per la visibilità.
- Le menzioni del nostro marchio sono diminuite per le query monitorate, così come quelle di tutti gli altri: Nel complesso, abbiamo notato un minor numero di riferimenti al marchio nelle risposte AI alle query che stavamo monitorando. Ciò ha influito sulla nostra quota di voce, sulla visibilità del marchio e sulle metriche relative alle menzioni totali. Anche altri marchi hanno registrato cali simili. Sembra che questo sia un problema distinto dalle modifiche alle citazioni, ma riguarda più in particolare il modo in cui le piattaforme di intelligenza artificiale hanno gestito le citazioni dei marchi durante il nostro periodo di sperimentazione.
Discuteremo in dettaglio i risultati di questo esperimento più avanti nell'articolo. Innanzitutto, vorrei spiegarti nel dettaglio come abbiamo condotto questo esperimento, così potrai comprendere la nostra metodologia e potenzialmente replicare o migliorare il nostro approccio.
Come abbiamo eseguito l'esperimento di fan-out delle query
Ecco come abbiamo impostato e condotto il nostro esperimento:
- Ho selezionato quattro articoli dal nostro blog
- Per ogni articolo selezionato, ho ricercato da 10 a 20 query fan-out
- Ho collaborato con Tushar Pol, un Senior Content Writer del nostro team, per aiutarmi a eseguire le modifiche ai contenuti per questo esperimento. Ha modificato il contenuto dei nostri articoli per rispondere al maggior numero possibile di domande provenienti dai fan.
- Ho impostato il monitoraggio per le query fan-out in modo da poter misurare la visibilità dell'IA prima e dopo. Per questo ho utilizzato la piattaforma Semrush Enterprise AIO . Eravamo principalmente interessati a vedere come le modifiche ai nostri contenuti avrebbero influito sulla visibilità nella modalità AI di Google, ma le nostre ottimizzazioni avrebbero potuto anche aumentare la visibilità su altre piattaforme come ChatGPT Search come effetto collaterale, quindi ho monitorato le prestazioni anche lì.
Diamo un'occhiata più da vicino a ciascuno di questi passaggi.
1. Selezione degli articoli
Quando ho selezionato gli articoli per questo esperimento avevo in mente criteri specifici.
Innanzitutto, volevo articoli che avessero avuto prestazioni stabili negli ultimi due mesi. Ultimamente il traffico è stato volatile e i test su pagine instabili renderebbero impossibile stabilire se eventuali cambiamenti nelle prestazioni siano dovuti alle nostre modifiche o semplicemente a normali fluttuazioni.
In secondo luogo, ho evitato gli articoli che erano fondamentali per la nostra attività. Dopotutto si trattava di un esperimento. Se qualcosa fosse andato storto, non volevo che la nostra visibilità su argomenti critici ne risentisse negativamente.
Dopo aver esaminato la nostra libreria di contenuti, ho trovato quattro candidati perfetti:
- Una guida su come creare un calendario di marketing
- Una spiegazione su cosa sono i sottodomini e come funzionano
- Una guida completa sulla classificazione delle parole chiave di Google
- Una guida dettagliata su come condurre audit SEO tecnici
2. Ricerca di query di fan-out
Successivamente, ho iniziato a ricercare query di fan-out per ogni articolo.
Al momento non è possibile sapere quali query di fan-out (domande correlate e follow-up) Google utilizzerà quando qualcuno interagisce con la modalità AI, poiché queste vengono generate dinamicamente e possono variare a seconda della ricerca.
Quindi ho dovuto affidarmi a query sintetiche. Si tratta di query generate dall'intelligenza artificiale che si avvicinano a ciò che Google potrebbe generare quando le persone effettuano una ricerca in modalità AI.
Ho deciso di utilizzare due strumenti per generare queste query.
Per prima cosa ho usato Screaming Frog. Lo script analizza il contenuto della pagina, identifica la parola chiave principale a cui si rivolge e quindi esegue la propria versione di query fan-out per suggerire query correlate.

Sfortunatamente, i dati non sono correttamente visibili all'interno di Screaming Frog: tutto è stato stipato in una singola cella. Quindi ho dovuto copiare e incollare l'intero contenuto della cella in un foglio Google separato.

Ora potevo effettivamente vedere i dati.
L'aspetto positivo è che lo script verifica anche se il nostro contenuto risponde già a queste query. Se alcune domande sono già state affrontate, potremmo saltarle. Ma se ci fossero state nuove query, avremmo dovuto aggiungere nuovi contenuti per rispondervi.
Successivamente, ho utilizzato Qforia, uno strumento gratuito creato da Mike King e dal suo team di iPullRank.
Il motivo per cui ho utilizzato un altro strumento è semplice: strumenti diversi spesso presentano query diverse. Ampliando la rete, avrei un elenco più completo di potenziali query di fan-out.
Inoltre, se alcune query sono comuni a entrambi gli strumenti, è un segnale che potrebbe essere importante rispondervi.
Il funzionamento di Qforia è semplice: inserisci la parola chiave principale dell'articolo nel campo specificato, aggiungi una chiave API Gemini, seleziona la modalità di ricerca (Modalità Google AI o Panoramica AI) ed esegui l'analisi. Lo strumento genererà per te query correlate.

Dopo aver eseguito l'analisi per ciascun articolo, ho salvato i risultati nello stesso foglio di calcolo di Google.
3. Aggiornamento degli articoli
Con un foglio di calcolo pieno di query disperse, era giunto il momento di aggiornare effettivamente i nostri articoli. È qui che interviene Tushar.
Le mie istruzioni erano semplici:
Controllare le query di fan-out per ciascun articolo e rispondere a quelle che non erano già state trattate. e erano fattibili da aggiungere. Se alcune domande sembravano andare oltre lo scopo dell'articolo, era possibile saltarle e andare avanti.
Ho anche detto a Tushar che non è sempre necessario riportare le domande alla lettera. Finché stavamo rispondendo alla domanda posta dalla query, la formulazione esatta non aveva molta importanza. L'obiettivo era garantire che i nostri contenuti includessero ciò che i lettori stavano realmente cercando.
A volte, rispondere a una domanda significava apportare piccole modifiche, ad esempio aggiungere una o due frasi al contenuto esistente. Altre volte era necessario creare sezioni completamente nuove.
Ad esempio, una delle domande ricorrenti per il nostro articolo sull'esecuzione di un audit SEO tecnico era: "differenza tra audit SEO tecnico e audit SEO on-page".
Avremmo potuto rispondere a questa domanda in molti modi, ma un'opzione intelligente è stata quella di fare un confronto subito dopo aver definito in cosa consiste un audit SEO tecnico.

A volte non era facile (o addirittura possibile) integrare le query in modo naturale nei contenuti esistenti. In quei casi, abbiamo affrontato la questione creando una nuova sezione FAQ e rispondendo a più domande in quella sezione.
Ecco un esempio:

Nel corso di una settimana abbiamo aggiornato tutti e quattro gli articoli della nostra lista. Questi articoli non sono stati sottoposti al nostro consueto processo di revisione editoriale. Ci siamo mossi velocemente. Ma ciò era intenzionale, dato che si trattava di un esperimento e non di un aggiornamento regolare dei contenuti.
4. Impostazione del monitoraggio
Prima di pubblicare gli aggiornamenti, ho registrato le prestazioni attuali di ciascun articolo per stabilire una base di riferimento per il confronto. In questo modo, saremmo in grado di capire se l'ottimizzazione del fan-out delle query ha effettivamente migliorato la visibilità della nostra IA.
Ho creato un nuovo progetto nello strumento e ho inserito tutte le query a cui eravamo interessati. Lo strumento ha quindi iniziato a misurare la nostra visibilità attuale in Google AI Mode e ChatGPT.

Ecco come si presentavano le prestazioni all'inizio di questo esperimento:
- Citazioni: Misura quante volte le nostre pagine sono state citate nelle risposte dell'IA. Inizialmente, solo due dei nostri quattro articoli venivano citati almeno una volta.
- Menzioni totali: questa metrica mostra il rapporto tra le query in cui il nostro marchio è stato menzionato direttamente nella risposta dell'IA. Il rapporto era 18/33, ovvero su 33 query monitorate, venivamo menzionati in 18 query.
- Share of voice: si tratta di una metrica ponderata che considera sia la posizione del marchio sia la frequenza delle menzioni nelle query AI tracciate. Il nostro punteggio è stato del 23,4%, il che indica che eravamo presenti in alcune risposte ma non in tutte o nelle posizioni principali.
- Visibilità del marchio: ci ha indicato la percentuale di risposte rapide che menzionavano il nostro marchio almeno una volta, indipendentemente dalla posizione.

Ho deciso di aspettare un mese prima di registrare nuovamente le metriche. Poi è arrivato il momento di concludere il nostro esperimento.
I risultati: cosa abbiamo imparato sull'ottimizzazione del fan-out delle query
Onestamente i risultati sono stati un po' contrastanti.
Innanzitutto una buona notizia: il numero totale delle nostre citazioni è aumentato.
I nostri quattro articoli sono passati da due a cinque citazioni, con un aumento del 150%. Ad esempio, una delle modifiche apportate all'articolo tecnico SEO (che abbiamo mostrato in precedenza) è stata utilizzata come fonte nella risposta dell'IA.

Vedere i nostri contenuti citati è esattamente ciò che speravamo, quindi è una vittoria. (Nonostante le dimensioni ridotte del campione.)
È interessante notare che i nostri risultati finali avrebbero potuto essere più impressionanti se avessimo concluso prima il nostro esperimento. A un certo punto siamo arrivati a nove citazioni, ma poi sono diminuite quando ChatGPT ha ridotto significativamente le citazioni per tutti i marchi.
Questo dimostra quanto possano essere imprevedibili le piattaforme di intelligenza artificiale e come fattori completamente al di fuori del tuo controllo possano avere un impatto sulla tua visibilità.
Ma che dire delle altre metriche che abbiamo monitorato?
La nostra quota di voce è scesa dal 23,4% al 20,0%, la visibilità del marchio è scesa dal 13,6% al 10,6% e le menzioni del nostro marchio sono diminuite da 18 a 10.
Secondo i nostri dati, non siamo gli unici ad aver riscontrato un calo nelle metriche dei marchi. Ecco un grafico che mostra come la quota di voce di molti marchi sia diminuita contemporaneamente.

Ciò è accaduto perché le piattaforme di intelligenza artificiale hanno menzionato in generale meno nomi di marchi quando hanno generato risposte alle nostre query monitorate. Si trattava di un problema completamente diverso dalle fluttuazioni delle citazioni di cui parlavo prima.
Considerando i fattori esterni, ritengo che i nostri sforzi di ottimizzazione abbiano avuto risultati migliori di quanto mostrano i dati. Siamo riusciti ad aumentare le nostre multe nonostante le cose che ci sfavorivano.
Quindi, ora la domanda è:
L'ottimizzazione delle query fan-out funziona?
In base a quanto abbiamo appreso dal nostro esperimento, direi di sì, ma con un enorme asterisco.
L'ottimizzazione del fan-out delle query può aiutarti a ottenere più citazioni, il che è prezioso. Ma è difficile ottenere una crescita prevedibile quando la situazione è così volatile. Tenetelo a mente quando ottimizzate per l'intelligenza artificiale.
Se sei interessato a saperne di più sull'intelligenza artificiale SEO, tieni d'occhio i nuovi contenuti che pubblichiamo regolarmente sul nostro blog. Ecco alcuni articoli che dovresti leggere: