Il posizionamento organico di un sito web o e-commerce è influenzato da numerosi fattori che si integrano per ottenere un ranking da parte del Motore di Ricerca. Normalmente nelle dichiarazioni ufficiali John Muller e gli altri guru di casa Google sono sempre molto pragmatici ma in questo caso la direzione è ben marcata e la definizione “The Content is the King” non lascia spazio ad interpretazioni e deve necessariamente essere presa con adeguata considerazione.
Quando decidiamo di condurre un audit dei contenuti SEO ci viene in aiuto Screaming Frog che ci permette di creare un vero e proprio inventario delle risorse indicizzabili e decidere quali consolidare, rimuovere o migliorare per aumentare il ranking e la considerazione del Motore di Ricerca.
Attraverso il Seo Spider è possibile fare i raggi X ai contenuti e definire ad esempio contenuti duplicati o troppo simili per evitare cannibalizzazioni, scoprire errori di crawling nel caso di siti con script Javascript o più semplicemente per ridefinire la struttura ed ottimizzarla in ottica di navigazione sia per l’utente che per il Bot. Ma quali sono i controlli che non possono mai mancare in un Seo Content Audit?
I 6 controlli per il Seo Content Audit
L’ottimizzazione periodica in base ai dati della Search Console, le tendenze delle query, problemi tecnici Onpage e altri fattori interni ed esterni possono portare a numerosi cambi di direzione nella struttura di un sito web. Ma ci sono 6 controlli che sempre dovrebbero far parte di un Seo Audit avanzato per permettere che tutti gli sforzi di crescita portino dei risultati adeguati.
1. Controllo dei contenuti in Javascript
Poiché il contenuto web si è evoluto da pagine HTML statiche a grafica interattiva, video e forme più dinamiche, anche i linguaggi di programmazione per supportare tali elementi si sono evoluti. Tra i più potenti e popolari di questi linguaggi c’è JavaScript.
JavaScript è molto versatile e può alimentare molte forme di contenuto coinvolgente ma al contempo, come abbiamo già imparato a conoscere può rappresentare una vera e propria sfida per il SEO.
A differenza dei semplici contenuti web che i crawler dei motori di ricerca come Googlebot possono facilmente scansionare e indicizzare, il problema con i contenuti più avanzati basati su JavaScript è che possono essere difficili e potenzialmente dispendiosi in termini di tempo e risorse da elaborare, soprattutto se un sito si basa sul rendering lato client nel browser rispetto al rendering lato server o al pre-rendering.
Il nostro lavoro da analisti sarà quello di identificare tutti i potenziali errori JavaScript e di risolvere conflitti e criticità nell’ accessibilità per assicurare che il contenuto del sito sia completamente reso e indicizzato.
Per ovviare a problemi di accessibilità è fondamentale essere in grado di esaminare il DOM renderizzato dopo l’esecuzione di JS confrontando la risposta iniziale dell’HTML statico con quello eseguito. Questa operazione è resa semplice da Screaming Frog che ti permette di considerare anche le differenze più sottili fra le due versioni.
Spider > Extraction > "store Html" "store rendered HTML"

Eseguita la scansione, è sufficiente consultare la finestra inferiore del Seo Spider nella scheda “View Source” per un anteprima con le differenze tra l’HTML originale e l’HTML renderizzato fianco a fianco. Grazie a Screaming Frog puoi confrontare le differenze e valutare se i contenuti e i collegamenti critici sono stati effettivamente interpretati nel DOM renderizzato. La casella di controllo Show Differences sopra la finestra dell’HTML originale rende questo processo di confronto ancora più efficiente.

Comprese le eventuali differenze di contenuto fra l’Html statico e JS un altro passaggio da considerare nell’analisi dei contenuti JS risiede negli URL del sito web. Infatti per impostazione predefinita molti framework JS non generano URL unici accessibili singolarmente ma creano cambi dinamici del contenuto che mantenendo lo stesso URL. Lato Seo questo comportamento potrebbe rivelarsi una vera odissea che non permette ai BOT di scansionare adeguatamente tutte le risorse del sito. Anche in questo caso Screaming Frog è un ottimo supporto per comprendere quali URL sono indicizzabili e quali invece non sono a disposizione del Motore di Ricerca.

Con il Seo Spider è semplice comprendere quali URL che dovrebbero essere indicizzati non vengono trovati per colpa del contenuto JS e porvi rimedio. Comunemente gli errori più frequenti riguardano:
- pagine con risorse bloccate;
- pagine che contengono un noindex;
- pagine che contengono un tag nofollow;
- pagine che contengono un link canonico diverso;
- reindirizzamenti gestiti a livello di pagina invece che alla richiesta del server;
- che utilizzano un URL frammento (o hash URL).
Screaming Frog nella “Tab Javascript” comprende 15 filtri che ti permettono di isolare i diversi problemi rendendo semplice l’individuazione di criticità relative all’accessibilità del sito web che impediscono prestazioni ottimali in ottica Seo.
Per comprendere al meglio le dinamiche JS e il comportamento di Screaming Frog ti invito a leggere il seguente l’approfondimento: Screaming Frog: versione 16 – Javascript crawling.
2. Core Web Vitals e Pagespeed
Con l’introduzione dei Core Web Vitals l’attenzione del Bot è stata spostata sulle performance delle pagine in base ai tre parametri LCP, FID e CLS. Nell’analisi dei contenuti questi tre indicatori possono rappresentare il successo o il fallimento di un sito web e devono essere presi in considerazione con assoluta priorità. Se un sito presenta contenuti di valore ma le performance risultano insoddisfacenti si rischia di non essere premiati dal Motore di Ricerca e di non scalare le posizioni in Serp perdendo tutto lo sforzo iniziale nella stesura dei contenuti stessi.

Per approfondire l’argomento ti consiglio la lettura di: Come scansionare i Web Vitals e PageSpeed Details.
3. Contenuti di basso valore
Ritornando a quanto detto in apertura dell’articolo “The content is the King” va messo bene in chiaro che non basta collezionare pagine su pagine di contenuti per aumentare il posizionamento organico ma ogni singolo elemento deve essere curato e rispondere ad un intento di ricerca specifico. Il “Copia e incolla”, le pagine duplicate, le pagine con poco contenuto o ininfluenti non solo non aiutano nella crescita organica ma diventano un insostenibile perdita di Crawling Budget. In molti casi questa condizione è voluta da scelte non razionali o non ben consigliate in altri casi sono i risultati di problemi tecnici del sito come:
- Url generati dinamicamente creati ad esempio dalle Facetted Navigation dei filtri
- Contenuto generato dall’utente (frequente nei forum)
- Collegamenti errati
- Pagine orfane
Attraverso il Seo Spider è possibile isolare i diversi problemi che gonfiano l’indice di Google, rimuovere le risorse non necessarie e ripristinare un corretto equilibrio fra contenuti e Crawling Budget. Evitando le cannibalizzazioni delle query e dando il corretto “search intent” alle diverse pagine il sito web porterà ad avere presumibilmente maggiore frequenza di scansione e un ranking più consono. Queste operazioni si traducono in un attività di “taglie e cuci”, eliminando le risorse meno importanti e riportando ad esempio il contenuto su quella principale per una risorsa completa e fruibile.
Per verificare le cannibalizzazioni puoi utilizzare i dati della “Search Console”, importando i dati in Google data Studio e utilizzando una tabella pivot come filtro puoi isolare le query e controllare a quante pagine fanno riferimento, le performance in base a impression e clicks e decidere la tua strategia.
In questa analisi del contenuto con la Search Console vanno sempre inclusi i sottodomini che molte volte vengono trascurati perché fanno parte di un’altra proprietà e non direttamente consultabili nella console di Google. Il consiglio è quello di creare una “proprietà dominio” in Search Console per ottenere i dati della root completa del sito web.
Un altro controllo per verificare se realmente tutte le risorse del sito sono considerate di valore dal Motore di Ricerca è la comparazione tra la funzione “Copertura” in Search Console e la sitemap del sito web. Se ci sono molte pagine “escluse” presumibilmente attraverso la Sitemap state gonfiando l’indice del Bot e sprecando il Crawling Budget.

Con questa funzione potete controllare nei dettagli dapprima quali siano le pagine considerate valide.

Successivamente controllare la voce “Indexed, not submitted in sitemap” per verificare quali risorse sono state incluse nell’indice ma non erano presenti nella vostra sitemap. in questo modo potete valutare se correttamente devono stare sull’indice e quindi dovrebbero essere integrate nella mappa del sito o devono essere rimosse.
Un ulteriore controllo prevede la considerazione delle pagine “Excluded”. Presumibilmente sono state correttamente escluse dalla Serp ma potrebbero includere anche risorse della Sitemap che per un motivo o l’altro non sono state considerate valide. In questo caso vanno isolate esportando la lista delle “Excluded Pages” e tramite la funzione “controllo URL” dovete chiedere a Google di indicizzarle. Purtroppo questa operazione è fattibile per un massimo di 10 richieste al giorno e va fatta singolarmente per ogni risorsa. Sembra però che il Motore di Ricerca stia introducendo “API Indexing” che permetterà di ovviare a questa problematica con aggiornamenti di massa.
Oltre all’analisi completa della Search Console è necessario verificare con il Seo Spider se ci sono delle risorse che non vengono trovate da Screaming Frog ma risultano indicizzate su Google Analytics e Search Console e creano traffico. Questa operazione è molto semplice grazie all’integrazione delle API del Seo Spider con le console Google e permette di scoprire delle pagine Orfane e decidere se creare dei collegamenti interni o eliminarle definitivamente con un 410 o creare un reindirizzamento.

Per ottimizzare la Sitemap, scoprire le pagine orfane, gli URL non indicizzabili ed altro ti basta abilitare la “Crawl Analysis” ed eseguirla alla fine della scansione.

Per approfondire ti consiglio la lettura di: Come scovare le pagine orfane con Screaming Frog e Utilizzare le API con il Seo Spider.
A questo punto il prossimo passo è quello di verificare i contenuti duplicati e i “quasi duplicati” con Screaming Frog.
Per i contenuti duplicati ti basta consultare la colonna “Hash” della tab “Internal” e controllare che non ci siano dei numeri seriali identici. Per i contenuti quasi duplicati che hanno una soglia di similarità oltre il 90% puoi utilizzare la funzione “Near Duplicates” del Seo Spider.

Anche in questo caso con Screaming Frog hai uno spaccato dei contenuti e puoi decidere quali risorse ampliare, quali rimuovere o unire per soddisfare al meglio un Search Intent.
Approfondimento: Come controllare i contenuti duplicati
Ultimo suggerimento per controllare quali risorse possono gonfiare l’indice di Google ma non hanno valore intrinseco è quello di verificare la condizione del “Link Score”, comunemente le pagine che ricevono pochi collegamenti hanno una rilevanza più assopita e di controllare eventuali backlinks delle pagine attraverso la connessione API ad esempio con Hrefs.
Per scoprire il Link Score ti rimando alla guida: “Come identificare il Link Score“.
4. Identificare le pagine dove perdi traffico
Trovate le inefficienze del sito web è ora di confrontarsi con i dati di Google Analytics e scoprire quali siano le pagine con un tasso di uscita elevato e comprendere, nei limiti del possibile il motivo di questo abbandono. Ti basterà aprire GA e consultare il report “Exit Pages filtrandolo per i dati con più alto tasso.
GA > Behaviour > Site Content > Exit Pages

Questi dati sono ottenibili anche con il collegamento del Seo Spider e le API di Google Analytics impostando nelle configurazioni le metriche (Tab Metrics) relative e prendendo in considerazione un periodo di 6-12 mesi per avere un campione di dati significativo (tab Data Range).

Una volta definite le pagine che fanno scappare il navigatore è consigliabile revisionare i relativi contenuti, ad esempio potresti:
- Migliorare l’UX e leggibilità del contenuto.
- Lavorare sui tempi di caricamento delle pagine coinvolte (puoi confrontare i dati con le API e collegamento a PageSpeed).
- Testare la compatibilità del cross-browser.
- Migliorare i collegamenti interni.
- Evitare popup invadenti o banner promozionali troppo impattanti.
- Introdurre articoli correlati che spingano a rimanere sul sito web.
- etc.
Nel caso in cui tutti questi suggerimenti siano già stati messi in campo e non abbiano migliorato la condizione puoi pensare di inserire una Heatmap per valutare “Live” le scorribande dei navigatori.
5. Sfruttare i contenuti dei Concorrenti
Non sempre è sufficiente ottimizzare il proprio sito onpage in termini tecnici ma bisogna anche sfruttare le lacune dei diretti concorrenti per posizionarsi al meglio nelle Serp. Un’analisi delle query e dei contenuti per cui i competitors sono rankati rappresenta un’azione molto importante per ogni sito web.
Questa attività può essere fatta in modo molto semplice con strumenti come Semrush che ti darà uno spaccato dei contenuti e query per cui un concorrente si è rankato e magari il tuo sito è ancora in seconda fila. Oltre a questo puoi sfruttare Screaming Frog facendo Scraping sul Motore di ricerca per ottenere dati molto interessanti sui concorrenti, query, title ed altro presenti in Serp. Approfondimento: Web Scraping e Custom Search con Screaming Frog.
6. Non esiste solo il traffico Organico
Lo sappiamo tutti che il “Seo non è morto” e il funerale non sembra imminente ma è difficile da accettare che ci siano anche altri canali che portano traffico ad un sito web. Lo so che è una cruda realtà per noi Seo ma purtroppo questa è la realtà dei fatti. A parte gli scherzi quando dobbiamo valutare il contenuto di un sito web on dobbiamo sprecare tutte le risorse sull’ottimizzazione organica ma comprendere anche quali altre risorse portano traffico. Questa osservazione che sembra banale nasconde invece molte insidie. Se durante gli Audit consideri solo l’aspetto organico c’è il rischio di eliminare risorse e pagine che portano traffico, che magari non sono ben posizionate ma attraggono visitatori. Per evitare questo scenario il consiglio è quello di impostare nel collegamento API con Google Analytics il segmento “All Users” e non solamente “Organic Traffic”. Attraverso due scansioni, la prima con “organic Traffic” e poi con “All Users” avrai un quadro complessivo e chiaro della situazione.

Finalmente abbiamo scoperchiato il vaso di Pandora, ci sono ancora molte vie per scoprire il valore di un contenuto e gestirlo ma se seguirà questi 6 punti i tuoi Seo Content Audit ti permetteranno di avere un sito web performante, apprezzato e soprattutto conquisterai posizioni nel ranking del leader Maximo Google!
Autori articolo originale Tory Gray e Tyler Tafelsky. Copyright immagini Screaming Frog. Concessione utilizzo immagini e contenuto secondo accordo tra le parti di settembre 2021.