Come gestire un Seo Parity Audit

0
473
seo parity audit

Attraverso questo tutorial andiamo a vedere il “Seo Parity Audit” utilizzando Screaming Frog, un’analisi molte volte sottovalutata che però può farci scoprire numerose criticità che ostacolano la corretta indicizzazione organica sul Motore di Ricerca.

Grazie a questa analisi sarai in grado di valutare se esistono delle differenze in cui viene servito il sito web in diversi scenari durante le scorribande del Crawler.

I casi maggiormente interessanti per eseguire il “Seo Parity Audit” sono i seguenti:

  • Sito Mobile vs Sito Desktop.
  • Javascript vs HTML raw.
  • Sito Live Vs sito in Staging (fondamentale durante le migrazioni).

Con l’utilizzo del Seo Spider sarai in grado di isolare eventuali elementi di SEO On-page che variano fra le diverse versioni e che potrebbero impattare il crawling e di conseguenza la fase di indexing e il Ranking assegnato dal Motore di Ricerca.

Tra gli elementi più comuni da considerare in questo processo includiamo:

  • Strutturazione delle pagine;
  • Codice di risposta HTTP;
  • Titolo della pagina;
  • Headings;
  • Canonicals;
  • Hreflangs;
  • Dati Strutturati;
  • etc.

Come eseguire un Javascript Parity Audit

La prima operazione per eseguire un Parity Audit su un sito web che prevede delle risorse JS è quella di configurare la modalità di scansione “Javascript Rendering“.

Config > Spider > JS Rendering
modalità di rendering con JS di Screaming Frog

Attraverso l’abilitazione della scansione Javascript il Seo Spider scansiona e serve sia l’HTML statico che quello renderizzato dopo l’esecuzione del Javascript. Nella Tab di configurazione oltre a scegliere “Javascript rendering” ti consiglio di impostare come “Viewport” l’opzione “Googlebot Mobile Smartphone” visto l’orientamento del Motore di Ricerca verso il “Mobile First Indexing“.

Una volta definita la modalità di scansione dovrai abilitare le risorse da esaminare abilitandole dal menu configurazione Spider > Crawl.
Ricorda che se alcune risorse sono presenti in un sottodominio o in un differente “root domain” devi anche selezionare l’opzione “Check external links” altrimenti il Seo Spider non andrà ad utilizzare quegli elementi nel rendering.

abilitazione risorse in Screaming Frog per scansione sito in Js

Completato anche questo aspetto non ti resta che avviare il crawl; il Seo Spider scansionerà il sito web e ti proporrà il rendering delle pagine utilizzando la modalità “headless Chrome”.

scansione di un sito in JS con il seo spider

Terminata la scansione potrai consultare i 12 filtri a tua disposizione della tab “Javascript” ed iniziare a valutare se esistano delle differenze tra l’HTML raw e quello renderizzato. Utilizzando i filtri sarai in grado di scoprire quali pagine presentano contenuti Javascript, se ci siano differenze nei meta tag, canonicals o altri elementi On-page come titoli, heading o altro che vengono aggiornati solamente dopo l’esecuzione di Javascript.

contenuti in JS analizzati da Screaming Frog

In modo semplice ed intuitivo potrai visualizzare le pagine con contenuti JS e soprattutto quali di questi elementi siano presenti solo dopo la renderizzazione dei contenuti.

contenuti nel sito renderizzato

Una volta riscontrate delle differenze ti basterà consultare la finestra inferiore di Screaming Frog e selezionare la tab “View Source“, scegliere come filtro “Visible content” e visualizzare l’anteprima delle due versioni abilitando l’opzione “view differences“.

differenze fra html e html dopo esecuzione di Javascript

In questo contesto è molto utile il “Parity Audit” per scoprire se ci siano dei links presenti solamente nell’HTLM renderizzato che potrebbero non venire mai scoperti dal Bot del Motore di Ricerca e quindi non indicizzabili e seguibili.

differenze riscontrate prima e dopo esecuzione Js in un sito web

Per scoprire quali links siano presenti solamente dopo l’esecuzione del JS clicca sulla tab “Outlinks” e imposta “Rendered HTML” link come filtro. Per un’analisi più approfondita puoi decidere di esportarli mediante la voce di menu “Bulk Export“.

Bulk export > Javascript > Contains Javascript Links
link presenti solo nella versione renderizzata dopo Javascript

Oltre all’analisi dei links puoi valutare tutta una serie di elementi che variano dopo l’esecuzione dello script JS in base alle tue esigenze di progetto.

Elementi aggiornati tramite esecuzione script Javascript

I filtri messi a disposizione da Screaming Frog sono un supporto imprescindibile per gestire al meglio il tuo Parity Audit:

Contains JavaScript Links : il filtro visualizza le pagine che contengono collegamenti ipertestuali che vengono scoperti nel HTML renderizzato solo dopo l’esecuzione di JavaScript. Questi collegamenti ipertestuali non sono nell’HTML grezzo. E’ buona norma considerare l’inclusione di link importanti lato server nell’HTML statico.
Contains JavaScript Content: mostra tutte le pagine che contengono il testo del corpo solo nell’HTML renderizzato dopo l’esecuzione di JavaScript. Google è in grado di renderizzare le pagine e vedere solo il contenuto lato client, considera di includere il contenuto importante lato server nell’HTML grezzo.
Noindex Only in Original HTML: tutte le pagine che contengono un tag noindex nell’HTML statico ma non nell’HTML renderizzato. Quando Googlebot incontra un tag noindex, salta il rendering e l’esecuzione di JavaScript. Poiché Googlebot salta l’esecuzione di JavaScript, usare JavaScript per rimuovere il ‘noindex’ nell’HTML renderizzato non funzionerà.
Nofollow Only in Original HTML: identifica le pagine che contengono un attributo nofollow nell’HTML statico, e non nell’HTML renderizzato. Questo significa che qualsiasi collegamento ipertestuale nell’HTML grezzo prima dell’esecuzione di JavaScript non sarà seguito. Rimuovi il ‘nofollow’ se i link dovrebbero essere seguiti, scansionati e indicizzati.
Canonical Only in Rendered HTML: restituisce tutte le pagine che contengono un tag canonical solo nell’HTML renderizzato dopo l’esecuzione di JavaScript. Ti consiglio di includere un link canonico nell’HTML statico (o nell’intestazione HTTP) per assicurarti che Google possa vederlo ed evitare di fare affidamento solo sul canonico nell’HTML renderizzato.
Canonical Mismatch:identifica le pagine che contengono un link canonico diverso nell’HTML statico rispetto all’HTML renderizzato dopo l’esecuzione di JavaScript. Questa condizione può causare segnali contrastanti e può portare a comportamenti indesiderati da parte del Motore di Ricerca.
Page Title Only in Rendered HTML: restituisce le pagine che contengono un titolo di pagina solo nell’HTML renderizzato dopo l’esecuzione di JavaScript. Questo significa che un Motore di Ricerca deve renderizzare la pagina per vederli. Considera di includere il contenuto importante lato server nell’HTML grezzo.
Page Title Updated by JavaScript: identifica le pagine che hanno titoli di pagina modificati da JavaScript. Questo significa che il titolo della pagina nell’HTML statico è diverso dal titolo della pagina nell’HTML renderizzato. Considera di includere il contenuto importante lato server nell’HTML statico.
Meta Description Only in Rendered HTML: restituisce le pagine che contengono una meta descrizione solo nell’HTML renderizzato dopo l’esecuzione di JavaScript.
Meta Description Updated by JavaScript: tutte le pagine che hanno meta description che sono modificate da JavaScript. Questo significa che la meta descrizione nell’HTML statico è diversa dalla meta descrizione nell’HTML renderizzato.
H1 Only in Rendered HTML: le pagine che contengono un h1 solo nell’HTML renderizzato dopo l’esecuzione di JavaScript. Questo significa che un Motore di Ricerca deve renderizzare la pagina per considerare l’heading. Considera di includere gli heading lato server nell’HTML statico.
• H1 Updated by JavaScript
: le pagine che hanno h1 modificati da JavaScript. Questo significa che l’h1 nell’HTML grezzo è diverso dall’h1 nell’HTML renderizzato.

Per un approfondimento su come fare una scansione di siti web che contengono contenuti Javascript ti invito a leggere il tutorial: “come scansionare siti in Javascript“.

Come fare un Parity Audit tra siti Mobile e desktop

Il Motore di Ricerca con l’orientamento “Mobile First Indexing” ha definito in modo inequivocabile l’importanza del “mobile” in termini di posizionamento organico e il Parity Audit fra le due versioni Mobile vs Desktop rappresenta un’attività essenziale nella fase di ottimizzazione di un sito web.

Per eseguire il Parity Audit dovrai eseguire tre azioni separate:

  1. Scansione del sito web con lo user agent “GoogleBot per Smartphone”.
  2. Crawl con user agent “GoogleBot” (o altro Bot per versioni desktop).
  3. Utilizzare la modalità di scansione “Compare” per confrontare i due crawl precedenti.

Ricorda che per questo scenario la modalità di archiviazione dei dati di Screaming Frog deve essere impostata su “Storage Mode“.

Scansione con User Agent GoogleBot per Smartphone

Scansiona il tuo sito web utilizzando l’user agent “Googlebot per smartphone”. Se il sito web comprende contenuti o dipendenze JS devi abilitare come modalità di scansione “Javascript Rendering Mode”.

Parity audit per siti mobile

Scansione con User Agent GoogleBot per la versione desktop

Ritorna nelle configurazioni e switcha lo User-Agent su Googlebot o altro desktop user-agent ed avvia la tua seconda scansione con Screaming Frog.

scansione sito desktop con googlebot per smartphone

Confronta le versioni Mobile vs Desktop

Ottenute le due scansioni separate non ti resta che metterle a confronto utilizzando la nuova modalità “Compare“.

parity audit tra mobile e desktop

Ora clicca sull’icona dell’ingranaggio nella parte superiore dello schermo o su “Configuration > Compare”. In questo modo sarai in grado di configurare la funzione Change Detection, che ti permette di identificare se ci siano delle differenze su elementi specifici come i titoli di pagina, meta description, header, numero di parole, collegamenti interni, dati strutturati e molto altro.

Per includere tutti gli elementi di analisi sarà sufficiente abilitare l’opzione “Select All” che trovi in cima alla finestra di configurazione.

detect change di screaming frog

Se il sito web è responsive e serve differenti contenuti fra mobile e desktop ma mantiene gli stessi URL puoi procedere alla scansione di comparazione altrimenti dovrai impostare anche la funzione URL Mapping. Nella stessa finestra di prima clicca sulla tab corrispondente e uniforma i sottodomini attraverso la sintassi RegEX.

parity audit, utilizzo della Url Mapping

Ora non ti resta che cliccare su “ok” e su “Compare” per iniziare il processo di analisi.

Leggi qui per maggiori informazioni sulla URL Mapping e Change Detection di Screaming Frog.

Quando l’analisi sarà completata non ti resta che visionare i dati attraverso la “Change Detection tabs” che trovi nella sidebar laterale del Seo Spider.

parity audit comparazione elementi attraverso la tab change detection

Idealmente i contenuti dovrebbero essere identici ma ci potrebbero essere delle incongruenze fra mobile e desktop e le potrai scoprire dalle schermata principale attraverso i 4 nuovi filtri introdotti con la versione 16.3 di Screaming Frog.

  1. Added: identifica tutti gli URL che sono presenti in entrambe le scansioni ma che presentano degli elementi modificati che vengono inseriti in qualche filtro del crawl “Current”. Ad esempio un URL presentava un “meta_title” nella versione precedente mentre nella versione attuale questo elemento risulta mancante. In questo caso questa indicazione sarà presente nel filtro “Missing” dell’elemento “Meta Title”.
  2. New: comprende tutti i nuovi URL che non erano presenti nella scansione precedente ma sono
    inclusi nella scansione attuale.
  3. Removed: URL presenti in entrambe le scansioni ma con elementi presenti nel filtro della scansione precedente, ma non nel filtro della scansione attuale.
    Riprendendo l’esempio del “Meta Title” precedente, questo filtro identifica tutti gli URL che non
    presentavano il titolo della pagina ed erano inseriti nel filtro “Missing” ma nella scansione attuale
    non sono più presenti nel filtro perché ottimizzati.
  4. Missing: URL presenti nella scansione precedente ma non rilevati nel crawl “Current”

Scrollando in basso nella Tab Change Detection hai a disposizione un “Summary” molto utile che ti permette di avere immediatamente sott’occhio tutti i cambiamenti rilevati.

confronto fra sito mobile e desktop e comparazione elementi seo onpage

Cliccando sui filtri puoi scoprire gli Url interessati dai diversi cambiamenti intercorsi.
Di seguito un esempio di come cambi il “Page title” delle pagine.

change detection dei titoli delle pagine

Qui un esempio di come cambi la profondità di scansione fra le due versioni.

differenti livelli di profondità fra desktop e mobile

Grazie a questi controlli potrai evitare differenze sostanziali fra le versioni che potrebbero inibire o rendere problematico il ranking del sito web.

Parity Audit tra Siti Live Vs Staging

L’ultima ma non meno importante comparazione comprende l’analisi dei siti in staging rispetto a quelli Live. Questo scenario è molto delicato e deve essere sempre preso in grande considerazione durante le fasi di migrazione.

Il processo di Parity Audit segue gli stessi step del confronto Mobile vs Desktop includendo sempre la fase di “URL Mapping” per uniformare gli URL della versione pubblicata e quella ancora in produzione.

comparazione sito live e sito in staging

Per un approfondimento ti consiglio la lettura di “Come confrontare un sito Live e in Staging.”

Come abbiamo avuto modo di vedere le insidie sono sempre dietro l’angolo ma grazie a Screaming Frog possiamo limitare le criticità con dei Seo Parity Audit sempre più avanzati. Buon Lavoro!