SEO SPIDER: COMMANDI BASE

0
177

MENU PRINCIPALE 

Rappresenta il cuore della console e ti permette di gestire le impostazioni più rilevanti che influiranno sul tuo Seo Audit tenico.

FILE

Puoi creare un nuovo progetto, aprire le scansioni precedenti nella modalità “Database Storage”(Crawl) o “Memory Storage” (Open Recent), gestire la pianificazione dei crawl (Scheduling) e  modificare le configurazioni di default delle scansioni creando anche più profili personalizzati pronti all’uso.


MODE 

Ti permette di scegliere quale modalità di scansione utilizzare.

  • Spider: modalità di default per una scansione completa di un sito web.
  • List: ti permette di fare dei crawl specifici da elenchi di URL che puoi caricare manualmente o copiare nel Seo Spider.
  • Compare: rappresenta l’ultima funzionalità aggiunta dagli sviluppatori di Screaming Frog per confrontare due scansioni precedentemente eseguite e analizzare le differenze in termini di URL e filtri (utile per siti in staging vs siti live, desktop vs versione mobile etc.). 
  • Serp: ti permette di ottenere un’anteprima degli snippet attraverso il caricamento di un file .csv o .xls tabulato. 

CONFIGURATION

Questa voce di menu è tra le più importanti del Seo Spider e corrisponde al motore della console mettendo a tua disposizione tutta una serie di personalizzazioni per eseguire Seo Audit Avanzati e collegamenti a servizi esterni come Google Analytics, Search Console, Lightspeed, Moz, Ahrefs. 

  • Spider: attraverso questa opzione puoi gestire il comportamento dello Spider, controllare quali risorse scansionare, limitare le sue scorribande, definire i parametri di alcuni filtri e decidere se fare una scansione dell’HTML statico o includere anche il rendering Javascript.
  • Content: puoi definire l’area in cui il Seo Spider deve esaminare il contenuto, impostare gli indici di tollerabilità per considerare un contenuto come duplicato e scegliere varie opzioni riguardo al vocabolario da utilizzare per il controllo grammaticale e di battitura.
  • Robots.txt: questa opzione ti permette di definire in modo personalizzato il file Robots.txt modificandolo direttamente nel Seo Spider o quale atteggiamento debba tenere lo Spider nei confronti di questo file. In sintesi puoi decidere se il Seo Spider debba seguire le direttive o ignorarle per la scansione.
  • URL Rewriting: ti permette di riscrivere gli URL prima di eseguire la scansione. Molto utile per evitare URL parametrati nei risultati del crawl e per altre best practice avanzate che utilizzano la sintassi RegEX.
  • Include/Exclude: queste funzionalità ti permettono di includere o escludere degli URL dalla scansione impostando delle regole RegEX che puoi personalizzare in base al focus della tua analisi.
  • Speed: ti consente di definire la velocità di scansione dello Spider Tool; molto utile per non sovracaricare il server del sito internet da analizzare.
  • User Agent: come sai Screaming Frog è un emulatore di Spider, con questa opzione puoi scegliere con quale User Agent eseguire la scansione scegliendo tra GoogleBot, GoogleBot per smartphone, Baidu per il mercato orientale, Yandex per mercato Russo, Yahoo/Bing etc. in base al tuo mercato e  focus.
  • HTTP Header: ti permette di configurare alcune opzioni dell’HTTP Header in modo personalizzato.
  • Custom: attraverso questa voce sei in grado di eseguire scansioni di particolari elementi HTML ed estrarli a tuo piacimento per un’analisi molto personalizzata. Molto utile anche per definire la posizione dei Link all’interno del documento Html.
  • Api Access: questa funzionalità ti consente di impostare delle connessioni tramite API con servizi quali Google Analytics, Search Console, Ahrefs, Majestic, PageSpeed Insight e Moz. Utilissime integrazioni per ottenere degli Audit Seo completi con dati granulari.
  • Authentication: permette di scansionare un sito web che richiede un’autenticazione.
  • System: permette di scegliere la modalità di archiviazione dei dati delle scansioni. 

BULK EXPORT

(Esportazioni di massa): le voci incluse in questo menu ti permettono di scaricare quasi tutti i dati più rilevanti delle tue scansioni. 
Questi documenti sono in formato “.csv”, “.xlsx” e “.gsheet”. Di seguito le metriche a tua disposizione:

  • Links;
  • Web;
  • Path Type;
  • Security;
  • Response Code;
  • Content;
  • Images;
  • Canonicals;
  • Directives;
  • AMP;
  • Structured Data;
  • Sitemaps;
  • Custom Search;
  • Custom Extraction;

REPORT 

Questa voce di menu ti permette di trovare tutta una serie di rapporti che mettono a focus i reindirizzamenti, i canonical, le paginazioni del sito web, eventuali contenuti non considerati sicuri, l’individuazione delle pagine orfane, i dati strutturati e molte altre informazioni utili da esportare e gestire durante l’ottimizzazione Seo.


VISUALISATION 

Questa funzionalità ti permette di visualizzare i dati riguardanti gli URL in modo molto intuitivo ed impattante secondo diverse modalità grafiche. Le visualizzazioni sono interattive ed ideali per  concentrarsi sui diversi nodi o cartelle della struttura del sito e garantire un controllo maggiormente specifico e puntuale.


CRAWL ANALISYS 

La crawl analysis è una nuova funzione introdotta da Screaming Frog negli ultimi aggiornamenti del Seo Spider. Attraverso la crawl analysis sei in grado di analizzare, alla fine della scansione, metriche che richiedono un calcolo ulteriore sui dati popolati (es. “Link Metrics”, alcuni aspetti della Sitemap etc.) 

Dal menu puoi avviare la Crawl Analysis e/o configurare su quali elementi applicarla e/o automatizzare alla fine della scansione. 


LICENCE/HELP

Corrispondono alle ultime voci del menu e sono dedicate all’inserimento della licenza di Screaming Frog e ai link per la richiesta di approfondimenti e supporto.

TAB SUPERIORI

Questa sezione comprende tutta una serie di schede che vengono popolate in base ai diversi intenti di analisi. Comprende ad esempio la raccolta degli URL in base al Response Code, alle Meta Description e Title, Direttive etc.

Ogni scheda è stata commentata nelle sezioni successive di questa guida.

FINESTRA SUPERIORE

Corrisponde alla schermata principale del Seo Spider e viene popolata dagli URL scoperti durante la scansione con tutti i dettagli relativi. Ricorda che ogni URL può essere filtrato mediante i “Filtri dei Dati” nelle diverse tab superiori.

TAB INFERIORI

Quest’area rappresenta un approfondimento ai risultati ottenuti nella finestra superiore e viene popolata ogni qualvolta selezioni uno o più URL. dalla stessa. In questa sezione trovi i dettagli riguardo gli Inlinks, gli Outlinks, dettagli sulle immagini e molto altro. Come nel caso precedente ogni singola Tab  è stata documentata nel dettaglio nelle pagine seguenti.

SIDEBAR LATERALE

Quest’area del Seo Spider ti permette una visione preliminare e aggregata molto interessante sulla scansione eseguita. Nella prima scheda trovi una panoramica con dati assoluti e relativi dei singoli elementi scansionati, nella seconda puoi valutare l’architettura del sito in base al “Crawl Depth”, nella terza i tempi di caricamento delle pagine aggregate per intervalli di tempo, nella quarta lo stato di avanzamento della scansione con API a servizi terzi e nell’ultima un riassunto degli errori riscontrati nel contenuto.