COME ESEGUIRE UNA SCANSIONE PROGRAMMATA

0
261

Compresa la potenzialità della funzione “Scheduling” non ti resta che configurarla seguendo alcuni step che vediamo di seguito.

File > Scheduling

  • 1. DEFINIRE LA TASK 

In questa prima fase puoi definire alcuni aspetti generali del crawl:

  • Name: nome descrittivo della scansione.
  • Project Name: nome del progetto in cui inserire la scansione.
  • Description: molto utile per definire testualmente tutte le peculiarità e opzioni che caratterizzeranno il crawl.
  • Date/Time: la data, l’ora della scansione e la sua periodicità (una tantum, giornaliera, settimanale o mensile).
  • 2. DEFINIRE LA CONFIGURAZIONE DEL SEO SPIDER

Nella seconda tab “Start Options” puoi scegliere la modalità di scansione tra “spider” e “list, inserire il “root domain” o sottodominio e definire quale configurazione applicare al crawl, scegliendo tra i vari “Crawl Profiles” (se esistono). 

In questa scheda puoi inoltre integrare attraverso API la scansione con i dati di Google Analytics, Search Console, Moz, Majestic e Ahrefs per una visione maggiormente granulare del progetto.

  • 3. IMPOSTARE IL METODO DI SALVATAGGIO DEL SEO AUDIT

Attraverso la scheda “Export” sei in grado di definire le tabs, i “Bulk Exports” e i rapporti che vuoi esportare. Puoi scegliere di scaricare solamente una specifica scheda (es. “Internal”,“meta description” o “headings”) o combinare più tabs e rapporti selezionandoli dalla finestra a disposizione. I dati saranno serviti di default in formato “.csv” e salvati in locale o in formato “gsheet”. Scegliendo questa seconda opzione troverai i documenti esportati nella cartella “Screaming Frog SEO Spider” di Google Drive (dovrai aver collegato il tuo account Google).

Di seguito un esempio di un documento esportato su Google Drive.

Un’ulteriore opzione molto comoda dello “Scheduling” nelle scansioni periodiche è quella di poter scegliere se, al termine di ogni crawl programmato, sovrascrivere in automatico il documento originario così da conservare solamente l’ultima scansione, oppure creare un “timestamped” che aggiunge un nuovo documento nella cartella e mantiene traccia dello storico dei crawl. 

Nota Bene: utilizzando la modalità di archiviazione “Database Storage” anche la scansione programmata è sempre a tua disposizione per essere riutilizzata in un secondo momento.

File > Crawls

La funzione “Scheduling” lavora in modalità “Headless” (senza interfaccia) per evitare interazioni dell’utente non volute. Nel caso in cui ci siano più istanze di crawl programmate e sovrapposte Screaming Frog le esegue nello stesso momento. Questa condizione richiede maggiori risorse al sistema, i tempi potrebbero allungarsi e il computer potrebbe rallentare.