Screamingfrog SEO Spider: il coltellino svizzero per l’ottimizzazione onsite di un sito web

Lo strumento di cui vi parlerò approfonditamente oggi è Screamingfrog SEO Spider: è probabilmente il primo tool con cui sono entrato in contatto nel momento in cui ho iniziato ad interessarmi di SEO, e sono rimasto immediatamente affascinato dalle funzionalità che questo software offre, sia ad utilizzatori “di base” che per tuning veramente avanzati. Per me è “lo strumento” per l’analisi onsite di un sito web, senza ombra di dubbi. Ha un difetto (o è questo il suo pregio, chissà) rispetto ad altri strumenti di audit simili che solitamente si trovano nel web, sia free che pay: non ci fornisce soluzioni pronte, ma ci dà tutto quello che serve per effettuare un’analisi. Ne consegue che un newbie del settore lo troverà molto meno chiaro da usare ma credetemi, alla lunga è preferibile rispetto a qualunque altro audit tool in giro. Dobbiamo essere in grado noi di sapere cosa modificare nel nostro sito e piegarlo ai “nostri” dettami SEO, ma in fin dei conti è questo il bello, no?

Andiamo a vedere nello specifico quali sono le caratteristiche principali di Screamingfrog SEO Spider:

LE MODALITÀ D’USO DI SCREAMINGFOG

LO SPIDER DI SCREAMINGFROG SEO SPIDER

Come primo step inseriamo la url del dominio che vogliamo analizzare, e premiamo start. Nella prima tab, Internal, troveremo tutte le risorse interne al dominio, che possiamo filtrare per tipologia (HTML, Javascript, CSS, Immagini, PDF, Flash, altri file), così da poter individuare in un solo colpo quali risorse vengono rilevate ed agire di conseguenza.

Nella tab External troviamo tutte le risorse esterne che il nostro sito richiama (servizi di statistiche, file inclusi in altri siti tramite iframe, Google Fonts, framework di condivisione dei Social, ecc), e possiamo verificare tutti quelli che sono contrassegnati come “broken links”, ovvero link in uscita verso risorse che non rispondono correttamente.

Nella tab Protocol, abbiamo la possibilità di filtrare le risorse per protocollo HTTP o HTTPS, utile in caso di audit in siti che prevedono un certificato di sicurezza quali solitamente le aree di pagamento degli e-commerce.

La tab URI è molto importante ai fini dell’ottimizzazione di un sito web, in quanto ci permette di verificare una serie di parametri avanzati quali duplicazione di URL, eventuali passaggi di parametri, Canonical che vengono assegnati alle risorse, la presenza di caratteri non ASCII convenzionali, o di maiuscole e minuscole all’interno delle nostre URL generate dal sito.

Con il tab Page Titles inizia la serie di report relativi all’ottimizzazione onsite vera e propria: la tab in questione ci da la possibilità in un sol colpo di effettuare un check sul tag title delle pagine scansite, verificarne l’univocità, la lunghezza in termini di caratteri, controllare se il tag è identico all’H1 (se presente!) della pagina. Volevo aprire una piccola parentesi sullo strumento di anteprima della SERP, che è in grado di simulare ciò che apparirà e verificare come si comporterà Google con la lunghezza in pixel di Title, Description, e addirittura degli eventuali Rich Snippet (stelline, recensioni, ecc) che saranno rilevati nel nostro sito.

I due tab successivi, Meta Description e Meta Keywords, si comportano al medesimo modo: riportano tutte quelle che sono i valori trovati durante la scansione, al fine di individuare velocemente se quanto abbiamo inserito è di nostro gradimento, oltre che corretto dal punto di vista dell’univocità e della lunghezza, e tutto con pochi e rapidi clic.

I tab successivi, H1 e H2, permettono di verificare anche in questo caso presenza, dimensioni, univocità dei due più importanti Heading Paragraph: consiglio comunque durante un audit di andare a verificare se un template specifico utilizza, magari nelle sidebar, h3 o h4 al solo scopo di formattare in un modo particolare delle voci di menu.

Il tab Images ci permette di avere in un colpo solo l’analisi di tutte le immagini presenti nel nostro sito: dimensioni e presenza del tag alt. Potremo così individuare le immagini che pesano troppo e migliorare così la velocità del nostro sito web.

Il tab successivo che andremo ad analizzare è quello delle Directives, dove troveremo raccolte appunto tutte le direttive delle pagine del nostro sito: potremo così vedere quali sono le pagine con indicazione al robots index, noindex, canonical, tag prev e next (utilissimi nel caso di siti con paginazione).

Il tab Ajax ci permette di effettuare le scansioni delle pagine che sfruttano la tecnologia Ajax per la generazione dei propri contenuti, verificarne le URL e gli status di intestazione HTTP restituiti.

Il tab Custom ci permette di filtrare i contenuti a seconda di liste di valori che passeremo tramite file CSV: questa è una funzionalità avanzata in caso di necessità di dover incrociare dati provenienti da analisi e tool diversi, e ridurre così il nostro raggio d’azione.

Le ultime due tab sono le principali novità apportate dagli sviluppatori dietro questo gran pezzo di software: utilizzabili solamente da coloro che hanno una licenza a pagamento, permettono di incrociare i dati del nostro sito con quelli forniti, tramite API, da Google Analytics e Google Search Console. Potremo così analizzare visite e dati di conversione correlati una o più specifica pagina, così come analizzare impression, click e posizione media riportata dalla Google Search Console.

Con questo è tutto, spero di avervi fornito un’analisi più in dettaglio di Screamingfrog SEO Spider: vi consiglio di provarlo e provare anche a spulciare tutte le opzioni che possiede (parecchie a dir la verità sono modificabili solo per chi ha una licenza a pagamento), una volta che imparerete ad utilizzarlo non potrete farne a meno, sia in fase di sviluppo che in fase di audit di un sito web.

Matteo Russo

Exit mobile version