Lo strumento di cui vi parlerò approfonditamente oggi è Screamingfrog SEO Spider: è probabilmente il primo tool con cui sono entrato in contatto nel momento in cui ho iniziato ad interessarmi di SEO, e sono rimasto immediatamente affascinato dalle funzionalità che questo software offre, sia ad utilizzatori “di base” che per tuning veramente avanzati. Per me è “lo strumento” per l’analisi onsite di un sito web, senza ombra di dubbi. Ha un difetto (o è questo il suo pregio, chissà) rispetto ad altri strumenti di audit simili che solitamente si trovano nel web, sia free che pay: non ci fornisce soluzioni pronte, ma ci dà tutto quello che serve per effettuare un’analisi. Ne consegue che un newbie del settore lo troverà molto meno chiaro da usare ma credetemi, alla lunga è preferibile rispetto a qualunque altro audit tool in giro. Dobbiamo essere in grado noi di sapere cosa modificare nel nostro sito e piegarlo ai “nostri” dettami SEO, ma in fin dei conti è questo il bello, no?
Andiamo a vedere nello specifico quali sono le caratteristiche principali di Screamingfrog SEO Spider:
- Possiamo simulare il comportamento di uno spider come quello di Google, e capire pertanto come i motori di ricerca navigano sul nostro sito, quale tipo di contenuti riescono a raggiungere (e quindi indicizzare o meno, a seconda dei nostri dettami), e come interpretano i meta tag, link e tutto quello che compone il sito
- È un software multipiattaforma (Windows, Mac, Linux), non avete scuse per non usarlo
- Possiamo sfruttarlo gratuitamente fino a 500 risorse scansite (per i siti con tante pagine da analizzare potrebbe essere un limite, ma è pur vero che solitamente ci basteranno queste risorse per farci un’idea di come il sito è strutturato (in caso di un CMS, dove le pagine sono tutte generate in automatico, verificato come funzionano le pagine degli archivi, dei post, della home, risolvendo i problemi in un singolo “template”, solitamente li risolveremo ovunque). In ogni caso la licenza è veramente economica.
- È veloce durante le scansioni, e ci fornisce i dati con delle schede ben strutturate, non abbiamo mai difficoltà a trovare quello che cerchiamo
- Permette l’esportazione di file csv di tutti i contenuti scansiti, riutilizzabili con Excel, al fine di usarli per ottimizzazioni avanzate, ricerche particolari, generazioni di liste di file per redirect, ecc.
- Accetta in ingresso per le scansioni non solo un sito web, ma anche liste intere di URL (utilissimo per verificare ad esempio se un certo di numero di url sono attivi o meno, in un sol colpo).
LE MODALITÀ D’USO DI SCREAMINGFOG
- List
- Possiamo incollare una lista di url, importare un file txt, e immediatamente dopo partirà la scansione;
- Utile per controllare solo determinate pagine di un sito di cui vogliamo fare audit;
- Importare liste di pagine direttamente da excel, o per un controllo e confronto tra diversi siti, nostri o dei competitor
- Reports
- In un colpo solo possiamo esportare file per excel per continuare l’audit del sito e tracciare quanto stiamo facendo, fornendo reportistica avanzata
- Sitemap Creator
- Spider
- La funzionalità più completa, che ci permetterà di simulare il comportamento dei motori di ricerca quando analizzano il nostro sito web, ed è questa che analizzeremo passo passo.
LO SPIDER DI SCREAMINGFROG SEO SPIDER
Come primo step inseriamo la url del dominio che vogliamo analizzare, e premiamo start. Nella prima tab, Internal, troveremo tutte le risorse interne al dominio, che possiamo filtrare per tipologia (HTML, Javascript, CSS, Immagini, PDF, Flash, altri file), così da poter individuare in un solo colpo quali risorse vengono rilevate ed agire di conseguenza.
Nella tab External troviamo tutte le risorse esterne che il nostro sito richiama (servizi di statistiche, file inclusi in altri siti tramite iframe, Google Fonts, framework di condivisione dei Social, ecc), e possiamo verificare tutti quelli che sono contrassegnati come “broken links”, ovvero link in uscita verso risorse che non rispondono correttamente.
Nella tab Protocol, abbiamo la possibilità di filtrare le risorse per protocollo HTTP o HTTPS, utile in caso di audit in siti che prevedono un certificato di sicurezza quali solitamente le aree di pagamento degli e-commerce.
La tab URI è molto importante ai fini dell’ottimizzazione di un sito web, in quanto ci permette di verificare una serie di parametri avanzati quali duplicazione di URL, eventuali passaggi di parametri, Canonical che vengono assegnati alle risorse, la presenza di caratteri non ASCII convenzionali, o di maiuscole e minuscole all’interno delle nostre URL generate dal sito.
Con il tab Page Titles inizia la serie di report relativi all’ottimizzazione onsite vera e propria: la tab in questione ci da la possibilità in un sol colpo di effettuare un check sul tag title delle pagine scansite, verificarne l’univocità, la lunghezza in termini di caratteri, controllare se il tag è identico all’H1 (se presente!) della pagina. Volevo aprire una piccola parentesi sullo strumento di anteprima della SERP, che è in grado di simulare ciò che apparirà e verificare come si comporterà Google con la lunghezza in pixel di Title, Description, e addirittura degli eventuali Rich Snippet (stelline, recensioni, ecc) che saranno rilevati nel nostro sito.
I due tab successivi, Meta Description e Meta Keywords, si comportano al medesimo modo: riportano tutte quelle che sono i valori trovati durante la scansione, al fine di individuare velocemente se quanto abbiamo inserito è di nostro gradimento, oltre che corretto dal punto di vista dell’univocità e della lunghezza, e tutto con pochi e rapidi clic.
I tab successivi, H1 e H2, permettono di verificare anche in questo caso presenza, dimensioni, univocità dei due più importanti Heading Paragraph: consiglio comunque durante un audit di andare a verificare se un template specifico utilizza, magari nelle sidebar, h3 o h4 al solo scopo di formattare in un modo particolare delle voci di menu.
Il tab Images ci permette di avere in un colpo solo l’analisi di tutte le immagini presenti nel nostro sito: dimensioni e presenza del tag alt. Potremo così individuare le immagini che pesano troppo e migliorare così la velocità del nostro sito web.
Il tab successivo che andremo ad analizzare è quello delle Directives, dove troveremo raccolte appunto tutte le direttive delle pagine del nostro sito: potremo così vedere quali sono le pagine con indicazione al robots index, noindex, canonical, tag prev e next (utilissimi nel caso di siti con paginazione).
Il tab Ajax ci permette di effettuare le scansioni delle pagine che sfruttano la tecnologia Ajax per la generazione dei propri contenuti, verificarne le URL e gli status di intestazione HTTP restituiti.
Il tab Custom ci permette di filtrare i contenuti a seconda di liste di valori che passeremo tramite file CSV: questa è una funzionalità avanzata in caso di necessità di dover incrociare dati provenienti da analisi e tool diversi, e ridurre così il nostro raggio d’azione.
Le ultime due tab sono le principali novità apportate dagli sviluppatori dietro questo gran pezzo di software: utilizzabili solamente da coloro che hanno una licenza a pagamento, permettono di incrociare i dati del nostro sito con quelli forniti, tramite API, da Google Analytics e Google Search Console. Potremo così analizzare visite e dati di conversione correlati una o più specifica pagina, così come analizzare impression, click e posizione media riportata dalla Google Search Console.
Con questo è tutto, spero di avervi fornito un’analisi più in dettaglio di Screamingfrog SEO Spider: vi consiglio di provarlo e provare anche a spulciare tutte le opzioni che possiede (parecchie a dir la verità sono modificabili solo per chi ha una licenza a pagamento), una volta che imparerete ad utilizzarlo non potrete farne a meno, sia in fase di sviluppo che in fase di audit di un sito web.