4 step per la realizzazione di un SEO Audit

di Roberta Salzano il 02/09/20
Quali aspetti tecnici devono essere verificati durante un audit tecnico SEO? Seguite i nostri passi per ottimizzare le prestazioni e il posizionamento del vostro sito.

Quando si parla di SEO audit, si intende un processo che può avvenire in momenti diversi della vita di un sito web: creazione, migrazione, riprogettazione... o quando le sue prestazioni devono essere ottimizzate.

Come individuare i punti di ottimizzazione? Quali criteri chiave devono essere osservati per identificare le aree di miglioramento? E quali strumenti SEO dovrebbero essere utilizzati per effettuare queste verifiche tecniche?

Vediamo insieme tutti i passi da seguire per migliorare il vostro posizionamento sui motori di ricerca e, in ultima analisi, le vostre conversioni!

Cos'è un SEO audit?

Audit SEO: definizione

Un SEO audit è un'analisi di un sito web sulla base di molteplici criteri tecnici e strutturali, in vista della sua ottimizzazione.

Come primo punto di ancoraggio di qualsiasi approccio SEO, può seguire i seguenti rami principali di audit:

  • Indexability,
  • Architettura,
  • Prestazioni sul web e velocità di caricamento,
  • User Experience,
  • Microdati
  • Accessibilità.

Obiettivi di un SEO audit

L'esecuzione di un audit tecnico SEO è importante per :

  • individuare i fattori tecnici di blocco che hanno un impatto sul posizionamento su Google (che rappresenta il 90% degli utenti di Internet) e sui motori di ricerca in generale,
  • individuare soluzioni operative e concrete per rendere il vostro cantiere più efficiente.

☝️ L'audit tecnico SEO si differenzia a questo proposito dall'audit semantico SEO, che mira ad analizzare la qualità dei contenuti e le loro la costruzione dei loro collegamenti.

Questo approccio è accompagnato da effetti positivi per il vostro sito, che ci guadagnerà in :

  • visibilità del sito da parte dei motori di ricerca
  • traffico
  • esperienza d'uso
  • e, idealmente, nelle conversioni

Audit tecnico e indicizzazione delle pagine

Ricordiamo che essere indicizzati da Google è fondamentale per esistere sul web.

Solo il 10% dei contenuti web sono indicizzati da Google.

L'indicizzazione è il processo seguito da un motore di ricerca per dare visibilità a un contenuto tra i risultati di ricerca.

Dalla fase di indicizzazione al del traffico, quindi alla conseguente possibilità di conversione, un URL seguirà i seguenti passaggi:

  1. Creazione dell'URL - pagina con contenuto ;
  2. Crawl dell'URL da parte del Googlebot ;
  3. Aggiunta o meno dell'URL al Google index, con un "punteggio" nascosto assegnato alla pagina;
  4. Posizionamento o meno della pagina su determinate Query, in base al punteggio di qualità;
  5. Generazione di visite (o traffico) sulla pagina posizionata;
  6. Conversioni degli utenti di Internet.

Come eseguire un’ analisi SEO audit: i prerequisiti

Identificate i problemi all'origine del vostro audit SEO. Possono essere fattori scatenanti :

  • la perdita di traffico dopo un aggiornamento o un'uscita di produzione,
  • l’aggiornamento dell'algoritmo (ad es. Speed Update)
  • la migrazione del vostro sito (piano di reindirizzamento, ecc.)

Definire il perimetro che l'audit del sito coprirà, sapendo che la tecnica è al servizio degli altri due pilastri della strategia SEO: contenuti e popolarità. Si tratta di determinare la natura di ogni azione da intraprendere:

  • i criteri tecnici SEO da analizzare principalmente “seo on page
  • i parametri off site che interverranno piuttosto durante un audit di netlinking;
  • l’architettura del sito e la struttura, che mescolano aspetti tecnici e semantici.

Avere a disposizione strumenti SEO specifici, come ad esempio :

  • un crawler
  • un log analyser
  • la Google Search Console
  • un account Analytics

Utilizzare le competenze di un professionista, come una società di servizi SEO o una risorsa interna. Questa persona sarà in grado di interpretare e sfruttare tutte queste informazioni, al fine di proporvi un piano d'azione con priorità e portarvi il miglior ROI.

☝️ Un audit tecnico SEO è essenziale in tutti i casi, ma è necessario un inventario per comprendere meglio il vostro contesto specifico, al fine di determinare come procedere e dare priorità ai diversi aspetti da studiare.

Guida all’audit SEO: passi da seguire

Ecco un esempio di un processo che può essere adattato secondo esigenze individiali

Fase 1: Iniziare con la Google Search Console

Prima ancora di lanciare il crawl, iniziate ad analizzare il sito con la Google Search Console (o GSC, ex Google Webmaster Tools). Questo passaggio può essere fatto a monte, per guidare il resto dell'audit.

Cosa può rilevare la Google Search Console?

La GSC è uno strumento gratuito di gestione del sito web fornito da Google che consente di ottenere informazioni tecniche su :

  • problemi di esplorazione incontrati,
  • Incoerenze tra il Sitemap e il sito esplorato,
  • I difetti tecnici riscontrati (sito reattivo o non reattivo, tempi di risposta, link rotti, ecc.)

Esempi di segnalazioni della Google Search Console

  • Errori di indicizzazione: per rilevare un difetto nella vostra sitemap, che include URL che non volete vedere nel Google Index.
  • Una cattiva gestione hreflang: in questo caso, Google non capisce che lo stesso contenuto è disponibile su pagine in altre lingue.
  • La gestione del sitemap: il sitemap.xml è il file che i robot leggono andando per default su www.nomedelsito.xx/sitemap.xml. Il sitemap HTML, invece, serve a far emergere URL troppo profondi o a proporre pagine recenti per l'indicizzazione.
  • Errori di crawl: l'URL inserito nella mappa del sito presentata sulla console di ricerca non è accessibile, ma Google non indica che la pagina è orfana.
  • La scelta di un'unica versione del sito: si consiglia di scegliere la versione visualizzata preferita (www o non www), quindi di assicurarsi che non vi siano contenuti duplicati.
  • Un design funzionale e reattivo: l'esperienza di esplorazione deve essere adattata agli usi degli utenti di Internet e degli utenti mobili... sapendo che il traffico mobile rappresenta oggi più del 50% del traffico web!
Errore di copertura dell’indicizzazione con la Google Search Console

Errore di copertura dell’indicizzazione con la Google Search Console

Percorso di verifica dell'indicizzazione con la Google Search Console

In qualità di referrer, dovreste controllare se i contenuti pubblicati sono :

  • inizialmente indicizzati,
  • in un secondo passo ben posizionati sulle parole chiave ricercate.

In caso contrario, si tratta di identificare se il problema è tecnico o semantico.

wPUlAvT7_zf1_j1NczDIW_gokGN3V0mV0gte-zTrON6xFMszB6mT4u8F294PGXesDv0FFwNhfR0fH79HbqgGbgjYYyK6FmEJkcDGPz_PMtgdW_F4Dm8aQ1SGj1-d7-PTVbKXpO8Q

Lista di errori riscontrati sulla Google Search Console

  1. Per verificare la presenza di un URL nel Google index, è possibile inviare l'URL tramite la console di ricerca o utilizzare il comando site:miourl nella barra di ricerca di Google.
  2. Successivamente, verificate tramite la SC che le pagine siano crawlable e indicizzabili osservando la copertura del sito da parte di Google: il sito è stato crawlato da Google?
  3. Quindi, verificare se ha incontrato errori durante la sua esplorazione, controllando ciascuno dei codici di errore restituiti:
    1. Cicli di reindirizzamento,
    2. Redirect 301 o interrotti,
    3. Errori del server (5XX),
    4. URL dichiarati come non indicizzati, anche se sono integrati nella sitemap
    5. Errori 404,
    6. URL il cui accesso è bloccato dal file robots.txt.
r7fBT0dHy3bWFtpqoF0F4cDnQRNDQNe43lBqjGDGZTJnWn0DleaScBAS9Kp2qfDehWUbd0RZ8pOWmpcSsc_essb2AvMwkv-YEEMtwWCp3thyPIctNDT_CC_B5qOityj-ZplJvdr4

Fase 2: Eseguire un'analisi con un Crawler

A seconda degli indicatori che si trovano sulla Search Console, è possibile lanciare il crawler impostando gli obiettivi di analisi.

Cosa può rilevare un crawler?

Un crawler simula il percorso che il robot di Google farebbe per scansionare il sito. Può così ottenere una mappa del sito così come viene percepito da un motore di ricerca, conducendo la sua esplorazione attraverso i link incontrati.

Il lancio di un crawl permette di controllare, tra le altre cose :

  • l'indicizzazione dei contenuti
  • struttura della pagina
  • la coerenza dei link interni
  • l'assenza di errori nella sitemap, fornendo l'elenco degli URL al crawler.

Esempi di segnalazioni che possono uscire dal crawler

  • contenuti duplicati: trova pagine che sono generalmente simili al 90% e che necessitano:
    • un URL canonico
    • altri trattamenti specifici (ad es. cancellazione, reindirizzamento, ecc.).
  • errori sugli URL canonici
  • sequenze di reindirizzamento e cicli di reindirizzamento superiori a 4 consecutivi
  • errori del server: la causa va studiata con il team di sviluppo.
  • codici 404: corrispondono a contenuti non reperibili o a un link non corretto.
  • paginazione: la sua rilevanza deve essere giustificata.
  • controllo dell'installazione del tag Google Analytics e di Google Tag Manager (GTM), per garantire che la sovrapposizione sia applicata alle posizioni desiderate sul sito.
  • lo schema dei microdati: rendono le pagine ammissibili a determinati formati di dati visualizzati nelle SERP e possono quindi promuovere il tasso di clic.
  • il tracking del rendering JavaScript: opzione da attivare quando il sito è costruito su una base JavaScript completa, per facilitare l'interpretazione del codice da parte del crawler.
  • Robots.txt tracking: questo file contiene le regole che i robot devono seguire su un sito, per segnare un percorso e limitarne l'accesso.

    Controllo dell’alberatura del sito con il crawler

Iniziate configurando il vostro crawler, indicando diversi tipi di regole, a seconda di ciò che volete analizzare o meno:

  • rendering Javascript abilitato,
  • seguito dal numero di collegamenti nofollow,
  • rispetto del noindex,
  • monitoraggio degli URL canonici,
  • seguito dal file sitemap.xml fornito,
  • raccolta dei microdati incontrati.

Non si parte necessariamente dalla pagina iniziale. In base alle vostre esigenze, definite prima di tutto se volete ottenere una cartografia :

  • di tutto il sito,
  • di una parte o di una sezione del sito.
  1. Iniziate guardando l’alberatura del sito:
    1. La struttura ad albero ha senso?
    2. Ci sono difetti di collegamenti tra le pagine?
    3. alcune pagine sono troppo profonde (più di 4 livelli)?
    4. il contenuto essenziale può essere reso più facilmente accessibile attraverso la navigazione interna?
    5. ci sono pagine senza tag canonici o che non sono auto-canoniche? Se è così, osservate a cosa puntano.
    6. facendo un controllo incrociato con i dati della sitemao identificate:
      • pagine attive: almeno una visita dell'utente,
      • pagine inattive: analizzate dal crawl, ma senza generare alcuna visita,
      • pagine orfane attive: che non sono più collegate a nessuna pagina, ma continuano a generare visite SEO?
  2. Poi, identificare nella struttura coi link interni :
    1. pagine con traffico molto basso o nullo, incrociando i dati del crawler con Analytics o la console di ricerca,
    2. duplicare le pagine, e se hanno una pagina canonica,
    3. se gli anchor text all'interno di una categoria o che portano a una categoria sono logici.
  3.  Dopo di che, si può lavorare sulla struttura del sito scegliendo una struttura ben definita:
    1. silos,
    2. sotto forma di contenitore semantico semantico, ecc.

4. Infine, verificare le prestazioni del web per tipo di pagina, per individuare i problemi relativi ad ogni categoria di pagina e vedere se sono possibili miglioramenti.

Fase 3: Eseguire un'analisi del log

Cosa può rilevare un log analyzer?

Il ruolo del log analyzer è quello di dare un resoconto della reale attività del robot di Google sul vostro sito. L'analizzatore di log :

  • estrae i dati relativi alle visite effettive dei Googlebot e al passaggio dei visitatori sul sito
  • rende questi dati utilizzabili dal server sulla piattaforma utilizzata

    In particolare, fornisce informazioni su :

    • le pagine del sito viste dal Googlebot,
    • le pagine del sito non scansionate dal Googlebot,

la frequenza di crawl e l'impatto che questo ha sulle visite, permettendo di misurare il carico richiesto da Google per la scansione dell'intero sito, ecc...

☝️ Questa analisi è particolarmente interessante per i siti con un elevato volume di pagine, come ad esempio i siti di e-commerce. Permette di:

  • verificare che i nuovi contenuti siano stati trovati e strisciati da Google
  • misurare la frequenza degli aggiornamenti innescati dalla scansione
  • garantire che il budget di crawl non venga utilizzato inutilmente
  • individuare quali azioni di ottimizzazione effettuare sul sito con il loro ordine di priorità

L'analisi dei log può essere basata su :

  • Strumenti SEO dedicati all'analisi dei log come Screaming Frog,
  • una piattaforma tecnica SEO completa, che combina un crawler e funzionalità di analisi dei log,
  • Comandi Linux,
  • tabelle dinamiche di Excel pivot.

Esempi di dati che si ottengono con il log analyzer

  • il crawl rate, che è la quota del sito che è stata visitata da Googlebot ;
  • il rapporto crawl/visite, che è il rapporto tra il tasso di crawl e il numero di visite generate,
  • la frequenza di crawl, cioè il ritardo tra due crawl sul sito interessato da Googlebot.

Checklist relativa all'analisi dei log

  1. Segmentare il sito, in modo da dare priorità agli obiettivi SEO per gruppi di pagine. L'idea è quella di ottenere :
    1. una panoramica delle categorie più importanti del sito,
    2. o una vista secondo i tipi di pagina (ad esempio, una vista di tutte le pagine determinate come pagine di conversione SEO).
  2. Controllare i collegamenti interni per l'ottimizzazione: utilizzare un anchor text semantico collegato, con una mesh ininterrotta alla pagina madre dell'argomento.
  3. Impostare il monitoraggio dei log.
  4. Identificare i problemi con le pagine orfane, che dimostrano un problema nella struttura dei collegamenti interni. Una pagina orfana è una pagina che non è collegata a nessun'altra pagina, di solito perché gli URL che avrebbero dovuto farlo non esistono più.
  5. Combinare l'analisi del crawl con l'analisi dei log attraverso una soluzione dedicata.
  6. Grazie ai riferimenti incrociati dei dati di crawl e dei file di log, è possibile :
    1. seguire il percorso dei robot di indicizzazione sul vostro sito,
    2. Scopri se le tue pagine più strategiche sono state visitate e indicizzate,
    3.  capire come le vostre prestazioni SEO influiscono sul vostro budget.

Fase 4: studiare la performance sul web

È quindi possibile concentrarsi sulle prestazioni del web, che equivalgono a un controllo della velocità del sito.

Cosa può rivelare la performance sul web?

Lo studio delle prestazioni consente di verificare se il sito soddisfa i criteri tecnici raccomandati da Google, ovvero :

  • l'accessibilità del sito
  • la velocità del sito
  • la crawlability

Percorso di verifica relativo alle prestazioni del web

Ecco i punti principali da verificare quando si tratta di prestazioni web:

  1. Mobile first indexing: il sito deve essere completamente utilizzabile in versione mobile e dichiarato "mobile first". La navigazione mobile non ottimale può essere dannosa per il sito.

    Potete scoprire se il sito è diventato mobile o meno utilizzando una piattaforma di audit SEO o la Search Console, che vi dice se le visite del sito provengono o meno da un Googlebot Desktop o da un Googebot mobile.

  2. Accessibilità: il sito è accessibile ai non vedenti, agli ipovedenti? Per esempio, verificare la presenza di descrizioni nei tag immagine (alt).
  3. Velocità del sito :
    1. Il sito visualizza rapidamente i contenuti? Il tempo di caricamento è una parte essenziale dell'esperienza dell'utente. Un sito che si carica in meno di 2 secondi è considerato ben funzionante.
    2. Quali fattori rallentano il caricamento delle pagine? TTFB (Time to First Byte) - asse dei contenuti, cache, utilizzo di CDN, hosting da rivedere, ecc.
  4. Visitatori :
    1. il sito visualizza bene i suoi contenuti senza distinzione tra robot e visitatori?
    2. Per verificare che venga offerto lo stesso contenuto della versione standard dei browser, aggiungere il comando cache:indirizzopagina.com e consultare la pagina memorizzata nella cache di Google.
  5. Sicurezza: il sito è in HTTPS? (SSL).
  6. Internazionale: l'integrazione di hreflang è completa? (per i siti internazionali).
  7. Microdati: il sito dispone dei microdati importanti per essere idoneo a determinati formati di visualizzazione sulla SERP? (FAQ, Carrousel, ecc.). È possibile utilizzare lo strumento di Google per l'identificazione dei microdati: https://search.google.com/structured-data/testing-tool.

Date spazio all'audit tecnico!

L'audit tecnico SEO rivela tutte le possibili ottimizzazioni SEO per rendere il percorso di navigazione semplice e fluido sia per gli utenti che per i robot.

È la solida base per un sito web ad alte prestazioni, veloce, in grado di ospitare e mostrare i vostri contenuti.

Oltre agli aspetti tecnici, è possibile concentrarsi sugli altri aspetti di un audit SEO, assicurandosi di creare contenuti unici e coinvolgenti per il lettore, e lavorare sulla sua popolarità con il netlinking.

E voi, avete già realizzato un audit tecnico SEO nella vostra azienda? Avete ulteriori punti di controllo o feedback da condividere?