Contenuti fantastici, ottimizzati, aggiornati. Eppure nessuno li trova su Google. Il problema spesso non sta nel contenuto, ma nella struttura tecnica del sito. Un audit SEO tecnico aiuta a scoprire esattamente cosa impedisce a Google di scansionare, indicizzare e posizionare le pagine come meriterebbero.

Con Google che ormai premia sempre di più l'esperienza utente (Core Web Vitals docet), avere un sito tecnicamente impeccabile non è più un "nice to have" – è diventato fondamentale per competere sul serio.

Componenti di un audit SEO tecnico professionale

Un audit tecnico completo deve analizzare questi aspetti fondamentali dell'architettura web:

  • Crawlability: capacità dei bot di scansionare efficacemente il sito
  • Indexability: controllo su quali pagine vengono indicizzate nei motori di ricerca
  • Performance: velocità di caricamento e Core Web Vitals
  • Architettura: struttura URL, sitemap XML e internal linking
  • Structured Data: implementazione corretta di Schema markup
  • Mobile-Friendliness: ottimizzazione per dispositivi mobili
  • Sicurezza: implementazione HTTPS e protezione dati

Gli strumenti che utilizziamo davvero

La buona notizia? Non serve spendere una fortuna in tool SEO. Ecco quelli che usiamo (tutti gratuiti o con versioni free molto valide):

  1. Google Search Console - Il punto di partenza. Mostra esattamente come Google vede il sito.
  2. Google PageSpeed Insights - Dati reali di utenti veri, non solo test di laboratorio.
  3. Lighthouse (tasto F12 in Chrome) - Audit immediati senza installare niente.
  4. Screaming Frog - Il crawler preferito. La versione free analizza fino a 500 URL, più che sufficienti per la maggior parte dei siti.
  5. PerSeo Insights - Per un check-up completo in 2-3 minuti, da cui poi partire per approfondire con gli altri tool.

Per un audit veloce prima di un meeting con un cliente, partiamo sempre da PerSeo Insights per avere subito il quadro generale. Poi si scende nei dettagli con gli altri strumenti.

Crawlability e indexability: come aiutare Google a scansionare il sito

Il robots.txt: il portiere del sito

Il file robots.txt è letteralmente la prima cosa che Googlebot controlla quando arriva su un sito. È come il portiere di un locale: decide chi può entrare e chi no. Un errore qui può mandare a monte mesi di lavoro SEO.

Prima di tutto, verificare che esista: basta aprire https://nomedominio.it/robots.txt e controllare il contenuto.

Esempio di robots.txt ottimizzato:

User-agent: * Allow: /

# Bloccare aree amministrative Disallow: /admin/ Disallow: /wp-admin/ Disallow: /checkout/

# Link alla sitemap Sitemap: https://nomedominio.it/sitemap.xml

Errori più comuni:

  • ❌ Bloccare per sbaglio Googlebot (succede più spesso di quanto si pensi)
  • ❌ Mettere Disallow su cartelle con pagine che invece si vuole indicizzare
  • ❌ Dimenticarsi di linkare la sitemap

1.2 Sitemap XML: roadmap per i motori di ricerca

La sitemap XML facilita la scoperta e l'indicizzazione di tutte le pagine del sito da parte dei motori di ricerca.

Requisiti tecnici per una sitemap valida:

  • ✅ Formato XML valido secondo il protocollo Sitemap
  • ✅ Massimo 50.000 URL per singolo file sitemap
  • ✅ Inclusione esclusiva di URL canonici
  • ✅ URL con status HTTP 200 (escludere redirect e 404)
  • ✅ Tag <lastmod> accurato per indicare modifiche recenti

Verifica in Google Search Console:

Search Console → Indicizzazione → Sitemap → Aggiungi nuova sitemap

1.3 Meta tag robots: controllo granulare dell'indicizzazione

I meta tag robots permettono di controllare l'indicizzazione a livello di singola pagina.

Esempi di implementazione:

html
<!-- Pagina indicizzabile (comportamento predefinito) -->
<meta name="robots" content="index, follow">

<!-- Pagina non indicizzabile -->
<meta name="robots" content="noindex, nofollow">

<!-- Previeni snippet nei risultati di ricerca -->
<meta name="robots" content="nosnippet">

<!-- Blocca caching della pagina -->
<meta name="robots" content="noarchive">

Analisi con Screaming Frog:

  • Identificare pagine strategiche con tag noindex errato
  • Rilevare pagine duplicate indicizzabili
  • Verificare coerenza tra robots.txt e meta robots

2. Core Web Vitals: performance come fattore di ranking

I Core Web Vitals sono metriche standardizzate che Google utilizza per valutare l'esperienza utente. Siti con metriche ottimali ricevono un vantaggio competitivo nel ranking.

2.1 Largest Contentful Paint (LCP) - velocità di caricamento percepita

Target: < 2.5 secondi

Definizione: misura il tempo di rendering dell'elemento di contenuto più grande above-the-fold (tipicamente immagine hero o blocco di testo principale).

Strategie di ottimizzazione:

  • Conversione formati immagine: utilizzare WebP o AVIF per ridurre il peso del 60-70% rispetto a JPEG/PNG
  • Preload risorse critiche: applicare preload selettivo solo agli asset essenziali per il first paint
  • Content Delivery Network: implementare un CDN per ridurre la latenza di rete
  • Ottimizzazione TTFB: se il Time To First Byte supera 600ms, intervenire sull'infrastruttura server

2.2 First Input Delay (FID) / Interaction to Next Paint (INP)

Target FID: < 100ms Target INP: < 200ms (metrica in sostituzione del FID dal 2024)

Definizione: misurano la reattività del sito alle interazioni utente (click, tap, input).

Strategie di ottimizzazione:

  • Riduzione JavaScript: eliminare dipendenze inutilizzate e minificare il codice
  • Code Splitting: suddividere il bundle in chunks caricati on-demand
  • Defer script non critici: posticipare l'esecuzione di JavaScript non essenziale
  • Web Workers: spostare operazioni computazionalmente intensive su thread separati

2.3 Cumulative Layout Shift (CLS) - stabilità visiva

Target: < 0.1

Definizione: quantifica gli spostamenti imprevisti di elementi visibili durante il caricamento della pagina.

Strategie di ottimizzazione:

  • Dimensioni esplicite: specificare width e height per tutte le immagini
  • Spazio riservato: allocare spazio per contenuti caricati dinamicamente (ads, embeds)
  • Font loading: utilizzare font-display: swap per evitare FOIT
  • Animazioni performanti: preferire transform e opacity invece di proprietà che causano reflow

3. Structured data (Schema markup): rich snippet nei risultati

Lo Schema markup fornisce contesto semantico ai motori di ricerca, migliorando la comprensione del contenuto e abilitando rich snippet nelle SERP.

3.1 Schema Article per articoli di blog

json
{
  "@context": "https://schema.org",
  "@type": "BlogPosting",
  "headline": "Guida Completa all'Audit SEO Tecnico nel 2025",
  "image": "https://perseodesign.com/blog/audit-seo-2025.jpg",
  "datePublished": "2025-01-15T10:00:00Z",
  "dateModified": "2025-01-15T10:00:00Z",
  "author": {
    "@type": "Person",
    "name": "Giovanni Manetti",
    "url": "https://perseodesign.com"
  },
  "publisher": {
    "@type": "Organization",
    "name": "PerSeoDesign",
    "logo": {
      "@type": "ImageObject",
      "url": "https://perseodesign.com/images/PerseoLogo.png"
    }
  },
  "description": "Guida completa per eseguire un audit SEO tecnico professionale nel 2025"
}

3.2 Verifica e validazione dello schema

Strumenti di testing consigliati:

  1. Google Rich Results Test - verifica l'idoneità per rich snippet
  2. Schema.org Validator - validazione sintattica dello schema
  3. Google Search Console - monitoraggio rich results indicizzati

Processo sistematico di audit

Un approccio metodico all'audit SEO tecnico prevede questi passaggi:

  1. Analisi iniziale con PerSeo Insights - report completo in 2-3 minuti per identificare problemi critici
  2. Risoluzione prioritaria:
    • Errori 404 e link interrotti
    • Pagine strategiche con noindex
    • Configurazione robots.txt errata
    • Problemi di crawl budget
  3. Ottimizzazione Core Web Vitals - focus su LCP, FID/INP e CLS
  4. Implementazione Structured Data - rich snippet per migliorare CTR nelle SERP
  5. Monitoraggio continuo - verifiche trimestrali via Google Search Console

Da dove partire?

Un audit SEO tecnico richiede tempo e competenza, ma è l'investimento SEO con il miglior ritorno possibile. Abbiamo visto siti raddoppiare il traffico organico solo sistemando problemi tecnici, senza toccare nemmeno una virgola dei contenuti.

Checklist operativa:

  1. Avviare PerSeo Insights per una panoramica in 3 minuti
  2. Risolvere nell'immediato gli errori critici (404, problemi di indicizzazione, robots.txt sbagliato)
  3. Intervenire sui Core Web Vitals - Google li considera fattore di ranking
  4. Aggiungere lo structured data dove manca (soprattutto su blog ed e-commerce)
  5. Impostare un promemoria trimestrale per controllare su Search Console che sia tutto ok

Una cosa importante: l'audit tecnico non è "fallo una volta e sei a posto". Google cambia continuamente le regole del gioco. Un check ogni 3-4 mesi, anche solo 30 minuti per verificare che non siano emersi nuovi problemi.

Se si vuole approfondire un aspetto specifico, gli altri articoli del blog offrono guide dedicate su Core Web Vitals, accessibilità e molto altro.