Quando Google Search Console ci segnala in Google Search Console il messaggio “Pagina Scansionata – Attualmente non indicizzata”, in molti si chiedono perché, nonostante Google abbia visitato correttamente le loro pagine, queste non vengano mostrate nei risultati di ricerca, nonostante non si tratti di pagine noindex.
La questione, apparentemente semplice, nasconde invece problematiche tecniche complesse che spaziano dalla qualità dei contenuti alle performance del server, fino a configurazioni SEO anche abbastanza avanzate.
Vediamo un po’ di approfondire il problema.
Di cosa parleremo..
Quali sono le cause comuni della mancata indicizzazione delle pagine
Contenuti duplicati e gestione dei canonical
Google tende a non indicizzare pagine che contengono contenuti duplicati o molto simili a quelli presenti in altre pagine. Per evitare confusioni, il motore di ricerca sceglie un URL principale, detto canonico, che rappresenta la versione ufficiale da mostrare nei risultati.
A volte questo contenuto canonico viene indicato da noi, altre volte è Google a decidere quale sia il contenuto canonico al di là delle nostre indicazioni. Vediamo meglio la questione.
La gestione errata del tag canonical
Il tag canonical è un frammento di codice HTML che indica quale pagina deve essere considerata come principale. Se impostato male, può confondere Google e causare problemi di indicizzazione.
Ad esempio potremmo per errore impostare un canonical di questo tipo:
<link rel="canonical" href="https://www.lepuzzette.it/pagina-principale-2">
Inserendo erroneamente questo tag, stiamo dicendo che la pagina attuale non è quella canonica ma che lo è pagina-principale-2 che magari è vuota.
Noi sappiamo che non è realmente la principale, dato che probabilmente l’url corretto era pagina-principale.
In questo modo si rischia che Google ignori la versione desiderata e scelga di non indicizzare nessuna delle due.

Il tag canonical viene ignorato perché sono sbagliati i link interni
Altre volte capita che pur riportando correttamente il tag canonical
<link rel="canonical" href="https://www.lepuzzette.it/pagina-principale">
Google decida di ignorarlo perché, sulla base di sue valutazioni, ritiene che sia un’altra in realtà la vera pagina canonica e non quella indicata da noi.
Molto spesso la causa di questo comportamento è dovuta a link interni errati!
Ad esempio avere tanti link interni che rimandano ad una pagina che è stata redirezionata con un 301 porta Google ad interpretare quella pagina come canonica, ma essendo la stessa redirezionata di fatto non si posiziona e la pagina verso cui redireziona non eredita il valore canonico.
Ipotizziamo di avere le pagine A, B e C che hanno link verso la pagina Pippo, ma la pagina Pippo è stata redirezionata con un 301 verso la pagina Topolino verso la quale puntano i nostri canonical.
Google potrebbe scegliere la pagina Pippo come canonica, il che porterebbe alla non indicizzazione della pagina Topolino.
Ma essendo Pippo redirezionata, neppure lei viene indicizzata!
Qualità insufficiente dei contenuti
L’indicizzazione da parte di Google non dipende soltanto dalla quantità, ma soprattutto dalla qualità dei contenuti.
Pagine con testi brevi, generici o superficiali tendono ad essere escluse perché non soddisfano i criteri di utilità e rilevanza richiesti dal motore di ricerca. E questa tendenza è aumentata molto con l’introduzione dell’Intelligenza Artificiale.
I contenuti vanno strutturati e, soprattutto, devono essere ben consultabili e navigabili!
Come migliorare i contenuti per favorire l’indicizzazione
Per garantire che le pagine siano indicizzate è importante produrre contenuti originali, approfonditi e che rispondano chiaramente e brevemente alle esigenze dell’utente.
È consigliabile includere:
- Informazioni dettagliate e pertinenti
- Approfondimenti e dati aggiornati
- Immagini, grafici e risorse aggiuntive
Problemi legati alle sitemap XML
La sitemap XML è un file utilizzato per comunicare a Google (o in generale ai motori di ricerca) quali pagine del sito debbano essere scansionate, indicizzate o eventualmente aggiornate.
Errori comuni nella sitemap
Una sitemap mal strutturata, che include URL duplicate, inutili o obsolete, può compromettere il processo di indicizzazione.
Ecco un esempio di sitemap XML corretta:
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>https://www.lepuzzette.it/pagina-importante</loc>
<lastmod>2025-04-18</lastmod>
</url>
</urlset>
Controlla frequentemente e verifica se viene aggiornato il file sitemap XML.
Inoltre tieni presente che è possibile avere più sitemap e che una sitemap molto leggera accelera l’indicizzazione dei contenuti.
Link interni e struttura del sito web
Come già detto nel paragrafo sui canonical, una buona struttura interna, con link chiaramente definiti tra le varie pagine, è fondamentale per permettere a Google di capire la rilevanza di ciascun contenuto.
Problemi strutturali comuni
Se una pagina non è facilmente raggiungibile dalla homepage o da altre pagine importanti, Google potrebbe ritenerla poco rilevante.
È quindi fondamentale:
- Collegare chiaramente le pagine principali o le pagine di smistamento dal menu di navigazione, ma senza esagerare
- Creare link interni contestuali e rilevanti
- Evitare pagine orfane (pagine non linkate da nessuna altra pagina)
Problematiche tecniche e avanzate
Problemi del server e tempi di risposta
La velocità di risposta e la stabilità del server sono determinanti per l’indicizzazione. Se il server è sovraccarico, con risposte lente o intermittenti, Google potrebbe ritenerlo affaticato e quindi potrebbe decidere di rimandare la scansione del contenuto o di non effettuarla affatto, oppure potrebbe addirittura non ricevere tutte le informazioni necessarie durante la scansione.
Come verificare e ottimizzare il server
È consigliabile utilizzare strumenti come Google PageSpeed Insights o GTmetrix per valutare le performance del server, ma c’è un grosso problema: queste metriche ti forniscono dati sull’immediato e non su molteplici scansioni.
Qui entra in gioco anche l’esperienza, se nei momenti di picco (anche non eccessivi) noti che il sito è fortemente rallentato o se il tuo backend è lento, allora il sito potrebbe facilmente risultare affaticato agli occhi di Google.
In questo caso: cambia hosting o sali di livello.
Configurazione errata del robots.txt e del tag noindex
Il file robots.txt e il tag noindex possono impedire involontariamente l’indicizzazione delle pagine qualora siano stati mal gestiti.
Verificare il file robots.txt
Controllare che il file robots.txt non contenga direttive di blocco indesiderate come ad esempio:
User-agent: *
Disallow: /pagina-da-bloccare/
Una direttiva errata potrebbe impedire la scansione della pagina desiderata.
Verificare il tag noindex
Il tag HTML noindex segnala esplicitamente ai motori di ricerca di non indicizzare la pagina:
<meta name="robots" content="noindex">
Ovviamente è importante rimuovere questo tag dalle pagine che si desidera indicizzare, ma molto spesso non si è proprio coscienti della sua presenza.
Fatevi aiutare da Screaming Frog nella scansione così da verificare lo stato di indicizzabilità delle pagine.
Rendering JavaScript e contenuti dinamici
Google esegue JavaScript per leggere contenuti dinamici, ma se lo script è troppo lento o complicato, potrebbe non completare il rendering.
Come gestire contenuti JavaScript
Per evitare problemi è consigliabile implementare tecniche di rendering dinamico o SSR (Server-Side Rendering), che permettono a Google di trovare subito contenuti leggibili e completi. Anche l’ordine in cui vengono forniti i vari javascript è importante.
Esempio di uso di SSR:
import { renderToString } from 'react-dom/server';
import App from './App';
const html = renderToString(<App />);
Questa tecnica fornisce direttamente l’HTML completo ai motori di ricerca senza attese.
Gestione errata del crawl budget
Google assegna un budget limitato di scansione a ogni sito. Siti con molte pagine o pagine fittizie o url duplicati o aggiornamenti frequenti potrebbero non vedere tutte le loro pagine indicizzate se il budget viene utilizzato male.
Ottimizzare il crawl budget
Ridurre contenuti duplicati e poco rilevanti, migliorare la struttura interna e monitorare attentamente quali pagine vengono scansionate permette di indirizzare meglio il crawl budget disponibile.
Molto spesso buona parte del crawl budget viene sprecata su contenuti creati per errore, basta anche solo un parametro nell’url. Ricordati che due url con e senza parametro sono comunque url distinti!
https://www.lepuzzette.it/?fbid=gskfjwo4wu9wur
https://www.lepuzzette.it/