Indicizzazione delle pagine bloccata dal File Robots e altri casi di blocco.

Indicizzazione delle pagine bloccata dal File Robots e altri casi di blocco.

  • Seo
  • 6 settembre 2024
Indice dei contenuti

L’indicizzazione delle pagine web è fondamentale per la visibilità e il posizionamento sui motori di ricerca. Tuttavia, ci sono vari motivi per cui le pagine del tuo sito potrebbero non essere indicizzate. In questo articolo, esploreremo i casi più comuni in cui le pagine vengono bloccate dall’indicizzazione, inclusi i blocchi tramite robots.txt, noindex, nofollow e X-Robots-Tag, e come risolvere questi problemi. Come consulente SEO mi capita spesso di trovare nei report di scansione questi alert.

Blocco tramite robots.txt

Il file robots.txt è un file situato nella directory principale del tuo sito web che indica ai motori di ricerca quali pagine o sezioni del sito non devono essere esplorate. Questo strumento è utile per gestire l’accesso dei crawler ai contenuti del sito.

Se il file robots.txt contiene direttive come “Disallow: /”, stai impedendo ai motori di ricerca di accedere all’intero sito. Direttive più specifiche come “Disallow: /cartella/” bloccano solo una sezione del sito. Anche se questo file non impedisce direttamente l’indicizzazione, impedisce ai crawler di accedere e, quindi, di indicizzare le pagine bloccate.

Per consentire l’indicizzazione delle pagine, assicurati che le direttive nel file robots.txt non bloccano inavvertitamente le pagine che desideri indicizzare. Verifica il file robots.txt utilizzando strumenti come Google Search Console per assicurarti che le pagine importanti non siano escluse.

Può succedere che in fase di realizzazione o test di un sito o di una singola pagina si metta nel file robots.txt un blocco e poi ci si dimentichi di toglierlo! Quindi attenzione.

Blocco tramite noindex

Il meta tag “noindex” è un elemento HTML che viene inserito all’interno dell’intestazione di una pagina web e istruisce i motori di ricerca a non indicizzare quella pagina. Quando un motore di ricerca trova il meta tag “noindex” in una pagina, questa non verrà inclusa nei risultati di ricerca. Questo è utile per contenuti temporanei o per pagine che non vuoi che appaiano nei risultati di ricerca.

Per permettere l’indicizzazione, rimuovi il meta tag “noindex” dall’intestazione delle pagine che desideri indicizzare. Assicurati che le pagine importanti non abbiano questo tag impostato accidentalmente.

Blocco tramite nofollow

Il meta tag “nofollow” viene utilizzato per indicare ai motori di ricerca di non seguire i link presenti nella pagina, evitando che passino “link juice” ad altre pagine. Anche se “nofollow” non impedisce direttamente l’indicizzazione di una pagina, può influenzare negativamente la scoperta di altre pagine se utilizzato in modo errato. Ad esempio, se una pagina importante ha un meta tag “nofollow”, i motori di ricerca potrebbero non scoprire e indicizzare i link contenuti in essa.

Verifica se il tag “nofollow” è presente nelle pagine che desideri indicizzare e rimuovilo se necessario. Assicurati che le pagine che devono essere scoperte e indicizzate non abbiano restrizioni inappropriate.

Blocco tramite X-Robots-Tag

L’X-Robots-Tag è un’intestazione HTTP utilizzata per controllare l’indicizzazione e il comportamento dei motori di ricerca su una pagina. Funziona in modo simile al meta tag “noindex”, ma viene applicato a livello di server. Se l’X-Robots-Tag è impostato su “noindex”, impedisce l’indicizzazione della pagina anche se altre parti della pagina sono configurate per consentirlo.

Controlla le intestazioni HTTP delle tue pagine web utilizzando strumenti di analisi come Google Search Console o strumenti di sviluppo del browser. Rimuovi l’intestazione X-Robots-Tag se desideri che la pagina venga indicizzata.

Conclusioni

Per verificare eventuali blocchi presenti nel file Robots potete entrare con Filezilla e visionare il file. Comprendere i diversi modi in cui le pagine possono essere bloccate dall’indicizzazione è fondamentale per garantire che il tuo sito web venga visualizzato correttamente nei risultati di ricerca. Controlla regolarmente il file robots.txt, i meta tag “noindex” e “nofollow”, e le intestazioni X-Robots-Tag per assicurarti che le pagine importanti siano accessibili e indicizzabili. Con queste pratiche, puoi migliorare la visibilità del tuo sito web e ottimizzare la tua presenza online.


Graziano De Maio - Web Developer e SEO Specialist

Autore: Graziano De Maio

Web developer e SEO specilalist. Sono un consulente Seo – Web designer – Creo e fornisco assistenza su siti con Joomla e WordPress, sviluppo ecommerce con Woocommerce. Svolgo corsi Seo, Web Marketing, Joomla e WordPress di gruppo e one-to-one in azienda.