Robots.txt

Inserisci un sito web sopra per iniziare.

Per indicare ai robot dei motori di ricerca (come Google) quali pagine di un dominio possono essere scansionate, i webmaster inseriscono un file robots.txt. È possibile utilizzare il nostro strumento gratuito per la generazione del file robots.txt per verificare se il vostro sito web ha un file robots.txt. Il file robots.txt potrebbe contenere un link a una sitemap XML.

Il file robots.txt del vostro sito web è la prima cosa che i bot dei motori di ricerca trovano prima di iniziare il crawling. Di conseguenza, vedranno le istruzioni su quali pagine del sito web la console del motore di ricerca può indicizzare e quali no.

È possibile controllare le preferenze di crawling e indicizzazione per i bot dei motori di ricerca con questo semplice file. Inoltre, per verificare se il file Robots.txt è impostato sul vostro sito web, potete utilizzare il nostro strumento gratuito Robots.txt Tester, facile da usare. Questo articolo mostra come utilizzare il programma per convalidare un file e perché dovreste utilizzare uno strumento di controllo per Robots.txt sul vostro sito web.

Casi in cui è necessario lo strumento di controllo per Robots.txt

I problemi del file Robots.txt, o la sua assenza, possono danneggiare il posizionamento nei motori di ricerca. Nelle SERP, potreste scendere nelle classifiche. È possibile prevenire i problemi di crawling analizzando questo file e il suo significato prima di consentire a un crawler di accedere al sito web.

Inoltre, si può evitare di aggiungere il contenuto del proprio sito web alle pagine di esclusione dell'indice che non si desidera siano sottoposte a crawling. Utilizzate questo file per limitare l'accesso a pagine specifiche del sito web. Se il file è vuoto, SEO-crawler potrebbe segnalare un errore Robots.txt not Found.

Per generare i file si può utilizzare un semplice editor di testo. Innanzitutto, inserire la direttiva di blocco, come prohibit o noindex, e definire l'agente personalizzato per eseguire l'istruzione. In seguito, elencare gli URL a cui viene limitato il crawling. Assicurarsi che il file sia accurato prima di eseguirlo. Googlebot potrebbe ignorare le istruzioni di convalida anche se c'è un piccolo errore ortografico.

Come utilizzare il nostro strumento di controllo robot.txt

Per utilizzare il nostro strumento gratuito di controllo robot.txt è sufficiente eseguire le seguenti operazioni:

  1. Visitare la nostra pagina web https://strumenti-seo.it/strumenti
  2. Selezionare lo strumento di controllo per robot.txt
  3. Scrivete l'indirizzo web del sito di cui volete verificare il robot.txt nell'apposito campo e premete il pulsante di invio.

È tutto, avete fatto tutto quello che vi serve, il resto lo facciamo noi. I nostri crawler troveranno il sito web ed effettueranno tutti i controlli. In pochi secondi i risultati saranno visibili sullo schermo.

Come dovrebbero apparire i risultati

I risultati della scansione includono:

  1. Il tipo di crawler (Google / Bing ecc.). Il nostro sistema è un passo avanti rispetto alla ad altri più datati e cercherà automaticamente con tutti i principali motori di ricerca e vi darà un risultato combinato che verrà mostrato come "Tutti" sotto il nome del Crawler.
  2. Le regole applicate (cosa è consentito e cosa no).
  3. Se il sito web ha una sitemap e l'indirizzo web per raggiungerlo.

Ecco un esempio dell'output che vi verrà fornito:

User-agent: *
Disallow: /wp-admin/  (indica la directory del sito a cui i crawlers non sono invitati a scansionare)
Allow: /wp-admin/admin-ajax.php (indica la directory o il folder al quale i crawlers possono accedere)

Sitemap: https://tuttoyoutube.it/sitemap.xml (indica la presenza di una sitemap)

Differenza tra una Sitemap e un file Robots.Txt

Al fine di evitare confusione, ecco una rapida spiegazione di cosa sia una sitemap rispetto a un file robot.txt

Ogni sito web ha bisogno di una sitemap perché contiene informazioni che i motori di ricerca possono utilizzare.

Una sitemap informa i bot sul tipo di materiale offerto dal sito e sulla frequenza di aggiornamento. Il file robots.txt è destinato ai crawler, ma il suo scopo principale è quello di informare i motori di ricerca su tutte le pagine del sito che devono essere scansionate.

I crawler vengono istruiti su quali pagine devono essere carrellate e quali no. A differenza del file di testo del robot, per ottenere l'indicizzazione del sito è necessaria una sitemap (supponendo che non ci siano pagine che non devono essere indicizzate).


Strumenti-seo.it è un progetto realizzato da backlink-boss.it. Tutti gli strumenti disponibili sono 100% gratuiti. Ne è vietata la copia, anche parziale, previo autorizzazione.