OttieniGenie Ai

GetGenie Summer Sale

SU
A
40% Savings

Termina con:

Giorni
Ore
Min
Sez
Sconto ancora disponibile per te
Ottieni il tuo sconto!
Ottieni Genie AI
  • Prodotti
    • ElementsKit
    • ShopEngine
    • MetForm
    • WP Sociale
    • Recensione Wp Ultimate
    • WP Raccolta fondi

    SEO

    Ottimizza i contenuti per i motori di ricerca con analisi predittive

    Ricerca sulle parole chiave Nuovo

    Trova parole chiave pertinenti e non sfruttate in pochi secondi

    Analisi dei concorrenti

    Supera i concorrenti con idee migliori analizzandole

    Analisi testa a testa

    Competere e analizzare in ogni aspetto con il concorrente

    Blog con un clic

    Inserisci le tue parole chiave ed esegui pochi clic per un blog pronto per la SERP

    Scrittura avanzata

    Contenuti personalizzati su misura con processo passo passo

    GenieChat - Ai Chatbot

    Incontra il Chatbot con personalità personalizzabili

    Oltre 37 modelli Ai

    Utilizza i modelli già pronti per generare commenti in pochi secondi.

    Parco giochi del cruscotto

    Un parco giochi per scrivere e SEO facile, pronto per andare ovunque

    Immagine del Genio

    Crea immagini accattivanti con Ai

  • Integrazione
    • WordPress
    • Elementor
    • WooCommerce
    • Costruttore di ossigeno
    • Costruttore di mattoni
    • Terreno di gioco
  • Casi d'uso

    Marketing dei contenuti

    Content marketing semplice con Ai

    Ottimizzazione del motore di ricerca

    SEO basato sull'intelligenza artificiale con parole chiave PNL

    SEO per WooCommerce

    Ottimizza il negozio WooCommerce per il traffico di ricerca

    Contenuti personalizzati

    Inizia a scrivere contenuti personalizzati con Ai

    Copywriting

    Esegui copywriting in massa in meno tempo

    Gestione clienti SEO

    Gestisci i siti dei clienti con un solo abbonamento

    Analisi SERP

    Esegui l'analisi SERP basata su Ai in pochi secondi

  • Risorse
    • 37+Modello
    • Confrontare
    • Blog
    • Tabella di marcia
    • Documentazione
    • Banco di supporto
  • Prezzi
  • it_ITItalian
    • en_USEnglish
    • fr_FRFrench
    • es_ESSpanish
    • de_DEGerman
    • pt_BRPortuguese
    • jaJapanese
  • Login
  • Inizia ora gratuitamente
Login
Inizia gratuitamente

File Robots.txt: cos'è e come ottimizzarlo per la SEO

MoinMoin Aggiornato il: Luglio 28, 2024 Marketing 8 Lettura minima
come ottimizzare il file robots.txt in WordPress

Il file robots.txt viene implementato sul tuo sito Web WordPress per segnalare ai motori di ricerca di eseguire la scansione degli URL, dei file e dei tipi desiderati. Che tu sia un principiante o un utente esperto di WordPress, comprendere lo scopo e l'utilizzo corretto del file robots.txt è fondamentale.

Se puoi indicare a Google o ad altri motori di ricerca quali contenuti sottoporre a scansione, puoi accelerare l'indicizzazione dei tuoi contenuti più pertinenti.

In questa guida impareremo principalmente:

👉 Cos'è il file robots.txt in WordPress?

👉 Come creare il file robots.txt in WordPress?

👉 Come ottimizzare il file robots.txt in WordPress?

👉 Come testare il file robots.txt?

In questo modo puoi migliorare la scansione e l'indicizzazione del tuo sito Web WordPress.

Cos'è un file Robots.txt?

L'aggiunta di un file Robots.txt alla directory principale del sito Web WordPress è una pratica SEO comune che indica ai motori di ricerca quali pagine scansionare e quali ignorare. In generale, i browser web eseguono ricerche in tutte le pagine web disponibili pubblicamente del tuo sito web in un processo noto come scansione.

Quando inserisci un file robots.txt nella directory principale del tuo sito Web WordPress, i motori di ricerca cercano tutti gli URL specificati al suo interno per determinare quali scansionare. Qui, una cosa dovrebbe essere chiara: il file robots.txt non viene utilizzato per scopi di indicizzazione o non indicizzazione. Piuttosto, il file robots.txt aiuta solo i bot dei motori di ricerca a eseguire la scansione delle tue pagine web.

Che aspetto ha Robots.txt?

Vogliamo vedere come appare poiché abbiamo già appreso del file Robots.txt. È un semplice file di testo, non importa quanto è grande un sito web. La maggior parte dei proprietari di siti Web stabilisce alcune regole in base alle proprie esigenze. 

Ecco un esempio di file robots.txt: 

Agente utente: *
Consenti: /?display=wide
Consenti: /wp-content/uploads/
Non consentire: /readme.html
Non consentire: /refer/
Non consentire: /wp-admin/
Consenti: /wp-admin/admin-ajax.php

Mappa del sito: https://www.saasilo.com/post-sitemap.xml
Mappa del sito: https://www.saasilo.com/page-sitemap.xml
Mappa del sito: https://www.saasilo.com/deals-sitemap.xml
Mappa del sito: https://www.saasilo.com/hosting-sitemap.xml

Nel file robots.txt sopra, varie regole stabiliscono quali URL e crawler di file possono o meno accedere al sito web.

Ecco la ripartizione di questo file robots.txt:

Agente utente: applica le seguenti regole a tutti i web crawler.

Consenti: /?display=wide: consente ai crawler di accedere agli URL con ?display=wide nella stringa di query.

Consenti: /wp-content/uploads/: incoraggia i bot dei motori di ricerca a eseguire la scansione di tutti i file e le directory all'interno di /wp-content/uploads/.

Consenti: /wp-admin/admin-ajax.php: consente ai crawler di accedere al file admin-ajax.php all'interno della directory /wp-admin/.

Non consentire: /readme.html: impedisce ai crawler di accedere al file readme.html.

Non consentire: /refer/: impedisce ai crawler di accedere alla directory /refer/ e a tutti i suoi contenuti.

Non consentire: /wp-admin/: impedisce ai crawler di accedere alla directory /wp-admin/ e ai suoi contenuti.

Consenti: /wp-admin/admin-ajax.php: consente ai crawler di accedere al file admin-ajax.php all'interno della directory /wp-admin/.

Mappa del sito: Infine, tutti gli URL collegati alla mappa del sito sono disponibili per la scansione da parte dei bot di ricerca.

Hai bisogno di un file Robots.txt per il tuo sito WordPress?

Ora impareremo l'importanza di un file robots.txt ben configurato per il nostro sito Web WordPress. Ecco alcuni ruoli importanti del file robots.txt per la gestione e l'ottimizzazione delle prestazioni e della visibilità del tuo sito. 

➡️ Controllo sulla scansione: i bot dei motori di ricerca sono abbastanza intelligenti da individuare tutte le pagine o i contenuti pubblici del tuo sito web. Tuttavia, vogliamo mantenere alcune pagine private poiché contengono file amministrativi come le pagine dei plug-in o i file di sistema del tuo sito Web WordPress. Inoltre, l'utilizzo del file robots.txt ti aiuterà a impedire la scansione di queste pagine irrilevanti. 

➡️ Indicizzazione più rapida per la SEO: Come abbiamo già detto, il file robots.txt non facilita direttamente l'indicizzazione delle tue pagine web. Tuttavia, il file robots.txt può comunque velocizzare il processo di indicizzazione. Ciò accade perché rimuovi le pagine non necessarie e irrilevanti dalla scansione.

➡️ Hai bisogno di meno larghezza di banda: i bot dei motori di ricerca non hanno bisogno di navigare in tutto il tuo sito web quando fornisci loro indicazioni su quali aree devono essere sottoposte a scansione. Ridurrà l'utilizzo delle risorse del server e della larghezza di banda. Ciò migliora anche le prestazioni complessive del tuo sito web.

➡️ Nessun problema di contenuto duplicato: Un errore comune e indesiderato dei proprietari di siti Web è la pubblicazione di contenuti duplicati. Illude bot dei motori di ricerca su quali contenuti debbano essere indicizzati o meno. Oppure verranno fraintesi e il contenuto originale potrebbe essere classificato più in basso o punito. L'aggiunta di un file robots.txt può garantire che non venga effettuata l'indicizzazione di più versioni dello stesso contenuto.

➡️ Evita bot e crawler insicuri: Puoi limitare facilmente eventuali crawler di spam o robot di ricerca in un file robots.txt. Migliorerà la sicurezza del tuo sito Web WordPress. Inoltre, puoi anche impedire la scansione delle pagine di amministrazione.

Come creare un file Robots.txt in WordPress?

Ora che abbiamo compreso l'importanza di aggiungere un file robots.txt al nostro sito WordPress, il passo successivo è imparare a crearne uno. Con questo in mente, ti mostreremo due metodi su come creare un file robots.txt nel tuo sito web WordPress.

Metodo 1: creare un file Robots.txt utilizzando il plugin

Il modo più semplice per creare e modificare il file robots.txt è utilizzare un plugin. Vai alla dashboard di WordPress e segui Plugin > Aggiungi nuovo. Ora installa e attiva un plugin SEO come Ottimo SEO O Classifica matematica. 
Vediamo il loro percorso:

🟢 Yoast SEO:

come ottimizzare il file robots.txt su WordPress WordPress

Se utilizzi Yoast SEO, dall'area di amministrazione del tuo WP vai al file Yoast SEO > Strumenti e fare clic Redattore di file, poi "Crea il file Robots.txt” se non hai alcun file robots.txt. Successivamente, ti sposterai alla schermata dell'editor.

come ottimizzare il file robots.txt su WordPress WordPress

Dopo aver modificato o modificato il file robots.txt, premi "Salva modifiche in robots.txt". Questo è tutto.

🟢 Classifica matematica:

come ottimizzare il file robots.txt su WordPress WordPress

Mentre utilizzi il plug-in Rank Math, vai alla dashboard Rank Math nella dashboard di WordPress e fai clic su impostazioni generali. Quindi, seleziona il Modifica robots.txt scheda. Apporta le modifiche e modifica nella schermata robots.txt e premi il pulsante Salvare le modifiche pulsante una volta terminato. 

NB: È necessario eliminare il file robots.txt predefinito dalla cartella principale del sito Web utilizzando il client FTP.

Metodo 2: creare manualmente il file Robots.txt utilizzando FTP

Il processo manuale di aggiunta di un file robots.txt richiede l'accesso all'hosting WordPress utilizzando un client FTP come FileZilla, WinSCP e Cyberduck. Le informazioni di accesso FTP sono disponibili in cPanel. 

Come sai, il file robots.txt deve essere caricato nella cartella principale del sito, quindi non puoi inserirlo in nessuna sottodirectory. 

Puoi anche creare un file robots.txt nel client FTP se non ce n'è. Dal tuo computer locale, apri un semplice editor di testo come Blocco note e inserisci le seguenti direttive:

Agente utente: *
Non consentire: /wp-admin/
Consenti: /wp-admin/admin-ajax.php

Salva questo file come robots.txt. Ora, all'interno del client FTP, cerca il "Upload di file" e carica il file robots.txt nella cartella principale del sito web.

Ora, per aprire il file robots.txt appena creato o quello precedente, fai clic destro su di esso e seleziona "Modificare" opzione. Apporta le modifiche e modifica, quindi premi il pulsante Salva opzione. Ora controlla il tuo file robots.txt aggiungendo il file robots.txt dopo il tuo nome di dominio. Ad esempio, tuodominio.com/robots.txt.

Come ottimizzare il file robots.txt di WordPress per la SEO

Ora che sappiamo come creare e modificare un file robots.txt su un sito WordPress, concentriamoci sulle migliori pratiche per ottimizzare il file robots.txt per il tuo sito WordPress.

✅ Crea un file conciso

L'aggiunta di un semplice file robots.txt aiuta i bot del crawler a comprendere facilmente le tue direttive, in modo da consumare meno risorse. Inoltre, puoi evitare eventuali rischi indesiderati derivanti da conflitti o errori. 

✅ Escludi directory e file WP

Non dovremmo lasciare che determinati file e directory vengano scansionati dai robot di ricerca poiché queste aree contengono informazioni essenziali e sensibili. Quando escludi questi collegamenti dal file robots.txt, i robot di ricerca non visiteranno queste aree del tuo sito web. Pertanto, puoi garantire un utilizzo ottimale delle risorse di scansione.

Conosciamo alcune delle directory e dei file WP:

/wp-admin/ E /wp-include/: Queste directory possono dare accesso all’area di amministrazione e ai file principali che fanno funzionare l’intero sito Web WordPress, il che può rappresentare una minaccia per la sicurezza. Se i robot di ricerca scansionano queste aree, può rappresentare una minaccia cruciale per la sicurezza. Quindi, dobbiamo aumentare le direttive Disallow.

Non consentire: /wp-admin/
Non consentire: /wp-include/

Pagina di login: Un'altra importante misura di sicurezza è deindicizzare la pagina di accesso. Per interrompere la scansione:

Non consentire: /wp-login.php

leggimi.html: La pagina Leggimi può rivelare informazioni cruciali come l'attuale versione WordPress del tuo sito web a potenziali hacker. Quindi considera anche la deindicizzazione.

Non consentire: /readme.html

Pagine di tag e categorie: queste pagine sprecano budget di scansione a causa della loro irrilevanza per le query di ricerca e confondono i motori di ricerca con contenuti duplicati.

Non consentire: /tag/
Non consentire: /categoria/

risultati di ricerca: Il motivo di cui sopra si applica anche alle pagine dei risultati di ricerca interni.

Non consentire: /cerca/

Collegamenti di riferimento: I programmi di affiliazione producono anche link di riferimento che non necessitano di essere sottoposti a scansione.

Non consentire: /refer/

✅ Inserisci il link alla mappa del sito

In genere, gli utenti di WordPress inviano la propria mappa del sito agli account Google Search Console o Bing Webmaster Tools per monitorare analisi e dati sulle prestazioni. Tuttavia, l'aggiunta di una mappa del sito al file robots.txt può aiutare i crawler a scoprire il contenuto del tuo sito web.

La mappa del sito aiuterà il tuo sito web a indicizzarsi più velocemente poiché i motori di ricerca possono navigare facilmente nella struttura e nella gerarchia del tuo sito web. Puoi definire le pagine a cui vuoi dare la priorità per la scansione. Un altro aspetto positivo è che una mappa del sito può guidare i crawler verso gli ultimi aggiornamenti sul tuo sito web.

✅ Uso efficace dei caratteri jolly

I caratteri jolly sono la tua arma efficace per definire regole basate su modelli che consentono ai motori di ricerca di bloccare o accedere a un gruppo di URL o tipi di file specifici. In questo modo non è necessario limitare più pagine separatamente impiegando molto tempo.

I caratteri jolly sono caratteri specializzati come Asterisco (*) E Segno del dollaro ($). Descriviamoli:

Asterisco (*): Il carattere jolly più comune è l'asterisco (*), che applica le regole in generale per un gruppo o URL o tipi di file con corrispondenza di pattern specifici.

Agente utente: * Disallow: /

Il codice riportato sopra impedisce a qualsiasi motore di ricerca di eseguire la scansione di qualsiasi parte del sito web. 
Segno del dollaro ($): Ciò indica la fine dell'URL, quindi puoi consentire o bloccare qualsiasi URL che includa un termine specifico come "PDF”.

Agente utente: *
Non consentire: /*.jpg$
Non consentire: /*.docx$

Tu puoi essere più strategico utilizzando i caratteri jolly. Ad esempio, puoi bloccare o consentire:
Directory specifiche: Bloccherà qualsiasi URL che inizia con /private/, inclusi eventuali file o sottodirectory al suo interno.

Agente utente: *
Non consentire: /privato/

URL con parametri specifici: Bloccherà tutti gli URL che contengono l'ordinamento dei parametri di query, come /category/?pdf=asc.

Agente utente: *
Non consentire: /*.pdf$

Modelli specifici: Bloccherà tutti gli URL che includono la parola "checkout", come /prodotto/checkout o /carrello/checkout.

Agente utente: *
Non consentire: /*checkout

Consentire file o directory specifici all'interno di directory bloccate: Bloccherà tutti gli URL in /wp-admin/ ad eccezione di admin-ajax.php

Agente utente: *
Non consentire: /wp-admin/
Consenti: /wp-admin/admin-ajax.php

✅ Usa i commenti

Per migliorare la leggibilità e la chiarezza del tuo file robots.txt puoi aggiungere commenti. Questo viene fatto utilizzando un cancelletto (#) all'inizio della riga che desideri aggiungere come commento.

✅ Monitorare il comportamento di scansione

Controlla se sono presenti problemi di scansione e indicizzazione dopo aver inviato il file robots.txt utilizzando gli strumenti dei motori di ricerca come Google Search Console o Bing Webmaster Tools. 

✅ Specifica le regole per i bot di ricerca

Alcuni esperti hanno inoltre affermato che una strategia efficace consiste nel creare regole diverse per i diversi bot dei motori di ricerca nei file robots.txt. Specificare in che modo ciascun bot accederà e scansionerà il tuo sito web ti aiuterà a costruire il tuo strategia dei contenuti e ottimizzazione prestazione.

✅ Prendi in considerazione le versioni mobile e AMP

Allo stesso modo, puoi modificare e adattare le direttive del tuo file robots.txt per le versioni mobili e AMP. 

✅ Aggiorna il tuo file Robots.txt

Tuttavia, creare un file robots.txt è il tuo compito quando inizi a creare il tuo sito Web WordPress. Tuttavia, devi cercare frequentemente eventuali modifiche nella struttura del tuo sito web e negli aggiornamenti dell'algoritmo del motore di ricerca in modo da poter aggiornare il file robots.txt.

✅ Non fare esperimenti 

Il file robots.txt fa parte della directory principale del sito Web WordPress. Quindi, non dovresti fare alcun esperimento con esso. Per qualsiasi dubbio, chiedi l'aiuto di un esperto o conserva un semplice file robots.txt.

✅ Controllo finale

Prima di caricare o modificare il file robots.txt, devi assicurarti di aver effettuato un controllo finale.

Come testare il file Robots.txt

Fino a questo punto, hai imparato come modificare e ottimizzare il file robots.txt sul tuo sito Web WordPress. Tuttavia, questa conoscenza non è completa senza capire come testarla. I test sono fondamentali per garantire che i bot dei motori di ricerca eseguano la scansione del tuo sito in modo accurato.

Un metodo principale è utilizzare il file strumento di test robots.txt nella Google Search Console. Questo strumento verifica se Google sta eseguendo la scansione del tuo sito web secondo le direttive specificate.

Ora, se il tuo sito web viene aggiunto a Google Search Console, accedi ad esso. Seleziona il tuo sito web sotto “Seleziona una proprietà”. Lo strumento inizierà a recuperare il file robots.txt del tuo sito web.

Dopo la verifica, lo strumento di test robots.txt menzionerà tutti gli errori e gli avvisi di sintassi. Pertanto, dovrai risolverli e inviare nuovamente il file robots.txt.

Incartare!

Comprendere e ottimizzare il file robots.txt è una parte cruciale della SEO tecnica e della gestione efficace del sito web. Ci auguriamo che questa guida completa su come ottimizzare il file robots.txt di WordPress per la SEO. 

Ora puoi configurare facilmente quali parti del tuo sito web devono essere scansionate dai motori di ricerca. Nel complesso, noterai un miglioramento nell'efficienza dell'indicizzazione del sito e nelle prestazioni generali. 

  • Condividi questo:

Incontrare l'automazione con l'intelligenza artificiale: implementazione, vantaggi e sfide

Messaggio precedente

I 5 migliori generatori vocali AI e strumenti di sintesi vocale da considerare

Prossimo articolo

lascia un commento cancella risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

GetGenie.ai scrive e ottimizza SEO i tuoi contenuti mentre tu ti concentri sul raggiungimento della grandezza!

Risorse

  • Di
  • programma affiliato
  • Confrontare
  • Blog
  • Tabella di marcia
  • Offerte a tempo limitato
  • Carriera - Stiamo assumendo!

Azienda

  • Centro assistenza
  • Politica di affiliazione
  • politica sulla riservatezza
  • Politica di rimborso
  • Termini & Condizioni
  • Guida ed esercitazioni
  • Contatto

Confrontare

  • GetGenie Ai contro Jasper
  • GetGenie Ai contro Copy.AI
  • GetGenie Ai contro Rytr
  • GetGenie Ai contro Writesonic

Notiziario

Inserendo la tua email accetti la nostra Termini & Condizioni E politica sulla riservatezza.

Guadagnare 30% A vita Commissione come affiliato!

Unisciti oggi

Italiano: Ottieni Genie. Tutti i diritti riservati.

Trovaci su
Icona Twitter X
en_US English
en_US English
de_DE German
es_ES Spanish
it_IT Italian
fr_FR French
da_DK Danish
pt_BR Portuguese
sv_SE Swedish
pl_PL Polish
ko_KR Korean
ja Japanese