File Robots con errorino 
Autor: Alberto B.
Visitado 226,
Followers 2,
Compartido 0
Ciao a tutti
ho notato che il file robots.txt che genera website ver.1.7 genera automaticamente due volte ladichiarazione della sitemap.
Ho provato a cancellarlo e riscriverlo ma il risultato è lo stesso, questo:
User-agent: *
Disallow: /admin
Disallow: /captcha
Disallow: /menu/
Disallow: /lang8/
Publicado en
Buongiorno Alberto,
al momento quindi in quest'area il testo presente ha una sola volta la dicitura Sitemap: https://www.microtronics.it/sitemap.xml tuttavia nel file risulta raddoppiato, corretto?
Autor
ho provato a cancellarlo e rifarlo, ma l'ultima riga -> Sitemap: https://www.microtronics.it/sitemap.xml viene duplicata, nell'esempio che ti ho messo è un copia-incolla del file robots.tx generato, mentre su website cè nè una sola ovviamente...
non so dove potrebbe influire... alcuni programmi di terze parti che fanno correzioni SEO mi segnalano l'errore !
Buongiorno,
verificando il file in sé all'indirizzo https://www.microtronics.it/robots.txt ma i suoi contenuti sembrerebbero corrispondere a quanto hai inserito nel programma, quindi non viene generata una riga duplicata rispetto a quanto impostato in quella sezione.
Che strumenti segnalano questo? La Search Console mostra anch'essa avvisi a riguardo?
Autor
Perchè l'ho corretto io, ora ho riesportato è ce nè sono 2...
Buongiorno,
ho verificato la generazione del file robots.txt: se si attiva la creazione automatica della sitemap esso includerà automaticamente la riga che fa riferimento a essa, non serve quindi aggiungerla manualmente nel riquadro sottostante.
Autor
Ok grazie Eric, quindi non è un errore, ma e website che lo aggiunge automaticamente...