Que dois je faire ?
Autore: Lepoint D.
Visite 1069,
Followers 1,
Condiviso 0
Au cours des 24 dernières heures, Googlebot a rencontré 2 erreurs en tentant d'accéder au fichier robots.txt. Pour éviter d'explorer les pages répertoriées dans ce fichier, nous avons reporté notre exploration. Le taux d'erreurs liées au fichier robots.txt à l'échelle de votre site est de 100.0 %.
Postato il
Salut Lepoint,
As-tu créé le Sitemap de ton site (Paramètres Généraux, Onglet "Avancées") ?
Extrait de la documentation de la V8 :
Le SiteMap est un fichier XML qui contient la liste des pages d'un site. La création et l'envoi d'un SiteMap permet de s'assurer qu'un Moteur de recherche, dans notre cas Google, connaisse toutes les pages présentes dans un site, y compris les URL qui ne peuvent pas être déterminés à travers la procédure normale de scanning. Le SiteMap peut contenir aussi des informations supplémentaires comme la fréquence de mise à jour et l'importance des pages d'un site ; il assure un meilleur et plus rapide scanning d'un site de la part des moteurs de recherche.
Pour que WebSite X5 crée le SiteMap du site, il faut activer l'option Créer automatiquement le SiteMap présente dans la section Expert de la fenêtre Paramètres généraux.
Copie écran jointe...
Un peu de lecture aussi ici :
https://support.google.com/webmasters/answer/156184
https://support.google.com/webmasters/answer/182072?hl=fr
@+, J.P.