SEM

31 Jan
SEM
par Anne Lise
31 Jan
SEM
par Anne Lise

Gestion des sitemaps sur le Google Webmaster Tool et taille de fichiers robots : les dernières actus référencement

Chaque semaine dévoile son lot de petites ou grosses infos en matière de référencement, petit florilège d’infos utiles pour cette semaine. Parmi les infos du moment, Google Webmaster Tool améliore sa gestion des sitemaps et un rappel de Google sur les fichiers robots.

Le sitemap xml est un plan de site qui permet de cartographier un site et ses différentes urls. Généré au format XML, le sitemap est un outil qui peut faciliter l’indexation des pages d’un site. Il peut aussi vous indiquer d’éventuelles erreurs dans la construction de l’architecture de votre site. A la racine du site, le sitemap est lu par les moteurs de recherche, mais ils peuvent aussi être directement soumis à Google et géré via un compte Google Webmaster Tool.

Afin d’améliorer la gestion de ces sitemaps, le Google Webmaster Tool, propose depuis peu un visuel graphique qui présente les nombres d’urls identifiées dans les sitemaps et celles réellement indexées par les moteurs. Une simple interprétation graphique des chiffres que Google Webmaster Tool fournissaient déjà auparavant. Néanmoins, Google a indiqué que cette nouvelle version propose également des statistiques selon le format des urls soumises (web, images, vidéos ou actualités) et les éventuelles erreurs seront affichées de manière plus claire.
Autre amélioration du Google Webmaster Tool, toujours en lien avec la soumission de sitemaps : il est désormais possible de tester son sitemap avant de le soumettre aux moteurs de recherche. Grâce au bouton « Ajouter/Tester votre sitemap » il est possible de proposer l’url du fichier sitemap et éviter de soumettre ensuite un fichier erroné qui pourrait empêcher l’indexation de certaines pages du site.

Enfin, John Mueller, analyste chez Google en Suisse, rappelle sur son profil Google +, que le moteur de recherche ne lit que les 500 premiers kilo-octets des fichiers robots.txt. Ce fichiers qui permet d’indiquer aux robots notamment des redirections ou d’éventuelles pages à ne pas indexer n’est pas sensé être très lourd de toute façon. A moins d’un site très spécial, cette limite ne doit pas être atteinte par la plupart des sites et si c’est le cas, interrogez-vous ou interrogez un professionnel du référencement naturel !

• Publié dans SEM •

À propos de Anne Lise

Chef de projet, a fait du SEO, de l’éditorial web et de la veille ses spécialités. @barbie_geekette veille au quotidien sur l’actu du web.

écrire un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *


*